JP5912289B2 - Information processing program, information processing apparatus, information processing system, and information processing method - Google Patents
Information processing program, information processing apparatus, information processing system, and information processing method Download PDFInfo
- Publication number
- JP5912289B2 JP5912289B2 JP2011115403A JP2011115403A JP5912289B2 JP 5912289 B2 JP5912289 B2 JP 5912289B2 JP 2011115403 A JP2011115403 A JP 2011115403A JP 2011115403 A JP2011115403 A JP 2011115403A JP 5912289 B2 JP5912289 B2 JP 5912289B2
- Authority
- JP
- Japan
- Prior art keywords
- display device
- axis
- movement
- predetermined
- portable display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 121
- 238000003672 processing method Methods 0.000 title claims description 8
- 230000033001 locomotion Effects 0.000 claims description 221
- 230000001133 acceleration Effects 0.000 claims description 92
- 230000008859 change Effects 0.000 claims description 57
- 230000005484 gravity Effects 0.000 claims description 40
- 238000004364 calculation method Methods 0.000 claims description 23
- 230000004044 response Effects 0.000 claims description 10
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 claims description 7
- 240000004050 Pentaglottis sempervirens Species 0.000 claims description 6
- 230000006837 decompression Effects 0.000 claims description 4
- 238000002347 injection Methods 0.000 description 139
- 239000007924 injection Substances 0.000 description 139
- 238000000034 method Methods 0.000 description 81
- 238000004891 communication Methods 0.000 description 70
- 238000012545 processing Methods 0.000 description 67
- 230000008569 process Effects 0.000 description 62
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 60
- 239000003550 marker Substances 0.000 description 41
- 238000001514 detection method Methods 0.000 description 24
- 230000006870 function Effects 0.000 description 23
- 239000013598 vector Substances 0.000 description 23
- 230000003287 optical effect Effects 0.000 description 19
- 238000010586 diagram Methods 0.000 description 18
- 238000003384 imaging method Methods 0.000 description 17
- 230000005540 biological transmission Effects 0.000 description 16
- 238000007906 compression Methods 0.000 description 14
- 230000006835 compression Effects 0.000 description 13
- 230000009471 action Effects 0.000 description 12
- 210000003811 finger Anatomy 0.000 description 8
- 239000000872 buffer Substances 0.000 description 7
- 230000005389 magnetism Effects 0.000 description 5
- 238000003780 insertion Methods 0.000 description 4
- 230000037431 insertion Effects 0.000 description 4
- 238000009434 installation Methods 0.000 description 4
- 230000005236 sound signal Effects 0.000 description 4
- CZZAPCPWFCGOCC-GHXNOFRVSA-N (5z)-2-amino-5-[[5-(2-nitrophenyl)furan-2-yl]methylidene]-1,3-thiazol-4-one Chemical compound S1C(N)=NC(=O)\C1=C\C1=CC=C(C=2C(=CC=CC=2)[N+]([O-])=O)O1 CZZAPCPWFCGOCC-GHXNOFRVSA-N 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000012937 correction Methods 0.000 description 3
- 230000003111 delayed effect Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000010137 moulding (plastic) Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000005401 electroluminescence Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 210000004247 hand Anatomy 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000003313 weakening effect Effects 0.000 description 2
- 235000015842 Hesperis Nutrition 0.000 description 1
- 241000238631 Hexapoda Species 0.000 description 1
- 235000012633 Iberis amara Nutrition 0.000 description 1
- 206010034719 Personality change Diseases 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 230000008094 contradictory effect Effects 0.000 description 1
- 238000013144 data compression Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 238000010304 firing Methods 0.000 description 1
- 230000004907 flux Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000000465 moulding Methods 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 230000002829 reductive effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Landscapes
- Position Input By Displaying (AREA)
Description
本発明は、情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法に関し、特に例えば、表示装置の姿勢および/または動きに基づいた処理を行う情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法に関する。 The present invention relates to an information processing program, an information processing apparatus, an information processing system, and an information processing method, and in particular, for example, an information processing program, an information processing apparatus, and an information processing system for performing processing based on the attitude and / or movement of a display device And an information processing method.
従来、ユーザが移動携帯端末(携帯型ゲーム装置)を把持して操作し、実空間における当該移動携帯端末の姿勢や位置に応じてイベントが実行されるゲームがある(例えば、特許文献1参照)。上記特許文献1に記載された移動携帯端末は、実空間における当該移動携帯端末の位置や姿勢を検出するセンサを備えており、当該端末のユーザは、移動携帯端末自体を動かしたり移動携帯端末自体の姿勢を変えたりしながらゲームを進める。例えば、上記移動携帯端末は、実空間における移動携帯端末の姿勢に応じて、移動携帯端末の表示画面に表示された画像をスクロールさせる。そして、移動携帯端末の表示画面中央にスコープが表示され、当該スコープ内に仮想オブジェクト(例えば、虫オブジェクト)が入った状態で移動携帯端末の所定ボタンが押下されると、当該スコープ内に仮想オブジェクトが捕獲されたとみなされる。 Conventionally, there is a game in which a user grips and operates a mobile portable terminal (portable game device), and an event is executed according to the posture and position of the mobile portable terminal in real space (see, for example, Patent Document 1). . The mobile portable terminal described in Patent Document 1 includes a sensor that detects the position and orientation of the mobile mobile terminal in real space, and the user of the terminal moves the mobile mobile terminal itself or moves the mobile mobile terminal itself. Proceed with the game while changing the attitude. For example, the mobile mobile terminal scrolls the image displayed on the display screen of the mobile mobile terminal according to the attitude of the mobile mobile terminal in real space. Then, when a scope is displayed in the center of the display screen of the mobile portable terminal and a predetermined button of the mobile portable terminal is pressed in a state where a virtual object (for example, insect object) is entered in the scope, the virtual object is displayed in the scope. Is considered captured.
しかしながら、上記特許文献1で開示された移動携帯端末は、当該移動携帯端末自体の姿勢によって画像をスクロールさせて、移動携帯端末の表示画面中央に固定的に表示されたスコープ内に仮想オブジェクトを入れるように操作する。したがって、画像のスクロールによって常に仮想世界とスコープとの位置関係が変化してしまうため、ユーザが仮想世界とスコープとの位置関係を保持した状態で移動携帯端末自体の姿勢によって画像をスクロールすることができない。つまり、ユーザは、仮想世界の他の方向を見ようとした場合、必ずスコープも移動してしまうため、操作が画一的になってしまい操作のリアリティや面白みが薄れてしまうことが考えられる。 However, the mobile portable terminal disclosed in Patent Document 1 scrolls an image according to the attitude of the mobile portable terminal itself, and puts a virtual object in a scope fixedly displayed at the center of the display screen of the mobile portable terminal. Operate as follows. Therefore, since the positional relationship between the virtual world and the scope always changes due to the scrolling of the image, the user may scroll the image according to the attitude of the mobile mobile terminal itself while maintaining the positional relationship between the virtual world and the scope. Can not. In other words, when the user tries to look in the other direction of the virtual world, the scope always moves, so that the operation becomes uniform, and the reality and fun of the operation may be reduced.
それ故に、本発明の目的は、仮想世界に登場するオブジェクトおよび当該仮想世界の画像を生成する仮想カメラを、当該仮想カメラが生成する画像を表示する表示装置の姿勢および/または動きによって制御する際、表示装置の姿勢および/または動きによるユーザ操作を多様にすることが可能となる情報処理プログラム、情報処理システム、および情報処理方法を提供することである。 Therefore, an object of the present invention is to control an object appearing in a virtual world and a virtual camera that generates an image of the virtual world by controlling the attitude and / or movement of a display device that displays the image generated by the virtual camera. Another object of the present invention is to provide an information processing program, an information processing system, and an information processing method capable of diversifying user operations depending on the posture and / or movement of a display device.
上記目的を達成するために、本発明は例えば以下のような構成を採用し得る。なお、特許請求の範囲の記載を解釈する際に、特許請求の範囲の記載によってのみその範囲が解釈されるべきであることが理解され、特許請求の範囲の記載と本欄の記載とが矛盾する場合には、特許請求の範囲の記載が優先する。 In order to achieve the above object, the present invention may employ the following configuration, for example. When interpreting the description of the claims, it is understood that the scope should be interpreted only by the description of the claims, and the description of the claims and the description in this column are contradictory. In that case, priority is given to the claims.
本発明の情報処理プログラムの一構成例は、可搬型表示装置本体の姿勢および/または動きに応じたデータを少なくとも出力する当該可搬型表示装置に、画像を表示することが可能な情報処理装置のコンピュータで実行される。情報処理プログラムは、方向判定手段、オブジェクト動作制御手段、第1仮想カメラ動作制御手段、および表示制御手段として、コンピュータを機能させる。方向判定手段は、可搬型表示装置から出力されるデータに基づいて、可搬型表示装置に設定された所定軸の方向が所定範囲内にあるか否かを判定する。オブジェクト動作制御手段は、所定軸の方向が所定範囲内にあると判定された場合、当該所定軸の方向に応じて仮想世界に配置されたオブジェクトの動作を制御する。第1仮想カメラ動作制御手段は、所定軸の方向が所定範囲内または所定範囲外にある場合、所定軸の方向に応じて仮想世界の画像を生成するための第1仮想カメラの動作を制御する。表示制御手段は、第1仮想カメラから見た仮想世界を示す第1画像を可搬型表示装置に表示する。 One configuration example of the information processing program of the present invention is an information processing apparatus capable of displaying an image on the portable display device that outputs at least data according to the attitude and / or movement of the portable display device body. Run on computer. The information processing program causes the computer to function as direction determination means, object motion control means, first virtual camera motion control means, and display control means. The direction determining means determines whether the direction of the predetermined axis set in the portable display device is within a predetermined range based on data output from the portable display device. When it is determined that the direction of the predetermined axis is within the predetermined range, the object movement control unit controls the movement of the object arranged in the virtual world according to the direction of the predetermined axis. The first virtual camera operation control means controls the operation of the first virtual camera for generating an image of the virtual world according to the direction of the predetermined axis when the direction of the predetermined axis is within the predetermined range or outside the predetermined range. . The display control means displays a first image indicating the virtual world viewed from the first virtual camera on the portable display device.
なお、上記情報処理装置は、ゲーム処理を実行して当該ゲーム処理に基づいた画像を生成する装置であってもいいし、一般的なパーソナルコンピュータのような多用途の装置であってもよい。上記可搬型表示装置は、ユーザによって持ち運び可能なサイズであればよく、典型的にはユーザが両手で把持した姿勢で当該可搬型表示装置に表示される画像を視認できるような表示装置であってもよい。また、上記可搬型表示装置は、後述する実施形態における端末装置のように、可搬型表示装置本体の姿勢および/または動きに応じたデータを少なくとも出力する手段および第1画像を表示する手段以外の他の構成を備えていてもよいし、備えていなくてもよい。 The information processing apparatus may be an apparatus that executes a game process and generates an image based on the game process, or may be a versatile apparatus such as a general personal computer. The portable display device may be a size that can be carried by a user, and is typically a display device that allows a user to visually recognize an image displayed on the portable display device in a posture held by both hands. Also good. Further, the portable display device is a device other than a means for outputting at least data corresponding to the attitude and / or movement of the portable display device body and a means for displaying the first image, like a terminal device in an embodiment described later. Other configurations may or may not be provided.
上記によれば、ユーザが所定範囲内で可搬型表示装置を用いた操作を行った場合、オブジェクトおよび第1仮想カメラの動作が、当該可搬型表示装置の所定軸の方向に応じて制御される。したがって、ユーザが所定範囲内で可搬型表示装置を用いた操作を行った場合、当該操作によって可搬型表示装置に表示する仮想世界を生成するための第1仮想カメラの視線方向だけでなく、当該仮想世界に配置されているオブジェクトの動作も制御することができるため、オブジェクトの動作を変化させる操作やLCD61に表示される表示範囲を変えたりするために好適な操作となる。一方、ユーザが所定範囲外での可搬型表示装置を用いた操作を行った場合、第1仮想カメラの視線方向のみを、当該可搬型表示装置の姿勢や動きに応じて変化させる。したがって、所定範囲外での可搬型表示装置を用いた操作は、オブジェクトの動作をそのままにして可搬型表示装置に表示される表示範囲のみを変えるために好適な操作となる。このように、少なくとも1つの所定範囲を設定することによって、ユーザが様々な操作を1つのデバイスの姿勢や動きによって行うことが可能となる。また、ユーザが可搬型表示装置を用いた操作を所定範囲外で行った場合、第1仮想カメラの視線方向のみが変化するため、可搬型表示装置を用いた操作がオブジェクトを動作させることができない範囲まで逸脱したことをユーザが把握することが可能となり、オブジェクトを動作させるための範囲をユーザに暗に示すこともできる。
According to the above, when the user performs an operation using the portable display device within a predetermined range, the operations of the object and the first virtual camera are controlled according to the direction of the predetermined axis of the portable display device. . Therefore, when the user performs an operation using the portable display device within a predetermined range, not only the line-of-sight direction of the first virtual camera for generating a virtual world to be displayed on the portable display device by the operation, Since the movement of the object arranged in the virtual world can also be controlled, this is a suitable operation for changing the movement of the object or changing the display range displayed on the
また、上記方向判定手段は、左右方向判定手段を含んでもよい。左右方向判定手段は、可搬型表示装置から出力されるデータに基づいて、実空間の左右方向への所定軸の方向が、当該左右方向に設定された第1の範囲内にあるか否かを判定する。この場合、上記オブジェクト動作制御手段は、左右方向への所定軸の方向が第1の範囲内にあると判定された場合、当該左右方向への所定軸の方向に基づいて、仮想世界の左右方向へオブジェクトを回転および/または移動させて、当該オブジェクトの動作を制御してもよい。 The direction determination unit may include a left / right direction determination unit. The left-right direction determination means determines whether the direction of the predetermined axis in the left-right direction of the real space is within the first range set in the left-right direction based on the data output from the portable display device. judge. In this case, when it is determined that the direction of the predetermined axis in the left-right direction is within the first range, the object motion control means, based on the direction of the predetermined axis in the left-right direction, The movement of the object may be controlled by rotating and / or moving the object.
上記によれば、可搬型表示装置を左右に回転(ヨー)させることによって、オブジェクトを動作させる所定範囲を設定することができる。 According to the above, it is possible to set a predetermined range in which the object is operated by rotating (yawing) the portable display device to the left and right.
また、上記方向判定手段は、上下方向判定手段をさらに含んでもよい。上下方向判定手段は、可搬型表示装置から出力されるデータに基づいて、実空間の上下方向への所定軸の方向が、当該上下方向に設定された第2の範囲内にあるか否かを判定する。この場合、上記オブジェクト動作制御手段は、上下方向への所定軸の方向が第2の範囲内にあると判定された場合、当該上下方向への所定軸の方向に基づいて、仮想世界の上下方向へオブジェクトを回転および/または移動させて、当該オブジェクトの動作を制御してもよい。 The direction determination unit may further include a vertical direction determination unit. The vertical direction determination means determines whether the direction of the predetermined axis in the vertical direction of the real space is within the second range set in the vertical direction based on the data output from the portable display device. judge. In this case, when it is determined that the direction of the predetermined axis in the vertical direction is within the second range, the object motion control unit is configured to move the virtual world in the vertical direction based on the direction of the predetermined axis in the vertical direction. The movement of the object may be controlled by rotating and / or moving the object.
上記によれば、可搬型表示装置を左右に回転(ヨー)させる場合と上下に回転(ピッチ)させる場合とによって、それぞれオブジェクトを動作させる所定範囲を設定することができる。 According to the above, it is possible to set a predetermined range in which the object is moved depending on whether the portable display device is rotated left and right (yaw) or rotated up and down (pitch).
また、上記第1の範囲は、所定の大きさの角度範囲を有してもよい。上記第2の範囲は、第1の範囲が有する角度範囲とは異なる大きさの角度範囲を有してもよい。 The first range may have an angle range with a predetermined size. The second range may have an angle range having a size different from that of the first range.
上記によれば、可搬型表示装置を左右に回転(ヨー)させる場合と上下に回転(ピッチ)させる場合とによって、それぞれオブジェクトを動作させる所定範囲を異なる角度範囲で設定することができ、ユーザが可搬型表示装置を把持する際の操作環境やゲーム環境に応じて適切な範囲を設定することができる。 According to the above, the predetermined range for moving the object can be set in different angular ranges depending on whether the portable display device is rotated left and right (yaw) or rotated up and down (pitch). An appropriate range can be set in accordance with the operation environment and the game environment when holding the portable display device.
また、上記第1の範囲は、実空間における基準方向を中心に左右に同じ角度範囲を有する範囲であってもよい。上記第2の範囲は、実空間における水平方向に対して上下に異なる角度範囲を有する範囲であってもよい。 Further, the first range may be a range having the same angle range on the left and right with a reference direction in the real space as a center. The second range may be a range having different angular ranges in the vertical direction with respect to the horizontal direction in the real space.
上記によれば、可搬型表示装置を左右に回転(ヨー)させる場合と上下に回転(ピッチ)させる場合とによって、それぞれオブジェクトを動作させる所定範囲の中心を異なる方向に設定することができ、ユーザが可搬型表示装置を把持する際の操作環境やゲーム環境に応じて適切な位置に範囲を設定することができる。 According to the above, the center of the predetermined range in which the object is operated can be set in different directions depending on whether the portable display device is rotated left and right (yaw) or vertically (pitch). Can set the range at an appropriate position according to the operating environment and the game environment when holding the portable display device.
また、上記第1仮想カメラ動作制御手段は、所定軸の方向が所定範囲内にあると判定された場合、仮想世界におけるオブジェクトの方向と同じ方向が視線方向となるように第1仮想カメラの姿勢を制御してもよい。 Further, the first virtual camera motion control means, when it is determined that the direction of the predetermined axis is within the predetermined range, the attitude of the first virtual camera so that the same direction as the direction of the object in the virtual world is the line-of-sight direction. May be controlled.
上記によれば、可搬型表示装置の所定軸の方向が所定範囲内であれば、オブジェクトの方向の変化に応じて第1仮想カメラの視線方向も変化することになる。したがって、結果的にオブジェクトの方向と第1仮想カメラの視線方向とが、可搬型表示装置の姿勢および/または動きに基づいて制御されることになるため、ユーザが見たい方向へ可搬型表示装置を向けることに応じて、オブジェクトの方向も変化すると共に当該可搬型表示装置を介して仮想世界内を覗いているような画像をユーザに提供することも可能であり、当該ユーザに仮想世界にいるかのような感覚を与えることも可能となる。また、可搬型表示装置の姿勢および/または動きによってオブジェクトの方向を設定できるとともに、その方向を見た仮想世界が可搬型表示装置に表示されるために、オブジェクトの方向を設定する操作が直感的で当該方向をユーザが所望する方向に合わせることが容易となる。 According to the above, if the direction of the predetermined axis of the portable display device is within the predetermined range, the line-of-sight direction of the first virtual camera also changes according to the change in the direction of the object. Accordingly, as a result, the direction of the object and the line-of-sight direction of the first virtual camera are controlled based on the attitude and / or movement of the portable display device, so that the portable display device can be viewed in the direction desired by the user. It is also possible to provide the user with an image that looks into the virtual world through the portable display device and whether the object is in the virtual world. It is also possible to give such a feeling. In addition, the direction of the object can be set by the attitude and / or movement of the portable display device, and the virtual world viewed from the direction is displayed on the portable display device, so that the operation for setting the direction of the object is intuitive. This makes it easy to match the direction to the direction desired by the user.
また、上記オブジェクト動作制御手段は、所定軸の方向の変化に基づいて、オブジェクトの動作を制御してもよい。上記第1仮想カメラ動作制御手段は、所定軸の方向の変化に基づいて、第1仮想カメラの動作を制御してもよい。 The object motion control means may control the motion of the object based on a change in the direction of a predetermined axis. The first virtual camera operation control means may control the operation of the first virtual camera based on a change in the direction of a predetermined axis.
上記によれば、ユーザは可搬型表示装置の姿勢および/または位置を変化させることによって、オブジェクトの動作や第1仮想カメラの動作を制御することができる。 Based on the above, the user can control the operation of the object and the operation of the first virtual camera by changing the posture and / or position of the portable display device.
また、上記オブジェクト動作制御手段は、所定軸の方向の変化が大きいほど、オブジェクトを大きく移動させて当該オブジェクトの動作を制御してもよい。上記第1仮想カメラ動作制御手段は、所定軸の方向の変化が大きいほど、第1仮想カメラを大きく移動させて当該第1仮想カメラの動作を制御してもよい。 The object motion control means may control the motion of the object by moving the object more greatly as the change in the direction of the predetermined axis is larger. The first virtual camera operation control means may control the operation of the first virtual camera by largely moving the first virtual camera as the change in the direction of the predetermined axis is larger.
上記によれば、ユーザは可搬型表示装置の姿勢および/または位置を変化させる大きさによって、オブジェクトや第1仮想カメラの移動量(回転移動量を含む)を制御することができる。 Based on the above, the user can control the amount of movement (including the amount of rotational movement) of the object and the first virtual camera by the magnitude of changing the posture and / or position of the portable display device.
また、上記オブジェクト動作制御手段は、所定軸の角度に応じて、オブジェクトを回転移動させて当該オブジェクトの動作を制御してもよい。上記第1仮想カメラ動作制御手段は、所定軸の角度に応じて、第1仮想カメラを回転移動させて当該仮想カメラの動作を制御してもよい。 The object motion control means may control the motion of the object by rotating the object according to an angle of a predetermined axis. The first virtual camera operation control means may control the operation of the virtual camera by rotating the first virtual camera according to an angle of a predetermined axis.
上記によれば、ユーザは可搬型表示装置の角度によって、オブジェクトの動作や第1仮想カメラの動作を制御することができる。 Based on the above, the user can control the operation of the object and the operation of the first virtual camera according to the angle of the portable display device.
また、上記情報処理プログラムは、姿勢動き算出手段として、さらにコンピュータを機能させてもよい。姿勢動き算出手段は、可搬型表示装置から出力されるデータに基づいて、当該可搬型表示装置の姿勢および/または動きを算出する。この場合、上記方向判定手段は、可搬型表示装置の姿勢および/または動きに基づいて、所定軸の方向が所定範囲内にあるか否かを判定してもよい。 The information processing program may further cause the computer to function as posture movement calculation means. The posture movement calculation means calculates the posture and / or movement of the portable display device based on the data output from the portable display device. In this case, the direction determination means may determine whether the direction of the predetermined axis is within a predetermined range based on the attitude and / or movement of the portable display device.
上記によれば、可搬型表示装置から出力されるデータを用いて可搬型表示装置の姿勢および/または動きを算出し、当該可搬型表示装置の姿勢および/または動きに基づいて、所定軸の方向判定やオブジェクトおよび第1仮想カメラの動作制御をすることが可能となる。 According to the above, the orientation and / or movement of the portable display device is calculated using the data output from the portable display device, and the direction of the predetermined axis is based on the posture and / or movement of the portable display device. It is possible to control the determination and the operation of the object and the first virtual camera.
また、上記姿勢動き算出手段は、実空間の所定方向を基準とした可搬型表示装置の姿勢および/または動きを算出してもよい。上記オブジェクト動作制御手段は、実空間の所定方向を基準とした可搬型表示装置の姿勢および/または動きに基づいて、仮想世界に設定された所定方向に対応する方向を基準としてオブジェクトの動作を制御してもよい。上記第1仮想カメラ動作制御手段は、実空間の所定方向を基準とした可搬型表示装置の姿勢および/または動きに基づいて、仮想世界に設定された所定方向に対応する方向を基準として第1仮想カメラの動作を制御してもよい。 In addition, the posture movement calculation unit may calculate the posture and / or movement of the portable display device based on a predetermined direction in the real space. The object motion control means controls the motion of the object based on the direction corresponding to the predetermined direction set in the virtual world based on the attitude and / or movement of the portable display device based on the predetermined direction in the real space. May be. The first virtual camera operation control means is based on the direction corresponding to the predetermined direction set in the virtual world based on the attitude and / or movement of the portable display device with reference to the predetermined direction in the real space. The operation of the virtual camera may be controlled.
上記によれば、実空間の所定方向を基準とした可搬型表示装置の姿勢および/または動きによって、当該所定方向に対応する仮想世界の所定方向を基準とした動作制御ができる。 According to the above, operation control based on a predetermined direction of the virtual world corresponding to the predetermined direction can be performed by the attitude and / or movement of the portable display device based on the predetermined direction of the real space.
また、上記姿勢動き算出手段は、実空間の重力方向を所定方向として、当該重力方向を基準とした可搬型表示装置の姿勢および/または動きを算出してもよい。上記オブジェクト動作制御手段は、実空間の重力方向を基準とした可搬型表示装置の姿勢および/または動きに基づいて、仮想世界に設定された重力方向を基準としてオブジェクトの動作を制御してもよい。上記第1仮想カメラ動作制御手段は、実空間の重力方向を基準とした可搬型表示装置の姿勢および/または動きに基づいて、仮想世界に設定された重力方向を基準として第1仮想カメラの動作を制御してもよい。 Further, the posture movement calculating means may calculate the posture and / or movement of the portable display device with the gravity direction of the real space as a predetermined direction, with the gravity direction as a reference. The object motion control means may control the motion of the object based on the gravity direction set in the virtual world based on the attitude and / or movement of the portable display device based on the gravity direction of the real space. . The first virtual camera motion control means is configured to operate the first virtual camera based on the gravity direction set in the virtual world based on the attitude and / or movement of the portable display device based on the gravity direction of the real space. May be controlled.
上記によれば、重力方向を基準とした可搬型表示装置の姿勢および/または動きによって、同じ重力方向を基準とした動作制御ができる。 According to the above, operation control based on the same direction of gravity can be performed by the posture and / or movement of the portable display device based on the direction of gravity.
また、上記姿勢動き算出手段は、実空間の重力方向周りに可搬型表示装置が回転する姿勢および/または動きを少なくとも算出してもよい。上記方向判定手段は、実空間の重力方向周りの範囲を少なくとも所定範囲として設定し、実空間の重力方向周りに可搬型表示装置が回転する姿勢および/または動きに基づいて、所定軸の方向が当該所定範囲内にあるか否かを判定してもよい。上記オブジェクト動作制御手段は、実空間の重力方向周りに可搬型表示装置が回転する姿勢および/または動きに基づいて、仮想世界に設定された重力方向周りにオブジェクトを回転させて動作を制御してもよい。上記第1仮想カメラ動作制御手段は、実空間の重力方向周りに可搬型表示装置が回転する姿勢および/または動きに基づいて、仮想世界に設定された重力方向周りに第1仮想カメラを回転させて動作を制御してもよい。 In addition, the posture movement calculation unit may calculate at least a posture and / or movement of the portable display device that rotates around the direction of gravity in real space. The direction determination means sets a range around the gravity direction of the real space as at least a predetermined range, and the direction of the predetermined axis is determined based on the posture and / or movement of the portable display device rotating around the gravity direction of the real space. You may determine whether it exists in the said predetermined range. The object motion control means controls the motion by rotating the object around the gravity direction set in the virtual world based on the attitude and / or movement of the portable display device rotating around the gravity direction in the real space. Also good. The first virtual camera operation control means rotates the first virtual camera around the gravity direction set in the virtual world based on the posture and / or movement of the portable display device around the gravity direction of the real space. The operation may be controlled.
上記によれば、可搬型表示装置を実空間における左右に向けることによって、オブジェクトや第1仮想カメラの方向を仮想世界における左右に向けて動作制御することができる。 According to the above, by controlling the portable display device to the left and right in the real space, it is possible to control the operation of the object and the first virtual camera toward the left and right in the virtual world.
また、上記姿勢動き算出手段は、実空間の重力方向に垂直な水平方向周りに可搬型表示装置が上下振り運動する姿勢および/または動きを少なくとも算出してもよい。上記方向判定手段は、実空間の水平方向周りの範囲を少なくとも所定範囲として設定し、水平方向周りに可搬型表示装置が上下振り運動する姿勢および/または動きに基づいて、所定軸の方向が当該所定範囲内にあるか否かを判定してもよい。上記オブジェクト動作制御手段は、水平方向周りに可搬型表示装置が上下振り運動する姿勢および/または動きに基づいて、当該水平方向に対応する仮想世界に設定された水平方向周りにオブジェクトを上下に振って動作を制御してもよい。上記第1仮想カメラ動作制御手段は、水平方向周りに可搬型表示装置が上下振り運動する姿勢および/または動きに基づいて、当該水平方向に対応する仮想世界に設定された水平方向周りに第1仮想カメラを上下に振って動作を制御してもよい。 Further, the posture movement calculation means may calculate at least a posture and / or movement of the portable display device that swings up and down around a horizontal direction perpendicular to the gravity direction of the real space. The direction determining means sets the range around the horizontal direction of the real space as at least the predetermined range, and the direction of the predetermined axis is based on the posture and / or movement of the portable display device swinging up and down around the horizontal direction. It may be determined whether or not it is within a predetermined range. The object motion control means swings the object up and down around the horizontal direction set in the virtual world corresponding to the horizontal direction based on the posture and / or movement of the portable display device swinging up and down around the horizontal direction. The operation may be controlled. The first virtual camera operation control means is configured to first move around a horizontal direction set in a virtual world corresponding to the horizontal direction based on a posture and / or movement of the portable display device swinging up and down around the horizontal direction. The operation may be controlled by shaking the virtual camera up and down.
上記によれば、可搬型表示装置を実空間における上下に向けることによって、オブジェクトや第1仮想カメラの方向を仮想世界における上下に向けて動作制御することができる。 Based on the above, by controlling the portable display device up and down in the real space, the direction of the object and the first virtual camera can be controlled up and down in the virtual world.
また、上記姿勢動き算出手段は、第1画像が表示される可搬型表示装置の表示画面に垂直な当該表示画面の奥行方向に直交する第1軸および第2軸周りにそれぞれ回転する姿勢および/または動きを少なくとも算出してもよい。上記方向判定手段は、第1軸周りおよび第2軸周りそれぞれの範囲を所定範囲として設定し、第1軸および第2軸周りにそれぞれ可搬型表示装置が回転する姿勢および/または動きに基づいて、所定軸の方向が当該所定範囲内にそれぞれあるか否かを判定してもよい。上記オブジェクト動作制御手段は、所定軸の方向が第1軸周りの所定範囲内にあると判定された場合、可搬型表示装置が第1軸周りに回転する姿勢および/または動きに応じて、当該第1軸に対応する仮想世界に設定された軸周りにオブジェクトを回転させて動作を制御してもよい。上記オブジェクト動作制御手段は、所定軸の方向が第2軸周りの所定範囲内にあると判定された場合、可搬型表示装置が第2軸周りに回転する姿勢および/または動きに応じて、当該第2軸に対応する仮想世界に設定された軸周りにオブジェクトを回転させて動作を制御してもよい。上記第1仮想カメラ動作制御手段は、第1軸および第2軸周りにそれぞれ可搬型表示装置が回転する姿勢および/または動きに応じて、視線方向に直交し当該第1軸および当該第2軸に対応する軸周りにそれぞれ回転させることによって第1仮想カメラの動作を制御してもよい。 Further, the posture movement calculating means is configured to rotate around a first axis and a second axis perpendicular to the depth direction of the display screen perpendicular to the display screen of the portable display device on which the first image is displayed, and / or Alternatively, at least the movement may be calculated. The direction determination means sets the ranges around the first axis and the second axis as predetermined ranges, and based on the posture and / or movement of the portable display device rotating around the first axis and the second axis, respectively. It may be determined whether or not the direction of the predetermined axis is within the predetermined range. When it is determined that the direction of the predetermined axis is within a predetermined range around the first axis, the object motion control means is configured to change the portable display device according to the posture and / or movement of the portable display device around the first axis. The movement may be controlled by rotating the object around the axis set in the virtual world corresponding to the first axis. When it is determined that the direction of the predetermined axis is within a predetermined range around the second axis, the object motion control unit is configured to change the portable display device according to the posture and / or movement of the portable display device around the second axis. The movement may be controlled by rotating the object around the axis set in the virtual world corresponding to the second axis. The first virtual camera motion control means is orthogonal to the line-of-sight direction according to the attitude and / or movement of the portable display device around the first axis and the second axis, respectively, and the first axis and the second axis. You may control operation | movement of a 1st virtual camera by rotating around the axis | shaft corresponding to each.
上記によれば、実空間において、可搬型表示装置の表示画面の奥行方向に直交する2軸周りに当該可搬型表示装置が回転するように動かすことによって、オブジェクトや第1仮想カメラの方向を上下左右に向けて動作制御することができる。 According to the above, in the real space, by moving the portable display device around two axes orthogonal to the depth direction of the display screen of the portable display device, the direction of the object or the first virtual camera is moved up and down. The operation can be controlled to the left and right.
また、上記姿勢動き算出手段は、奥行方向に直交する可搬型表示装置の表示画面の横方向の軸および縦方向の軸周りにそれぞれ回転する姿勢および/または動きを少なくとも算出してもよい。上記方向判定手段は、横方向の軸周りおよび縦方向の軸周りそれぞれの範囲を所定範囲として設定し、横方向の軸および縦方向の軸周りにそれぞれ可搬型表示装置が回転する姿勢および/または動きに基づいて、所定軸の方向が当該所定範囲内にそれぞれあるか否かを判定してもよい。上記オブジェクト動作制御手段は、所定軸の方向が横方向の軸周りの所定範囲内にあると判定された場合、可搬型表示装置が横方向の軸周りに回転する姿勢および/または動きに応じて、当該横方向の軸に対応する仮想世界に設定された水平方向の軸周りにオブジェクトを回転させて動作を制御してもよい。上記オブジェクト動作制御手段は、所定軸の方向が縦方向の軸周りの所定範囲内にあると判定された場合、可搬型表示装置が縦方向の軸周りに回転する姿勢および/または動きに応じて、当該縦方向の軸に対応する仮想世界に設定された鉛直方向の軸周りにオブジェクトを回転させて動作を制御してもよい。上記第1仮想カメラ動作制御手段は、横方向の軸周りに可搬型表示装置が回転する姿勢および/または動きに応じて、視線方向に直交する仮想世界の水平方向の軸周りに回転させ、縦方向の軸周りに可搬型表示装置が回転する姿勢および/または動きに応じて、仮想世界の鉛直方向の軸周りに回転させることによって、第1仮想カメラの動作を制御してもよい。 In addition, the posture motion calculation unit may calculate at least a posture and / or a motion that rotate around the horizontal axis and the vertical axis of the display screen of the portable display device orthogonal to the depth direction. The direction determining means sets the respective ranges around the horizontal axis and the vertical axis as predetermined ranges, and a posture in which the portable display device rotates around the horizontal axis and the vertical axis, respectively. Based on the movement, it may be determined whether the direction of the predetermined axis is within the predetermined range. If the direction of the predetermined axis is determined to be within a predetermined range around the horizontal axis, the object motion control means is responsive to the posture and / or movement of the portable display device rotating around the horizontal axis. The operation may be controlled by rotating the object around the horizontal axis set in the virtual world corresponding to the horizontal axis. The object motion control means, when it is determined that the direction of the predetermined axis is within a predetermined range around the vertical axis, according to the posture and / or movement of the portable display device rotating around the vertical axis The operation may be controlled by rotating the object around the vertical axis set in the virtual world corresponding to the vertical axis. The first virtual camera motion control means rotates around the horizontal axis of the virtual world perpendicular to the line-of-sight direction according to the attitude and / or movement of the portable display device about the horizontal axis. The operation of the first virtual camera may be controlled by rotating around the vertical axis of the virtual world in accordance with the attitude and / or movement of the portable display device rotating around the direction axis.
上記によれば、実空間において、可搬型表示装置の表示画面縦方向および横方向周りに当該可搬型表示装置が回転するように動かすことによって、オブジェクトや第1仮想カメラの方向を上下左右に向けて動作制御することができる。 According to the above, in the real space, by moving the portable display device around the display screen in the vertical and horizontal directions, the direction of the object and the first virtual camera is directed vertically and horizontally. Operation control.
また、上記姿勢動き算出手段は、実空間基準方向設定手段および角度差算出手段を含んでもよい。実空間基準方向設定手段は、実空間における可搬型表示装置の基準方向を設定する。角度差算出手段は、可搬型表示装置から出力されるデータに基づいて、現時点における所定軸の方向と基準方向との実空間における鉛直方向周りの左右角度差と、現時点における所定軸の方向と実空間における水平方向との水平方向周りの上下角度差とを算出する。上記方向判定手段は、左右方向判定手段および上下方向判定手段を含んでもよい。左右方向判定手段は、左右角度差が実空間の鉛直方向周りに設定された第1の範囲内にあるか否かを判定する。上下方向判定手段は、上下角度差が実空間の水平方向周りに設定された第2の範囲内にあるか否かを判定する。この場合、上記オブジェクト動作制御手段は、左右角度差が第1の範囲内にあると判定された場合、当該左右角度差に基づいて、仮想世界の左右方向へオブジェクトを回転および/または移動させて、当該オブジェクトの動作を制御してもよい。上記オブジェクト動作制御手段は、上下角度差が第2の範囲内にあると判定された場合、当該上下角度差に基づいて、仮想世界の上下方向へオブジェクトを回転および/または移動させて、当該オブジェクトの動作を制御してもよい。上記第1仮想カメラ動作制御手段は、左右角度差に基づいて、仮想世界の左右方向へ第1仮想カメラを回転および/または移動させ、上下角度差に基づいて、視線方向に直交する仮想世界の左右方向へ第1仮想カメラを回転および/または移動させて、当該第1仮想カメラの動作を制御してもよい。 The posture motion calculation means may include a real space reference direction setting means and an angle difference calculation means. The real space reference direction setting means sets the reference direction of the portable display device in the real space. Based on the data output from the portable display device, the angle difference calculation means calculates the difference between the left and right angle around the vertical direction in the real space between the current direction of the predetermined axis and the reference direction, and the current direction of the predetermined axis and the actual direction. The vertical angle difference around the horizontal direction in the space is calculated. The direction determination unit may include a left / right direction determination unit and a vertical direction determination unit. The left-right direction determination means determines whether the left-right angle difference is within a first range set around the vertical direction of the real space. The vertical direction determination means determines whether the vertical angle difference is within a second range set around the horizontal direction of the real space. In this case, when it is determined that the left-right angle difference is within the first range, the object motion control means rotates and / or moves the object in the left-right direction of the virtual world based on the left-right angle difference. The movement of the object may be controlled. When it is determined that the vertical angle difference is within the second range, the object motion control means rotates and / or moves the object in the vertical direction of the virtual world based on the vertical angle difference, and The operation may be controlled. The first virtual camera operation control means rotates and / or moves the first virtual camera in the left-right direction of the virtual world based on the left-right angle difference, and based on the vertical angle difference, The operation of the first virtual camera may be controlled by rotating and / or moving the first virtual camera in the left-right direction.
上記によれば、実空間および仮想世界にそれぞれ設定された基準方向および水平方向に基づいて、オブジェクトや第1仮想カメラの動作を制御することができる。 Based on the above, it is possible to control the operation of the object and the first virtual camera based on the reference direction and the horizontal direction set in the real space and the virtual world, respectively.
また、上記表示制御手段は、第1画像を示す画像データを可搬型表示装置へ出力してもよい。上記可搬型表示装置は、画像データ取得手段および表示手段を備えてもよい。画像データ取得手段は、情報処理装置から出力された画像データを取得する。表示手段は、画像データ取得手段が取得した画像データが示す第1画像を表示する。 The display control means may output image data indicating the first image to the portable display device. The portable display device may include an image data acquisition unit and a display unit. The image data acquisition unit acquires image data output from the information processing apparatus. The display means displays the first image indicated by the image data acquired by the image data acquisition means.
上記によれば、可搬型表示装置がゲーム処理等の情報処理を実行しない、いわゆるシンクライアント端末として機能することができる。 Based on the above, the portable display device can function as a so-called thin client terminal that does not execute information processing such as game processing.
また、上記情報処理プログラムは、圧縮画像生成手段として、さらにコンピュータを機能させてもよい。圧縮画像生成手段は、第1画像を示す画像データを圧縮して圧縮画像データを生成する。この場合、上記表示制御手段は、圧縮画像生成手段が生成した圧縮画像データを可搬型表示装置へ出力してもよい。上記画像データ取得手段は、情報処理装置から出力された圧縮画像データを取得してもよい。上記可搬型表示装置は、表示画像伸張手段を、さらに備えてもよい。表示画像伸張手段は、圧縮画像データを伸張して第1画像を示す画像データを得る。この場合、上記表示手段は、画像データ取得手段が取得して表示画像伸長手段が伸長した画像データが示す第1画像を表示する。 The information processing program may further cause the computer to function as compressed image generation means. The compressed image generation means generates compressed image data by compressing image data indicating the first image. In this case, the display control means may output the compressed image data generated by the compressed image generation means to the portable display device. The image data acquisition unit may acquire compressed image data output from the information processing apparatus. The portable display device may further include display image expansion means. The display image expansion means expands the compressed image data to obtain image data indicating the first image. In this case, the display means displays the first image indicated by the image data acquired by the image data acquisition means and expanded by the display image expansion means.
上記によれば、第1画像は、圧縮されて情報処理装置から可搬型表示装置へ出力されるので、第1画像を高速に出力することができ、第1画像が生成されてから第1画像が可搬型表示装置に表示されるまでの遅延を少なくすることができる。 According to the above, since the first image is compressed and output from the information processing device to the portable display device, the first image can be output at high speed, and the first image is generated after the first image is generated. Can be delayed until the image is displayed on the portable display device.
また、上記表示制御手段は、第1画像とは別に、第2仮想カメラから見た仮想世界を示す第2画像を、情報処理装置に接続された別の表示装置にさらに表示してもよい。 The display control means may further display a second image indicating the virtual world viewed from the second virtual camera on another display device connected to the information processing device, separately from the first image.
なお、上記別の表示装置は、後述する実施形態におけるモニタ2のように情報処理装置に接続された表示装置であり、上記可搬型表示装置と別体であればよく、情報処理装置によって生成された第2画像を表示することが可能なものであればどのようなものであってもよい。例えば、上記別の表示装置は、情報処理装置と一体に(1つの筐体内に)構成されるものであってもよい。
The other display device is a display device connected to the information processing device like the
上記によれば、可搬型表示装置の姿勢を変えたり動かしたりする操作に基づいた処理を行う場合に、当該処理結果が可搬型表示装置だけでなく情報処理装置に接続された別の表示装置にも表示することができる。したがって、ユーザは、例えば2つの装置に表示される画像を操作状況や好みに応じて使い分けることが可能となり、ユーザ操作に好適な画像を見ることも可能となる。また、情報処理装置に接続された別の表示装置に表示する画像を、例えばユーザとは異なる他の人が見るための画像として用いることもでき、複数の人が処理結果を見る場合にも好適な視聴環境となり得る。 According to the above, when processing based on an operation for changing or moving the attitude of the portable display device is performed, the processing result is not only transmitted to the portable display device but also to another display device connected to the information processing device. Can also be displayed. Therefore, for example, the user can use the images displayed on the two devices according to the operation status and preference, and can also view an image suitable for the user operation. Further, an image to be displayed on another display device connected to the information processing device can be used as an image for other people to view, for example, different from the user, and is also suitable when a plurality of people view the processing result. Can be a comfortable viewing environment.
また、上記情報処理プログラムは、圧縮画像生成手段として、さらにコンピュータを機能させてもよい。圧縮画像生成手段は、第1画像を示す画像データを圧縮して圧縮画像データを生成する。この場合、上記表示制御手段は、圧縮画像生成手段が生成した圧縮画像データを可搬型表示装置へ出力し、当該圧縮画像データとは別に、第2画像を示す画像データを圧縮することなく別の表示装置へ出力してもよい。上記可搬型表示装置は、画像データ取得手段、表示画像伸張手段、および表示手段を備えてもよい。画像データ取得手段は、情報処理装置から出力された圧縮画像データを取得する。表示画像伸張手段は、圧縮画像データを伸張して第1画像を示す画像データを得る。表示手段は、画像データ取得手段が取得して表示画像伸長手段が伸長した画像データが示す第1画像を表示する。 The information processing program may further cause the computer to function as compressed image generation means. The compressed image generation means generates compressed image data by compressing image data indicating the first image. In this case, the display control unit outputs the compressed image data generated by the compressed image generation unit to the portable display device, and separately from the compressed image data, the image data indicating the second image is not compressed. You may output to a display apparatus. The portable display device may include an image data acquisition unit, a display image expansion unit, and a display unit. The image data acquisition unit acquires the compressed image data output from the information processing apparatus. The display image expansion means expands the compressed image data to obtain image data indicating the first image. The display means displays the first image indicated by the image data acquired by the image data acquisition means and expanded by the display image expansion means.
上記によれば、第1画像は、圧縮されて情報処理装置から可搬型表示装置へ出力されるので、第1画像を高速に出力することができ、第1画像が生成されてから第1画像が可搬型表示装置に表示されるまでの遅延を少なくすることができる。 According to the above, since the first image is compressed and output from the information processing device to the portable display device, the first image can be output at high speed, and the first image is generated after the first image is generated. Can be delayed until the image is displayed on the portable display device.
また、上記情報処理プログラムは、第2仮想カメラ動作制御手段として、さらにコンピュータを機能させてもよい。第2仮想カメラ動作制御手段は、オブジェクトの仮想世界における位置に基づいて、当該仮想世界の画像を生成するための第2仮想カメラを、第1仮想カメラとは異なる位置で、かつ、オブジェクトが第2画像に含まれるように設定する。 The information processing program may further cause the computer to function as second virtual camera operation control means. The second virtual camera motion control means sets the second virtual camera for generating an image of the virtual world based on the position of the object in the virtual world at a position different from the first virtual camera and the object is Set to be included in two images.
上記によれば、可搬型表示装置だけでなく別の表示装置にも同じ仮想世界が表示され、それぞれ視点の異なる仮想世界の画像が表示される。したがって、ユーザは、操作する際に、2つの装置に表示される画像を操作状況や好みに応じて使い分けることが可能となる。 According to the above, the same virtual world is displayed not only on the portable display device but also on another display device, and images of virtual worlds with different viewpoints are displayed. Therefore, the user can use the images displayed on the two devices according to the operation situation and preference when operating.
また、上記第2仮想カメラ動作制御手段は、オブジェクトから第1仮想カメラまでの距離より当該オブジェクトから離れた位置に第2仮想カメラを設定してもよい。上記表示制御手段は、第1画像で示される仮想世界の範囲より広い範囲を、第2画像として別の表示装置に表示する。 The second virtual camera motion control means may set the second virtual camera at a position farther from the object than the distance from the object to the first virtual camera. The display control means displays a range wider than the range of the virtual world indicated by the first image on another display device as the second image.
上記によれば、可搬型表示装置に表示される仮想世界の画像より広い表示範囲の仮想世界の画像が情報処理装置に接続された別の表示装置に表示されるため、例えば仮想世界の様子をユーザに提示する際にユーザ操作において好適となる画像を、それぞれの表示装置に表示することが可能となる。 According to the above, the virtual world image having a wider display range than the virtual world image displayed on the portable display device is displayed on another display device connected to the information processing device. An image suitable for the user operation when presented to the user can be displayed on each display device.
また、上記第2仮想カメラ動作制御手段は、仮想世界においてオブジェクトを鳥瞰する位置に第2仮想カメラを設定してもよい。上記表示制御手段は、仮想世界に配置されたオブジェクトを鳥瞰した画像を、第2画像として別の表示装置に表示してもよい。 Further, the second virtual camera operation control means may set the second virtual camera at a position where the object is bird's-eye view in the virtual world. The display control means may display an image in which a bird's eye view of an object placed in the virtual world is displayed on another display device as a second image.
上記によれば、可搬型表示装置には当該可搬型表示装置の姿勢および/または動きに応じた仮想世界の画像が表示され、情報処理装置に接続された別の表示装置には当該仮想世界を鳥瞰した画像が表示されるため、例えば仮想世界の様子をユーザに提示する際にユーザ操作において好適となる画像を、それぞれの表示装置に表示することが可能となる。 According to the above, an image of the virtual world corresponding to the attitude and / or movement of the portable display device is displayed on the portable display device, and the virtual world is displayed on another display device connected to the information processing device. Since the bird's-eye view image is displayed, for example, when presenting the state of the virtual world to the user, an image suitable for the user operation can be displayed on each display device.
また、上記可搬型表示装置は、ジャイロセンサおよび加速度センサの少なくとも一方を含んでもよい。上記方向判定手段は、ジャイロセンサおよび加速度センサの少なくとも一方から出力されるデータに基づいて、所定軸の方向が所定範囲内にあるか否かを判定してもよい。 The portable display device may include at least one of a gyro sensor and an acceleration sensor. The direction determination means may determine whether the direction of the predetermined axis is within a predetermined range based on data output from at least one of the gyro sensor and the acceleration sensor.
上記によれば、ジャイロセンサから出力される可搬型表示装置に生じている角速度を示すデータおよび/または加速度センサから出力される可搬型表示装置に生じている加速度を示すデータを用いることによって、当該可搬型表示装置の姿勢や動きを精確に算出することができる。 According to the above, by using the data indicating the angular velocity generated in the portable display device output from the gyro sensor and / or the data indicating the acceleration generated in the portable display device output from the acceleration sensor, The attitude and movement of the portable display device can be accurately calculated.
また、本発明は、上記各手段を備える情報処理装置および情報処理システムや上記各手段で行われる動作を含む情報処理方法の形態で実施されてもよい。 In addition, the present invention may be implemented in the form of an information processing apparatus and an information processing system including the above-described units and an information processing method including operations performed by the above units.
本発明によれば、少なくとも1つの所定範囲を設定することによって、ユーザが様々な操作を1つのデバイスの姿勢や動きによって行うことが可能となる。 According to the present invention, by setting at least one predetermined range, the user can perform various operations by the posture and movement of one device.
図1を参照して、本発明の一実施形態に係る情報処理プログラムを実行する情報処理装置および当該情報処理装置を含む情報処理システムについて説明する。以下、説明を具体的にするために、当該情報処理装置の一例として据置型のゲーム装置本体5を用い、ゲーム装置本体5を含むゲームシステムを用いて説明する。なお、図1は、据置型のゲーム装置3を含むゲームシステム1の一例を示す外観図である。図2は、ゲーム装置本体5の一例を示すブロック図である。以下、当該ゲームシステム1について説明する。
With reference to FIG. 1, an information processing apparatus that executes an information processing program according to an embodiment of the present invention and an information processing system including the information processing apparatus will be described. Hereinafter, for the sake of specific explanation, a stationary
図1において、ゲームシステム1は、表示手段の一例である家庭用テレビジョン受像機(以下、モニタと記載する)2と、モニタ2に接続コードを介して接続する据置型のゲーム装置3とから構成される。モニタ2は、ゲーム装置3から出力された音声信号を音声出力するためのスピーカ2aを備える。また、ゲーム装置3は、本願発明の情報処理プログラムの一例となるプログラム(例えば、ゲームプログラム)を記録した光ディスク4と、光ディスク4のプログラムを実行してゲーム画面をモニタ2に表示出力させるためのコンピュータを搭載したゲーム装置本体5と、端末装置6と、表示画面に表示されたオブジェクト等を操作するために必要な操作情報をゲーム装置本体5に与えるためのコントローラ7と、ボード型コントローラ9とを含む。ゲームシステム1は、端末装置6、コントローラ7、およびボード型コントローラ9の少なくとも1つを用いたゲーム操作に基づいて、ゲーム装置本体5においてゲーム処理を実行し、ゲーム処理によって得られるゲーム画像をモニタ2および/または端末装置6に表示するものである。なお、ゲーム装置本体5と端末装置6、コントローラ7、およびボード型コントローラ9とは、無線によって無線通信可能に接続される。例えば、上記無線通信は、Bluetooth(登録商標)規格やIEEE802.11n規格に従って実行されるが、赤外線など他の規格に従って実行されてもよい。
In FIG. 1, a game system 1 includes a home television receiver (hereinafter referred to as a monitor) 2 which is an example of display means, and a
ゲーム装置本体5には、当該ゲーム装置本体5に対して交換可能に用いられる情報記憶媒体の一例である光ディスク4が脱着可能に挿入される。光ディスク4には、ゲーム装置本体5において実行されるための情報処理プログラム(典型的にはゲームプログラム)が記憶されている。ゲーム装置本体5の前面には、光ディスク4の挿入口が設けられている。ゲーム装置本体5は、挿入口に挿入された光ディスク4に記憶されている情報処理プログラムを読み出して実行することによって情報処理を実行する。
An optical disc 4, which is an example of an information storage medium that can be used interchangeably with respect to the game device
ゲーム装置本体5には、モニタ2が接続コードを介して接続される。モニタ2は、ゲーム装置本体5において実行されるゲーム処理によって得られるゲーム画像を表示する。モニタ2はスピーカ2aを有しており、スピーカ2aは、上記ゲーム処理の結果得られるゲーム音声を出力する。なお、他の実施形態においては、ゲーム装置本体5と据置型の表示装置とは一体となっていてもよい。また、ゲーム装置本体5とモニタ2との通信は無線通信であってもよい。
The
ゲーム装置本体5には、セーブデータ等のデータを固定的に記憶するバックアップメモリとして機能するフラッシュメモリ17(図2参照)が搭載される。ゲーム装置本体5は、光ディスク4に記憶されたゲームプログラム等を実行することによって、その結果をゲーム画像としてモニタ2および/または端末装置6に表示する。ゲームプログラム等は、光ディスク4に限らず、フラッシュメモリ17に予め記録されたものを実行するようにしてもよい。また、ゲーム装置本体5は、フラッシュメモリ17に記憶されたセーブデータを用いて、過去に実行されたゲーム状態を再現して、ゲーム画像をモニタ2および/または端末装置6に表示することもできる。そして、ゲーム装置3のユーザは、モニタ2および/または端末装置6に表示されたゲーム画像を見ながら、端末装置6、コントローラ7、およびボード型コントローラ9の少なくとも1つを操作することによって、ゲーム進行を楽しむことができる。
The
コントローラ7およびボード型コントローラ9は、コントローラ通信モジュール19を内蔵するゲーム装置本体5へ、例えばBluetoothの技術を用いて操作情報等の送信データをそれぞれ無線送信する。コントローラ7は、主にモニタ2の表示画面に表示された選択肢の選択等をするための操作手段である。コントローラ7は、片手で把持可能な程度の大きさのハウジングと、当該ハウジングの表面に露出して設けられた複数個の操作ボタン(十字キー等を含む)とが設けられている。また、後述により明らかとなるが、コントローラ7は、コントローラ7から見た画像を撮像する撮像情報演算部を備えている。そして、撮像情報演算部の撮像対象の一例として、モニタ2の表示画面近傍(図1では画面の上側)に2つのLEDモジュール(以下、マーカと記載する)8Lおよび8Rが設置される。詳細は後述するが、ユーザ(プレイヤ)は、コントローラ7を動かすゲーム操作を行うことができ、マーカ8は、コントローラ7の動きや位置や姿勢等をゲーム装置本体5が算出するために用いられる。マーカ8は、その両端に2つのマーカ8Lおよび8Rを備えている。マーカ8R(マーカ8Lも同様)は、具体的には1以上の赤外LED(Light Emitting Diode)であり、モニタ2の前方に向かって赤外光を出力する。マーカ8はゲーム装置本体5に接続されており、ゲーム装置本体5はマーカ8が備える各赤外LEDの点灯を制御することが可能である。なお、マーカ8は可搬型であり、ユーザはマーカ8を自由な位置に設置することができる。図1ではマーカ8がモニタ2の上に設置された態様を表しているが、マーカ8を設置する位置および向きは任意である。また、コントローラ7は、ゲーム装置本体5のコントローラ通信モジュール19から無線送信された送信データを通信部で受信して、当該送信データに応じた音や振動を発生させることもできる。
The
なお、他の実施形態においてはコントローラ7および/またはボード型コントローラ9とゲーム装置本体5とは有線で接続されてもよい。また、本実施形態では、ゲームシステム1に含まれるコントローラ7およびボード型コントローラ9はそれぞれ1つとするが、ゲーム装置本体5は複数のコントローラ7および複数のボード型コントローラ9と通信可能であり、所定台数のコントローラ7およびボード型コントローラ9をそれぞれ同時に使用することによって複数人でゲームをプレイすることが可能である。
In other embodiments, the
コントローラ7は、例えばプラスチック成型によって形成されたハウジングを有しており、当該ハウジングに複数の操作部(操作ボタン)が設けられている。そして、コントローラ7は、操作部に対する入力状態(各操作ボタンが押下されたか否か)を示す操作データをゲーム装置本体5に送信する。
The
また、コントローラ7は、撮像手段が撮像した画像データを解析してその中で輝度が高い領域を判別することによってその領域の重心位置やサイズなどを算出する撮像情報演算部を有している。例えば、撮像情報演算部は、コントローラ7のハウジングに固設された撮像手段を有し、端末装置6のマーカ部65および/またはマーカ8等の赤外光を出力するマーカを撮像対象としている。そして、撮像情報演算部は、撮像手段が撮像した撮像画像内における撮像対象の位置を算出し、算出された位置を示すマーカ座標データをゲーム装置本体5に送信する。このマーカ座標データは、コントローラ7自体の向き(傾斜角度)や位置に対応して変化するので、ゲーム装置本体5はこのマーカ座標データを用いてコントローラ7の向きや位置を算出することができる。
In addition, the
さらに、コントローラ7は、加速度センサおよび/またはジャイロセンサを内蔵している。加速度センサは、コントローラ7に生じる加速度(重力加速度を含む)を検出し、検出した加速度を示す加速度データをゲーム装置本体5に送信する。加速度センサが検出した加速度は、コントローラ7自体の向き(傾斜角度)や動きに対応して変化するので、ゲーム装置本体5は取得された加速度データを用いてコントローラ7の向きや動きを算出することができる。ジャイロセンサは、コントローラ7に設定された3軸回りの角速度をそれぞれ検出し、検出した角速度を示す角速度データをゲーム装置本体5に送信する。ジャイロセンサが検出した角速度は、コントローラ7自体の向き(傾斜角度)や動きに対応して変化するので、ゲーム装置本体5は取得された角速度データを用いてコントローラ7の向きや動きを算出することができる。このように、ユーザは、コントローラ7に設けられた操作部を押下すること、およびコントローラ7自体を動かしてその位置や姿勢(傾き)を変えることによってゲーム操作を行うことができる。
Further, the
コントローラ7には、スピーカおよびバイブレータが設けられている。コントローラ7は、ゲーム装置本体5から送信されたサウンドデータを処理し、当該サウンドデータに応じた音声をスピーカから出力させる。また、コントローラ7は、ゲーム装置本体5から送信された振動データを処理し、当該振動データに応じてバイブレータを作動させて振動を発生させる。なお、後述する本発明の実施形態においては、コントローラ7を用いることなくゲームをプレイすることが可能である。ボード型コントローラ9の詳細な構成については後述する。
The
端末装置6は、ユーザが把持可能な程度の大きさであり、ユーザは端末装置6を手に持って動かしたり、あるいは、端末装置6を自由な位置に配置したりして使用することが可能な可搬型の装置である。詳細な構成は後述するが、端末装置6は、表示手段であるLCD(Liquid Crystal Display:液晶表示装置)61、および入力手段(後述するタッチパネル62やジャイロセンサ604等)を備える。端末装置6とゲーム装置本体5(端末通信モジュール28(図2参照))とは無線(有線であってもよい)によって通信可能である。端末装置6は、ゲーム装置本体5で生成された画像(例えばゲーム画像)のデータをゲーム装置本体5から受信し、当該データが示す画像をLCD61に表示する。なお、本実施形態では表示装置としてLCDを用いているが、端末装置6は、例えばEL(Electro Luminescence:電界発光)を利用した表示装置等、他の任意の表示装置を有していてもよい。また、端末装置6は、端末通信モジュール28を内蔵するゲーム装置本体5へ、自機に対して行われた操作の内容を表す操作データを送信する。
The
次に、図2を参照して、ゲーム装置本体5の内部構成について説明する。図2は、ゲーム装置本体5の構成の一例を示すブロック図である。ゲーム装置本体5は、CPU(Central Processing Unit)10、システムLSI(Large Scale Integration)11、外部メインメモリ12、ROM/RTC(Read Only Memory/Real Time Clock)13、ディスクドライブ14、およびAV−IC(Audio Video−Integrated Circuit)15等を有する。
Next, the internal configuration of the
CPU10は、光ディスク4に記憶されたプログラムを実行することによって処理を実行するものであり、ゲームプロセッサとして機能する。CPU10は、システムLSI11に接続される。システムLSI11には、CPU10の他、外部メインメモリ12、ROM/RTC13、ディスクドライブ14、およびAV−IC15が接続される。システムLSI11は、それに接続される各構成要素間のデータ転送の制御、表示すべき画像の生成、外部装置からのデータの取得等の処理を行う。なお、システムLSI11の内部構成については、後述する。揮発性の外部メインメモリ12は、光ディスク4から読み出されたプログラムや、フラッシュメモリ17から読み出されたプログラムを記憶したり、各種データを記憶したりするものであり、CPU10のワーク領域やバッファ領域として用いられる。ROM/RTC13は、ゲーム装置本体5の起動用のプログラムが組み込まれるROM(いわゆるブートROM)と、時間をカウントするクロック回路(RTC)とを有する。ディスクドライブ14は、光ディスク4からプログラムデータやテクスチャデータ等を読み出し、後述する内部メインメモリ35または外部メインメモリ12に読み出したデータを書き込む。
The
システムLSI11には、入出力プロセッサ(I/Oプロセッサ)31、GPU(Graphics Processor Unit)32、DSP(Digital Signal Processor)33、VRAM(Video RAM)34、および内部メインメモリ35が設けられる。図示は省略するが、これらの構成要素31〜35は、内部バスによって互いに接続される。
The system LSI 11 includes an input / output processor (I / O processor) 31, a GPU (Graphics Processor Unit) 32, a DSP (Digital Signal Processor) 33, a VRAM (Video RAM) 34, and an internal
GPU32は、描画手段の一部を形成し、CPU10からのグラフィクスコマンド(作画命令)に従って画像を生成する。VRAM34は、GPU32がグラフィクスコマンドを実行するために必要なデータ(ポリゴンデータやテクスチャデータ等のデータ)を記憶する。画像が生成される際には、GPU32は、VRAM34に記憶されたデータを用いて画像データを作成する。なお、本実施形態においては、ゲーム装置本体5は、モニタ2に表示するゲーム画像と、端末装置6に表示するゲーム画像との両方を生成することがある。以下では、モニタ2に表示されるゲーム画像を「モニタ用ゲーム画像」と呼び、端末装置6に表示されるゲーム画像を「端末用ゲーム画像」と呼ぶことがある。
The
DSP33は、オーディオプロセッサとして機能し、内部メインメモリ35や外部メインメモリ12に記憶されるサウンドデータや音波形(音色)データを用いて、音声データを生成する。なお、本実施形態においては、ゲーム音声についてもゲーム画像と同様、モニタ2のスピーカ2aから出力するゲーム音声と、端末装置6のスピーカから出力するゲーム音声との両方が生成されることがある。以下では、モニタ2から出力されるゲーム音声を「モニタ用ゲーム音声」と呼び、端末装置6から出力されるゲーム音声を「端末用ゲーム音声」と呼ぶことがある。
The
上記のようにゲーム装置本体5において生成される画像および音声のうち、モニタ2に出力される画像データおよび音声データは、AV−IC15によって読み出される。AV−IC15は、AVコネクタ16を介して、読み出した画像データをモニタ2に出力するとともに、読み出した音声データをモニタ2に内蔵されるスピーカ2aに出力する。これによって、モニタ2に画像が表示されるとともにスピーカ2aから音が出力される。
Of the images and sounds generated in the
また、ゲーム装置本体5において生成される画像および音声のうち、端末装置6に出力される画像データおよび音声データは、入出力プロセッサ31等によって端末装置6へ送信される。入出力プロセッサ31等による端末装置6へのデータの送信については後述する。
Of the images and sounds generated in the
入出力プロセッサ31は、それに接続される構成要素との間でデータの送受信を実行したり、外部装置からのデータのダウンロードを実行したりする。入出力プロセッサ31は、フラッシュメモリ17、ネットワーク通信モジュール18、コントローラ通信モジュール19、拡張コネクタ20、メモリカード用コネクタ21、コーデックLSI27に接続される。また、ネットワーク通信モジュール18にはアンテナ22が接続される。コントローラ通信モジュール19にはアンテナ23が接続される。コーデックLSI27は端末通信モジュール28に接続され、端末通信モジュール28にはアンテナ29が接続される。
The input /
ゲーム装置本体5は、インターネット等のネットワークに接続して外部情報処理装置(例えば他のゲーム装置や、各種サーバ等)と通信を行うことが可能である。すなわち、入出力プロセッサ31は、ネットワーク通信モジュール18およびアンテナ22を介してネットワークに接続し、ネットワークに接続される外部情報処理装置と通信することができる。入出力プロセッサ31は、定期的にフラッシュメモリ17にアクセスし、ネットワークへ送信する必要があるデータの有無を検出し、当該データがある場合には、ネットワーク通信モジュール18およびアンテナ22を介して当該データをネットワークに送信する。また、入出力プロセッサ31は、外部情報処理装置から送信されてくるデータやダウンロードサーバからダウンロードしたデータを、ネットワーク、アンテナ22、およびネットワーク通信モジュール18を介して受信し、受信したデータをフラッシュメモリ17に記憶する。CPU10は、プログラムを実行することにより、フラッシュメモリ17に記憶されたデータを読み出してプログラムで利用する。フラッシュメモリ17には、ゲーム装置本体5と外部情報処理装置との間で送受信されるデータの他、ゲーム装置本体5を利用してプレイしたゲームのセーブデータ(処理の結果データまたは途中データ)が記憶されてもよい。また、フラッシュメモリ17には、ゲームプログラム等のプログラムが記憶されてもよい。
The
また、ゲーム装置本体5は、コントローラ7および/またはボード型コントローラ9からの操作データを受信することが可能である。すなわち、入出力プロセッサ31は、アンテナ23およびコントローラ通信モジュール19を介して、コントローラ7および/またはボード型コントローラ9から送信される操作データ等を受信し、内部メインメモリ35または外部メインメモリ12のバッファ領域に記憶(一時記憶)する。なお、内部メインメモリ35には、外部メインメモリ12と同様に、光ディスク4から読み出されたプログラムや、フラッシュメモリ17から読み出されたプログラムを記憶したり、各種データを記憶したりしてもよく、CPU10のワーク領域やバッファ領域として用いられてもかまわない。
Further, the
また、ゲーム装置本体5は、端末装置6との間で画像や音声等のデータを送受信することが可能である。入出力プロセッサ31は、端末装置6へゲーム画像(端末用ゲーム画像)を送信する場合、GPU32が生成したゲーム画像のデータをコーデックLSI27へ出力する。コーデックLSI27は、入出力プロセッサ31からの画像データに対して所定の圧縮処理を行う。端末通信モジュール28は、端末装置6との間で無線通信を行う。したがって、コーデックLSI27によって圧縮された画像データは、端末通信モジュール28によってアンテナ29を介して端末装置6へ送信される。なお、本実施形態では、ゲーム装置本体5から端末装置6へ送信される画像データはゲームに用いるものであり、ゲームにおいては表示される画像に遅延が生じるとゲームの操作性に悪影響が出る。そのため、ゲーム装置本体5から端末装置6への画像データの送信に関しては、できるだけ遅延が生じないようにすることが好ましい。したがって、本実施形態では、コーデックLSI27は、例えばH.264規格といった高効率の圧縮技術を用いて画像データを圧縮する。なお、それ以外の圧縮技術を用いてもよいし、通信速度が十分である場合には無圧縮で画像データを送信する構成であってもよい。また、端末通信モジュール28は、例えばWi−Fiの認証を受けた通信モジュールであり、例えばIEEE802.11n規格で採用されるMIMO(Multiple Input Multiple Output)の技術を用いて端末装置6との間の無線通信を高速に行うようにしてもよいし、他の通信方式を用いてもよい。
Further, the
また、ゲーム装置本体5は、画像データの他、音声データを端末装置6へ送信する。すなわち、入出力プロセッサ31は、DSP33が生成した音声データを、コーデックLSI27を介して端末通信モジュール28へ出力する。コーデックLSI27は、音声データに対しても画像データと同様に圧縮処理を行う。音声データに対する圧縮の方式は、どのような方式であってもよいが、圧縮率が高く、音声の劣化が少ない方式が好ましい。また、他の実施形態においては、音声データは圧縮されずに送信されてもよい。端末通信モジュール28は、圧縮された画像データおよび音声データを、アンテナ29を介して端末装置6へ送信する。
In addition to the image data, the
さらに、ゲーム装置本体5は、上記画像データおよび音声データの他に、必要に応じて各種の制御データを端末装置6へ送信する。制御データは、端末装置6が備える構成要素に対する制御指示を表すデータであり、例えばマーカ部(図5に示すマーカ部65)の点灯を制御する指示や、カメラ(図5に示すカメラ66)の撮像を制御する指示等を表す。入出力プロセッサ31は、CPU10の指示に応じて制御データを端末装置6へ送信する。なお、この制御データに関して、本実施形態ではコーデックLSI27はデータの圧縮処理を行わないが、他の実施形態においては圧縮処理を行うようにしてもよい。なお、ゲーム装置本体5から端末装置6へ送信される上述のデータは、必要に応じて暗号化がされていてもよいし、されていなくてもよい。
Furthermore, the
また、ゲーム装置本体5は、端末装置6から各種データを受信可能である。詳細は後述するが、本実施形態では、端末装置6は、操作データ、画像データ、および音声データを送信する。端末装置6から送信される各データは、アンテナ29を介して端末通信モジュール28によって受信される。ここで、端末装置6からの画像データおよび音声データは、ゲーム装置本体5から端末装置6への画像データおよび音声データと同様の圧縮処理が施されている。したがって、これら画像データおよび音声データについては、端末通信モジュール28からコーデックLSI27に送られ、コーデックLSI27によって伸張処理が施されて入出力プロセッサ31に出力される。一方、端末装置6からの操作データに関しては、画像や音声に比べてデータ量が少ないので、圧縮処理が施されていなくともよい。また、必要に応じて暗号化がされていてもよいし、されていなくてもよい。したがって、操作データは、端末通信モジュール28で受信された後、コーデックLSI27を介して入出力プロセッサ31に出力される。入出力プロセッサ31は、端末装置6から受信したデータを、内部メインメモリ35または外部メインメモリ12のバッファ領域に記憶(一時記憶)する。
Further, the
また、ゲーム装置本体5は、他の機器や外部記憶媒体に接続することが可能である。すなわち、入出力プロセッサ31には、拡張コネクタ20およびメモリカード用コネクタ21が接続される。拡張コネクタ20は、USBやSCSIのようなインタフェースのためのコネクタであり、外部記憶媒体のようなメディアを接続したり、他のコントローラのような周辺機器を接続したり、有線の通信用コネクタを接続することによってネットワーク通信モジュール18に替えてネットワークとの通信を行ったりすることができる。メモリカード用コネクタ21は、メモリカードのような外部記憶媒体を接続するためのコネクタである。例えば、入出力プロセッサ31は、拡張コネクタ20やメモリカード用コネクタ21を介して、外部記憶媒体にアクセスし、データを保存したり、データを読み出したりすることができる。
Further, the
ゲーム装置本体5(例えば、前部主面)には、電源ボタン24、リセットボタン25、光ディスク4を脱着する投入口、およびゲーム装置本体5の投入口から光ディスク4を取り出すイジェクトボタン26等が設けられている。電源ボタン24およびリセットボタン25は、システムLSI11に接続される。電源ボタン24がオンされると、ゲーム装置本体5の各構成要素に対して電力が供給される。リセットボタン25が押されると、システムLSI11は、ゲーム装置本体5の起動プログラムを再起動する。イジェクトボタン26は、ディスクドライブ14に接続される。イジェクトボタン26が押されると、ディスクドライブ14から光ディスク4が排出される。
The game apparatus body 5 (for example, the front main surface) is provided with a
なお、他の実施形態においては、ゲーム装置本体5が備える各構成要素のうちでいくつかの構成要素は、ゲーム装置本体5とは別体の拡張機器として構成されてもよい。このとき、拡張機器は、例えば拡張コネクタ20を介してゲーム装置本体5と接続されるようにしてもよい。具体的には、拡張機器は、例えばコーデックLSI27、端末通信モジュール28、およびアンテナ29の各構成要素を備えており、拡張コネクタ20に対して着脱可能であってもよい。これによれば、上記各構成要素を備えていないゲーム装置本体に対して上記拡張機器を接続することによって、当該ゲーム装置本体を端末装置6と通信可能な構成とすることができる。
In other embodiments, some of the components included in the
次に、図3〜図5を参照して、端末装置6の構成について説明する。なお、図3は、端末装置6の外観構成の一例を示す図である。図3の(a)部は端末装置6の正面図であり、(b)部は上面図であり、(c)部は右側面図であり、(d)部は下面図である。図4は、ユーザが端末装置6を把持した様子の一例を示す図である。
Next, the configuration of the
図3に示されるように、端末装置6は、大略的には横長の長方形の板状形状であるハウジング60を備える。ハウジング60は、ユーザが把持することができる程度の大きさである。したがって、ユーザは、端末装置6を持って動かしたり、端末装置6の配置位置を変更したりすることができる。
As shown in FIG. 3, the
端末装置6は、ハウジング60の表面にLCD61を有する。LCD61は、ハウジング60の表面の中央付近に設けられる。したがって、ユーザは、図4に示すようにLCD61の両側部分のハウジング60を持つことによって、LCD61の画面を見ながら端末装置6を持って動かすことができる。なお、図4では、ユーザがLCD61の左右両側の部分のハウジング60を持つことで端末装置6を横持ちで持つ(すなわち、長辺方向を横にして端末装置6を持つ)例を示しているが、端末装置6を縦持ちで持つ(すなわち、長辺方向を縦にして端末装置6を持つ)ことも可能である。
The
図3の(a)部に示すように、端末装置6は、操作手段として、LCD61の画面上にタッチパネル62を有する。本実施形態では、タッチパネル62は、抵抗膜方式のタッチパネルである。ただし、タッチパネル62は、抵抗膜方式に限らず、例えば静電容量方式等、任意の方式のタッチパネルを用いることができる。また、タッチパネル62は、シングルタッチ方式でもよいし、マルチタッチ方式であってもよい。本実施形態では、タッチパネル62として、LCD61の解像度と同解像度(検出精度)のものを利用する。ただし、必ずしもタッチパネル62の解像度とLCD61の解像度とが一致している必要はない。タッチパネル62に対する入力は、通常タッチペンを用いて行われるが、タッチペンに限らずユーザの指でタッチパネル62に対する入力をすることも可能である。なお、ハウジング60には、タッチパネル62に対する操作を行うために用いられるタッチペンを収納するための収納穴が設けられていてもよい。このように、端末装置6がタッチパネル62を備えているため、ユーザは、端末装置6を動かしながらタッチパネル62を操作することができる。つまり、ユーザは、LCD61の画面を動かしつつ、その画面に対して直接(タッチパネル62によって)入力を行うことができる。
As illustrated in part (a) of FIG. 3, the
図3に示すように、端末装置6は、操作手段として、2つのアナログスティック63Aおよび63Bと、複数の操作ボタン64A〜64Lとを備えている。各アナログスティック63Aおよび63Bは、方向を指示するデバイスである。各アナログスティック63Aおよび63Bは、ユーザの指で操作されるスティック部がハウジング60の表面に対して任意の方向(上下左右および斜め方向の任意の角度)にスライドまたは傾倒することができるように構成されている。また、左アナログスティック63Aは、LCD61の画面の左側に、右アナログスティック63Bは、LCD61の画面の右側にそれぞれ設けられる。したがって、ユーザは、左右いずれの手でもアナログスティック63Aまたは63Bを用いて方向を指示する入力を行うことができる。また、図4に示すように、各アナログスティック63Aおよび63Bは、ユーザが端末装置6の左右部分を把持した状態で操作可能な位置に設けられるので、ユーザは、端末装置6を持って動かす場合においても各アナログスティック63Aおよび63Bを容易に操作することができる。
As shown in FIG. 3, the
各操作ボタン64A〜64Lは、所定の入力を行うための操作手段である。以下に示すように、各操作ボタン64A〜64Lは、ユーザが端末装置6の左右部分を把持した状態で操作可能な位置に設けられる(図4参照)。したがって、ユーザは、端末装置6を持って動かす場合においてもこれらの操作手段を容易に操作することができる。
The
図3の(a)部に示すように、ハウジング60の表面には、各操作ボタン64A〜64Lのうち、十字ボタン(方向入力ボタン)64Aと、操作ボタン64B〜64Hとが設けられる。これらの操作ボタン64A〜64Gは、ユーザの親指で操作可能な位置に配置されている(図4参照)。
As shown in part (a) of FIG. 3, among the
十字ボタン64Aは、LCD61の左側であって、左アナログスティック63Aの下側に設けられる。つまり、十字ボタン64Aは、ユーザの左手で操作可能な位置に配置されている。十字ボタン64Aは、十字の形状を有しており、上下左右の方向を指示することが可能なボタンである。また、操作ボタン64B〜64Dは、LCD61の下側に設けられる。これら3つの操作ボタン64B〜64Dは、左右両方の手で操作可能な位置に配置されている。また、4つの操作ボタン64E〜64Hは、LCD61の右側であって、右アナログスティック63Bの下側に設けられる。つまり、4つの操作ボタン64E〜64Hは、ユーザの右手で操作可能な位置に配置されている。さらに、4つの操作ボタン64E〜64Hは、(4つの操作ボタン64E〜64Hの中心位置に対して)上下左右の位置関係となるように配置されている。したがって、端末装置6は、ユーザに上下左右の方向を指示させるためのボタンとして4つの操作ボタン64E〜64Hを機能させることも可能である。
The
また、図3の(a)部、(b)部、および(c)部に示すように、第1Lボタン64Iおよび第1Rボタン64Jは、ハウジング60の斜め上部分(左上部分および右上部分)に設けられる。具体的には、第1Lボタン64Iは、板状のハウジング60における上側の側面の左端に設けられ、上側および左側の側面から突設されている。また、第1Rボタン64Jは、ハウジング60における上側の側面の右端に設けられ、上側および右側の側面から突設されている。このように、第1Lボタン64Iは、ユーザの左手人差し指で操作可能な位置に配置され、第1Rボタン64Jは、ユーザの右手人差し指で操作可能な位置に配置される(図4参照)。
Further, as shown in FIGS. 3A, 3B, and 3C, the first L button 64I and the
また、図3の(b)部および(c)部に示すように、第2Lボタン64Kおよび第2Rボタン64Lは、板状のハウジング60の裏面(すなわちLCD61が設けられる表面の反対側の面)に突出して設けられた足部68Aおよび68Bにそれぞれ突設される。具体的には、第2Lボタン64Kは、ハウジング60の裏面の左側(表面側から見たときの左側)のやや上方に設けられ、第2Rボタン64Lは、ハウジング60の裏面の右側(表面側から見たときの右側)のやや上方に設けられる。換言すれば、第2Lボタン64Kは、表面に設けられる左アナログスティック63Aの概ね反対側の位置に設けられ、第2Rボタン64Lは、表面に設けられる右アナログスティック63Bの概ね反対側の位置に設けられる。第2Lボタン64Kは、ユーザの左手中指で操作可能な位置に配置され、第2Rボタン64Lは、ユーザの右手中指で操作可能な位置に配置される(図4参照)。また、第2Lボタン64Kおよび第2Rボタン64Lは、図3の(c)部に示すように、上記足部68Aおよび68Bの斜め上方を向く面に設けられ、斜め上方を向くボタン面を有する。ユーザが端末装置6を把持した場合には、中指が上下方向に動くと考えられるので、ボタン面を上方に向けることで、ユーザは第2Lボタン64Kおよび第2Rボタン64Lを押下しやすくなる。また、ハウジング60の裏面に足部68Aおよび68Bが設けられることにより、ユーザはハウジング60を把持しやすくなり、かつ、足部68Aおよび68Bに操作ボタンが設けられることで、ハウジング60を把持したまま操作しやすくなる。
As shown in FIGS. 3B and 3C, the
なお、図3に示す端末装置6に関しては、第2Lボタン64Kおよび第2Rボタン64Lが裏面に設けられるので、LCD61の画面(ハウジング60の表面)が上を向いた状態で端末装置6を載置させる場合、画面が完全に水平にはならない場合がある。そのため、他の実施形態においては、ハウジング60の裏面に3つ以上の足部が形成されてもよい。これによれば、LCD61の画面が上を向いた状態では3つ以上の足部が床面と接するように端末装置6を載置できるので、画面が水平になるように端末装置6を載置することができる。また、着脱可能な足部を装着することで端末装置6を水平に載置可能にしてもよい。
3, since the
各操作ボタン64A〜64Lには、ゲームプログラムに応じた機能が適宜割り当てられる。例えば、十字ボタン64Aおよび操作ボタン64E〜64Hは、方向指示操作や選択操作等に用いられてもよいし、各操作ボタン64B〜64Eは、決定操作やキャンセル操作等に用いられてもよい。
Functions corresponding to the game program are appropriately assigned to the
なお、図示しないが、端末装置6は、端末装置6の電源をオン/オフするための電源ボタンを有している。また、端末装置6は、LCD61の画面表示をオン/オフするための操作ボタンや、ゲーム装置本体5との接続設定(ペアリング)を行うための操作ボタンや、スピーカ(図5に示すスピーカ607)の音量を調節するための操作ボタンを有していてもよい。
Although not shown, the
図3の(a)部に示すように、端末装置6は、マーカ65Aおよびマーカ65Bからなるマーカ部(図5に示すマーカ部65)をハウジング60の表面に備えている。一例として、マーカ部65は、LCD61の上側に設けられる。マーカ65Aおよびマーカ65Bは、マーカ8のマーカ8Lおよび8Rと同様、それぞれ1以上の赤外LEDで構成される。マーカ部65は、上述したマーカ8と同様、マーカ部65に対するコントローラ7の動き等をゲーム装置本体5が算出するために用いられる。また、ゲーム装置本体5は、マーカ部65が備える各赤外LEDの点灯を制御することが可能である。
As shown in part (a) of FIG. 3, the
端末装置6は、撮像手段であるカメラ66を備えている。カメラ66は、所定の解像度を有する撮像素子(例えば、CCDイメージセンサやCMOSイメージセンサ等)と、レンズとを含む。例えば、カメラ66は、ハウジング60の表面に設けられる。したがって、カメラ66は、端末装置6を持っているユーザの顔を撮像することができ、一例としてLCD61を見ながらゲームを行っている状態におけるユーザを撮像することができる。
The
なお、端末装置6は、音声入力手段であるマイク(図5に示すマイク609)を備えている。ハウジング60の表面には、マイクロフォン用孔60bが設けられる。マイク609は、マイクロフォン用孔60bの内側となるハウジング60内部に設けられる。マイク609は、ユーザの音声等、端末装置6の周囲の音を検出する。
The
端末装置6は、音声出力手段であるスピーカ(図5に示すスピーカ607)を備えている。図3の(d)部に示すように、ハウジング60の下側側面にはスピーカ孔60aが設けられる。スピーカ607の出力音は、スピーカ孔60aから出力される。本実施形態では、端末装置6は、2つのスピーカを備えており、左スピーカおよび右スピーカのそれぞれの位置にスピーカ孔60aが設けられる。
The
また、端末装置6は、他の装置を端末装置6に接続するための拡張コネクタ67を備えている。本実施形態においては、図3の(d)部に示すように、拡張コネクタ67は、ハウジング60の下側側面に設けられる。なお、拡張コネクタ67に接続される他の装置はどのようなものであってもよく、例えば、特定のゲームに用いるコントローラ(銃型のコントローラ等)やキーボード等の入力装置であってもよい。他の装置を接続する必要がなければ、拡張コネクタ67は設けられていなくともよい。
The
なお、図3に示した端末装置6に関して、各操作ボタンやハウジング60の形状や、各構成要素の数および設置位置等は単なる一例に過ぎず、他の形状、数、および設置位置であってもよい。
In addition, regarding the
次に、図5を参照して、端末装置6の内部構成について説明する。図5は、端末装置6の内部構成の一例を示すブロック図である。図5に示すように、端末装置6は、図3に示した構成の他、タッチパネルコントローラ601、磁気センサ602、加速度センサ603、ジャイロセンサ604、ユーザインタフェースコントローラ(UIコントローラ)605、コーデックLSI606、スピーカ607、サウンドIC608、マイク609、無線モジュール610、アンテナ611、赤外線通信モジュール612、フラッシュメモリ613、電源IC614、電池615、およびバイブレータ619を備える。これらの電子部品は、電子回路基板上に実装されてハウジング60内に収納される。
Next, the internal configuration of the
UIコントローラ605は、各種の入出力部に対するデータの入出力を制御するための回路である。UIコントローラ605は、タッチパネルコントローラ601、アナログスティック63(アナログスティック63Aおよび63B)、操作ボタン64(各操作ボタン64A〜64L)、マーカ部65、磁気センサ602、加速度センサ603、ジャイロセンサ604、およびバイブレータ619に接続される。また、UIコントローラ605は、コーデックLSI606と拡張コネクタ67とに接続される。また、UIコントローラ605には電源IC614が接続され、UIコントローラ605を介して各部に電力が供給される。電源IC614には内蔵の電池615が接続され、電力が供給される。また、電源IC614には、コネクタ等を介して外部電源から電力を取得可能な充電器616またはケーブルを接続することが可能であり、端末装置6は、充電器616またはケーブルを用いて外部電源からの電力供給と充電とを行うことができる。なお、端末装置6は、図示しない充電機能を有するクレイドルに端末装置6を装着することで充電を行うようにしてもよい。
The
タッチパネルコントローラ601は、タッチパネル62に接続され、タッチパネル62の制御を行う回路である。タッチパネルコントローラ601は、タッチパネル62からの信号に基づいて所定の形式のタッチ位置データを生成してUIコントローラ605へ出力する。タッチ位置データは、タッチパネル62の入力面において入力が行われた位置の座標を表す。なお、タッチパネルコントローラ601は、タッチパネル62からの信号の読み込み、および、タッチ位置データの生成を所定時間に1回の割合で行う。また、UIコントローラ605からタッチパネルコントローラ601へは、タッチパネル62に対する各種の制御指示が出力される。
The
アナログスティック63は、ユーザの指で操作されるスティック部がスライドした(または傾倒した)方向および量を表すスティックデータをUIコントローラ605へ出力する。また、操作ボタン64は、各操作ボタン64A〜64Lに対する入力状況(押下されたか否か)を表す操作ボタンデータをUIコントローラ605へ出力する。
The analog stick 63 outputs to the
磁気センサ602は、磁界の大きさおよび方向を検知することで方位を検出する。検出された方位を示す方位データは、UIコントローラ605へ出力される。また、UIコントローラ605から磁気センサ602へは、磁気センサ602に対する制御指示が出力される。磁気センサ602に関しては、MI(磁気インピーダンス)素子、フラックスゲートセンサ、ホール素子、GMR(巨大磁気抵抗)素子、TMR(トンネル磁気抵抗)素子、あるいはAMR(異方性磁気抵抗)素子等を用いたセンサがあるが、方位を検出することができればどのようなものが用いられてもよい。なお、厳密には、地磁気以外に磁界が発生している場所においては、得られた方位データは方位を示さないことになるが、そのような場合であっても、端末装置6が動いた場合には方位データが変化するため、端末装置6の姿勢の変化を算出することができる。
The
加速度センサ603は、ハウジング60の内部に設けられ、3軸(図3の(a)部に示すxyz軸)方向に沿った直線加速度の大きさを検出する。具体的には、加速度センサ603は、ハウジング60の長辺方向をx軸(マーカ部65がLCD61の上側に配置された状態でLCD61の表示画面に向かって当該長辺方向に沿った右方向をx軸正方向とする)、ハウジング60の短辺方向をy軸(マーカ部65がLCD61の上側に配置された状態でLCD61の表示画面に向かって当該短辺方向に沿った上方向をy軸正方向とする)、ハウジング60の表面に対して垂直な方向をz軸(LCD61の表示画面奥行方向をz軸正方向とする)として、各軸の直線加速度の大きさを検出する。検出された加速度を表す加速度データはUIコントローラ605へ出力される。また、UIコントローラ605から加速度センサ603へは、加速度センサ603に対する制御指示が出力される。加速度センサ603は、本実施形態では例えば静電容量式のMEMS型加速度センサであるとするが、他の実施形態においては他の方式の加速度センサを用いるようにしてもよい。また、加速度センサ603は1軸または2軸方向を検出する加速度センサであってもよい。
The acceleration sensor 603 is provided inside the
ジャイロセンサ604は、ハウジング60の内部に設けられ、上記x軸、y軸、およびz軸の3軸周りの角速度をそれぞれ検出する。検出された角速度を表す角速度データは、UIコントローラ605へ出力される。また、UIコントローラ605からジャイロセンサ604へは、ジャイロセンサ604に対する制御指示が出力される。なお、3軸の角速度を検出するために用いられるジャイロセンサの数および組み合わせはどのようなものであってもよく、ジャイロセンサ604は、2軸ジャイロセンサと1軸ジャイロセンサとで構成されてもよい。また、ジャイロセンサ604は1軸または2軸方向を検出するジャイロセンサであってもよい。
The gyro sensor 604 is provided inside the
バイブレータ619は、例えば振動モータやソレノイドであり、UIコントローラ605と接続される。UIコントローラ605からバイブレータ619へ出力される制御指示に応じて、バイブレータ619が作動することによって端末装置6に振動が発生する。これによって、端末装置6を把持しているユーザの手にその振動が伝達される、いわゆる振動対応ゲームを実現することができる。
The vibrator 619 is, for example, a vibration motor or a solenoid, and is connected to the
UIコントローラ605は、上記の各構成要素から受け取ったタッチ位置データ、スティックデータ、操作ボタンデータ、方位データ、加速度データ、および角速度データを含む操作データをコーデックLSI606に出力する。なお、拡張コネクタ67を介して端末装置6に他の装置が接続される場合には、当該他の装置に対する操作を表すデータが上記操作データにさらに含まれていてもよい。
The
コーデックLSI606は、ゲーム装置本体5へ送信するデータに対する圧縮処理、およびゲーム装置本体5から送信されたデータに対する伸張処理を行う回路である。コーデックLSI606には、LCD61、カメラ66、サウンドIC608、無線モジュール610、フラッシュメモリ613、および赤外線通信モジュール612が接続される。また、コーデックLSI606は、CPU617と内部メモリ618とを含む。例えば、端末装置6は、ゲーム処理自体を行わない構成であるが、端末装置6の管理や通信のための最小限のプログラムを実行する必要がある。一例として、電源投入時にフラッシュメモリ613に格納されたプログラムを内部メモリ618に読み出してCPU617が実行することで、端末装置6が起動する。また、内部メモリ618の一部の領域は、LCD61のためのVRAMとして使用される。
The
カメラ66は、ゲーム装置本体5からの指示に従って画像を撮像し、撮像した画像データをコーデックLSI606へ出力する。また、コーデックLSI606からカメラ66へは、画像の撮像指示等、カメラ66に対する制御指示が出力される。なお、カメラ66は、動画の撮影も可能である。すなわち、カメラ66は、繰り返し撮像を行って画像データをコーデックLSI606へ繰り返し出力することも可能である。
The
サウンドIC608は、スピーカ607およびマイク609に接続され、スピーカ607およびマイク609への音声データの入出力を制御する回路である。すなわち、コーデックLSI606から音声データを受け取った場合、サウンドIC608は、当該音声データに対してD/A変換を行って得られる音声信号をスピーカ607へ出力し、スピーカ607から音を出力させる。また、マイク609は、端末装置6に伝わる音(ユーザの音声等)を検知して、当該音を示す音声信号をサウンドIC608へ出力する。サウンドIC608は、マイク609からの音声信号に対してA/D変換を行い、所定の形式の音声データをコーデックLSI606へ出力する。
The
コーデックLSI606は、カメラ66からの画像データ、マイク609からの音声データ、およびUIコントローラ605からの操作データを、端末操作データとして無線モジュール610を介してゲーム装置本体5へ送信する。本実施形態では、コーデックLSI606は、画像データおよび音声データに対して、コーデックLSI27と同様の圧縮処理を行う。圧縮された画像データおよび音声データと上記端末操作データとは、送信データとして無線モジュール610に出力される。無線モジュール610にはアンテナ611が接続されており、無線モジュール610はアンテナ611を介してゲーム装置本体5へ上記送信データを送信する。無線モジュール610は、ゲーム装置本体5の端末通信モジュール28と同様の機能を有している。すなわち、無線モジュール610は、例えばIEEE802.11nの規格に準拠した方式により、無線LANに接続する機能を有する。無線モジュール610から送信されるデータは、必要に応じて暗号化されていてもよいし、されていなくてもよい。
The
以上のように、端末装置6からゲーム装置本体5へ送信される送信データには、操作データ(端末操作データ)、画像データ、および音声データが含まれる。なお、拡張コネクタ67を介して端末装置6に他の装置が接続される場合には、当該他の装置から受け取ったデータが上記送信データにさらに含まれていてもよい。また、赤外線通信モジュール612は、他の装置との間で例えばIRDAの規格に従った赤外線通信を行う。コーデックLSI606は、赤外線通信によって受信したデータを、必要に応じて上記送信データに含めてゲーム装置本体5へ送信してもよい。
As described above, the transmission data transmitted from the
また、上述のように、ゲーム装置本体5から端末装置6へは、圧縮された画像データおよび音声データが送信される。これらのデータは、アンテナ611および無線モジュール610を介してコーデックLSI606で受信される。コーデックLSI606は、受信した画像データおよび音声データを伸張する。伸張された画像データは、LCD61へ出力され、当該画像データに応じた画像がLCD61に表示される。また、伸張された音声データは、サウンドIC608へ出力され、当該音声データに応じた音がスピーカ607から出力される。
Further, as described above, compressed image data and audio data are transmitted from the
また、ゲーム装置本体5から受信されるデータに制御データが含まれる場合、コーデックLSI606およびUIコントローラ605は、制御データに従った制御指示を各部に行う。上述のように、制御データは、端末装置6が備える各構成要素(本実施形態では、カメラ66、タッチパネルコントローラ601、マーカ部65、各センサ602〜604、バイブレータ619、および赤外線通信モジュール612)に対する制御指示を表すデータである。本実施形態では、制御データが表す制御指示としては、上記各構成要素を動作させたり、動作を休止(停止)させたりする指示が考えられる。すなわち、ゲームで使用しない構成要素については電力消費を抑えるために休止させてもよく、その場合、端末装置6からゲーム装置本体5へ送信される送信データには、休止した構成要素からのデータが含まれないようにする。なお、マーカ部65は、赤外LEDであるので、制御は単に電力の供給のON/OFFでよい。
When the control data is included in the data received from the
以上のように、端末装置6は、タッチパネル62、アナログスティック63、および操作ボタン64といった操作手段を備えるが、他の実施形態においては、これらの操作手段に代えて、または、これらの操作手段とともに、他の操作手段を備える構成であってもよい。
As described above, the
また、端末装置6は、端末装置6の動き(位置や姿勢、あるいは、位置や姿勢の変化を含む)を算出するためのセンサとして、磁気センサ602、加速度センサ603、およびジャイロセンサ604を備えるが、他の実施形態においては、これらのセンサのうち1つまたは2つのみを備える構成であってもよい。また、他の実施形態においては、これらのセンサに代えて、または、これらのセンサとともに、他のセンサを備える構成であってもよい。
Further, the
また、端末装置6は、カメラ66およびマイク609を備える構成であるが、他の実施形態においては、カメラ66およびマイク609を備えていなくてもよく、また、いずれか一方のみを備えていてもよい。
Moreover, although the
また、端末装置6は、端末装置6とコントローラ7との位置関係(コントローラ7から見た端末装置6の位置および/または姿勢等)を算出するための構成としてマーカ部65を備える構成であるが、他の実施形態ではマーカ部65を備えていない構成としてもよい。また、他の実施形態では、端末装置6は、上記位置関係を算出するための構成として他の手段を備えていてもよい。例えば、他の実施形態においては、コントローラ7がマーカ部を備え、端末装置6が撮像素子を備える構成としてもよい。さらにこの場合、マーカ8は赤外LEDに代えて、撮像素子を備える構成としてもよい。
Further, the
次に、図6〜図8を参照して、ボード型コントローラ9の構成について説明する。なお、図6は、図1に示したボード型コントローラ9の外観の一例を示す斜視図である。図6に示されるように、ボード型コントローラ9は、ユーザがその上に乗る(ユーザの足を乗せる)台9a、台9aに掛かる荷重を検出するための少なくとも4つの荷重センサ94a〜94dを備える。各荷重センサ94a〜94dは、それぞれ台9aに内包されており(図7参照)、図6においてはそれらの配置位置がそれぞれ破線で示されている。なお、以下の説明において、4つの荷重センサ94a〜94dを総称して説明する場合、荷重センサ94と記載することがある。
Next, the configuration of the
台9aは、略直方体に形成されており、上面視で略長方形状である。例えば、台9aは、長方形状の短辺が30cm程度に設定され、長辺が50cm程度に設定される。台9aの上面は、平坦に形成され、ユーザが両足裏をそれぞれ置いて乗るための一対の面が設定されている。具体的には、台9aの上面には、ユーザが左足を乗せるための面(図6における左奥側に2重線で囲まれた領域)および左足を乗せるための面(図6における右手前側に2重線で囲まれた領域)がそれぞれ設定されている。そして、台9aの4隅の側面は、例えば部分的に円柱状に張り出すように形成されている。
The
台9aにおいて、4つの荷重センサ94a〜94dは、所定の間隔を置いて配置される。当該実施例では、4つの荷重センサ94a〜94dは、台9aの周縁部に、具体的には4隅にそれぞれ配置される。荷重センサ94a〜94dの間隔は、台9aに対するユーザの荷重のかけ方によるゲーム操作の意図をより精度良く検出できるように適宜な値に設定される。
In the table 9a, the four
図7は、図6に示したボード型コントローラ9のA−A断面図の一例を示すとともに、荷重センサ94が配置された隅の部分が拡大表示された一例を示している。図7において、台9aは、ユーザが乗るための支持板90と脚92とを含む。荷重センサ94a〜94dは、脚92が配置される箇所にそれぞれ設けられる。この実施例では、4つの脚92が4隅に設けられているので、4つの荷重センサ94a〜94dがそれぞれ4隅に配置されることになる。脚92は、例えばプラスチック成型によって略有底円筒状に形成されており、荷重センサ94は、脚92内の底面に設けられた球面部品92a上に配置される。支持板90は、荷重センサ94を介して脚92に支持される。
FIG. 7 shows an example of an AA sectional view of the board-
支持板90は、上面と側面上部とを形成する上層板90a、下面と側面下部とを形成する下層板90b、および上層板90aと下層板90bとの間に設けられる中層板90cを含む。上層板90aと下層板90bとは、例えばプラスチック成型により形成されており、接着等により一体化される。中層板90cは、例えば1枚の金属板のプレス成型により形成されている。中層板90cは、4つの荷重センサ94a〜94dの上に固定される。上層板90aは、その下面に格子状のリブ(図示しない)を有しており、当該リブを介して中層板90cに支持されている。したがって、台9aにユーザが乗ったときには、その荷重は、支持板90および荷重センサ94a〜94dを介して、4つの脚92に伝達する。図7に矢印で示したように、入力された荷重によって生じた床からの反作用は、脚92から、球面部品92a、荷重センサ94a〜94d、および中層板90cを介して、上層板90aに伝達する。
The
荷重センサ94は、例えば歪ゲージ(歪センサ)式ロードセルであり、入力された荷重を電気信号に変換する荷重変換器である。荷重センサ94では、荷重入力に応じて、起歪体95が変形して歪が生じる。この歪が、起歪体95に貼り付けられた歪センサ96によって電気抵抗の変化に変換され、さらに電圧変化に変換される。したがって、荷重センサ94は、入力荷重を示す電圧信号を出力端子から出力することができる。
The
なお、荷重センサ94は、音叉振動式、弦振動式、静電容量式、圧電式、磁歪式、またはジャイロ式のような他の方式の荷重センサであってもよい。
The
図6に戻って、ボード型コントローラ9には、さらに、電源ボタン9cが設けられる。ボード型コントローラ9が起動していない状態で電源ボタン9cが操作(例えば、電源ボタン9cの押下)されると、ボード型コントローラ9の各回路コンポーネント(図8参照)に電力が供給される。ただし、ボード型コントローラ9は、ゲーム装置本体5からの指示に従って電源オンされて各回路コンポーネントに電力供給が開始される場合もある。なお、ボード型コントローラ9は、ユーザが乗っていない状態が一定時間(例えば、30秒)以上継続すると、自動的に電源がオフされてもよい。また、ボード型コントローラ9が起動している状態で、電源ボタン9cが再度操作された場合、電源がオフされて各回路コンポーネントへの電力供給が停止されてもよい。
Returning to FIG. 6, the
図8は、ボード型コントローラ9の電気的な構成の一例を示すブロック図である。なお、図8では、信号およびデータの流れは実線矢印で示され、電力の供給が破線矢印で示されている。
FIG. 8 is a block diagram showing an example of the electrical configuration of the board-
図8において、ボード型コントローラ9は、その動作を制御するためのマイクロコンピュータ(マイコン)100を含む。マイコン100は、図示しないCPU、ROM、およびRAM等を含み、CPUがROMに記憶されたプログラムに従ってボード型コントローラ9の動作を制御する。
In FIG. 8, the
マイコン100には、電源ボタン9c、ADコンバータ102、DC−DCコンバータ104、および無線モジュール106が接続される。さらに、無線モジュール106には、アンテナ106aが接続される。4つの荷重センサ94a〜94dは、それぞれ増幅器108を介してADコンバータ102に接続される。
The
また、ボード型コントローラ9には、各回路コンポーネントへの電力供給のために電池110が収容されている。他の実施例では、電池110に代えてACアダプタをボード型コントローラ9に接続し、商用電力を各回路コンポーネントに供給するようにしてもよい。この場合、DC−DCコンバータ104に代えて、交流を直流に変換し、直流電圧を降圧および整流する電源回路をボード型コントローラ9内に設ける必要がある。この実施例では、マイコン100および無線モジュール106への電力供給は、電池110から直接的に行われる。つまり、マイコン100内部の一部のコンポーネント(CPU)と無線モジュール106とには、常に電池110からの電力が供給されており、電源ボタン9cがオンされたか否か、ゲーム装置本体5から電源オンを指示するコマンドが送信されたか否かを検出する。一方、荷重センサ94a〜94d、ADコンバータ102、および増幅器108には、DC−DCコンバータ104を介して電池110からの電力が供給される。DC−DCコンバータ104は、電池110からの直流電流の電圧値を異なる電圧値に変換して、荷重センサ94a〜94d、ADコンバータ102、および増幅器108に与える。
Further, the board-
これら荷重センサ94a〜94d、ADコンバータ102、および増幅器108への電力供給は、マイコン100によるDC−DCコンバータ104の制御によって、必要に応じて行われるようにしてもよい。つまり、マイコン100は、荷重センサ94a〜94dを動作させて荷重を検出する必要があると判断される場合に、DC−DCコンバータ104を制御して、荷重センサ94a〜94d、ADコンバータ102、および増幅器108に電力を供給するようにしてよい。
The power supply to the
電力が供給されると、荷重センサ94a〜94dは、入力された荷重を示す信号をそれぞれ出力する。これらの信号は、各増幅器108で増幅され、ADコンバータ102でアナログ信号からデジタルデータに変換されて、マイコン100に入力される。荷重センサ94a〜94dの検出値には荷重センサ94a〜94dの識別情報が付与されて、いずれの荷重センサ94a〜94dの検出値であるかが識別可能にされる。このようにして、マイコン100は、同一時刻における4つの荷重センサ94a〜94dそれぞれの荷重検出値を示すデータを取得することができる。
When power is supplied, the
一方、マイコン100は、荷重センサ94a〜94dを動作させる必要がないと判断される場合、つまり、荷重検出タイミングでない場合、DC−DCコンバータ104を制御して、荷重センサ94a〜94d、ADコンバータ102、および増幅器108への電力の供給を停止する。このように、ボード型コントローラ9は、必要な場合にだけ、荷重センサ94a〜94dを動作させて荷重や距離の検出を行うことができるので、荷重検出のための電力消費を抑制することができる。
On the other hand, when it is determined that the
荷重検出が必要な場合とは、典型的には、ゲーム装置本体5(図1)が荷重データを取得したいときである。例えば、ゲーム装置本体5が荷重情報を必要とするとき、ゲーム装置本体5は、ボード型コントローラ9に対して情報取得命令を送信する。マイコン100は、ゲーム装置本体5から情報取得命令を受信したときに、DC−DCコンバータ104を制御して、荷重センサ94a〜94d等に電力を供給し、荷重を検出する。一方、マイコン100は、ゲーム装置本体5から情報取得命令を受信していないときには、DC−DCコンバータ104を制御して、荷重センサ94a〜94d等への電力供給を停止する。
The case where load detection is necessary is typically when the game apparatus body 5 (FIG. 1) wants to acquire load data. For example, when the
なお、マイコン100は、一定時間ごとに荷重検出タイミングが到来すると判断して、DC−DCコンバータ104を制御するようにしてもよい。このような周期的な荷重検出を行う場合、周期情報は、例えば、ゲーム開始時点においてゲーム装置本体5からボード型コントローラ9のマイコン100に与えられて記憶されてもよいし、予めマイコン100にプリインストールされてもよい。
Note that the
荷重センサ94a〜94dからの検出値を示すデータは、ボード型コントローラ9のボード操作データ(入力データ)として、マイコン100から無線モジュール106およびアンテナ106aを介してゲーム装置本体5に送信される。例えば、ゲーム装置本体5からの命令を受けて荷重検出を行った場合、マイコン100は、ADコンバータ102から荷重センサ94a〜94dの検出値データを受信したことに応じて、当該検出値データをゲーム装置本体5に送信する。なお、マイコン100は、一定時間ごとに上記検出値データをゲーム装置本体5に送信するようにしてもよい。荷重の検出周期よりも送信周期が長い場合には、送信タイミングまでに検出された複数の検出タイミングの荷重値を含むデータを送信すればよい。
Data indicating detection values from the
なお、無線モジュール106は、ゲーム装置本体5のコントローラ通信モジュール19と同じ無線規格(Bluetooth、無線LANなど)で通信可能にされる。したがって、ゲーム装置本体5のCPU10は、コントローラ通信モジュール19等を介して情報取得命令をボード型コントローラ9に送信することができる。このように、ボード型コントローラ9は、無線モジュール106およびアンテナ106aを介して、ゲーム装置本体5からの命令を受信することができる。また、ボード型コントローラ9は、荷重センサ94a〜94dの荷重検出値(または荷重算出値)を含むボード操作データをゲーム装置本体5に送信することができる。
The
例えば、4つの荷重センサ94a〜94dで検出される4つの荷重値の単なる合計値を用いて実行されるようなゲームの場合には、ユーザはボード型コントローラ9の4つの荷重センサ94a〜94dに対して任意の位置をとることができる。つまり、ユーザは、台9aの上の任意の位置に任意の向きで乗ってゲームをプレイすることができる。しかしながら、ゲームの種類によっては、4つの荷重センサ94で検出される荷重値がユーザから見ていずれの方向の荷重値であるかを識別して処理を行う必要がある。つまり、ボード型コントローラ9の4つの荷重センサ94とユーザとの位置関係が把握されている必要がある。この場合、例えば、4つの荷重センサ94とユーザとの位置関係を予め規定しておき、当該所定の位置関係が得られるようにユーザが台9a上に乗ることが前提とされてもよい。典型的には、台9aの中央に乗ったユーザの前後左右にそれぞれ荷重センサ94a〜94dが2つずつ存在するような位置関係、つまり、ユーザがボード型コントローラ9の台9aの中央に乗った位置関係が規定される。この場合、この実施例では、ボード型コントローラ9の台9aが平面視で矩形状に形成されるとともにその矩形の1辺(長辺)に電源ボタン9cが設けられているので、この電源ボタン9cを目印として利用して、ユーザには電源ボタン9cの設けられた長辺が所定の方向(前、後、左または右)に存在するようにして台9aに乗ってもらうことを予め決めておく。このようにすれば、荷重センサ94a〜94dで検出される荷重値は、ユーザから見て所定の方向(右前、左前、右後および左後)の荷重値となる。したがって、ボード型コントローラ9およびゲーム装置本体5は、荷重検出値データに含まれる荷重センサ94の識別情報と、予め設定(記憶)された荷重センサ94のユーザに対する位置または方向を示す配置データとに基づいて、各荷重検出値がユーザから見ていずれの方向に対応するかを把握することができる。これにより、例えば前後左右の操作方向や上げている足の区別のようなユーザによるゲーム操作の意図を把握することが可能になる。
For example, in the case of a game that is executed using a mere total value of four load values detected by the four
次に、ゲーム装置本体5が行う具体的な処理を説明する前に、図面を用いてゲーム装置本体5で行う情報処理の概要について説明する。なお、図9は、端末装置6およびボード型コントローラ9を用いて操作するユーザの様子の一例を示す図である。図10Aは、端末装置6のLCD61に表示される画像の一例を示す図である。図10Bは、モニタ2に表示される画像の一例を示す図である。図11は、端末装置6を左右に回転(ヨー)した一例と、LCD61に表示される画像の一例とを示す図である。図12は、実空間の水平面に投影した端末装置奥行方向および仮想世界の水平面に投影した操作指示方向の関係と、当該操作指示方向に基づいた方向に制御されたプレイヤオブジェクトPoとの一例を説明するための図である。図13は、端末装置6を左右に回転(ヨー)した場合の操作指示方向および当該操作指示方向に基づいた方向に制御されたプレイヤオブジェクトPoとの一例を説明するための図である。図14Aは、仮想世界(実空間)の左右方向に設定される砲塔左右操作範囲および仮想カメラ左右操作範囲の一例を説明するための図である。図14Bは、仮想世界(実空間)の上下方向に設定される砲塔上下操作範囲および仮想カメラ上下操作範囲の一例を説明するための図である。
Next, before describing specific processing performed by the
図9に示すように、ユーザは、端末装置6およびボード型コントローラ9を用いて操作し、端末装置6の姿勢や方向を変化させる操作と、ボード型コントローラ9に加える荷重を変化させる操作とを行う。具体的には、ユーザは、端末装置6を把持した状態で、片足をボード型コントローラ9上に乗せる。そして、ユーザは、モニタ2に表示された画像や端末装置6のLCD61に表示された画像を見ながら、ボード型コントローラ9上で動作(例えば、ユーザがボード型コントローラ9上の片足で踏むような動作をすることによって、ボード型コントローラ9上の片足にかける体重を強弱する操作)するとともに、端末装置6自体を動かす操作をしてプレイする。そして、端末装置6のLCD61およびモニタ2には、ユーザが把持する端末装置6の方向や姿勢と、ボード型コントローラ9上におけるユーザ動作とに応じて、仮想世界においてプレイヤオブジェクトPoが動作(例えば、方向が変化する動作や射出オブジェクトを射出する動作)し、プレイヤオブジェクトPoの方向に応じて仮想世界に設定される仮想カメラの姿勢を変化させたゲーム画像が表現される。
As shown in FIG. 9, the user performs an operation using the
図10Aに示すように、端末装置6のLCD61には、仮想世界内においてプレイヤオブジェクトPoが水鉄砲を発射している様子がプレイヤオブジェクトPoの主観視点で表示される。図10Aに示した一例では、プレイヤオブジェクトPoが操作している水鉄砲の先端部(砲塔の先端部)を含む主観視点による仮想世界内が表示され、当該水鉄砲から射出オブジェクトの一例である水Wを噴き出している様子が表示されている。また、上記仮想世界内には複数の敵オブジェクトEoが配置されており、敵オブジェクトEoの1つが敵弾BをプレイヤオブジェクトPoに向かって投げつけている様子も表示されている。このように、プレイヤオブジェクトPoの主観視点による仮想世界をLCD61に表示することによって、端末装置6を把持してLCD61に表示を見ているユーザがプレイヤオブジェクトPoと同じ視点でゲームプレイが可能となり、仮想世界の臨場感を与えることができる。
As shown in FIG. 10A, the
また、図10Bに示すように、モニタ2にもLCD61に表示されている仮想世界と同じ仮想世界が表示される。図10Bに示した一例では、水鉄砲を操作しているプレイヤオブジェクトPoの背後上方遠方から見た仮想世界内の様子がプレイヤオブジェクトPoとともに表示されている。このように、プレイヤオブジェクトPoの背後上方遠方から見た仮想世界内の様子をモニタ2に表示することによって、ユーザがプレイヤオブジェクトPoの周囲の状況や敵オブジェクトEoとの位置関係が把握しやすくなるとともに、ユーザが当該ゲームをプレイしている様子を見ている他の人がプレイヤオブジェクトPoの攻撃動作を見て楽しむこともできる。
Further, as shown in FIG. 10B, the same virtual world as the virtual world displayed on the
なお、図10Bに示した例では、プレイヤオブジェクトPoの背後上方遠方から見た仮想世界内の様子がモニタ2に表示されているが、他の視点の仮想世界をモニタ2に表示してもかまわない。端末装置6だけでなくモニタ2にも同じ仮想世界を表示し、それぞれ視点の異なる仮想世界の画像を表示することによって、ユーザが操作する際に2つの表示装置に表示される画像を操作状況や好みに応じて使い分けることが可能となる。例えば、端末装置6に表示するプレイヤオブジェクトPoの主観視点の画像に対して、モニタ2に仮想世界を表示するための仮想カメラ(第2仮想カメラ)をプレイヤオブジェクトPoから離れた位置に設定し、端末装置6で示される仮想世界の範囲より広い範囲をモニタ2に表示すれば、当該仮想カメラの位置はプレイヤオブジェクトPoの背後上方遠方でなくてもかまわない。具体的には、プレイヤオブジェクトPoを鳥瞰したり俯瞰したりする位置に、モニタ2に仮想世界を表示するための仮想カメラを設定してもよい。
In the example shown in FIG. 10B, the state in the virtual world as viewed from the far rear upper side of the player object Po is displayed on the
一例として、ユーザがボード型コントローラ9上に片足で体重をかける動作をした場合、プレイヤオブジェクトPoが水鉄砲から水Wを射出する動作を行う。このとき、ユーザがボード型コントローラ9上にかける荷重が大きいほど噴き出す水Wの水量が多くなり水Wが射出される射出速度も速くなる。また、ボード型コントローラ9上にかける荷重の増加する変化量が所定の閾値以上となった場合、水Wとは異なる射出オブジェクト(例えば、水Wより多量の水の塊となった大玉)が、水鉄砲から射出される。また、ユーザがボード型コントローラ9上にかける体重を弱める(例えば、0にする)動作をした場合、プレイヤオブジェクトPoが水鉄砲から射出している水Wを止める動作を行う。このように、ユーザは、ボード型コントローラ9上の動作によって、プレイヤオブジェクトPoが射出オブジェクトを射出する動作(すなわち、射出オブジェクトの射出有無、射出オブジェクトを射出する射出量および射出速度、射出オブジェクトの種類)を制御することができ、ボード型コントローラ9を用いてアナログ操作が可能となる。
As an example, when the user performs an action of putting weight on the board-
例えば、上述したように、ボード型コントローラ9からはボード型コントローラ9上のユーザ動作に応じた荷重検出値が出力される。そして、上記荷重検出値を用いれば、ボード型コントローラ9に加わっている合計荷重の算出が可能である。上記合計荷重を用いれば、ユーザがボード型コントローラ9上に体重をかけているのか、ボード型コントローラ9にかけている体重を弱めているのか推定することが可能となる。また、上記合計荷重を用いれば、ユーザがボード型コントローラ9上にかけている荷重の大きさや、ボード型コントローラ9にかけてられている荷重の変化量も算出することが可能となる。このようなボード型コントローラ9上で推定されるユーザ動作に応じて、プレイヤオブジェクトPoが射出オブジェクトを射出する動作が設定される。
For example, as described above, the
また、ユーザが把持する端末装置6の姿勢(方向)に応じて、プレイヤオブジェクトPoが仮想世界内を見る方向(すなわち、プレイヤオブジェクトPoの主観視点に配置された仮想カメラの視線方向)が変化するとともに、プレイヤオブジェクトPoが射出オブジェクト(例えば、水W)を射出させる方向(水鉄砲の砲塔方向)が変化する。例えば、ユーザが端末装置6の背面を上下左右に向ける、すなわち、LCD61の奥行方向(端末装置奥行方向)であるz軸正方向を上下左右に向けることに応じて、水鉄砲が射出オブジェクトを射出する方向も仮想世界内で上下左右に変化する。また、ユーザが端末装置6の端末装置奥行方向を上下左右に向けることに応じて、仮想カメラの視線方向も上下左右に変化するため、プレイヤオブジェクトPoの主観視点で表示されているLCD61のゲーム画像も当該方向変化に応じて変化する。例えば、図11に示すように、端末装置奥行方向が右に向くようにユーザが端末装置6の向きを変えた場合、仮想世界における水鉄砲の砲塔方向が右へ変化するとともに、当該仮想世界における仮想カメラの視線方向も同じ角度だけ右へ変化する。図10Aと比較すれば明らかなように、結果的にLCD61には左へスクロールするような仮想世界が表示され、水鉄砲の砲塔がLCD61の固定位置に同じ姿勢で表示される。そして、水鉄砲の砲塔から水Wが射出され続けている場合、水Wが当該砲塔の方向変化に合わせて仮想世界において蛇行して射出されている状態がLCD61に表示される。
Further, the direction in which the player object Po looks in the virtual world (that is, the line-of-sight direction of the virtual camera placed at the subjective viewpoint of the player object Po) changes according to the attitude (direction) of the
図12および図13は、それぞれ実空間を俯瞰した端末装置6の姿勢と、仮想世界を俯瞰したプレイヤオブジェクトPoおよび仮想カメラの姿勢とを示している。図12に示すように、LCD61に表示する仮想世界を生成するための仮想カメラ(第1仮想カメラ)は、仮想世界で水鉄砲を操作するプレイヤオブジェクトPoの主観視点に配置される。そして、実空間における端末装置6の端末装置奥行方向(z軸正方向)の向きを仮想世界内に反映させた操作指示方向が算出され、当該操作指示方向と一致する方向に砲塔方向が設定される。また、上記操作指示方向と一致する方向(すなわち、砲塔方向)が視線方向(図示Z方向)となるように仮想カメラの姿勢が制御される。このように、端末装置奥行方向を仮想世界内に反映させた操作指示方向と仮想カメラの視線方向とを一致させることによって、端末装置6を実空間において上下左右に向ける方向と仮想カメラを仮想世界において上下左右に向ける方向とが一致するため、LCD61を覗き窓として仮想世界内を覗いているような画像をLCD61に表示することができる。
12 and 13 respectively show the posture of the
端末装置奥行方向が右(図12に示すA方向)に向くように、ユーザが端末装置6の向きを変えた場合を考える。例えば、図13に示すように、端末装置奥行方向が角度BだけA方向に向くように、端末装置6の向きが変わった場合を考える。この場合、操作指示方向は、実空間における端末装置奥行方向の変化と同様に、仮想世界においても角度BだけA方向へ変化する。そして、プレイヤオブジェクトPoが操作する水鉄砲の砲塔方向も、仮想世界の所定位置(例えば、プレイヤオブジェクトPoの主観視点であり、仮想カメラが配置されている位置)を中心に、操作指示方向の変化と同じA方向へ角度Bだけ変化する。また、仮想カメラの視線方向も、仮想世界の所定位置(例えば、仮想カメラの視点位置)を中心に、操作指示方向の変化と同じA方向へ角度Bだけ変化する。
Consider a case where the user changes the orientation of the
ここで、ユーザが水鉄砲の砲塔方向を変化させることができる範囲は、予め所定の範囲内に制限されていてもよい。例えば、図14Aに示すように、砲塔が仮想世界において左右に方向を変えることができる砲塔左右操作範囲は、仮想世界基準方向を中心に所定の角度範囲(例えば、仮想世界基準方向の左右45°の合計90°の範囲や、仮想世界基準方向の左右90°の合計180°の範囲)に設定されている。なお、仮想世界基準方向は、実空間におけるユーザの正面(実空間基準方向)に対応する仮想世界における正面方向を示す方向であり、一例としてユーザ操作に応じて設定される。また、図14Bに示すように、砲塔が仮想世界において上下に方向を変えることができる砲塔上下操作範囲は、仮想世界水平方向(実空間水平方向)を基準に所定の角度範囲(例えば、仮想世界水平方向から仰角方向に45°、俯角方向に10°の合計55°の範囲)に設定されている。そして、上記操作指示方向が砲塔左右操作範囲外および/または砲塔上下操作範囲外に設定された場合、砲塔方向は当該操作指示方向に最も近い砲塔左右操作範囲内および/または砲塔上下操作範囲内に設定される。 Here, the range in which the user can change the turret direction of the water gun may be limited to a predetermined range in advance. For example, as shown in FIG. 14A, the turret left-right operation range in which the turret can change the direction to the left and right in the virtual world is a predetermined angle range centered on the virtual world reference direction (for example, 45 ° left and right of the virtual world reference direction). And a total range of 180 ° of 90 ° to the left and right of the virtual world reference direction). The virtual world reference direction is a direction indicating the front direction in the virtual world corresponding to the front of the user in the real space (real space reference direction), and is set according to a user operation as an example. Further, as shown in FIG. 14B, the turret up / down operation range in which the turret can change the vertical direction in the virtual world is a predetermined angle range (for example, the virtual world) based on the virtual world horizontal direction (real space horizontal direction). 45 ° in the elevation direction from the horizontal direction and 10 ° in the depression direction, a total range of 55 °). When the operation instruction direction is set outside the turret left / right operation range and / or outside the turret vertical operation range, the turret direction is within the turret left / right operation range and / or the turret vertical operation range closest to the operation instruction direction. Is set.
一方、ユーザが仮想カメラの視線方向を変化させることができる範囲は、制限しなくてもかまわない。例えば、図14Aに示すように、仮想カメラの視線方向を左右に変えることができる仮想カメラ左右操作範囲は、全方向設定可能となっている。また、図14Bに示すように、仮想カメラの視線方向を上下に変えることができる仮想カメラ上下操作範囲も、全方向設定可能となっている。したがって、上記操作指示方向が砲塔左右操作範囲外および/または砲塔上下操作範囲外に設定された場合、砲塔方向は砲塔左右操作範囲内および/または砲塔上下操作範囲内に設定されるが、仮想カメラの視線方向は当該操作指示方向と同じ方向に設定される。つまり、ユーザは、砲塔左右操作範囲外および/または砲塔上下操作範囲外となる操作指示方向が算出される方向に端末装置6を向けた場合、仮想カメラの視線方向と砲塔方向とが異なった状態となった仮想世界がLCD61に表示されることになる。
On the other hand, the range in which the user can change the viewing direction of the virtual camera may not be limited. For example, as shown in FIG. 14A, the virtual camera left / right operation range in which the viewing direction of the virtual camera can be changed to the left and right can be set in all directions. Further, as shown in FIG. 14B, the virtual camera up / down operation range in which the visual line direction of the virtual camera can be changed up and down can be set in all directions. Therefore, when the operation instruction direction is set outside the turret left / right operation range and / or outside the turret vertical operation range, the turret direction is set within the turret left / right operation range and / or the turret vertical operation range. Is set to the same direction as the operation instruction direction. That is, when the user points the
例えば、端末装置6からは端末装置6の動きや姿勢変化に応じた加速度データや角速度データが出力される。そして、上記加速度データが示す加速度を用いれば、端末装置6に作用している重力加速度の方向が算出できるため、実空間における鉛直方向を基準として端末装置6がどのような姿勢になっているのか推定することができる。また、上記角速度データが示す角速度および/または上記加速度データが示す加速度を用いれば、端末装置6に作用している角速度や動的な加速度がわかるため、これらの角速度および/または動的な加速度を用いて、実空間における端末装置6の初期姿勢からの姿勢変化(方向変化)を推定することができる。このように推定される端末装置6の姿勢変化(方向変化)に応じて、プレイヤオブジェクトPoの動作(砲塔方向)や仮想カメラの姿勢(視線方向)が設定される。
For example, the
このように、ユーザは、把持する端末装置6の方向や姿勢によって、プレイヤオブジェクトPoの動作や仮想カメラの姿勢を変化させることができる。例えば、ユーザが把持する端末装置6の方向や姿勢に応じて、プレイヤオブジェクトPoの砲塔方向が変化し、当該砲塔から射出される射出オブジェクトの射出される場合の方向(射出方向)も変化する。一例として、ユーザが端末装置6自体を上下左右方向へ向ける(すなわち、ピッチおよびヨー)ことによって、砲塔方向が当該方向変化に連動して変化するとともに、射出方向も変化する。具体的には、ユーザが端末装置6の背面を上方向へ向けるように端末装置6自体の方向を変えた場合(すなわち、仰角方向へピッチした場合)、砲塔方向が砲塔上下操作範囲内で仮想世界における上方向に変化する。また、ユーザが端末装置6の背面を左方向へ向けるように端末装置6自体の方向を変えた場合(すなわち、左方向へヨーした場合)、砲塔方向が砲塔左右操作範囲内で仮想世界における左方向に変化する。このように、端末装置6の姿勢および向きを砲塔方向に連動させることによって、ユーザは端末装置6を用いて自分自身が水鉄砲(砲塔)を動かしているかのようなリアリティある操作が可能となる。また、上述したように、水鉄砲を操作しているプレイヤオブジェクトPoの主観視点に仮想カメラが設定され、把持する端末装置6の方向や姿勢に応じて仮想カメラの視線方向が変化する。このように、端末装置6の姿勢および向きを上記仮想カメラの姿勢および向きに連動させることによって、ユーザ自身が水鉄砲を操作するプレイヤオブジェクトPoになったかのような感覚を味わうことができるとともに、端末装置6のLCD61を介してあたかも仮想世界内を覗いているような感覚を味わうことができる。また、上述したゲーム例では、ボード型コントローラ9にユーザが荷重を加えることに応じて、水鉄砲から射出オブジェクトを射出する動作が行われる。そして、射出される射出オブジェクトの内容(例えば、射出オブジェクトの射出有無、射出オブジェクトを射出する射出量および射出速度、射出オブジェクトの種類等)は、ボード型コントローラ9に加えられた荷重に応じて決定され、アナログ操作が可能となっている。つまり、ユーザは、LCD61に表示される画像によって仮想世界にいるかのような感覚が与えられることに加えて、ボード型コントローラ9を用いたアナログ操作によってさらに自分自身が実空間において水鉄砲を操作しているかのような操作感覚が与えられるため、さらに仮想世界にいるかのような感覚が高まることになる。
In this way, the user can change the action of the player object Po and the attitude of the virtual camera depending on the direction and attitude of the
次に、ゲームシステム1において行われる処理の詳細を説明する。まず、図15を参照して、当該処理において用いられる主なデータについて説明する。なお、図15は、ゲーム装置本体5のメインメモリに記憶される主なデータおよびプログラムの一例を示す図である。
Next, details of processing performed in the game system 1 will be described. First, main data used in the processing will be described with reference to FIG. FIG. 15 is a diagram showing an example of main data and programs stored in the main memory of the
図15に示すように、メインメモリのデータ記憶領域には、ボード操作データDa、端末操作データDb、荷重値データDc、端末装置方向姿勢データDd、操作方向データDe、砲塔方向データDf、射出オブジェクトデータDg、仮想カメラデータDh、および画像データDi等が記憶される。なお、メインメモリには、図15に示す情報に含まれるデータの他、モニタ2やLCD61に表示される各種オブジェクトの画像データやゲームに使用される音声データ等、ゲーム処理に必要なデータが適宜記憶される。また、メインメモリのプログラム記憶領域には、上記情報処理プログラムを構成する各種プログラム群Paが記憶される。
As shown in FIG. 15, the data storage area of the main memory includes board operation data Da, terminal operation data Db, load value data Dc, terminal device direction / posture data Dd, operation direction data De, turret direction data Df, injection object Data Dg, virtual camera data Dh, image data Di, and the like are stored. In addition to the data included in the information shown in FIG. 15, the main memory appropriately stores data necessary for game processing such as image data of various objects displayed on the
ボード操作データDaは、ボード型コントローラ9から送信データとして送信されてくる一連の操作情報(ボード操作データ)が格納され、最新のボード操作データに更新される。例えば、ボード操作データDaは、荷重データDa1等を含んでいる。荷重データDa1は、ボード型コントローラ9の荷重センサ94a〜94dがそれぞれ検出した荷重検出値を示すデータである。
The board operation data Da stores a series of operation information (board operation data) transmitted as transmission data from the
端末操作データDbは、端末装置6から送信データとして送信されてくる一連の操作情報(端末操作データ)が格納され、最新の端末操作データに更新される。例えば、端末操作データDbは、加速度データDb1および角速度データDb2等を含んでいる。加速度データDb1は、加速度センサ603によって検出された加速度(加速度ベクトル)を表すデータである。例えば、加速度データDb1は、図3に示すxyzの3軸の方向に関する加速度を各成分とする3次元の加速度を表すものであるが、他の例においては、任意の1以上の方向に関する加速度を表すものであってもよい。角速度データDb2は、ジャイロセンサ604によって検出された角速度を表すデータである。例えば、角速度データDb2は、図3に示すxyzの3軸回りのそれぞれの角速度を表すものであるが、他の例においては、任意の1軸以上の軸回り角速度を表すものであってもよい。
The terminal operation data Db stores a series of operation information (terminal operation data) transmitted from the
なお、ゲーム装置本体5は、コントローラ7、ボード型コントローラ9、および端末装置6からそれぞれ所定周期毎(例えば、1/200秒毎)に送信される操作情報に含まれるデータ(例えば、荷重検出値、加速度、および角速度を示すデータ)を逐次受信している。例えば、受信されたデータは、入出力プロセッサ31によってメインメモリに逐次記憶される。後述する処理フローでは、CPU10が最新のボード操作データおよび端末操作データを1フレーム毎(例えば、1/60秒毎)にメインメモリから読み出して、ボード操作データDaおよび端末操作データDbをそれぞれ更新する例を用いる。
Note that the
また、コントローラ7、ボード型コントローラ9、および端末装置6からそれぞれ所定周期毎に送信される操作情報は、コントローラ通信モジュール19や端末通信モジュール28等に備える図示しないバッファに一旦蓄えられてもよい。この場合、上記バッファに蓄えられたデータが、1フレーム毎に読み出されて、メインメモリのボード操作データDa(例えば、荷重データDa1)や端末操作データDb(例えば、加速度データDb1および角速度データDb2)が更新されて用いられる。このとき、操作情報を受信する周期と処理周期とが異なるために、上記バッファには複数の時点に受信した操作情報が記述されていることになるが、複数の時点に受信した操作情報のうち最新の操作情報のみを用いて当該処理を実行してもいいし、複数の時点に受信した操作情報の代表値(例えば、平均値)を用いて当該処理を実行してもいいし、複数の時点に受信した操作情報の個数分処理を実行してもよい。
Further, the operation information transmitted from the
荷重値データDcは、ボード型コントローラ9が検出する荷重値を示すデータの集合である。例えば、荷重値データDcは、荷重センサ94a〜94dがそれぞれ検出した荷重の合計値(合計荷重値)を示すデータの集合である。具体的には、荷重値データDcは、時系列的に算出された所定期間内の上記合計荷重値を示すデータの配列であり、配列の各要素に上記合計荷重値を示すデータが時系列に格納される。
The load value data Dc is a set of data indicating the load value detected by the
端末装置方向姿勢データDdは、実空間基準方向データDd1および現方向データDd2等を含んでいる。実空間基準方向データDd1は、実空間における端末装置6の基準方向(姿勢;実空間基準方向)を示すデータである。現方向データDd2は、実空間における端末装置6の現時点の方向および姿勢を示すデータであり、当該実施例では各種補正が行われてそれぞれの方向データが設定される。例えば、実空間基準方向データDd1および現方向データDd2は、端末操作データDbに含まれる加速度データDb1および角速度データDb2に基づいて算出される。なお、実空間基準方向および現方向の算出方法については、後述する。
The terminal device direction / attitude data Dd includes real space reference direction data Dd1, current direction data Dd2, and the like. The real space reference direction data Dd1 is data indicating the reference direction (posture; real space reference direction) of the
操作方向データDeは、仮想世界基準方向データDe1および操作指示方向データDe2等を含んでいる。仮想世界基準方向データDe1は、仮想世界において設定される仮想世界基準方向を示すデータである。操作指示方向データDe2は、仮想世界に対して現時点でユーザから指示されている操作指示方向を示すデータである。なお、仮想世界基準方向および操作指示方向の算出方法については、後述する。 The operation direction data De includes virtual world reference direction data De1, operation instruction direction data De2, and the like. The virtual world reference direction data De1 is data indicating a virtual world reference direction set in the virtual world. The operation instruction direction data De2 is data indicating the operation instruction direction currently instructed by the user with respect to the virtual world. A method for calculating the virtual world reference direction and the operation instruction direction will be described later.
砲塔方向データDfは、砲塔左右方向データDf1および砲塔上下方向データDf2等を含んでいる。砲塔左右方向データDf1は、水鉄砲の砲塔の仮想世界における左右方向を示すデータである。砲塔上下方向データDf2は、水鉄砲の砲塔の仮想世界における上下方向を示すデータである。 Turret direction data Df includes turret left-right direction data Df1, turret up-down direction data Df2, and the like. The turret left-right direction data Df1 is data indicating the left-right direction in the virtual world of the water gun turret. The turret vertical direction data Df2 is data indicating the vertical direction in the virtual world of the water gun turret.
射出オブジェクトデータDgは、仮想世界に存在する射出オブジェクト毎に、オブジェクト種類データDg1、射出量データDg2、射出ベクトルデータDg3、および位置データDg4等を含んでいる。オブジェクト種類データDg1は、砲塔から射出される射出オブジェクトの種類(例えば、水Wや大玉)を示すデータである。射出量データDg2は、砲塔から射出される射出オブジェクトにおける単位時間当たりの射出量を示すデータである。射出ベクトルデータDg3は、単位時間当たりに射出された射出オブジェクト毎の、仮想世界における移動速度および移動方向をそれぞれ示すデータである。位置データDg4は、単位時間当たりに射出された射出オブジェクト毎の、仮想世界における位置をそれぞれ示すデータである。 The injection object data Dg includes object type data Dg1, injection amount data Dg2, injection vector data Dg3, position data Dg4, and the like for each injection object existing in the virtual world. The object type data Dg1 is data indicating the type (for example, water W or large ball) of the injection object injected from the turret. The injection amount data Dg2 is data indicating the injection amount per unit time in the injection object injected from the turret. The ejection vector data Dg3 is data indicating the moving speed and the moving direction in the virtual world for each of the ejected objects ejected per unit time. The position data Dg4 is data indicating the position in the virtual world for each ejected object ejected per unit time.
仮想カメラデータDhは、仮想世界に設定される仮想カメラに関するデータである。例えば、仮想カメラデータDhは、端末装置6のLCD61に表示するゲーム画像を生成するための第1仮想カメラに関するデータと、モニタ2に表示するゲーム画像を生成するための第2仮想カメラに関するデータとを含む。
The virtual camera data Dh is data related to the virtual camera set in the virtual world. For example, the virtual camera data Dh includes data related to a first virtual camera for generating a game image to be displayed on the
画像データDiは、プレイヤオブジェクトデータDi1、射出オブジェクト画像データDi2、および背景画像データDi3等を含んでいる。プレイヤオブジェクトデータDi1は、仮想世界に水鉄砲を操作するプレイヤオブジェクトPoを配置してゲーム画像を生成するためのデータである。射出オブジェクト画像データDi2は、仮想世界に射出オブジェクトを配置してゲーム画像を生成するためのデータである。背景画像データDi3は、仮想世界に背景を配置してゲーム画像を生成するためのデータである。 The image data Di includes player object data Di1, emission object image data Di2, background image data Di3, and the like. The player object data Di1 is data for arranging a player object Po that operates a water gun in the virtual world and generating a game image. The ejected object image data Di2 is data for generating a game image by arranging an ejected object in the virtual world. The background image data Di3 is data for arranging a background in the virtual world and generating a game image.
次に、図16〜図20を参照して、ゲーム装置本体5において行われる処理の詳細を説明する。なお、図16は、ゲーム装置本体5において実行される処理の一例を示すフローチャートである。図17は、図16におけるステップ44のゲーム制御処理の一例を示すサブルーチンである。図18は、図17におけるステップ83のプレイヤオブジェクト設定処理の一例を示すサブルーチンである。図19は、図18におけるステップ121の操作指示方向算出処理の一例を示すサブルーチンである。図20は、仮想世界を移動する射出オブジェクトW1〜W15毎に設定される移動ベクトルVw1〜Vw15の一例を説明するための図である。ここで、図16〜図19に示すフローチャートにおいては、処理のうち、端末装置6およびボード型コントローラ9を用いたユーザの操作に応じて、プレイヤオブジェクトPoが動作して表示される処理について主に説明し、本願発明と直接関連しない他の処理については詳細な説明を省略する。また、図16〜図19では、CPU10が実行する各ステップを「S」と略称する。
Next, details of processing performed in the
ゲーム装置本体5の電源が投入されると、ゲーム装置本体5のCPU10は、ROM/RTC13に記憶されている起動用のプログラムを実行し、これによってメインメモリ等の各ユニットが初期化される。そして、光ディスク4に記憶された情報処理プログラムがメインメモリに読み込まれ、CPU10によって当該プログラムの実行が開始される。図16〜図19に示すフローチャートは、以上の処理が完了した後に行われる処理を示すフローチャートである。
When the power of the
図16において、CPU10は、初期処理を実行し(ステップ40)、次のステップに処理を進める。例えば、上記ステップ40における初期処理において、CPU10は、仮想世界を構築し、仮想世界におけるプレイヤオブジェクトPoおよび仮想カメラ(第1仮想カメラおよび第2仮想カメラ)を所定の位置に配置したり、各オブジェクトを初期位置に配置したり、ゲーム処理で用いる各種パラメータの初期値を設定したりする。
In FIG. 16, the
次に、CPU10は、端末装置6から送信されてくるデータに基づいて、基準方向を設定し(ステップ41)、次のステップに処理を進める。以下、CPU10が基準方向を設定する一例について説明する。
Next, the
端末装置6は、上述したようなデータをゲーム装置本体5へ繰り返し送信している。ゲーム装置本体5においては、端末通信モジュール28が上記データを逐次受信し、入出力プロセッサ31が端末操作データとカメラ画像データとマイク音データとをメインメモリに逐次記憶する。上記ステップ41においては、CPU10は、メインメモリから最新の端末操作データを読み出して加速度データDb1および角速度データDb2を更新する。
The
次に、CPU10は、実空間における端末装置6の方向および姿勢を算出する。例えば、CPU10は、加速度データDb1が示す加速度および角速度データDb2が示す角速度に基づいて、端末装置6の現時点の方向および姿勢を実空間における基準方向(初期姿勢)として算出し、算出された端末装置6の基準方向を示すデータを用いて実空間基準方向データDd1を更新する。例えば、CPU10は、角速度データDb2が示す角速度を用いて、端末装置6の単位時間当たりにおける実空間での回転量(方向変化量)を算出することができる。また、実空間において端末装置6がほぼ静止している状態(静的な状態)では、端末装置6に対して加えられる加速度が重力加速度となるため、加速度データDb1が示す加速度によって端末装置6に加えられる重力方向(すなわち、実空間における鉛直方向を基準とした端末装置6の姿勢)を算出することができる。したがって、CPU10は、加速度データDb1が示す加速度および角速度データDb2が示す角速度に基づいて端末装置6の初期姿勢を算出することができる。なお、以下の説明においては、上記ステップ41が実行される際に、実空間において端末装置6の背面が向いている方向(図3に示すz軸正方向であり、端末装置奥行方向)から実空間基準方向を設定する。
Next, the
なお、端末装置6の初期姿勢は、加速度データDb1が示す加速度に基づいて算出されてもよいし、磁気センサ602が検出した磁気の方向に基づいて算出されてもよいし、端末装置6を特定の姿勢にした状態でユーザに所定の操作を行わせることで、所定の操作が行われた時点における特定の姿勢を初期姿勢として用いるようにしてもよい。なお、実空間における所定方向を基準とした絶対的な姿勢として端末装置6の姿勢を算出する場合には上記初期姿勢を算出することが必要となる。上記初期姿勢を設定するタイミング、すなわち上記ステップ41を実行するタイミングは、ゲーム開始時点に自動的に行われてもいいし、端末装置6を用いてユーザが所定の操作(例えば、所定の操作ボタン64を押下する操作)を行ったことに応じて行われてもかまわない。
The initial posture of the
また、上記ステップ41において、実空間基準方向を仮想世界におけるモデル座標系に変換し、当該変換後の方向を仮想世界における基準方向として仮想世界基準方向データDe1を更新する。 In step 41, the real space reference direction is converted into the model coordinate system in the virtual world, and the virtual world reference direction data De1 is updated with the converted direction as the reference direction in the virtual world.
なお、上記ステップ41における基準方向の設定処理では、端末装置6の姿勢および方向に各種補正が行われた後に基準方向が設定され、当該補正後の基準方向を用いて実空間基準方向データDd1が更新される。また、補正後の実空間基準方向を仮想世界におけるモデル座標系に変換し、当該変換後の方向を仮想世界における基準方向として仮想世界基準方向データDe1が更新される。なお、端末装置6の姿勢および方向の補正方法については後述して説明する。
In the reference direction setting process in step 41, the reference direction is set after various corrections are made to the attitude and direction of the
上記ステップ41の次にステップ42の処理が実行される。以降、ステップ42〜ステップ51の一連の処理からなる処理ループが所定時間(1フレーム時間)に1回の割合で繰り返し実行される。 Following step 41, the process of step 42 is executed. Thereafter, a processing loop composed of a series of processes from step 42 to step 51 is repeatedly executed at a rate of once per predetermined time (one frame time).
ステップ42において、CPU10は、ボード型コントローラ9から送信されてくるボード操作データを取得し、次のステップに処理を進める。ここで、ボード型コントローラ9は、ボード操作データをゲーム装置本体5へ繰り返し送信している。したがって、ゲーム装置本体5においては、コントローラ通信モジュール19が上記ボード操作データを逐次受信し、受信されたボード操作データが入出力プロセッサ31によってメインメモリに逐次記憶される。ボード型コントローラ9のボード操作データ送信の間隔は、ゲームの処理時間(1フレーム時間)よりも短い方が好ましく、例えば200分の1秒である。上記ステップ42においては、CPU10は、メインメモリから最新のボード操作データを読み出して荷重データDa1を更新する。なお、上記ボード操作データには、荷重センサ94a〜94dの識別情報を示すデータおよび荷重センサ94a〜94dがそれぞれ検出した荷重検出値を示すデータが含まれており、当該識別情報によって区別されたデータをそれぞれ用いて、荷重データDa1が更新される。
In step 42, the
次に、CPU10は、端末装置6から送信されてくる各種のデータを取得し(ステップ43)、次のステップに処理を進める。ここで、端末装置6は、上記データをゲーム装置本体5へ繰り返し送信している。したがって、ゲーム装置本体5においては、端末通信モジュール28が上記データを逐次受信し、カメラ画像データおよびマイク音データについてはコーデックLSI27によって伸張処理が逐次施される。そして、入出力プロセッサ31は、端末操作データとカメラ画像データとマイク音データとをメインメモリに逐次記憶する。上記ステップ43においては、CPU10は、メインメモリから最新の端末操作データを読み出して加速度データDb1および角速度データDb2を更新する。
Next, the
次に、CPU10は、ゲーム制御処理を行って(ステップ44)、次のステップに処理を進める。上記ゲーム制御処理は、ユーザによるゲーム操作に従って仮想世界内のプレイヤオブジェクトPoや仮想カメラを動作させる処理等を実行し、ゲームを進行させる処理である。当該ゲーム例では、ユーザは、端末装置6およびボード型コントローラ9を用いて種々のゲームを行うことが可能である。以下、図17を参照して、上記ステップ44におけるゲーム制御処理について説明する。
Next, the
図17において、CPU10は、荷重値を算出して(ステップ81)、次のステップに処理を進める。例えば、CPU10は、荷重データDa1が示す荷重検出値を合計して合計荷重値を算出し、当該合計荷重値を示すデータを用いて荷重値データDcにおける時系列データ配列のうち最新のデータを更新する。具体的には、荷重データDa1は、荷重センサ94a〜94dがそれぞれ検出した最新の荷重検出値を示しているため、当該荷重検出値を合計することによって、上記合計荷重値が算出される。このようにして算出される合計荷重値は、ボード型コントローラ9上のユーザ動作や体重移動(姿勢)に応じて変化する。一例として、ユーザがボード型コントローラ9上に荷重を加える動作をした場合、合計荷重値が加えられた荷重に応じて上昇する。
In FIG. 17, the
次に、CPU10は、端末装置6の方向変化および姿勢を算出し(ステップ82)、次のステップに処理を進める。例えば、CPU10は、加速度データDb1が示す加速度および角速度データDb2が示す角速度に基づいて、端末装置6の実空間におけるxyz軸の方向をそれぞれ算出し、算出されたxyz軸方向を現方向として当該現方向を示すデータを用いて現方向データDd2を更新する。
Next, the
ここで、CPU10は、角速度データDb2が示す角速度を用いて、端末装置6の単位時間当たりにおける実空間での回転量(方向変化量)を算出することができる。また、実空間において端末装置6がほぼ静止している状態(静的な状態)では、端末装置6に対して加えられる加速度が重力加速度となるため、加速度データDb1が示す加速度によって端末装置6に加えられる重力方向(すなわち、実空間における鉛直方向を基準とした端末装置6の姿勢であり、鉛直方向を基準としたxyz軸の方向)を算出することができる。したがって、CPU10は、加速度データDb1が示す加速度および角速度データDb2が示す角速度に基づいて端末装置6の方向変化や姿勢を算出することができる。
Here, the
なお、本実施形態においては、端末装置6で検出される加速度および角速度を示すデータに基づいて端末装置6の方向変化や姿勢を算出するが、他の実施形態においては、何れか1つのデータや3つ以上のデータを用いて端末装置6の方向変化や姿勢を算出してもよい。例えば、端末装置6に設けられた磁気センサ602は、端末装置6に加わる磁気を検出しており、端末装置6に加わる地磁気の方向から端末装置6を基準とした所定の方位(すなわち、所定の方位を基準とした端末装置6の姿勢)を算出することができる。なお、端末装置6が配置されている実空間に、地磁気以外の磁界が発生している場合であっても、端末装置6の回転量を算出することができる。したがって、CPU10は、端末装置6で検出される加速度、角速度、および磁気を示すデータの少なくとも1つを用いれば、端末装置6の方向変化や姿勢を算出することができる。
In the present embodiment, the direction change and orientation of the
また、端末装置6の姿勢の具体的な算出方法はどのような方法であってもよいが、例えば、角速度データDb2が示す角速度に基づいて算出される端末装置6の姿勢を、加速度データDb1が示す加速度および磁気センサ602が検出した磁気の方向を用いて補正する方法が考えられる。
The specific calculation method of the attitude of the
具体的には、CPU10は、まず、角速度データDb2が示す角速度に基づいて端末装置6の姿勢を算出する。端末装置6の姿勢を角速度から算出する方法はどのような方法であってもよいが、一例として、前回の姿勢(前回に算出されたxyz軸の方向)と今回の角速度(今回の処理ループにおけるステップ42で取得された角速度)とを用いて算出される。CPU10は、前回のxyz軸方向を今回の角速度で各軸周りに単位時間分だけ回転させることによって新たなxyz軸方向を算出する。なお、前回のxyz軸方向は、現方向データDd2により表され、今回の角速度は、角速度データDb2により表される。したがって、CPU10は、現方向データDd2および角速度データDb2を読み出して、端末装置6の姿勢(新たなxyz軸方向)を算出する。なお、上述したように上記ステップ41において、端末装置6の初期姿勢が定められている。したがって、端末装置6の姿勢を角速度から算出する場合には、CPU10は、最初に算出された端末装置6の初期姿勢を基準として現時点における端末装置6の姿勢を算出することができる。
Specifically, the
次に、CPU10は、角速度に基づいて算出した端末装置6の姿勢(xyz軸方向)を、加速度データDb1が示す加速度を用いて補正する。具体的には、CPU10は、加速度データDb1が示す加速度に基づいて端末装置6の姿勢(xyz軸方向)を算出する。ここで、端末装置6がほぼ静止している状態では、端末装置6に対して加えられている加速度は重力加速度となる。したがって、この状態においては、加速度データDb1が示す加速度の方向を用いて重力加速度の方向(重力方向)を算出することができるので、重力方向に対する端末装置6の向き(重力方向を基準としたxyz軸方向)を算出することができる。
Next, CPU10 correct | amends the attitude | position (xyz-axis direction) of the
加速度に基づく端末装置6の姿勢が算出されると、CPU10は、加速度に基づく姿勢を用いて、角速度に基づく姿勢を補正する。具体的には、CPU10は、角速度に基づいて算出された端末装置6の姿勢(xyz軸方向)を、加速度に基づいて算出された端末装置6の姿勢(xyz軸方向)へ所定の割合で近づける補正を行う。上記所定の割合は、予め定められた固定値であってもよいし、加速度データDb1が示す加速度等に応じて設定されてもよい。また、加速度に基づいて算出された端末装置6の姿勢に関しては、重力方向を軸とする回転方向については姿勢を算出することができないので、CPU10は、当該回転方向に関して補正を行わないようにしてもよい。なお、角速度に基づいて算出された端末装置6の姿勢を、磁気センサ602が検出した磁気の方向に基づいて補正する場合には、CPU10は、角速度に基づいて算出された端末装置6の姿勢を、磁気の方向に基づいて算出された端末装置6の姿勢へと所定の割合で近づけるようにすればよい。以上によれば、CPU10は、端末装置6の姿勢を正確に算出することができる。
When the posture of the
次に、CPU10は、プレイヤオブジェクトPoを設定し(ステップ83)、次のステップに処理を進める。以下、図18を参照して、上記ステップ83におけるプレイヤオブジェクト設定処理について説明する。
Next, the
図18において、CPU10は、操作指示方向算出処理を行い(ステップ121)、次のステップに処理を進める。以下、図19を参照して、上記ステップ121で行う操作指示方向算出処理について説明する。
In FIG. 18, the
図19において、CPU10は、端末装置6の上下正面方向の補正を行い(ステップ221)、次のステップに処理を進める。例えば、CPU10は、実空間の水平方向に対して所定の角度(例えば、20°)下に向いた状態が水平方向の指示となるように、端末装置6の方向(姿勢)を補正する。具体的には、上記ステップ82において、CPU10は、加速度データDb1が示す加速度および角速度データDb2が示す角速度に基づいて、端末装置6の実空間におけるxyz軸の方向をそれぞれ算出し、算出されたxyz軸方向を現方向として現方向データDd2を更新している。CPU10は、上記ステップ221において、現方向データDd2が示すxyz軸それぞれの方向を用いて、x軸方向を中心にy軸方向およびz軸方向が上記所定の角度だけ上方に向くように(すなわち、x軸正方向に見て当該x軸周りに所定の角度だけ右周りにy軸方向およびz軸方向を回転させる)、y軸方向およびz軸方向を補正する。
In FIG. 19, the
次に、CPU10は、z軸周りの傾きを補正し(ステップ222)、次のステップに処理を進める。例えば、CPU10は、端末装置6のx軸が実空間における水平方向となるように、端末装置6の方向(姿勢)を補正する。具体的には、CPU10は、上記ステップ221で補正されたxyz軸方向を用いて、z軸方向を中心にx軸方向を回転させて当該x軸方向を強制的に実空間の水平方向に補正し、補正されたx軸方向とy軸方向との外積によって新たにz軸方向を算出する。そして、新たに算出されたz軸方向と水平方向に補正されたx軸方向との外積によって新たにy軸方向を算出し、新たに算出されたxyz軸方向とを用いて、現方向データDd2を更新する。
Next, the
なお、上記ステップ41における基準方向の設定処理においても、上記ステップ221およびステップ222と同様に端末装置6のxyz軸方向が補正され、補正後のz軸正方向を実空間基準方向として実空間基準方向データDd1が更新される。
In the reference direction setting process in step 41, the xyz-axis direction of the
次に、CPU10は、実空間基準方向と現方向との間の水平角度差を算出し(ステップ223)、次のステップに処理を進める。ここで、上記水平角度差は、実空間における実空間基準方向(初期設定時のz軸正方向)と現方向データDd2が示すz軸正方向との間の角度差を水平面に投影した角度差であり、端末装置6の初期姿勢から実空間の鉛直方向を軸として端末装置6の方向(端末装置6の背面が向いている方向(図3に示すz軸正方向))が変化した角度を示すものである。例えば、CPU10は、実空間基準方向データDd1が示す実空間基準方向と、現方向データDd2が示すz軸正方向とを用いて、上記水平角度差を算出する。
Next, the
次に、CPU10は、実空間の水平方向と現方向との間の上下角度差を算出し(ステップ224)、次のステップに処理を進める。例えば、CPU10は、現方向データDd2が示すz軸正方向を用いて、実空間における水平方向と当該z軸正方向との角度差を上下角度差として算出する。
Next, the
次に、CPU10は、上記ステップ223で算出された水平角度差および上記ステップ224で算出された上下角度差に応じて、仮想世界基準方向に対する操作指示方向を算出し(ステップ225)、当該サブルーチンによる処理を終了する。例えば、CPU10は、仮想世界基準方向データDe1が示す仮想世界基準方向を用いて、当該仮想世界基準方向と操作指示方向とを仮想世界の水平面に投影した場合に生じる角度差が、上記水平角度差となり、かつ、同じ位置関係となる(すなわち、実空間基準方向に対してz軸正方向が左回転している場合は、仮想世界基準方向に対して操作指示方向も左回転した位置関係となるようにする)ように仮想世界における操作指示方向を算出する。さらに、CPU10は、仮想世界における水平方向と操作指示方向との角度差が、上記上下角度差となり、かつ、同じ位置関係となる(すなわち、実空間の水平方向に対してz軸正方向が下向きである場合は、仮想世界の水平方向に対して操作指示方向も下向きとなるようにする)ように仮想世界における操作指示方向を算出する。そして、CPU10は、算出された操作指示方向を用いて、操作指示方向データDe2を更新する。
Next, the
図18に戻り、上記ステップ121における操作指示方向算出処理の後、CPU10は、操作指示方向が砲塔左右操作範囲内か否かを判断する(ステップ122)。そして、CPU10は、操作指示方向が砲塔左右操作範囲内である場合、次のステップ123に処理を進める。一方、CPU10は、操作指示方向が砲塔左右操作範囲内でない場合、次のステップ124に処理を進める。ここで、図14Aを用いて説明したように、砲塔左右操作範囲は、操作指示方向に応じて水鉄砲の砲塔方向を左右(水平方向)に変化させることができる範囲であり、仮想世界基準方向を中心に所定の角度範囲に設定されている。そして、CPU10は、上記ステップ122において、仮想世界基準方向データDe1が示す仮想世界基準方向および操作指示方向データDe2が示す操作指示方向を用いて、当該仮想世界基準方向と操作指示方向とを仮想世界の水平面に投影した場合に生じる角度差が、上記砲塔左右操作範囲内であるか否かを判定する。
Returning to FIG. 18, after the operation instruction direction calculation process in step 121, the
ステップ123において、CPU10は、上記ステップ121で算出された操作指示方向に応じて、砲塔左右方向および第1仮想カメラ左右方向を設定し、次のステップ126に処理を進める。例えば、CPU10は、操作指示方向データDe2が示す操作指示方向を仮想世界の水平面に投影した方向を、そのまま砲塔左右方向および第1仮想カメラ左右方向に設定し、設定された砲塔左右方向および第1仮想カメラ左右方向を用いて砲塔左右方向データDf1および仮想カメラデータDhにおける第1仮想カメラの左右方向に関するデータを更新する。
In step 123, the
一方、ステップ124において、CPU10は、砲塔左右方向を砲塔左右操作範囲内に制限して設定し、次のステップに処理を進める。例えば、CPU10は、操作指示方向データDe2が示す操作指示方向を仮想世界の水平面に投影した方向に、最も近い砲塔左右操作範囲内となる方向を砲塔左右方向に設定し、設定された砲塔左右方向を用いて砲塔左右方向データDf1を更新する。
On the other hand, in step 124, the
次に、CPU10は、上記ステップ121で算出された操作指示方向に応じて、第1仮想カメラ左右方向を設定し(ステップ125)、次のステップ126に処理を進める。例えば、CPU10は、操作指示方向データDe2が示す操作指示方向を仮想世界の水平面に投影した方向を、そのまま第1仮想カメラ左右方向に設定し、設定された第1仮想カメラ左右方向を用いて仮想カメラデータDhにおける第1仮想カメラの左右方向に関するデータを更新する。
Next, the
ステップ126において、CPU10は、操作指示方向が砲塔上下操作範囲内か否かを判断する。そして、CPU10は、操作指示方向が砲塔上下操作範囲内である場合、次のステップ127に処理を進める。一方、CPU10は、操作指示方向が砲塔上下操作範囲内でない場合、次のステップ128に処理を進める。ここで、図14Bを用いて説明したように、砲塔上下操作範囲は、操作指示方向に応じて水鉄砲の砲塔方向を上下(垂直方向)に変化させることができる範囲であり、仮想世界水平方向を基準に所定の角度範囲に設定されている。そして、CPU10は、上記ステップ126において、操作指示方向データDe2が示す操作指示方向を用いて、仮想世界水平方向と操作指示方向との間に生じる角度差が、上記砲塔上下操作範囲内であるか否かを判定する。
In step 126, the
ステップ127において、CPU10は、上記ステップ121で算出された操作指示方向に応じて、砲塔上下方向および第1仮想カメラ上下方向を設定し、次のステップ130に処理を進める。例えば、CPU10は、操作指示方向データDe2が示す操作指示方向を仮想世界の鉛直面に投影した方向を、そのまま砲塔上下方向および第1仮想カメラ上下方向に設定し、設定された砲塔上下方向および第1仮想カメラ上下方向を用いて砲塔上下方向データDf2および仮想カメラデータDhにおける第1仮想カメラの上下方向に関するデータを更新する。
In
一方、ステップ128において、CPU10は、砲塔上下方向を砲塔上下操作範囲内に制限して設定し、次のステップに処理を進める。例えば、CPU10は、操作指示方向データDe2が示す操作指示方向を仮想世界の鉛直面に投影した方向に、最も近い砲塔上下操作範囲内となる方向を砲塔上下方向に設定し、設定された砲塔上下方向を用いて砲塔上下方向データDf2を更新する。
On the other hand, in step 128, the
次に、CPU10は、上記ステップ121で算出された操作指示方向に応じて、第1仮想カメラ上下方向を設定し(ステップ129)、次のステップ130に処理を進める。例えば、CPU10は、操作指示方向データDe2が示す操作指示方向を仮想世界の鉛直面に投影した方向を、そのまま第1仮想カメラ上下方向に設定し、設定された第1仮想カメラ上下方向を用いて仮想カメラデータDhにおける第1仮想カメラの上下方向に関するデータを更新する。
Next, the
ステップ130において、CPU10は、射出オブジェクトの射出があるか否かを判断する。そして、CPU10は、射出オブジェクトの射出がある場合、次のステップ131に処理を進める。一方、CPU10は、射出オブジェクトの射出がない場合、当該サブルーチンによる処理を終了する。ここで、プレイヤオブジェクトPoは、操作している水鉄砲を用いて水W等の射出オブジェクトを射出することが可能であり、ユーザの所定の操作(例えば、所定の閾値以上の荷重をボード型コントローラ9に加える操作)に応じて、設定されている砲塔方向へ砲塔から射出オブジェクトが射出される。そして、上記ステップ130で判断する「射出がある」とは、上記所定の操作が行われている場合(荷重値データDcが示す最新の合計荷重値が所定の閾値以上である場合)および/または射出オブジェクトが射出されて仮想世界内を移動している場合(射出ベクトルデータDg3に大きさが0ではない射出ベクトルが設定されている場合)を示している。
In step 130, the
ステップ131において、CPU10は、合計荷重値が所定の閾値以上であるか否かを判断する。ここで、上記ステップ131で用いられる閾値は、ボード型コントローラ9を用いてユーザが射出操作を行っているか否かを判定するために予め定められた値であり、ボード型コントローラ9に加えられた最新の合計荷重値が当該閾値以上となった場合に当該射出操作が行われていると判断される。そして、CPU10は、荷重値データDcが示す最新の合計荷重値を参照して、当該合計荷重値が所定の閾値以上である場合、次のステップ132に処理を進める。一方、CPU10は、最新の合計荷重値が所定の閾値未満である場合、次のステップ133に処理を進める。
In step 131, the
ステップ132において、CPU10は、合計荷重値および砲塔方向に基づいて、射出オブジェクトに関するデータ(射出オブジェクトの種類、射出量、および射出ベクトル)を追加し、次のステップ133に処理を進める。例えば、CPU10は、射出オブジェクトを射出する上記射出操作が行われた場合、新たに射出する射出オブジェクトの位置を水鉄砲の砲塔内部に設定するとともに、水鉄砲の砲塔方向を用いて当該射出オブジェクトの射出ベクトルの方向に設定する。また、CPU10は、荷重値データDcが示す最新の合計荷重値に応じて、新たに射出する射出オブジェクトの射出速度および単位時間当たりの射出量を算出する。具体的には、CPU10は、最新の合計荷重値が大きいほど射出速度が速くなるとともに、単位時間当たりの射出量が多くなるように設定する。さらに、CPU10は、荷重値データDcが示す合計荷重値の履歴を参照して、前回処理で算出された合計荷重値から最新の合計荷重値への変化量が所定の値未満の場合に新たに射出する射出オブジェクトを第1射出オブジェクト(例えば、水W)に設定し、当該変化量が当該所定の値以上の場合に新たに射出する射出オブジェクトを第2射出オブジェクト(例えば、水Wより多量の水の塊となった大玉)に設定する。そして、CPU10は、設定された射出オブジェクトの種類、射出量、射出ベクトル、および位置をそれぞれ示すオブジェクト種類データDg1、射出量データDg2、射出ベクトルデータDg3、および位置データDg4を新たな射出オブジェクトに関するデータとして、射出オブジェクトデータDgに追加する。このように、上記ステップ132が繰り返されることによって、新たな射出オブジェクトに関するデータが射出オブジェクトデータDgに追加されていくことになる。
In step 132, the
なお、上記ステップ132は、最新の合計荷重値が所定の閾値以上である場合にゲーム装置本体5の処理周期毎に繰り返されることになり、この場合、当該周期毎に新たな射出オブジェクトが発生することになる。したがって、上記ステップ132が繰り返される周期は、新たな射出オブジェクトを仮想世界に発生させたいタイミングに応じて適宜設定してもかまわない。この場合、当該タイミング毎に上記ステップ131の処理を行い、当該タイミング以外では上記ステップ131およびステップ132の処理を行わない。
Note that step 132 is repeated for each processing cycle of the
ステップ133において、CPU10は、射出オブジェクトデータDgに設定されている射出オブジェクトを、それぞれ射出ベクトルに基づいて移動させ、当該サブルーチンによる処理を終了する。例えば、CPU10は、射出オブジェクトデータDgに設定されている射出ベクトルに基づいて、射出オブジェクトを仮想世界内で移動させて新たな射出オブジェクトの位置を設定し、設定された位置を用いて当該射出オブジェクトの位置データDg4を更新する。また、CPU10は、射出オブジェクトが配置されている仮想世界の環境(重力、風、他のオブジェクトからの影響等)に基づいて当該射出オブジェクトの射出ベクトルを修正し、修正後の射出ベクトルを用いて当該射出オブジェクトの射出ベクトルデータDg3を更新する。なお、CPU10は、射出オブジェクトが上記移動によって他のオブジェクトに衝突する場合、当該射出オブジェクトが当該他のオブジェクトに衝突したことを示すデータを設定するとともに、当該射出オブジェクトに関するデータ(オブジェクト種類データDg1、射出量データDg2、射出ベクトルデータDg3、および位置データDg4)を射出オブジェクトデータDgから削除する。
In step 133, the
このように、上記ステップ132が繰り返されることによって、プレイヤオブジェクトPoが操作している水鉄砲の砲塔内に繰り返し新たな射出オブジェクトが設定されるとともに、新たな設定された射出オブジェクト毎に砲塔方向を射出方向とする射出ベクトルが設定される。そして、上記ステップ133が繰り返されることによって、射出オブジェクトデータDgに設定されている射出オブジェクトの位置は、それぞれ設定されている射出ベクトルに基づいて仮想世界内を移動して設定される。例えば、図20に示すように、射出オブジェクトW1〜W15は、それぞれ射出時点の砲塔方向がベクトル方向となり、射出時点の合計荷重値に応じた射出速度がベクトルの大きさとなった射出ベクトルVw1〜Vw15に基づいて、仮想世界内を連なった状態で移動していく。したがって、ユーザが射出操作をしながら砲塔の方向を変える操作を行った場合、砲塔から射出される射出オブジェクト毎に異なる方向の射出ベクトルが設定されることになるため、結果的に射出オブジェクトW1〜W15は、仮想世界内を連なった状態で蛇行して移動することになる。ここで、仮想世界において射出オブジェクトが到達する位置は、射出時点の砲塔方向および射出時点の合計荷重値に応じた射出速度に基づいてアナログ的に決まる。したがって、当該ゲームをプレイするユーザは、射出オブジェクトが到達する位置を予想することが難しい。しかしながら、射出オブジェクトを連続して射出した場合、当該射出オブジェクトを連なって移動させることによって、先に射出された射出オブジェクトの到達位置を参考にしてこれから射出する射出オブジェクトの到達位置をユーザが予想することが可能となる。 In this way, by repeating the above step 132, new injection objects are repeatedly set in the turret of the water gun operated by the player object Po, and the turret direction is injected for each newly set injection object. An injection vector as a direction is set. Then, by repeating the above step 133, the position of the injection object set in the injection object data Dg is set by moving in the virtual world based on the set injection vector. For example, as shown in FIG. 20, the injection objects W1 to W15 have injection vectors Vw1 to Vw15 in which the turret direction at the time of injection is the vector direction, and the injection speed corresponding to the total load value at the time of injection is the magnitude of the vector. Based on the above, move in a connected state in the virtual world. Therefore, when the user performs an operation of changing the direction of the turret while performing an injection operation, an injection vector in a different direction is set for each of the injection objects injected from the turret. W15 will meander and move in a continuous state in the virtual world. Here, the position where the injection object reaches in the virtual world is determined in an analog manner based on the turret direction at the time of injection and the injection speed corresponding to the total load value at the time of injection. Therefore, it is difficult for the user who plays the game to predict the position where the injection object reaches. However, when the injection objects are continuously injected, the user predicts the arrival position of the injection object to be injected with reference to the arrival position of the injection object previously injected by moving the injection objects in succession. It becomes possible.
図17に戻り、上記ステップ83のプレイヤオブジェクト設定処理の後、CPU10は、仮想カメラに関するパラメータを設定し(ステップ84)、当該サブルーチンによる処理を終了する。例えば、端末用ゲーム画像およびモニタ用ゲーム画像は、仮想世界内に仮想カメラを配置して、仮想カメラから見たゲーム空間を計算することによって得られる3次元のCG画像等によってそれぞれ生成される。具体的には、端末用ゲーム画像を生成するための第1仮想カメラは、仮想世界のプレイヤオブジェクトPoの主観視点となる位置に配置される。そして、第1仮想カメラは、上記ステップ123、ステップ125、ステップ127、およびステップ129の処理によって設定された第1仮想カメラ左右方向および第1仮想カメラ上下方向に基づいた方向が視線方向となり、横方向が仮想世界の水平方向となるように設定される。また、モニタ用ゲーム画像を生成するための第2仮想カメラは、上記第1仮想カメラが設定されている同じ仮想世界に設定され、当該仮想世界に配置されているプレイヤオブジェクトPoを遠方から鳥瞰した仮想世界内の様子が含まれるように固定して設定される。このように、端末用ゲーム画像およびモニタ用ゲーム画像がそれぞれ異なる視点から見た仮想世界のゲーム画像となるため、それらが表示されるLCD61およびモニタ2にもそれぞれ異なる視点から見た仮想世界のゲーム画像が表示されることになる。
Returning to FIG. 17, after the player object setting process in step 83, the
図16に戻り、上記ステップ44におけるゲーム制御処理の後、CPU10およびGPU32は、モニタ2に表示するためのモニタ用ゲーム画像を生成し(ステップ45)、次のステップに処理を進める。例えば、CPU10およびGPU32は、上記ステップ44のゲーム制御処理の結果を表す各データをメインメモリから読み出し、モニタ用ゲーム画像を生成するために必要なデータをVRAM34から読み出してゲーム画像を生成し、生成されたモニタ用ゲーム画像をVRAM34に記憶する。上記モニタ用ゲーム画像は、上記ステップ44のゲーム制御処理の結果を表すものであればよく、どのような方法で生成されてもよい。例えば、モニタ用ゲーム画像は、仮想カメラデータDhが示す第2仮想カメラに関するパラメータに基づいて仮想世界に第2仮想カメラを配置し、砲塔方向データDfに基づいて仮想世界に水鉄砲を操作するプレイヤオブジェクトPoを配置し、射出オブジェクトデータDgに基づいて仮想世界に射出オブジェクトを配置して、当該第2仮想カメラから見た仮想世界を計算することによって得られる3次元のCG画像によって生成される。具体的には、CPU10は、砲塔方向データDfが示す砲塔方向にプレイヤオブジェクトPoが操作する水鉄砲の砲塔が向くようにプレイヤオブジェクトPoおよび水鉄砲を仮想世界に配置する。また、CPU10は、射出オブジェクトデータDgが示すオブジェクトの種類および射出量に基づいて配置する射出オブジェクトの種類およびサイズをそれぞれ決定し、射出オブジェクトデータDgが示す位置に基づいて当該決定された射出オブジェクトを仮想世界にそれぞれ配置する。
Returning to FIG. 16, after the game control process in step 44, the
次に、CPU10およびGPU32は、端末装置6に表示するための端末用ゲーム画像を生成し(ステップ46)、次のステップに処理を進める。例えば、CPU10およびGPU32は、上記ステップ44のゲーム制御処理の結果を表す各データをメインメモリから読み出し、端末用ゲーム画像を生成するために必要なデータをVRAM34から読み出してゲーム画像を生成し、生成されたモニタ用ゲーム画像をVRAM34に記憶する。端末用ゲーム画像についても、上記モニタ用ゲーム画像と同様に上記ステップ44のゲーム制御処理の結果を表すものであればよく、どのような方法で生成されてもよい。また、端末用ゲーム画像は、上記モニタ用ゲーム画像と同様の方法で生成されてもよいし、異なる方法で生成されてもよい。例えば、端末用ゲーム画像は、仮想カメラデータDhが示す第1仮想カメラに関するパラメータに基づいて仮想世界に第1仮想カメラを配置し、砲塔方向データDfに基づいて仮想世界に水鉄砲を操作するプレイヤオブジェクトPoを配置し、射出オブジェクトデータDgに基づいて仮想世界に射出オブジェクトを配置して、当該第1仮想カメラから見た仮想世界を計算することによって得られる3次元のCG画像によって生成される。
Next, the
次に、CPU10は、モニタ2のスピーカ2aに出力するためのモニタ用ゲーム音声を生成し(ステップ47)、次のステップに処理を進める。例えば、CPU10は、上記ステップ44のゲーム制御処理の結果に応じてスピーカ2aから出力するためのモニタ用ゲーム音声をDSP33に生成させる。一例として、CPU10は、上記ステップ44のゲーム制御処理の結果に応じて設定された仮想世界において、第2仮想カメラの位置を基準として聞こえると想定される各オブジェクトの声、動作音、および効果音等に、モニタ2から出力させたいBGM等を加えたモニタ用ゲーム音声を、DSP33に生成させる。
Next, the
次に、CPU10は、端末装置6のスピーカ607に出力するための端末用ゲーム音声を生成し(ステップ48)、次のステップに処理を進める。例えば、CPU10は、上記ステップ44のゲーム制御処理の結果に応じてスピーカ607から出力するための端末用ゲーム音声をDSP33に生成させる。一例として、CPU10は、上記ステップ44のゲーム制御処理の結果に応じて設定された仮想世界において、第1仮想カメラの位置を基準として聞こえると想定される各オブジェクトの声、動作音、および効果音等に、端末装置6から出力させたいBGM等を加えた端末用ゲーム音声を、DSP33に生成させる。なお、上記端末用ゲーム音声は、上記モニタ用ゲーム音声と同じであってもよいし、異なっていてもよい。また、上記端末用ゲーム音声は、上記モニタ用ゲーム音声に対して、一部の音声が異なる(例えば効果音は異なるが、BGMが同じ)ものでもよい。なお、モニタ用ゲーム音声と端末用ゲーム音声とが同一である場合、ステップ48において端末用ゲーム音声の生成処理が実行されなくてもよい。
Next, the
次に、CPU10は、モニタ2へモニタ用ゲーム画像およびモニタ用ゲーム音声を出力し(ステップ49)、次のステップに処理を進める。例えば、CPU10は、VRAM34に記憶されたモニタ用ゲーム画像のデータと、DSP33によって生成されたモニタ用ゲーム音声のデータとを、AV−IC15へ送る。これに応じて、AV−IC15は、モニタ用ゲーム画像およびモニタ用ゲーム音声を示すデータを、AVコネクタ16を介してモニタ2へ出力する。これによって、モニタ用ゲーム画像がモニタ2に表示されるとともに、モニタ用ゲーム音声がスピーカ2aから出力される。
Next, the
次に、CPU10は、端末装置6へ端末用ゲーム画像および端末用ゲーム音声を送信し(ステップ50)、次のステップに処理を進める。例えば、CPU10は、VRAM34に記憶された端末用ゲーム画像のデータおよびDSP33によって生成された端末用ゲーム音声のデータは、CPU10によってコーデックLSI27に送られ、コーデックLSI27によって所定の圧縮処理が行われる。さらに、圧縮処理が施された端末用ゲーム画像のデータおよび端末用ゲーム音声のデータは、コーデックLSI27によって端末通信モジュール28に送られ、アンテナ29を介して端末通信モジュール28によって端末装置6へ送信される。ゲーム装置本体5から送信された端末用ゲーム画像のデータおよび端末用ゲーム音声のデータは、端末装置6の無線モジュール610によって受信され、コーデックLSI606によって所定の伸張処理が行われる。そして、伸張処理が行われた端末用ゲーム画像のデータは、LCD61に出力され、伸張処理が行われた端末用ゲーム音声のデータ音声データは、サウンドIC608に出力される。これによって、端末用ゲーム画像がLCD61に表示されるとともに、端末用ゲーム音声がスピーカ607から出力される。
Next, the
次に、CPU10は、ゲームを終了するか否かを判定する(ステップ51)。ゲームを終了する条件としては、例えば、ゲームオーバーやゲームクリアとなる条件が満たされたことや、ユーザがゲームを終了する操作を行ったこと等がある。CPU10は、ゲームを終了しない場合に上記ステップ42に戻って処理を繰り返し、ゲームを終了する場合に当該フローチャートによる処理を終了する。以降、ステップ42〜ステップ51の一連の処理は、ステップ51でゲームを終了すると判定されるまで繰り返し実行される。
Next, the
このように、上述した処理によれば、ユーザが把持して画面を見ることが可能な可搬型の端末装置6のLCD61に仮想世界の画像を表示するとともに、端末装置6の姿勢や動きに応じて当該仮想世界に対する操作を行うことが可能であり、当該端末装置6を用いた操作と並行してボード型コントローラ9を用いた操作も可能となっている。ここで、ボード型コントローラ9を用いた操作は、ユーザの足で操作したりユーザが乗って操作したりすることも可能であり、それとは別体の装置で構成される端末装置6の姿勢や動きを変化させる操作と同時並行的に行うことが容易に可能となっている。
As described above, according to the above-described processing, an image of the virtual world is displayed on the
また、上述した処理によれば、砲塔左右操作範囲内での端末装置6を用いた操作は、第1仮想カメラの視線方向および水鉄砲の砲塔方向を、当該端末装置6の方向が左右にヨーする姿勢や動きに応じて左右に変化させる。また、砲塔上下操作範囲内での端末装置6を用いた操作も、第1仮想カメラの視線方向および水鉄砲の砲塔方向を、当該端末装置6の方向が上下にピッチする姿勢や動きに応じて変化させる。したがって、砲塔左右操作範囲内および砲塔上下操作範囲内での端末装置6を用いた操作は、当該操作によって端末装置6に表示する仮想世界を生成するための仮想カメラの視線方向だけでなく、当該仮想世界に射出オブジェクトを射出する射出方向も変えることができるため、射出オブジェクトの到達位置を調整する操作やLCD61に表示される表示範囲を変えたりするために好適な操作となる。一方、砲塔左右操作範囲外や砲塔上下操作範囲外での端末装置6を用いた操作は、第1仮想カメラの視線方向のみを、当該端末装置6の方向が左右にヨーする姿勢や動きや上下にピッチする姿勢や動きに応じて変化させる。したがって、砲塔左右操作範囲外および砲塔上下操作範囲外での端末装置6を用いた操作は、射出方向はそのままにしてLCD61に表示される表示範囲のみを変えるために好適な操作となる。このように、少なくとも砲塔左右操作範囲および砲塔上下操作範囲を設定することによって、ユーザが様々な操作を1つのデバイスの姿勢や動きによって行うことが可能となる。
Further, according to the above-described processing, the operation using the
なお、上述した説明では、端末装置6の方向が左右にヨーする姿勢や動きの方向を判定するための範囲(砲塔左右操作範囲)と、端末装置6の方向が上下にピッチする姿勢や動きの方向を判定するための範囲(砲塔上下操作範囲)を設定したが、当該方向を判定するための範囲は1つでもいいし、3つ以上であってもよい。例えば、水鉄砲の砲塔方向が仮想世界の左右にのみ変化する場合、砲塔左右操作範囲のみ設定して、端末装置6の方向が上下にピッチする姿勢や動きに対しては常に第1仮想カメラのみの姿勢を変化させるようにしてもかまわない。また、水鉄砲の砲塔方向が変化する速度が相対的に遅い範囲をさらに設定(例えば、砲塔左右操作範囲の左右両側にそれぞれ隣接する範囲や、砲塔上下操作範囲の上下両側にそれぞれ隣接する範囲)して、端末装置6の方向に応じて砲塔方向が変化する速度が変わるように砲塔方向を制御してもかまわない。
In the above description, the range for determining the posture and movement direction of the
上述したゲーム例では、端末装置6の姿勢に基づいてLCD61に表示する画像を生成するための仮想カメラ(第1仮想カメラ)の制御(位置、方向、姿勢の制御)が行われている。このような制御によって、LCD61を介して仮想世界内を覗いているような画像をユーザに提供することができ、当該ユーザに仮想世界にいるかのような感覚を与えることができる。また、端末装置6の姿勢を用いた操作は、鉛直方向周り(例えば、y軸方向周り)の左右振り運動(ヨー)、左右水平方向周り(例えば、x軸方向周り)の上下振り運動(ピッチ)のように2方向への回転操作が可能となり、仮想世界においても同様の動きが可能な仮想カメラの制御に好適であり、実空間における端末装置6の姿勢と同じ姿勢になるように仮想世界における仮想カメラの姿勢を制御することによって、仮想世界においてユーザが希望する方向を覗いたような画像を提供することができる。なお、上記2方向への回転操作に加えて、前後水平方向周り(例えば、z軸方向周り)の左右回転運動(ロール)に応じて、仮想カメラが視線方向周りに回転するように制御されてもよい。この制御を加えることによって3方向への回転操作が可能となり、さらに実空間における端末装置6の姿勢と同じ姿勢になるように仮想世界における仮想カメラの姿勢を制御することによって、仮想世界においてユーザが希望する方向を覗いたような画像を提供することができる。
In the above-described game example, control (position, direction, and orientation control) of the virtual camera (first virtual camera) for generating an image to be displayed on the
また、上述したゲーム例では、ボード型コントローラ9上でユーザが動作することに応じて、プレイヤオブジェクトの動作(例えば、射出動作)が行われる。つまり、ユーザは、LCD61に表示される画像によって仮想世界にいるかのような感覚が与えられることに加えて、さらに自分自身が実空間におけるプレイヤキャラクタになったかのような操作感覚が与えられるため、さらに仮想世界にいるかのような感覚が高まることになる。
Further, in the above-described game example, the player object performs an action (for example, an injection action) in response to the user's action on the
また、上述したゲーム例では、端末装置6の姿勢に基づいてLCD61に表示されるプレイヤオブジェクトPoが操作する水鉄砲の砲塔方向が制御されている。このような制御によって、端末装置6自体が水鉄砲となったかのような操作環境をユーザに提供することができ、当該ユーザが仮想世界のプレイヤオブジェクトPoになったような感覚を与えることができる。また、端末装置6の姿勢を用いた操作は、鉛直方向周り(例えば、y軸方向周り)の左右振り運動(ヨー)、左右水平方向周り(例えば、x軸方向周り)の上下振り運動(ピッチ)のように2方向への回転操作が可能となり、仮想世界においても同様の動きが可能なプレイヤオブジェクトPoの制御に好適である。例えば、上記ゲーム例の場合、端末装置6のLCD61に沿った縦方向(y軸方向)周りの左右振り運動(ヨー)を砲塔方向の左右変化(ヨー)に対応させ、LCD61に沿った左右方向(x軸方向)周りの上下振り運動(ピッチ)を砲塔方向の上下変化(ピッチ)に対応させることによって、仮想世界においてユーザが希望する砲塔方向に変化する射撃ゲームを提供することができる。
In the above-described game example, the turret direction of the water gun operated by the player object Po displayed on the
また、上述したゲーム例では、ボード型コントローラ9に加える荷重値(合計荷重値)に応じて、プレイヤオブジェクトPoが射出オブジェクトを射出する動作(射出オブジェクトの射出有無、射出オブジェクトを射出する射出量および射出速度、射出オブジェクトの種類)が制御される。つまり、ボード型コントローラ9に対するアナログ操作に応じた射出処理が可能となっている。したがって、ユーザは、ユーザは、複数のデバイス(端末装置6およびボード型コントローラ9)によって1つのプレイヤオブジェクトPoの動作を操作することになり、今までにない操作が可能となるとともに、プレイヤオブジェクトPoの動作に対するアナログ操作も可能となる。
In the above-described game example, the action of the player object Po injecting the injection object according to the load value (total load value) applied to the board-type controller 9 (injection presence / absence of the injection object, the injection amount of the injection object, and the like) The injection speed and the type of injection object) are controlled. That is, the injection process according to the analog operation with respect to the
また、上述したゲーム例では、端末装置6のLCD61に表示されている仮想世界の奥行方向を、プレイヤオブジェクトPoが操作している水鉄砲の砲塔方向とすることができる。したがって、ユーザは、端末装置6の姿勢によって砲塔方向を設定できるとともに、その砲塔方向を奥行方向とした仮想世界がLCD61に表示されるために、砲塔方向を設定する操作が直感的で当該砲塔方向をユーザが所望する方向に合わせることが容易となる。
In the above-described game example, the depth direction of the virtual world displayed on the
また、上述したゲーム例では、端末装置6の姿勢や動きに基づいて、プレイヤオブジェクトPoが操作する水鉄砲の姿勢(砲塔方向)やLCD61に表示する仮想世界画像を生成するための第1仮想カメラの姿勢(視線方向)が制御されている。しかしながら、端末装置6の姿勢や動きに基づいて、プレイヤオブジェクトPoを移動させたり、第1仮想カメラを移動させたりしてもかまわない。例えば、端末装置6の姿勢や動きの変化から移動角度や移動距離を算出し、当該移動角度や移動距離に応じて水鉄砲を操作するプレイヤオブジェクトPoおよび/または第1仮想カメラを仮想世界で移動させる。このように、プレイヤオブジェクトPoおよび/または第1仮想カメラが仮想世界において移動する場合であっても、同様に本発明を適用することができる。
In the above-described game example, based on the attitude and movement of the
また、上述したゲーム例では、プレイヤオブジェクトPoから見た主観視点の仮想世界画像をLCD61に表示したが、他の態様の仮想世界の画像をLCD61に表示してもかまわない。例えば、プレイヤオブジェクトPoを少なくとも含む仮想世界の画像を端末装置6のLCD61に表示してもよい。一例として、プレイヤオブジェクトPoの背後近傍に第1仮想カメラを配置して、プレイヤオブジェクトPoを少なくとも含む仮想世界の画像を端末装置6のLCD61に表示することが考えられる。また、上述したゲーム例であっても、砲塔左右操作範囲外や砲塔上下操作範囲外では、砲塔方向が当該範囲内にロックされるためプレイヤオブジェクトPoの動作が止まった状態で第1仮想カメラだけが姿勢変化することがあり得る。この場合、プレイヤオブジェクトPoの位置を視点としてプレイヤオブジェクトPoの背後を見るように第1仮想カメラの視線方向を設定してもいいし、プレイヤオブジェクトPoの前方近傍に第1仮想カメラを移動させて視体積内にプレイヤオブジェクトPoの少なくとも一部が含まれるように第1仮想カメラを設定してもかまわない。
In the above-described game example, the virtual world image of the subjective viewpoint viewed from the player object Po is displayed on the
また、上述したゲーム例では、プレイヤオブジェクトPoから見た主観視点の仮想世界画像をLCD61に表示する場合に、プレイヤオブジェクトPoの一部(プレイヤオブジェクトPoが操作している水鉄砲の砲塔)を表示しているが、プレイヤオブジェクトPoが全く表示されていなくてもかまわない。例えば、プレイヤオブジェクトPoが全く表示されない態様であっても、仮想世界において射出オブジェクトが到達する地点を示す照準がLCD61に表示されてもいいし、上述したように射出オブジェクトが射出された場合に当該射出オブジェクトが射出順に連なって射出される様子を表示してもよい。
In the above-described game example, when the virtual world image of the subjective viewpoint viewed from the player object Po is displayed on the
また、上述した説明では、射出オブジェクトの一例として、水Wや水Wより多量の水の塊となった大玉を用いたが、他のオブジェクトを射出オブジェクトとして用いてもかまわない。例えば、本明細書で用いている「射出オブジェクト」は、プレイヤオブジェクトPoが他のオブジェクトに当てるために射出したり発射したりするオブジェクトを表す用語として用いており、仮想ゲーム世界における火炎、銃弾、砲弾、爆弾、手榴弾、ロケット弾、ミサイル弾、ボール、矢、ビーム、レーザ光線等でもかまわない。 In the above description, as an example of the injection object, the large ball that is a mass of water W or a larger amount of water than the water W is used, but other objects may be used as the injection object. For example, the “eject object” used in the present specification is used as a term representing an object that the player object Po emits or fires to hit another object, and flames, bullets, Cannonballs, bombs, grenades, rockets, missiles, balls, arrows, beams, laser beams, etc.
なお、上述したゲーム例では、端末装置6の姿勢に基づいて決定された操作指示方向に応じて、即時に砲塔方向や仮想カメラ姿勢の制御が連動するような処理例を用いた。しかしながら、操作指示方向の変化に応じて、所定の時間遅れて砲塔方向の制御および/または第1仮想カメラの姿勢の制御が行われるような処理でもかまわない。この場合、砲塔方向が変わった後に、所定時間遅れて当該砲塔方向に追従して第1仮想カメラの姿勢が変化したり、第1仮想カメラの姿勢が変化した後に、所定時間遅れて当該姿勢変化に追従して砲塔方向が変化したりするような仮想世界を表示することも可能となる。
In the above-described game example, a processing example is used in which the control of the turret direction and the virtual camera posture is immediately linked in accordance with the operation instruction direction determined based on the posture of the
また、上述したゲーム例では、端末装置6のLCD61に表示されるゲーム画像と、モニタ2に表示されるゲーム画像とは、何れも同じ仮想世界の様子を示す画像であるが、当該仮想世界を見る視点や範囲が異なる画像である。したがって、ユーザは、2つの表示画面に表示された異なる視界や表示範囲となった仮想世界を見ることが可能となり、ゲーム状況等に応じて適宜好適なゲーム画像を見ることが可能となる。また、上述したゲーム例では、ユーザが端末装置6を把持して操作を行い、実空間における端末装置6の姿勢や位置に応じて砲塔方向を変化させるとともに、LCD61に表示される画像も砲塔方向に応じて変化させることもできる。したがって、端末装置6を把持しながらLCD61に表示される画像を見るユーザに、仮想世界の臨場感を与えることができる。その一方で、LCD61に表示される画像だけを見ていると仮想世界全体に対する位置やプレイヤオブジェクトPoの周囲の状況の把握が難しくなることも考えられるが、モニタ2に相対的に広い範囲の仮想世界を表示することによって、このような問題を解消することができる。
In the above-described game example, the game image displayed on the
なお、上述したゲーム例では、モニタ2に表示する仮想世界の画像を生成するための第2仮想カメラを仮想世界に固定して設定しているが、プレイヤオブジェクトPoの動きに応じて第2仮想カメラの位置や姿勢を変化させてもかまわない。一例として、視線方向を仮想世界の水平面に投影した方向が、砲塔方向または操作指示方向を当該水平面に投影した方向と一致するように、第2仮想カメラの姿勢を制御してモニタ2に表示する仮想世界の画像を生成してもかまわない。
In the above-described game example, the second virtual camera for generating an image of the virtual world displayed on the
また、ゲームシステム1は、端末装置6およびボード型コントローラ9を操作手段として、上記で説明したように種々のゲームを行うことが可能である。端末装置6は、可搬形のディスプレイや第2のディスプレイとしても使用することができる一方で、本体の動きによる操作、タッチ操作、ボタン操作等による入力を行うコントローラとしても使用することができ、ゲームシステム1によれば、幅広いゲームを実施することが可能となる。つまり、端末装置6は、表示装置として機能するものであるため、モニタ2やコントローラ7を使用せずに端末装置6を表示手段として使用し、ボード型コントローラ9を操作手段として使用するようなゲームシステムのような形態もあり得る。また、端末装置6は、表示装置として機能するとともに、操作装置としても機能するものであるため、モニタ2およびコントローラ7を使用せずに端末装置6を表示手段として使用し、端末装置6およびボード型コントローラ9を操作手段として使用するようなゲームシステムのような形態もあり得る。さらに、端末装置6は、表示装置として機能するとともに、操作装置としても機能するものであるため、モニタ2、コントローラ7、およびボード型コントローラ9を使用せずに端末装置6を表示手段として使用し、端末装置6を操作手段として使用するようなゲームシステムのような形態もあり得る。
The game system 1 can play various games as described above using the
また、上記実施形態においては、端末装置6は、ゲーム処理を実行しない、いわゆるシンクライアント端末として機能するものであった。しかしながら、端末装置6は、上記実施形態においてゲーム装置本体5によって実行される一連のゲーム処理のうち、少なくとも一部の処理が端末装置6によって実行されてもよい。一例として、一部の処理(例えば、端末用ゲーム画像の生成処理)を端末装置6が実行するようにしてもよい。他の例として、ゲーム装置本体5によって実行される一連のゲーム処理全てを端末装置6が実行するようにしてもよい。この場合、端末装置6は、表示装置として機能するとともに、ゲーム処理を実行する処理装置としても機能するものであるため、モニタ2、ゲーム装置本体5、およびコントローラ7を使用せずに端末装置6を表示手段として使用し、ボード型コントローラ9を操作手段として使用し、端末装置6を処理手段として使用するようなゲームシステムのような形態もあり得る。当該ゲームシステムでは、端末装置6およびボード型コントローラ9のみが無線または有線によって接続され、ボード型コントローラ9からボード操作データを端末装置6へ出力することによって、種々のゲームを行うことができる。また、ボード型コントローラ9も使用しない場合、端末装置6を表示手段、操作手段、および処理手段として使用するような形態もあり得ることは言うまでもない。
Moreover, in the said embodiment, the
また、上記実施形態においては、端末装置6の姿勢および/または動き(位置や姿勢そのもの、あるいは、位置や姿勢の変化を含む)を算出するために用いられる姿勢データ(例えば、磁気センサ602、加速度センサ603、およびジャイロセンサ604から出力される少なくとも1つのデータ)を端末装置6からゲーム装置本体5へ出力され、ゲーム装置本体5における情報処理によって端末装置6の姿勢および/または動きが算出されている。しかしながら、ゲーム装置本体5において算出されている端末装置6の姿勢および/または動きを、端末装置6において算出してもかまわない。この場合、端末装置6で算出された端末装置6の姿勢および/または動きを示すデータ(すなわち、上記姿勢データを用いて算出された、端末装置6の位置や姿勢そのもの、あるいは、位置や姿勢の変化を示すデータ)が、端末装置6からゲーム装置本体5へ出力され、ゲーム装置本体5における情報処理において当該データが利用されることになる。
In the above embodiment, posture data (for example,
また、上述した説明では、端末装置6とゲーム装置本体5との間およびボード型コントローラ9とゲーム装置本体5との間がそれぞれ無線通信によって接続された態様を用いたが、他の態様によって装置間の無線通信が行われてもかまわない。第1の例として、端末装置6が他の無線通信の中継装置として機能する。この場合、ボード型コントローラ9のボード操作データが端末装置6へ無線送信され、受信したボード操作データと共に端末装置6の端末操作データを、端末装置6がゲーム装置本体5へ無線送信する。この場合、端末装置6とゲーム装置本体5とが無線通信によって直接的に接続されるが、ボード型コントローラ9は、端末装置6を介してゲーム装置本体5と無線通信によって接続されることになる。第2の例として、ボード型コントローラ9が他の無線通信の中継装置として機能する。この場合、端末装置6の端末操作データがボード型コントローラ9へ無線送信され、受信した端末操作データと共にボード型コントローラ9のボード操作データを、ボード型コントローラ9がゲーム装置本体5へ無線送信する。この場合、ボード型コントローラ9とゲーム装置本体5とが無線通信によって直接的に接続されるが、端末装置6は、ボード型コントローラ9を介してゲーム装置本体5と無線通信によって接続されることになる。なお、他の装置が中継してゲーム装置本体5に操作データを送信する場合、ケーブルを介して当該操作データを生成する装置と当該操作データを中継する他の装置との間を電気的に接続してもかまわない。
Further, in the above description, a mode in which the
また、端末装置6および/またはボード型コントローラ9と、ゲーム装置本体5とがケーブルを介して電気的に接続されてもかまわない。この場合、端末装置6および/またはボード型コントローラ9に接続されたケーブルをゲーム装置本体5の接続端子に接続する。第1の例として、端末装置6とゲーム装置本体5とが第1のケーブルを介して電気的に接続され、ボード型コントローラ9とゲーム装置本体5とが第2のケーブルを介して電気的に接続される。第2の例として、端末装置6とゲーム装置本体5との間がケーブルを介して電気的に接続される。この場合、ボード型コントローラ9のボード操作データは、端末装置6へ無線送信された後に上記ケーブルを介してゲーム装置本体5に送信されてもいいし、ボード型コントローラ9から直接ゲーム装置本体5に無線送信されてもよい。第3の例として、ボード型コントローラ9とゲーム装置本体5との間がケーブルを介して電気的に接続される。この場合、端末装置6の端末操作データは、ボード型コントローラ9へ無線送信された後に上記ケーブルを介してゲーム装置本体5に送信されてもいいし、端末装置6から直接ゲーム装置本体5に無線送信されてもよい。
Further, the
また、上記実施形態においては、ゲームシステム1が端末装置6およびボード型コントローラ9をそれぞれ1つ有する構成であったが、ゲームシステム1は、複数組の端末装置6およびボード型コントローラ9を有する構成であってもよい。すなわち、ゲーム装置本体5は、複数組の端末装置6およびボード型コントローラ9とそれぞれ無線通信可能であり、ゲーム画像のデータとゲーム音声のデータと制御データとを各端末装置6へ送信し、端末操作データとカメラ画像データとマイク音データとボード操作データとを各端末装置6およびボード型コントローラ9から受信するものであってもよい。なお、ゲーム装置本体5は、複数の端末装置6およびボード型コントローラ9のそれぞれと無線通信を行うが、このとき、ゲーム装置本体5は、各端末装置6およびボード型コントローラ9との無線通信を時分割で行ってもよいし、周波数帯域を分割して行ってもよい。
In the above embodiment, the game system 1 has one
上記のように複数組の端末装置6およびボード型コントローラ9を有する場合には、ゲームシステム1を用いてより多くの種類のゲームを行うことができる。例えば、ゲームシステム1が2組の端末装置6およびボード型コントローラ9を有する場合には、2人のユーザが同時にゲームを行うことができる。また、ゲームシステム1が2組の端末装置6およびボード型コントローラ9を有する場合には、ゲームシステム1は3つの表示装置を有することになるので、3人のユーザのそれぞれのためのゲーム画像を生成し、各表示装置に表示させることができる。
As described above, when a plurality of sets of
また、上述した説明では、ボード型コントローラ9に複数の荷重センサ94を設けているが、上記処理においてはボード型コントローラ9に加わっている荷重の重心位置の情報が不要であるので、荷重センサ94を少なくとも1つボード型コントローラ9に設けてもかまわない。
In the above description, the board-
また、上記実施例では、据置型のゲーム装置3を用いて説明したが、携帯型のゲーム装置や一般的なパーソナルコンピュータ等の情報処理装置で本発明の情報処理プログラムを実行して、本発明を実現してもかまわない。また、他の実施形態では、ゲーム装置に限らず任意の携帯型電子機器、例えば、PDA(Personal Digital Assistant)や携帯電話、パーソナルコンピュータ、カメラ等であってもよい。何れの装置であっても、当該装置と端末装置6およびボード型コントローラ9とを無線または有線で接続することによって、本発明を実現することができる。
In the above embodiment, the
また、上述した説明では情報処理をゲーム装置本体5で行う例を用いたが、上記情報処理における処理ステップの少なくとも一部をゲームシステム1の外部に設けられた他の装置で行ってもかまわない。例えば、ゲーム装置本体5が他の装置(例えば、サーバや他のゲーム装置)と通信可能に構成されている場合、上記情報処理における処理ステップは、ゲーム装置本体5および当該他の装置が協働することによって実行してもよい。一例として、他の装置において、プレイヤオブジェクトおよび仮想世界等を設定する処理が行われ、ゲーム装置本体5からプレイヤオブジェクトの動作や姿勢に関するデータが他の装置へ送信されて、上記情報処理が行われることが考えられる。そして、他の装置で生成された仮想世界を示す画像データがゲーム装置本体5へ送信され、当該仮想世界がモニタ2やLCD61に表示される。このように、上記情報処理における処理ステップの少なくとも一部を他の装置で行うことによって、上述した情報処理と同様の処理が可能となる。なお、上記情報処理における処理ステップの少なくとも一部をボード型コントローラ9(マイコン100)で行ってもよい。また、上述した情報処理は、少なくとも1つの情報処理装置により構成される情報処理システムに含まれる1つのプロセッサまたは複数のプロセッサ間の協働により実行されることが可能である。また、上記実施形態においては、ゲーム装置本体5のCPU10が所定のプログラムを実行することによって、上述したフローチャートによる処理が行われたが、ゲーム装置本体5が備える専用回路によって上記処理の一部または全部が行われてもよい。
In the above description, the example in which the information processing is performed by the
また、上述したゲーム装置本体5の形状や、端末装置6、コントローラ7、およびボード型コントローラ9の形状および各種操作ボタンやセンサの形状、数、および設置位置等は、単なる一例に過ぎず他の形状、数、および設置位置であっても、本発明を実現できることは言うまでもない。また、上述した情報処理で用いられる処理順序、設定値、表示態様、判定に用いられる値等は、単なる一例に過ぎず他の順序、表示態様、値であっても、本発明を実現できることは言うまでもない。
Further, the shape of the game apparatus
また、上記情報処理プログラム(ゲームプログラム)は、光ディスク4等の外部記憶媒体を通じてゲーム装置本体5に供給されるだけでなく、有線または無線の通信回線を通じてゲーム装置本体5に供給されてもよい。また、情報処理プログラムは、ゲーム装置本体5内部の不揮発性記憶装置に予め記録されていてもよい。なお、情報処理プログラムを記憶する情報記憶媒体としては、CD−ROM、DVD、あるいはそれらに類する光学式ディスク状記憶媒体、フレキシブルディスク、ハードディスク、光磁気ディスク、磁気テープなどでもよい。また、上記情報処理プログラムを記憶する情報記憶媒体としては、不揮発性半導体メモリや揮発性メモリでもよい。このような記憶媒体は、コンピュータ等が読み取り可能な記録媒体ということができる。例えば、コンピュータ等に、これらの記録媒体のプログラムを読み込ませて実行させることにより、上述で説明した各種機能を提供させることができる。
The information processing program (game program) may be supplied not only to the
以上、本発明を詳細に説明してきたが、前述の説明はあらゆる点において本発明の例示に過ぎず、その範囲を限定しようとするものではない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。本発明は、特許請求の範囲によってのみその範囲が解釈されるべきであることが理解される。また、当業者は、本発明の具体的な実施形態の記載から、本発明の記載および技術常識に基づいて等価な範囲を実施することができることが理解される。また、本明細書において使用される用語は、特に言及しない限り、当該分野で通常用いられる意味で用いられることが理解されるべきである。したがって、他に定義されない限り、本明細書中で使用される全ての専門用語および技術用語は、本発明の属する分野の当業者によって一般的に理解されるのと同じ意味を有する。矛盾する場合、本明細書(定義を含めて)が優先する。 Although the present invention has been described in detail above, the above description is merely illustrative of the present invention in all respects and is not intended to limit the scope thereof. It goes without saying that various improvements and modifications can be made without departing from the scope of the present invention. It is understood that the scope of the present invention should be construed only by the claims. Moreover, it is understood that those skilled in the art can implement an equivalent range from the description of the specific embodiments of the present invention based on the description of the present invention and the common general technical knowledge. In addition, it is to be understood that the terms used in the present specification are used in the meaning normally used in the art unless otherwise specified. Thus, unless defined otherwise, all technical and technical terms used herein have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. In case of conflict, the present specification, including definitions, will control.
本発明に係る情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法は、ユーザが把持して画面を見ることが可能な表示装置に仮想世界の画像を表示し、当該表示装置の姿勢や動きに応じて当該仮想世界に対する操作が行われる場合に、当該操作と並行して行う操作を容易にすることができ、当該操作に基づいた処理等を行う情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法として有用である。 An information processing program, an information processing apparatus, an information processing system, and an information processing method according to the present invention display an image of a virtual world on a display device that can be held by a user and view a screen, and the orientation of the display device When an operation on the virtual world is performed according to the movement, the information processing program, the information processing apparatus, and the information that can facilitate the operation performed in parallel with the operation and perform processing based on the operation It is useful as a processing system and an information processing method.
1…ゲームシステム
2…モニタ
3…ゲーム装置
4…光ディスク
5…ゲーム装置本体
10、617…CPU
11…システムLSI
12…外部メインメモリ
13…ROM/RTC
14…ディスクドライブ
15…AV−IC
16…AVコネクタ
17…フラッシュメモリ
18…ネットワーク通信モジュール
19…コントローラ通信モジュール
20…拡張コネクタ
21…メモリカード用コネクタ
22、23、29、611、754…アンテナ
24…電源ボタン
25…リセットボタン
26…イジェクトボタン
27…コーデックLSI
28…端末通信モジュール
31…入出力プロセッサ
32…GPU
33…DSP
34…VRAM
35…内部メインメモリ
6…端末装置
60、71…ハウジング
61…LCD
62…タッチパネル
63…アナログスティック
64…操作ボタン
65…マーカ部
66…カメラ
67…拡張コネクタ
68…足部
601…タッチパネルコントローラ
602…磁気センサ
603、701…加速度センサ
604、703…ジャイロセンサ
605…UIコントローラ
606…コーデックLSI
607、706…スピーカ
608…サウンドIC
609…マイク
612…赤外線通信モジュール
613…フラッシュメモリ
614…電源IC
616…充電器
618…内部メモリ
619、704…バイブレータ
7…コントローラ
72…操作部
73…コネクタ
74…撮像情報演算部
700…基板
702…LED
741…赤外線フィルタ
742…レンズ
743…撮像素子
744…画像処理回路
75…通信部
752…メモリ
8…マーカ
9…ボード型コントローラ
90…支持板
92…脚
94…荷重センサ
95…起歪体
96…歪センサ
102…ADコンバータ
104…DC−DCコンバータ
106、610、753…無線モジュール
108…増幅器
100、751…マイコン
110、615…電池
DESCRIPTION OF SYMBOLS 1 ...
11 ... System LSI
12 ... External
14 ...
16 ...
28 ...
33 ... DSP
34 ... VRAM
35 ... Internal
62 ... Touch panel 63 ... Analog stick 64 ...
607, 706 ...
609 ...
616 ...
741 ... Infrared filter 742 ... Lens 743 ... Image sensor 744 ... Image processing circuit 75 ... Communication unit 752 ...
Claims (28)
前記コンピュータを、
前記可搬型表示装置から出力されるデータに基づいて、前記可搬型表示装置に設定された所定軸の方向が所定範囲内にあるか否かを判定する方向判定手段と、
前記所定軸の方向が前記所定範囲内にあると判定された場合、当該所定軸の方向に応じて仮想世界に配置されたオブジェクトの動作を制御し、前記所定軸の方向が前記所定範囲外にあると判定された場合、当該所定軸の方向に応じた当該オブジェクトの動作制御を行わないオブジェクト動作制御手段と、
前記所定軸の方向が前記所定範囲内および前記所定範囲外の何れにある場合であっても、前記所定軸の方向に応じて前記仮想世界の画像を生成するための第1仮想カメラの動作を制御する第1仮想カメラ動作制御手段と、
前記第1仮想カメラから見た仮想世界を示す第1画像を前記可搬型表示装置に表示する表示制御手段として機能させる、情報処理プログラム。 An information processing program executed by a computer of an information processing device capable of displaying an image on the portable display device that outputs at least data according to the attitude and / or movement of the portable display device body,
The computer,
Direction determining means for determining whether or not a direction of a predetermined axis set in the portable display device is within a predetermined range based on data output from the portable display device;
When it is determined that the direction of the predetermined axis is within the predetermined range, the movement of the object arranged in the virtual world is controlled according to the direction of the predetermined axis, and the direction of the predetermined axis is outside the predetermined range. If it is determined that there is an object motion control means that does not perform motion control of the object according to the direction of the predetermined axis ;
Even if the direction of the predetermined axis is in any of the outside of the predetermined range and the predetermined range, the operation of the first virtual camera for generating an image of the virtual world in accordance with the direction of the predetermined axis First virtual camera operation control means for controlling;
An information processing program for causing a first image indicating a virtual world viewed from the first virtual camera to function as display control means for displaying on the portable display device.
前記オブジェクト動作制御手段は、前記左右方向への前記所定軸の方向が前記第1の範囲内にあると判定された場合、当該左右方向への所定軸の方向に基づいて、前記仮想世界の左右方向へ前記オブジェクトを回転および/または移動させて、当該オブジェクトの動作を制御する、請求項1に記載の情報処理プログラム。 The direction determination means determines whether the direction of the predetermined axis in the left-right direction of the real space is within a first range set in the left-right direction based on data output from the portable display device. Including left and right direction determination means for determining
When it is determined that the direction of the predetermined axis in the left-right direction is within the first range, the object motion control unit is configured to change the left-right direction of the virtual world based on the direction of the predetermined axis in the left-right direction. The information processing program according to claim 1, wherein the information processing program controls the movement of the object by rotating and / or moving the object in a direction.
前記オブジェクト動作制御手段は、前記上下方向への前記所定軸の方向が前記第2の範囲内にあると判定された場合、当該上下方向への所定軸の方向に基づいて、前記仮想世界の上下方向へ前記オブジェクトを回転および/または移動させて、当該オブジェクトの動作を制御する、請求項2に記載の情報処理プログラム。 The direction determination means determines whether or not the direction of the predetermined axis in the vertical direction of the real space is within the second range set in the vertical direction based on data output from the portable display device. Further includes a vertical direction determination means for determining whether or not
When it is determined that the direction of the predetermined axis in the up-down direction is within the second range, the object motion control unit is configured to move the virtual world up and down based on the direction of the predetermined axis in the up-down direction. The information processing program according to claim 2, wherein the movement of the object is controlled by rotating and / or moving the object in a direction.
前記第2の範囲は、前記第1の範囲が有する角度範囲とは異なる大きさの角度範囲を有する、請求項3に記載の情報処理プログラム。 The first range has an angle range of a predetermined size,
The information processing program according to claim 3, wherein the second range has an angular range having a size different from an angular range included in the first range.
前記第2の範囲は、実空間における水平方向に対して上下に異なる角度範囲を有する範囲である、請求項3または4に記載の情報処理プログラム。 The first range is a range having the same angular range left and right around a reference direction in real space;
5. The information processing program according to claim 3, wherein the second range is a range having different angular ranges in the vertical direction with respect to a horizontal direction in real space.
前記第1仮想カメラ動作制御手段は、前記所定軸の方向の変化に基づいて、前記第1仮想カメラの動作を制御する、請求項1乃至6のいずれか1つに記載の情報処理プログラム。 The object motion control means controls the motion of the object based on a change in the direction of the predetermined axis,
The information processing program according to any one of claims 1 to 6, wherein the first virtual camera operation control means controls the operation of the first virtual camera based on a change in a direction of the predetermined axis.
前記第1仮想カメラ動作制御手段は、前記所定軸の方向の変化が大きいほど、前記第1仮想カメラを大きく移動させて当該第1仮想カメラの動作を制御する、請求項7に記載の情報処理プログラム。 The object motion control means controls the motion of the object by largely moving the object as the change in the direction of the predetermined axis is larger.
The information processing according to claim 7, wherein the first virtual camera operation control unit controls the operation of the first virtual camera by moving the first virtual camera to a greater extent as the change in the direction of the predetermined axis is larger. program.
前記第1仮想カメラ動作制御手段は、前記所定軸の角度に応じて、前記第1仮想カメラを回転移動させて当該仮想カメラの動作を制御する、請求項1乃至6のいずれか1つに記載の情報処理プログラム。 The object motion control means controls the motion of the object by rotating the object according to the angle of the predetermined axis,
The said 1st virtual camera operation | movement control means controls the operation | movement of the said virtual camera by rotating the said 1st virtual camera according to the angle of the said predetermined axis | shaft. Information processing program.
前記方向判定手段は、前記可搬型表示装置の姿勢および/または動きに基づいて、前記所定軸の方向が前記所定範囲内にあるか否かを判定する、請求項1乃至9のいずれか1つに記載の情報処理プログラム。 Based on the data output from the portable display device, the computer is further functioned as posture movement calculation means for calculating the posture and / or movement of the portable display device,
10. The direction determination unit according to claim 1, wherein the direction determination unit determines whether or not a direction of the predetermined axis is within the predetermined range based on an attitude and / or movement of the portable display device. Information processing program described in 1.
前記オブジェクト動作制御手段は、実空間の前記所定方向を基準とした前記可搬型表示装置の姿勢および/または動きに基づいて、前記仮想世界に設定された前記所定方向に対応する方向を基準として前記オブジェクトの動作を制御し、
前記第1仮想カメラ動作制御手段は、実空間の前記所定方向を基準とした前記可搬型表示装置の姿勢および/または動きに基づいて、前記仮想世界に設定された前記所定方向に対応する方向を基準として前記第1仮想カメラの動作を制御する、請求項10に記載の情報処理プログラム。 The posture movement calculating means calculates the posture and / or movement of the portable display device based on a predetermined direction in real space,
The object motion control means is based on the direction corresponding to the predetermined direction set in the virtual world based on the attitude and / or movement of the portable display device with the predetermined direction in real space as a reference. Control the behavior of the object,
The first virtual camera operation control means determines a direction corresponding to the predetermined direction set in the virtual world based on an attitude and / or movement of the portable display device with reference to the predetermined direction in real space. The information processing program according to claim 10, wherein an operation of the first virtual camera is controlled as a reference.
前記オブジェクト動作制御手段は、実空間の重力方向を基準とした前記可搬型表示装置の姿勢および/または動きに基づいて、前記仮想世界に設定された重力方向を基準として前記オブジェクトの動作を制御し、
前記第1仮想カメラ動作制御手段は、実空間の重力方向を基準とした前記可搬型表示装置の姿勢および/または動きに基づいて、前記仮想世界に設定された重力方向を基準として前記第1仮想カメラの動作を制御する、請求項11に記載の情報処理プログラム。 The posture movement calculating means calculates the posture and / or movement of the portable display device based on the direction of gravity with the direction of gravity in real space as the predetermined direction,
The object motion control means controls the motion of the object based on the gravity direction set in the virtual world based on the attitude and / or movement of the portable display device based on the gravity direction of the real space. ,
The first virtual camera motion control means is configured to use the first virtual camera based on the gravity direction set in the virtual world based on the attitude and / or movement of the portable display device based on the gravity direction of the real space. The information processing program according to claim 11, which controls the operation of the camera.
前記方向判定手段は、実空間の重力方向周りの範囲を少なくとも前記所定範囲として設定し、実空間の重力方向周りに前記可搬型表示装置が回転する姿勢および/または動きに基づいて、前記所定軸の方向が当該所定範囲内にあるか否かを判定し、
前記オブジェクト動作制御手段は、実空間の重力方向周りに前記可搬型表示装置が回転する姿勢および/または動きに基づいて、前記仮想世界に設定された重力方向周りに前記オブジェクトを回転させて動作を制御し、
前記第1仮想カメラ動作制御手段は、実空間の重力方向周りに前記可搬型表示装置が回転する姿勢および/または動きに基づいて、前記仮想世界に設定された重力方向周りに前
記第1仮想カメラを回転させて動作を制御する、請求項12に記載の情報処理プログラム。 The posture movement calculating means calculates at least a posture and / or movement of the portable display device rotating around a gravity direction in real space;
The direction determining means sets a range around the gravity direction of the real space as at least the predetermined range, and the predetermined axis is based on a posture and / or movement of the portable display device around the gravity direction of the real space. To determine whether the direction is within the predetermined range,
The object motion control means rotates the object around the gravity direction set in the virtual world based on the posture and / or movement of the portable display device rotating around the gravity direction of the real space. Control
The first virtual camera motion control means is configured to move the first virtual camera around the gravity direction set in the virtual world based on the attitude and / or movement of the portable display device around the gravity direction in real space. The information processing program according to claim 12, wherein the operation is controlled by rotating the.
前記方向判定手段は、実空間の水平方向周りの範囲を少なくとも前記所定範囲として設定し、前記水平方向周りに前記可搬型表示装置が上下振り運動する姿勢および/または動きに基づいて、前記所定軸の方向が当該所定範囲内にあるか否かを判定し、
前記オブジェクト動作制御手段は、前記水平方向周りに前記可搬型表示装置が上下振り運動する姿勢および/または動きに基づいて、当該水平方向に対応する前記仮想世界に設定された水平方向周りに前記オブジェクトを上下に振って動作を制御し、
前記第1仮想カメラ動作制御手段は、前記水平方向周りに前記可搬型表示装置が上下振り運動する姿勢および/または動きに基づいて、当該水平方向に対応する前記仮想世界に設定された水平方向周りに前記第1仮想カメラを上下に振って動作を制御する、請求項12に記載の情報処理プログラム。 The posture movement calculating means calculates at least a posture and / or a movement in which the portable display device swings up and down around a horizontal direction perpendicular to the direction of gravity in real space,
The direction determination means sets a range around the horizontal direction of the real space as at least the predetermined range, and the predetermined axis is based on a posture and / or movement of the portable display device swinging up and down around the horizontal direction. To determine whether the direction is within the predetermined range,
The object motion control means is configured to move the object around a horizontal direction set in the virtual world corresponding to the horizontal direction based on a posture and / or movement of the portable display device swinging up and down around the horizontal direction. Shake up and down to control the operation,
The first virtual camera operation control means is configured to move around the horizontal direction set in the virtual world corresponding to the horizontal direction based on a posture and / or movement of the portable display device swinging up and down around the horizontal direction. The information processing program according to claim 12, wherein the operation is controlled by swinging the first virtual camera up and down.
前記方向判定手段は、前記第1軸周りおよび前記第2軸周りそれぞれの範囲を前記所定範囲として設定し、前記第1軸および第2軸周りにそれぞれ前記可搬型表示装置が回転する姿勢および/または動きに基づいて、前記所定軸の方向が当該所定範囲内にそれぞれあるか否かを判定し、
前記オブジェクト動作制御手段は、前記所定軸の方向が前記第1軸周りの所定範囲内にあると判定された場合、前記可搬型表示装置が前記第1軸周りに回転する姿勢および/または動きに応じて、当該第1軸に対応する前記仮想世界に設定された軸周りに前記オブジェクトを回転させて動作を制御し、
前記オブジェクト動作制御手段は、前記所定軸の方向が前記第2軸周りの所定範囲内にあると判定された場合、前記可搬型表示装置が前記第2軸周りに回転する姿勢および/または動きに応じて、当該第2軸に対応する前記仮想世界に設定された軸周りに前記オブジェクトを回転させて動作を制御し、
前記第1仮想カメラ動作制御手段は、前記第1軸および第2軸周りにそれぞれ前記可搬型表示装置が回転する姿勢および/または動きに応じて、視線方向に直交し当該第1軸および当該第2軸に対応する軸周りにそれぞれ回転させることによって前記第1仮想カメラの動作を制御する、請求項10乃至12のいずれか1つに記載の情報処理プログラム。 The posture movement calculating means is configured to rotate around a first axis and a second axis perpendicular to the depth direction of the display screen perpendicular to the display screen of the portable display device on which the first image is displayed, and / or Or calculate at least the movement,
The direction determining means sets the respective ranges around the first axis and the second axis as the predetermined ranges, and the posture in which the portable display device rotates around the first axis and the second axis, and / or Alternatively, based on the movement, it is determined whether the direction of the predetermined axis is within the predetermined range,
When the direction of the predetermined axis is determined to be within a predetermined range around the first axis, the object motion control means changes the posture and / or movement of the portable display device around the first axis. In response, the movement of the object around the axis set in the virtual world corresponding to the first axis is controlled,
When it is determined that the direction of the predetermined axis is within a predetermined range around the second axis, the object motion control means may change the posture and / or movement of the portable display device around the second axis. In response, the movement of the object around the axis set in the virtual world corresponding to the second axis is controlled,
The first virtual camera motion control means is orthogonal to the line-of-sight direction according to the attitude and / or movement of the portable display device around the first axis and the second axis, respectively. The information processing program according to any one of claims 10 to 12, wherein an operation of the first virtual camera is controlled by rotating around an axis corresponding to two axes.
前記方向判定手段は、前記横方向の軸周りおよび前記縦方向の軸周りそれぞれの範囲を前記所定範囲として設定し、前記横方向の軸および前記縦方向の軸周りにそれぞれ前記可搬型表示装置が回転する姿勢および/または動きに基づいて、前記所定軸の方向が当該所定範囲内にそれぞれあるか否かを判定し、
前記オブジェクト動作制御手段は、前記所定軸の方向が前記横方向の軸周りの所定範囲内にあると判定された場合、前記可搬型表示装置が前記横方向の軸周りに回転する姿勢および/または動きに応じて、当該横方向の軸に対応する前記仮想世界に設定された水平方向の軸周りに前記オブジェクトを回転させて動作を制御し、
前記オブジェクト動作制御手段は、前記所定軸の方向が前記縦方向の軸周りの所定範囲内にあると判定された場合、前記可搬型表示装置が前記縦方向の軸周りに回転する姿勢および/または動きに応じて、当該縦方向の軸に対応する前記仮想世界に設定された鉛直方
向の軸周りに前記オブジェクトを回転させて動作を制御し、
前記第1仮想カメラ動作制御手段は、前記横方向の軸周りに前記可搬型表示装置が回転する姿勢および/または動きに応じて、視線方向に直交する仮想世界の水平方向の軸周りに回転させ、前記縦方向の軸周りに前記可搬型表示装置が回転する姿勢および/または動きに応じて、仮想世界の鉛直方向の軸周りに回転させることによって、前記第1仮想カメラの動作を制御する、請求項15に記載の情報処理プログラム。 The posture movement calculating means calculates at least a posture and / or a movement that respectively rotate around a horizontal axis and a vertical axis of the display screen of the portable display device orthogonal to the depth direction,
The direction determining means sets the respective ranges around the horizontal axis and the vertical axis as the predetermined ranges, and the portable display device is respectively set around the horizontal axis and the vertical axis. Determining whether the direction of the predetermined axis is within the predetermined range based on the rotating posture and / or movement,
The object motion control means may be configured such that, when it is determined that the direction of the predetermined axis is within a predetermined range around the horizontal axis, the portable display device rotates around the horizontal axis and / or According to the movement, the movement is controlled by rotating the object around the horizontal axis set in the virtual world corresponding to the horizontal axis.
The object motion control means may be configured such that when the direction of the predetermined axis is determined to be within a predetermined range around the vertical axis, the portable display device rotates around the vertical axis and / or According to the movement, the movement is controlled by rotating the object around the vertical axis set in the virtual world corresponding to the vertical axis,
The first virtual camera motion control means rotates around the horizontal axis of the virtual world perpendicular to the line-of-sight direction according to the attitude and / or movement of the portable display device around the horizontal axis. Controlling the operation of the first virtual camera by rotating around the vertical axis of the virtual world according to the attitude and / or movement of the portable display device about the vertical axis. The information processing program according to claim 15.
実空間における前記可搬型表示装置の基準方向を設定する実空間基準方向設定手段と、
前記可搬型表示装置から出力されるデータに基づいて、現時点における前記所定軸の方向と前記基準方向との実空間における鉛直方向周りの左右角度差と、現時点における前記所定軸の方向と実空間における水平方向との水平方向周りの上下角度差とを算出する角度差算出手段とを含み、
前記方向判定手段は、
前記左右角度差が実空間の鉛直方向周りに設定された第1の範囲内にあるか否かを判定する左右方向判定手段と、
前記上下角度差が実空間の水平方向周りに設定された第2の範囲内にあるか否かを判定する上下方向判定手段とを含み、
前記オブジェクト動作制御手段は、前記左右角度差が前記第1の範囲内にあると判定された場合、当該左右角度差に基づいて、前記仮想世界の左右方向へ前記オブジェクトを回転および/または移動させて、当該オブジェクトの動作を制御し、
前記オブジェクト動作制御手段は、前記上下角度差が前記第2の範囲内にあると判定された場合、当該上下角度差に基づいて、前記仮想世界の上下方向へ前記オブジェクトを回転および/または移動させて、当該オブジェクトの動作を制御し、
前記第1仮想カメラ動作制御手段は、前記左右角度差に基づいて、仮想世界の左右方向へ前記第1仮想カメラを回転および/または移動させ、前記上下角度差に基づいて、視線方向に直交する仮想世界の左右方向へ前記第1仮想カメラを回転および/または移動させて、当該第1仮想カメラの動作を制御する、請求項10に記載の情報処理プログラム。 The posture movement calculating means includes:
Real space reference direction setting means for setting a reference direction of the portable display device in real space;
Based on the data output from the portable display device, the left-right angle difference around the vertical direction in the real space between the direction of the predetermined axis and the reference direction at the current time, the direction of the predetermined axis at the current time and the real space Angle difference calculating means for calculating a vertical angle difference around the horizontal direction with respect to the horizontal direction,
The direction determination means includes
Left-right direction determination means for determining whether the left-right angle difference is within a first range set around the vertical direction of real space;
Vertical direction determination means for determining whether or not the vertical angle difference is within a second range set around the horizontal direction of the real space,
When it is determined that the left-right angle difference is within the first range, the object motion control means rotates and / or moves the object in the left-right direction of the virtual world based on the left-right angle difference. Control the movement of the object,
When it is determined that the vertical angle difference is within the second range, the object motion control means rotates and / or moves the object in the vertical direction of the virtual world based on the vertical angle difference. Control the movement of the object,
The first virtual camera operation control means rotates and / or moves the first virtual camera in the horizontal direction of the virtual world based on the left-right angle difference, and is orthogonal to the line-of-sight direction based on the vertical angle difference. The information processing program according to claim 10, wherein the first virtual camera is rotated and / or moved in a horizontal direction of the virtual world to control an operation of the first virtual camera.
前記可搬型表示装置は、
前記情報処理装置から出力された画像データを取得する画像データ取得手段と、
前記画像データ取得手段が取得した画像データが示す前記第1画像を表示する表示手段とを備える、請求項1乃至17のいずれか1つに記載の情報処理プログラム。 The display control means outputs image data indicating the first image to the portable display device,
The portable display device is:
Image data acquisition means for acquiring image data output from the information processing apparatus;
The information processing program according to claim 1, further comprising: a display unit that displays the first image indicated by the image data acquired by the image data acquisition unit.
前記表示制御手段は、前記圧縮画像生成手段が生成した圧縮画像データを前記可搬型表示装置へ出力し、
前記画像データ取得手段は、前記情報処理装置から出力された圧縮画像データを取得し、
前記可搬型表示装置は、前記圧縮画像データを伸張して前記第1画像を示す画像データを得る表示画像伸張手段を、さらに備え、
前記表示手段は、前記画像データ取得手段が取得して前記表示画像伸長手段が伸長した画像データが示す前記第1画像を表示する、請求項18に記載の情報処理プログラム。 And further causing the computer to function as compressed image generation means for generating compressed image data by compressing image data representing the first image,
The display control means outputs the compressed image data generated by the compressed image generation means to the portable display device,
The image data acquisition means acquires the compressed image data output from the information processing apparatus;
The portable display device further includes display image expansion means for expanding the compressed image data to obtain image data indicating the first image,
The information processing program according to claim 18, wherein the display means displays the first image indicated by the image data acquired by the image data acquisition means and expanded by the display image expansion means.
1乃至17のいずれか1つに記載の情報処理プログラム。 The display control means further displays, separately from the first image, a second image showing the virtual world viewed from a second virtual camera on another display device connected to the information processing device. 18. An information processing program according to any one of 1 to 17.
前記表示制御手段は、前記圧縮画像生成手段が生成した圧縮画像データを前記可搬型表示装置へ出力し、当該圧縮画像データとは別に、前記第2画像を示す画像データを圧縮することなく前記別の表示装置へ出力し、
前記可搬型表示装置は、
前記情報処理装置から出力された圧縮画像データを取得する画像データ取得手段と、
前記圧縮画像データを伸張して前記第1画像を示す画像データを得る表示画像伸張手段と、
前記画像データ取得手段が取得して前記表示画像伸長手段が伸長した画像データが示す前記第1画像を表示する表示手段とを備える、請求項20に記載の情報処理プログラム。 And further causing the computer to function as compressed image generation means for generating compressed image data by compressing image data representing the first image,
The display control means outputs the compressed image data generated by the compressed image generation means to the portable display device, and separately from the compressed image data, the separate image data indicating the second image is not compressed. Output to the display device
The portable display device is:
Image data acquisition means for acquiring compressed image data output from the information processing apparatus;
Display image decompression means for decompressing the compressed image data to obtain image data representing the first image;
The information processing program according to claim 20, further comprising: a display unit configured to display the first image indicated by the image data acquired by the image data acquisition unit and expanded by the display image expansion unit.
前記表示制御手段は、前記第1画像で示される仮想世界の範囲より広い範囲を、前記第2画像として前記別の表示装置に表示する、請求項22に記載の情報処理プログラム。 The second virtual camera operation control means sets the second virtual camera at a position further away from the object than the distance from the object to the first virtual camera,
The information processing program according to claim 22, wherein the display control means displays a range wider than the range of the virtual world indicated by the first image as the second image on the other display device.
前記表示制御手段は、仮想世界に配置された前記オブジェクトを鳥瞰した画像を、前記第2画像として前記別の表示装置に表示する、請求項22に記載の情報処理プログラム。 The second virtual camera operation control means sets the second virtual camera at a position where the object is bird's-eye view in the virtual world,
The information processing program according to claim 22, wherein the display control unit displays an image obtained by bird's-eye view of the object arranged in the virtual world as the second image on the another display device.
前記方向判定手段は、前記ジャイロセンサおよび前記加速度センサの少なくとも一方から出力されるデータに基づいて、前記所定軸の方向が前記所定範囲内にあるか否かを判定する、請求項1乃至24のいずれか1つに記載の情報処理プログラム。 The portable display device includes at least one of a gyro sensor and an acceleration sensor,
25. The direction determination unit according to claim 1, wherein the direction determination unit determines whether or not a direction of the predetermined axis is within the predetermined range based on data output from at least one of the gyro sensor and the acceleration sensor. The information processing program as described in any one.
前記可搬型表示装置から出力されるデータに基づいて、前記可搬型表示装置に設定された所定軸の方向が所定範囲内にあるか否かを判定する方向判定手段と、
前記所定軸の方向が前記所定範囲内にあると判定された場合、当該所定軸の方向に応じて仮想世界に配置されたオブジェクトの動作を制御し、前記所定軸の方向が前記所定範囲外にあると判定された場合、当該所定軸の方向に応じた当該オブジェクトの動作制御を行わないオブジェクト動作制御手段と、
前記所定軸の方向が前記所定範囲内および前記所定範囲外の何れにある場合であっても、前記所定軸の方向に応じて前記仮想世界の画像を生成するための第1仮想カメラの動作を制御する第1仮想カメラ動作制御手段と、
前記第1仮想カメラから見た仮想世界を示す第1画像を前記可搬型表示装置に表示する表示制御手段とを備える、情報処理装置。 An information processing apparatus capable of displaying an image on the portable display device that outputs at least data according to the attitude and / or movement of the portable display device body,
Direction determining means for determining whether or not a direction of a predetermined axis set in the portable display device is within a predetermined range based on data output from the portable display device;
When it is determined that the direction of the predetermined axis is within the predetermined range, the movement of the object arranged in the virtual world is controlled according to the direction of the predetermined axis, and the direction of the predetermined axis is outside the predetermined range. If it is determined that there is an object motion control means that does not perform motion control of the object according to the direction of the predetermined axis ;
Even if the direction of the predetermined axis is in any of the outside of the predetermined range and the predetermined range, the operation of the first virtual camera for generating an image of the virtual world in accordance with the direction of the predetermined axis First virtual camera operation control means for controlling;
An information processing apparatus comprising: a display control unit configured to display a first image indicating a virtual world viewed from the first virtual camera on the portable display device.
報処理システムであって、
前記可搬型表示装置から出力されるデータに基づいて、前記可搬型表示装置に設定された所定軸の方向が所定範囲内にあるか否かを判定する方向判定手段と、
前記所定軸の方向が前記所定範囲内にあると判定された場合、当該所定軸の方向に応じて仮想世界に配置されたオブジェクトの動作を制御し、前記所定軸の方向が前記所定範囲外にあると判定された場合、当該所定軸の方向に応じた当該オブジェクトの動作制御を行わないオブジェクト動作制御手段と、
前記所定軸の方向が前記所定範囲内および前記所定範囲外の何れにある場合であっても、前記所定軸の方向に応じて前記仮想世界の画像を生成するための第1仮想カメラの動作を制御する第1仮想カメラ動作制御手段と、
前記第1仮想カメラから見た仮想世界を示す第1画像を前記可搬型表示装置に表示する表示制御手段とを備える、情報処理システム。 An information processing system capable of displaying an image on a portable display device configured to communicate with a plurality of devices and outputting at least data according to the attitude and / or movement of the portable display device main body. ,
Direction determining means for determining whether or not a direction of a predetermined axis set in the portable display device is within a predetermined range based on data output from the portable display device;
When it is determined that the direction of the predetermined axis is within the predetermined range, the movement of the object arranged in the virtual world is controlled according to the direction of the predetermined axis, and the direction of the predetermined axis is outside the predetermined range. If it is determined that there is an object motion control means that does not perform motion control of the object according to the direction of the predetermined axis ;
Even if the direction of the predetermined axis is in any of the outside of the predetermined range and the predetermined range, the operation of the first virtual camera for generating an image of the virtual world in accordance with the direction of the predetermined axis First virtual camera operation control means for controlling;
An information processing system comprising: display control means for displaying a first image showing a virtual world viewed from the first virtual camera on the portable display device.
前記可搬型表示装置から出力されるデータに基づいて、前記可搬型表示装置に設定された所定軸の方向が所定範囲内にあるか否かを判定する方向判定ステップと、
前記所定軸の方向が前記所定範囲内にあると判定された場合、当該所定軸の方向に応じて仮想世界に配置されたオブジェクトの動作を制御し、前記所定軸の方向が前記所定範囲外にあると判定された場合、当該所定軸の方向に応じた当該オブジェクトの動作制御を行わないオブジェクト動作制御ステップと、
前記所定軸の方向が前記所定範囲内および前記所定範囲外の何れにある場合であっても、前記所定軸の方向に応じて前記仮想世界の画像を生成するための第1仮想カメラの動作を制御する仮想カメラ動作制御ステップと、
前記第1仮想カメラから見た仮想世界を示す第1画像を前記可搬型表示装置に表示する表示制御ステップとを含む、情報処理方法。 Included in an information system comprising at least one information processing device capable of displaying an image on the portable display device that outputs at least data according to the attitude and / or movement of the portable display device main body. An information processing method executed by cooperation between one processor or a plurality of processors,
A direction determining step for determining whether or not a direction of a predetermined axis set in the portable display device is within a predetermined range based on data output from the portable display device;
When it is determined that the direction of the predetermined axis is within the predetermined range, the movement of the object arranged in the virtual world is controlled according to the direction of the predetermined axis, and the direction of the predetermined axis is outside the predetermined range. If it is determined that there is an object motion control step that does not perform motion control of the object according to the direction of the predetermined axis ;
Even if the direction of the predetermined axis is in any of the outside of the predetermined range and the predetermined range, the operation of the first virtual camera for generating an image of the virtual world in accordance with the direction of the predetermined axis A virtual camera operation control step to control;
A display control step of displaying a first image showing a virtual world viewed from the first virtual camera on the portable display device.
Priority Applications (16)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011115403A JP5912289B2 (en) | 2011-05-24 | 2011-05-24 | Information processing program, information processing apparatus, information processing system, and information processing method |
EP11194630.7A EP2497547B1 (en) | 2011-03-08 | 2011-12-20 | Information processing program, information processing apparatus, information processing system, and information processing method |
US13/333,045 US9205327B2 (en) | 2011-03-08 | 2011-12-21 | Storage medium having information processing program stored thereon, information processing apparatus, information processing system, and information processing method |
US13/343,913 US9345962B2 (en) | 2011-03-08 | 2012-01-05 | Storage medium having stored thereon information processing program, information processing apparatus, information processing system, and information processing method |
EP12150272.8A EP2497548A3 (en) | 2011-03-08 | 2012-01-05 | Information processing program, information processing apparatus, information processing system, and information processing method |
US13/352,091 US9370712B2 (en) | 2011-03-08 | 2012-01-17 | Information processing system, information processing apparatus, storage medium having information processing program stored therein, and image display method for controlling virtual objects based on at least body state data and/or touch position data |
EP12153067.9A EP2497549B1 (en) | 2011-03-08 | 2012-01-30 | Information processing program, information processing apparatus, information processing system, and information processing method |
US13/362,289 US9522323B2 (en) | 2011-03-08 | 2012-01-31 | Storage medium having stored thereon information processing program, information processing apparatus, information processing system, and information processing method |
US13/362,381 US8845430B2 (en) | 2011-03-08 | 2012-01-31 | Storage medium having stored thereon game program, game apparatus, game system, and game processing method |
US13/362,255 US20120231882A1 (en) | 2011-03-08 | 2012-01-31 | Storage medium having stored thereon game program, game apparatus, game system, and game processing method |
US13/401,054 US9492742B2 (en) | 2011-03-08 | 2012-02-21 | Storage medium having stored thereon information processing program, information processing apparatus, information processing system, and information processing method |
US13/400,944 US9526981B2 (en) | 2011-03-08 | 2012-02-21 | Storage medium having stored thereon information processing program, information processing apparatus, information processing system, and information processing method |
US13/402,026 US9492743B2 (en) | 2011-03-08 | 2012-02-22 | Storage medium having stored thereon information processing program, information processing apparatus, information processing system, and information processing method |
EP12156629A EP2497550A3 (en) | 2011-03-08 | 2012-02-23 | Information processing program, information processing apparatus, information processing system, and information processing method |
EP12156630.1A EP2497551B1 (en) | 2011-03-08 | 2012-02-23 | Information processing program, information processing apparatus, information processing system, and information processing method |
EP14166174.4A EP2781244A3 (en) | 2011-03-08 | 2012-02-23 | Information processing program, information processing apparatus, information processing system and information processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011115403A JP5912289B2 (en) | 2011-05-24 | 2011-05-24 | Information processing program, information processing apparatus, information processing system, and information processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012239777A JP2012239777A (en) | 2012-12-10 |
JP5912289B2 true JP5912289B2 (en) | 2016-04-27 |
Family
ID=47462112
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011115403A Active JP5912289B2 (en) | 2011-03-08 | 2011-05-24 | Information processing program, information processing apparatus, information processing system, and information processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5912289B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111744189B (en) | 2020-07-27 | 2022-02-01 | 腾讯科技(深圳)有限公司 | Picture updating method and device, computer equipment and storage medium |
CN113986098A (en) * | 2021-09-07 | 2022-01-28 | 深圳大争智能科技有限公司 | Trigger control method and device for man-machine interaction operation |
CN113926187A (en) * | 2021-10-20 | 2022-01-14 | 腾讯科技(深圳)有限公司 | Object control method and device in virtual scene and terminal equipment |
-
2011
- 2011-05-24 JP JP2011115403A patent/JP5912289B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2012239777A (en) | 2012-12-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8845430B2 (en) | Storage medium having stored thereon game program, game apparatus, game system, and game processing method | |
EP2497545B1 (en) | Information processing program, information processing system, and information processing method | |
JP5829020B2 (en) | GAME SYSTEM, GAME DEVICE, GAME PROGRAM, AND GAME PROCESSING METHOD | |
JP5912290B2 (en) | GAME PROGRAM, GAME DEVICE, GAME SYSTEM, AND GAME PROCESSING METHOD | |
US9643085B2 (en) | Computer-readable storage medium, information processing system, and information processing method for controlling a virtual object using attitude data | |
US9561443B2 (en) | Computer-readable storage medium, information processing system, and information processing method | |
JP5841352B2 (en) | GAME PROGRAM, GAME DEVICE, GAME SYSTEM, AND GAME PROCESSING METHOD | |
US9925464B2 (en) | Computer-readable storage medium, information processing system, and information processing method for displaying an image on a display device using attitude data of a display device | |
JP5912289B2 (en) | Information processing program, information processing apparatus, information processing system, and information processing method | |
JP5687545B2 (en) | Information processing program, information processing system, and information processing method | |
JP5806510B2 (en) | Information processing program, information processing apparatus, information processing system, and information processing method | |
JP5687544B2 (en) | Information processing program, information processing system, and information processing method | |
JP6246991B2 (en) | Information processing program, information processing apparatus, information processing system, and information processing method | |
JP5864121B2 (en) | Information processing program, information processing system, and information processing method | |
JP5759233B2 (en) | Information processing program, information processing system, and information processing method | |
JP6046879B2 (en) | Information processing program, information processing apparatus, information processing system, and information processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140425 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150828 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150901 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20151023 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160304 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160401 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5912289 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |