JP7076880B2 - 仮想環境における仮想オブジェクトの姿勢決定方法、装置及び媒体 - Google Patents
仮想環境における仮想オブジェクトの姿勢決定方法、装置及び媒体 Download PDFInfo
- Publication number
- JP7076880B2 JP7076880B2 JP2020541430A JP2020541430A JP7076880B2 JP 7076880 B2 JP7076880 B2 JP 7076880B2 JP 2020541430 A JP2020541430 A JP 2020541430A JP 2020541430 A JP2020541430 A JP 2020541430A JP 7076880 B2 JP7076880 B2 JP 7076880B2
- Authority
- JP
- Japan
- Prior art keywords
- ground
- point
- virtual
- virtual object
- sampling point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 93
- 238000005070 sampling Methods 0.000 claims description 297
- 238000001514 detection method Methods 0.000 claims description 59
- 238000007667 floating Methods 0.000 claims description 13
- 238000004590 computer program Methods 0.000 claims description 3
- 230000036544 posture Effects 0.000 description 137
- 238000010586 diagram Methods 0.000 description 20
- 239000013598 vector Substances 0.000 description 15
- 230000002093 peripheral effect Effects 0.000 description 10
- 238000004891 communication Methods 0.000 description 8
- 230000003247 decreasing effect Effects 0.000 description 7
- 230000000694 effects Effects 0.000 description 7
- 230000033001 locomotion Effects 0.000 description 6
- 230000009193 crawling Effects 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 230000001133 acceleration Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 238000005293 physical law Methods 0.000 description 4
- 230000003068 static effect Effects 0.000 description 4
- 208000015041 syndromic microphthalmia 10 Diseases 0.000 description 4
- 238000013473 artificial intelligence Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000004927 fusion Effects 0.000 description 3
- 230000009183 running Effects 0.000 description 3
- 238000004088 simulation Methods 0.000 description 3
- 230000004083 survival effect Effects 0.000 description 3
- 230000009184 walking Effects 0.000 description 3
- 239000000919 ceramic Substances 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 230000001351 cycling effect Effects 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000001788 irregular Effects 0.000 description 2
- 230000009191 jumping Effects 0.000 description 2
- 210000001015 abdomen Anatomy 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 239000004575 stone Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/55—Controlling game characters or game objects based on the game progress
- A63F13/56—Computing the motion of game characters with respect to other game characters, game objects or elements of the game scene, e.g. for simulating the behaviour of a group of virtual soldiers or for path finding
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/55—Controlling game characters or game objects based on the game progress
- A63F13/57—Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game
- A63F13/577—Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game using determination of contact between game characters or objects, e.g. to avoid collision between virtual racing cars
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/40—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
- A63F13/42—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/52—Controlling the output signals based on the game progress involving aspects of the displayed game scene
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/80—Special adaptations for executing a specific game genre or game mode
- A63F13/837—Shooting of targets
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/60—Methods for processing data by generating or executing the game program
- A63F2300/6045—Methods for processing data by generating or executing the game program for mapping control signals received from the input arrangement into game commands
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/60—Methods for processing data by generating or executing the game program
- A63F2300/64—Methods for processing data by generating or executing the game program for computing dynamical parameters of game objects, e.g. motion determination or computation of frictional forces for a virtual car
- A63F2300/643—Methods for processing data by generating or executing the game program for computing dynamical parameters of game objects, e.g. motion determination or computation of frictional forces for a virtual car by determining the impact between objects, e.g. collision detection
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/80—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
- A63F2300/8076—Shooting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/21—Collision detection, intersection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2004—Aligning objects, relative positioning of parts
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/131—Protocols for games, networked simulations or virtual reality
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Architecture (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Description
仮想オブジェクトの少なくとも一つのサンプリング点を決定するステップであって、サンプリング点が地面に対する衝突検出に使用される点であるステップと、
少なくとも一つのサンプリング点及び仮想オブジェクトの位置する地面に基づき、地面に対する仮想オブジェクトの法線方向を決定するステップと、
法線方向に基づき、仮想環境における仮想オブジェクトの地面張り付き姿勢を決定するステップと、
を含む。
立位姿勢で仮想環境の地面にある仮想キャラクターを含む第1のユーザーインターフェイスを表示するステップと、
立位姿勢から地面張り付き姿勢に切り替えるように仮想キャラクターに指示するための姿勢切替コマンドを受信するステップと、
地面に対する仮想キャラクターの法線方向に基づき、仮想キャラクターの地面張り付き姿勢を決定するステップと、
地面張り付き姿勢で仮想環境の地面にある仮想キャラクターを含む第2のユーザーインターフェイスを表示するステップと、
を含む。
第1の地面張り付き姿勢で仮想環境の第1の地面位置にある仮想キャラクターを含む第3のユーザーインターフェイスを表示するステップと、
第1の地面位置から移動するように仮想キャラクターに指示するための移動コマンドを受信するステップと、
第2の地面位置に対する仮想キャラクターの法線方向に基づき、仮想キャラクターの第2の地面張り付き姿勢を決定するステップと、
第2の地面張り付き姿勢で仮想環境の第2の地面位置にある仮想キャラクターを含む第4のユーザーインターフェイスを表示するステップと、
を含む。
立位姿勢で仮想環境の地面にある仮想キャラクターを含む第1のユーザーインターフェイスを表示するステップと、
立位姿勢から地面張り付き姿勢に切り替えるように仮想キャラクターに指示するための姿勢切替コマンドを受信するステップと、
地面張り付き姿勢で仮想環境の地面にある仮想キャラクターを含む第2のユーザーインターフェイスを表示し、地面は、角度をなす第1の地面エリア及び第2の地面エリアを含み、仮想キャラクターの頭部が第1の地面エリアで宙に浮き、仮想キャラクターの足部が第2の地面エリアで宙に浮き、仮想キャラクターの腰部が第1の地面エリアと第2の地面エリアの境目で地面に埋め込まれるステップと、
を含む。
仮想オブジェクトの少なくとも一つのサンプリング点を決定するためのサンプリング点決定モジュールであって、サンプリング点が地面に対する衝突検出に使用される点であるサンプリング点決定モジュールと、
少なくとも一つのサンプリング点及び仮想オブジェクトの位置する地面に基づき、地面に対する仮想オブジェクトの法線方向を決定するための法線決定モジュールと、
法線方向に基づき、仮想環境での仮想オブジェクトの地面張り付き姿勢を決定するための姿勢決定モジュールと、
を含む。
立位姿勢で仮想環境の地面にある仮想キャラクターを含む第1のユーザーインターフェイスを表示するための第1の表示モジュールと、
立位姿勢から地面張り付き姿勢に切り替えるように仮想キャラクターに指示するための姿勢切替コマンドを受信するための第1の受信モジュールと、
地面に対する仮想キャラクターの法線方向に基づき、仮想キャラクターの地面張り付き姿勢を決定するための第1の決定モジュールと、を含み、
第1の表示モジュールは、地面張り付き姿勢で仮想環境の地面にある仮想キャラクターを含む第2のユーザーインターフェイスを表示するためにも使用される。
第1の地面張り付き姿勢で仮想環境の第1の地面位置にある仮想キャラクターを含む第3のユーザーインターフェイスを表示するための第2の表示モジュールと、
第1の地面位置から移動するように仮想キャラクターに指示するための移動コマンドを受信するための第2の受信モジュールと、
第2の地面位置に対する仮想キャラクターの法線方向に基づき、仮想キャラクターの第2の地面張り付き姿勢を決定するための第2の決定モジュールと、を含み、
第2の表示モジュールは、第2の地面張り付き姿勢で仮想環境の第2の地面位置にある仮想キャラクターを含む第4のユーザーインターフェイスを表示するためにも使用される。
立位姿勢で仮想環境の地面にある仮想キャラクターを含む第1のユーザーインターフェイスを表示するための第3の表示モジュールと、
立位姿勢から地面張り付き姿勢に切り替えるように仮想キャラクターに指示するための姿勢切替コマンドを受信するための第3の受信モジュールと、を含み、
第3の表示モジュールは、地面張り付き姿勢で仮想環境の地面にある仮想キャラクターを含む第2のユーザーインターフェイスを表示するためにも使用され、地面は、角度をなす第1の地面エリア及び第2の地面エリアを含み、仮想キャラクターの頭部が第1の地面エリアで宙に浮き、仮想キャラクターの足部が第2の地面エリアで宙に浮き、仮想キャラクターの腰部が第1の地面エリアと第2の地面エリアの境目で地面に埋め込まれる。
サンプリング点に基づき仮想オブジェクトが位置する地面の法線方向を決定し、この法線方向に基づき仮想環境における仮想オブジェクトの地面張り付き姿勢を取得することにより、地面張り付き姿勢は地面の法線方向に基づき決定されるものであるので、この法線方向により、この仮想オブジェクトが位置する地面の近似平面をシミュレートでき、仮想オブジェクトはこの近似平面に平行な姿勢で地面に張り付きすることができる。それによって、仮想オブジェクトの地面張り付き状態を現実の物理法則により適合させることを達成し、よりリアルな表示効果を提供する。
ピッチ角:オブジェクト座標系のz軸と地図座標系の水平面の間の角度を指す。オブジェクト座標系の正のz軸の向きが地図座標系の原点の水平面の上にある場合、ピッチ角は正である。オブジェクト座標系の正のz軸の向きが地図座標系の原点の水平面の下にある場合、ピッチ角は負である。
ヨー角:オブジェクト座標系のz軸の地面座標系における水平面での投影と、地面座標系のX軸の間の角度を指す。
ロール角:オブジェクト座標系のy軸と、地面座標系のX軸を通過する垂直平面、つまりXOY平面の間の角度を指す。
float pitch=FMath::Atan2(NormalVector.X,NormalVector.Z)*-1.f
float roll=FMath::Atan2(NormalVector.Y,NormalVector.Z)*-1.f
FRotator characterRotation = FRotator(Pitch,0.0f,Roll)
FRotator NormalRotator = (Target2 - Target).Rotation();
NormalRotator.pitch +=90.f;
FVector NormalVector = NormalRotator. Vector()
float pitch=FMath::Atan2(NormalVector.X,NormalVector.Z)*-1.f
float roll=FMath::Atan2(NormalVector.Y,NormalVector.Z)*-1.f;
FRotator characterRotation = FRotator(Pitch,0.0f,Roll)
この姿勢切替コマンドは、立位姿勢から地面張り付き姿勢に切り替えるように仮想キャラクターに指示するために使用される。
まず、少なくとも一つのサンプリング点に応じて衝突検出を行って地面張り付き点を取得し、地面張り付き点に基づき地面に対する仮想キャラクターの法線方向を決定することをさらに含む。
まず、少なくとも一つのサンプリング点に応じて衝突検出を行って地面張り付き点を取得し、地面張り付き点に基づき第2の地面位置に対する仮想キャラクターの法線方向を決定することをさらに含む。
サンプリング点決定モジュール2201は、仮想オブジェクトの少なくとも一つのサンプリング点を決定するために使用され、サンプリング点は、地面に対する衝突検出に使用される点であり、
法線決定モジュール2202は、少なくとも一つのサンプリング点及び仮想オブジェクトの位置する地面に基づき、地面に対する仮想オブジェクトの法線方向を決定するために使用され、
姿勢決定モジュール2203は、法線方向に基づき、仮想環境における仮想オブジェクトの地面張り付き姿勢を決定するために使用される。
サンプリング点から鉛直下方向で衝突検出を行って、仮想オブジェクトが地面に衝突する際の衝突点を地面張り付き点として決定するための検出ユニット2212と、
地面張り付き点に基づき、地面に対する仮想オブジェクトの法線方向を決定するための法線決定ユニット2222と、
を含む。
法線決定ユニット2222は、地面張り付き点を始点として地面に垂直な第1の垂直線に基づき、地面に対する仮想オブジェクトの法線方向を決定するためにも使用される。
ヨー角決定ユニット2211は、地面座標系のx軸に対する法線方向の第1のヨー角に基づき、仮想環境における仮想オブジェクトのピッチ角を決定するために使用され、
ヨー角決定ユニット2211は、地面座標系のz軸に対する法線方向の第2のヨー角に基づき、仮想環境における仮想オブジェクトのロール角を決定するためにも使用され、
なお、地面座標系は、仮想環境が配置されている世界座標系である。
法線決定ユニット2222は、前部サンプリング点から衝突検出した後に得られた点である第1の地面張り付き点と、後部サンプリング点から衝突検出した得られた点である第2の地面張り付き点との間の接続線を決定するためにも使用され、
法線決定ユニット2222は、接続線に垂直で、かつロール角が0である第2の垂直線に基づき、地面に対する仮想オブジェクトの法線方向を決定するためにも使用される。
サンプリング点決定モジュール2201は、仮想オブジェクトの中心点の後方の第2の距離にある点を、後部サンプリング点として決定するためにも使用され、
サンプリング点決定モジュール2201は、前部サンプリング点及び後部サンプリング点を仮想オブジェクトのサンプリング点として決定するためにも使用される。
なお、地面座標系は、仮想環境が配置されている世界座標系である。
法線決定ユニット2222は、前部サンプリング点から衝突検出した後に得られた点である第1の地面張り付き点と、後部サンプリング点から衝突検出した後に得られた点である第2の地面張り付き点と、サイドサンプリング点から衝突検出した後に得られた点である第3の地面張り付き点とが存在する平面を決定するためにも使用され、
法線決定ユニット2222は、平面に垂直で上向きの第3の垂直線に基づき、地面に対する仮想オブジェクトの法線方向を決定するためにも使用される。
サンプリング点決定モジュール2201は、仮想オブジェクトの中心点の後方の第2の距離にある点を、後部サンプリング点として決定するためにも使用され、
サンプリング点決定モジュール2201は、仮想オブジェクトの中心点の左側の第3の距離にある点または仮想オブジェクトの中心点の右側の第4の距離にある点を、サイドサンプリング点として決定するためにも使用され、
サンプリング点決定モジュール2201は、前部サンプリング点と、後部サンプリング点と、サイドサンプリング点とを、仮想オブジェクトのサンプリング点として決定するためにも使用される。
姿勢決定モジュール2203は、地面座標系のz軸に対する法線方向の第2のヨー角に基づき、仮想環境における仮想オブジェクトのロール角を決定するためにも使用され、
なお、地面座標系は、仮想環境が配置されている世界座標系である。
第1の表示モジュール2401は、立位姿勢で仮想環境の地面にある仮想キャラクターを含む第1のユーザーインターフェイスを表示するために使用され、
第1の受信モジュール2402は、立位姿勢から地面張り付き姿勢に切り替えるように仮想キャラクターに指示するための姿勢切替コマンドを受信するために使用され、
第1の決定モジュール2403は、地面に対する仮想キャラクターの法線方向に基づき、仮想キャラクターの地面張り付き姿勢を決定するために使用され、
第1の表示モジュール2401は、地面張り付き姿勢で仮想環境の地面にある仮想キャラクターを含む第2のユーザーインターフェイスを表示するためにも使用される。
第1の決定モジュール2403は、少なくとも一つのサンプリング点及び地面に基づき、地面に対する仮想キャラクターの法線方向を決定するためにも使用される。
第2の表示モジュール2501は、第1の地面張り付き姿勢で仮想環境の第1の地面位置にある仮想キャラクターを含む第3のユーザーインターフェイスを表示するために使用され、
第2の受信モジュール2502は、第1の地面位置から移動するように仮想キャラクターに指示するための移動コマンドを受信するために使用され、
第2の決定モジュール2503は、第2の地面位置に対する仮想キャラクターの法線方向に基づき、仮想キャラクターの第2の地面張り付き姿勢を決定するために使用され、
第2の表示モジュール2501は、第2の地面張り付き姿勢で仮想環境の第2の地面位置にある仮想キャラクターを含む第4のユーザーインターフェイスを表示するためにも使用される。
第2の決定モジュール2503は、少なくとも一つのサンプリング点及び第2の地面位置に基づき、第2の地面位置に対する仮想キャラクターの法線方向を決定するためにも使用される。
第3の表示モジュール2601は、立位姿勢で仮想環境の地面にある仮想キャラクターを含む第1のユーザーインターフェイスを表示するために使用され、
第3の受信モジュール2602は、立位姿勢から地面張り付き姿勢に切り替えるように仮想キャラクターに指示するための姿勢切替コマンドを受信するために使用され、
第3の表示モジュール2601は、地面張り付き姿勢で仮想環境の地面にある仮想キャラクターを含む第2のユーザーインターフェイスを表示するためにも使用され、地面は、角度をなす第1の地面エリア及び第2の地面エリアを含み、仮想キャラクターの頭部が第1の地面エリアで宙に浮き、仮想キャラクターの足部が第2の地面エリアで宙に浮き、仮想キャラクターの腰部が第1の地面エリアと第2の地面エリアの境目で地面に埋め込まれる。
仮想キャラクターの中心点に基づき、仮想キャラクターの上半身サンプリング点及び下半身サンプリング点を決定するための第3の決定モジュール2603をさらに含み、
第3の決定モジュール2603は、上半身サンプリング点から衝突検出した後に得られた第1の地面エリアにある点である第1の地面張り付き点と、下半身サンプリング点から衝突検出した後に得られた第2の地面エリアにある点である第2の地面張り付き点との接続線を決定するためにも使用される。
プロセッサ2801は、4コアプロセッサ、8コアプロセッサなどの1つまたは複数の処理コアを含むことができる。プロセッサ2801は、DSP(Digital Signal Processing、デジタル信号処理)、FPGA(Field-Programmable Gate Array、フィールドプログラマブルゲートアレイ)、PLA(Programmable Logic Array、プログラマブルロジックアレイ)の少なくとも1つのハードウェアの形で実現できる。プロセッサ2801は、メインプロセッサ及びコプロセッサを含むことができる。メインプロセッサは、ウェイクアップ状態でのデータを処理するためのプロセッサであり、CPU(Central Processing Unit、中央処理ユニット)とも呼ばれる。コプロセッサは、スタンバイ状態でのデータを処理するための低電力プロセッサである。いくつかの実施例では、プロセッサ2801は、GPU(Graphics Processing Unit、画像プロセッサ)と統合してもよく、GPUは、ディスプレイスクリーンに表示される必要があるコンテンツをレンダリング及び描画するために使用される。いくつかの実施例では、プロセッサ2801は、AI(Artificial Intelligence、人工知能)プロセッサをさらに含むことができる。このAIプロセッサは、機械学習に関するコンピューティング操作を処理するために使用される。
320 オペレーティングシステム
322 アプリケーションプログラム
400 コンピュータシステム
420 第1のデバイス
440 サーバ
460 第2のデバイス
71 サンプリング点
72 点
73 傾斜面
74 法線
95 円弧面
96 点
97 接平面
98 法線
111 ユーザーインターフェイス
131 中心点
134 前部サンプリング点
135 後部サンプリング点
136 法線
141 ユーザーインターフェイス
142 中心点
143 前部サンプリング点
144 後部サンプリング点
145 点
146 点
151 ユーザーインターフェイス
Claims (31)
- 電子機器が実行する、仮想環境における仮想オブジェクトの姿勢決定方法であって、
前記仮想オブジェクトの少なくとも一つのサンプリング点を決定するステップであって、前記サンプリング点が地面に対する衝突検出に使用される点であるステップと、
前記少なくとも一つのサンプリング点及び前記仮想オブジェクトの位置する地面に基づき、前記地面に対する前記仮想オブジェクトの法線方向を決定するステップであって、
前記サンプリング点から鉛直下方向で衝突検出を行い、前記仮想オブジェクトが前記地面に衝突する際の衝突点を地面張り付き点として決定するステップと、
前記地面張り付き点に基づき、前記地面に対する前記仮想オブジェクトの前記法線方向を決定するステップと、
を含むステップと、
前記法線方向に基づき、前記仮想環境における前記仮想オブジェクトの地面張り付き姿勢を決定するステップと、
を含むことを特徴とする方法。 - 前記サンプリング点は、前記仮想オブジェクトの中心点を含み、
前記地面張り付き点に基づき、前記地面に対する前記仮想オブジェクトの前記法線方向を決定するステップは、
前記地面張り付き点を始点として前記地面に垂直な第1の垂直線に基づき、前記地面に対する前記仮想オブジェクトの前記法線方向を決定するステップと、
を含むことを特徴とする請求項1に記載の方法。 - 前記仮想オブジェクトの少なくとも一つのサンプリング点を決定するステップは、
前記仮想オブジェクトの中心点を、前記仮想オブジェクトの前記サンプリング点として決定するステップ、
を含むことを特徴とする請求項2に記載の方法。 - 前記法線に基づき、前記仮想環境における前記仮想オブジェクトの地面張り付き姿勢を決定することは、
地面座標系のx軸に対する前記法線方向の第1のヨー角に基づき、前記仮想環境における前記仮想オブジェクトのピッチ角を決定するステップと、
前記地面座標系のz軸に対する前記法線方向の第2のヨー角に基づき、前記仮想環境における前記仮想オブジェクトのロール角を決定するステップと、を含み、
前記地面座標系は、前記仮想環境が配置されている世界座標系である、
ことを特徴とする請求項2に記載の方法。 - 前記サンプリング点は、前記仮想オブジェクトの前記地面張り付き姿勢での上半分の点を表すための前部サンプリング点と、前記仮想オブジェクトの前記地面張り付き姿勢での下半分の点を表すための後部サンプリング点とを含み、
前記地面張り付き点に基づき、前記地面に対する前記仮想オブジェクトの前記法線方向を決定するステップは、
前記前部サンプリング点から衝突検出した後に得られた点である第1の地面貼合点と、前記後部サンプリング点から衝突検出した後に得られた点である第2の地面貼合点との間の接続線を決定するステップと、
前記接続線に垂直で、かつロール角が0である第2の垂直線に基づき、前記地面に対する前記仮想オブジェクトの前記法線方向を決定するステップと、
を含むことを特徴とする請求項1に記載の方法。 - 前記仮想オブジェクトの少なくとも一つのサンプリング点を決定するステップは、
前記仮想オブジェクトの中心点の前方の第1の距離にある点を、前記前部サンプリング点として決定するステップと、
前記仮想オブジェクトの中心点の後方の第2の距離にある点を、前記後部サンプリング点として決定するステップと、
前記前部サンプリング点及び前記後部サンプリング点を前記仮想オブジェクトの前記サンプリング点として決定ステップと、を含むことを特徴とする請求項5に記載の方法。 - 前記法線方向に基づき、前記仮想環境における前記仮想オブジェクトの地面張り付き姿勢を決定するステップは、
地面座標系のx軸に対する前記法線方向の第1のヨー角に基づき、前記仮想環境における前記仮想オブジェクトのピッチ角を決定するステップを含み、
前記地面座標系は、前記仮想環境が配置されている世界座標系である、
ことを特徴とする請求項5に記載の方法。 - 前記サンプリング点は、前記仮想オブジェクトの前記地面張り付き姿勢での上半分の点を表すための前部サンプリング点と、前記仮想オブジェクトの前記地面張り付き姿勢での下半分の点を表すための後部サンプリング点と、及び前記仮想オブジェクトの前記地面張り付き姿勢での左側または右側の点を表すためのサイドサンプリング点とを含み、
前記地面張り付き点に基づき、前記地面に対する前記仮想オブジェクトの前記法線方向を決定するステップは、
前記前部サンプリング点から衝突検出した後に得られた点である第1の地面張り付き点と、前記後部サンプリング点から衝突検出した後に得られた点である第2の地面張り付き点と、前記サイドサンプリング点から衝突検出した後に得られた点である第3の地面張り付き点とが存在する平面を決定することと、
前記平面に垂直で上向きの第3の垂直線に基づき、前記地面に対する前記仮想オブジェクトの前記法線方向を決定するステップと、
を含むことを特徴とする請求項1に記載の方法。 - 前記仮想オブジェクトの少なくとも一つのサンプリング点を決定するステップは、
前記仮想オブジェクトの中心点の前方の第1の距離にある点を、前記前部サンプリング点として決定するステップと、
前記仮想オブジェクトの中心点の後方の第2の距離にある点を、前記後部サンプリング点として決定するステップと、
前記仮想オブジェクトの中心点の左側の第3の距離にある点または前記仮想オブジェクトの中心点の右側の第4の距離にある点を、前記サイドサンプリング点として決定するステップと、
前記前部サンプリング点と、前記後部サンプリング点と、前記サイドサンプリング点とを、前記仮想オブジェクトの前記サンプリング点として決定するステップと、
を含むことを特徴とする請求項8に記載の方法。 - 前記法線方向に基づき、前記仮想環境における前記仮想オブジェクトの地面張り付き姿勢を決定するステップは、
地面座標系のx軸に対する前記法線方向の第1のヨー角に基づき、前記仮想環境における前記仮想オブジェクトのピッチ角を決定するステップと、
前記地面座標系のz軸に対する前記法線方向の第2のヨー角に基づき、前記仮想環境における前記仮想オブジェクトのロール角を決定するステップと、を含み、
前記地面座標系は、前記仮想環境が配置されている世界座標系である、
ことを特徴とする請求項8に記載の方法。 - 前記地面は、勾配のあるエリアと、曲面エリアと、陥凹エリアと、隆起エリアとのうちの少なくとも一つを含む、ことを特徴とする請求項1から10のいずれか1項に記載の方法。
- 仮想環境における仮想キャラクターの姿勢決定方法であって、
第1のユーザーインターフェイスを表示するステップであって、前記第1のユーザーインターフェイスが立位姿勢で前記仮想環境の地面にある仮想キャラクターを含むステップと、
姿勢切替コマンドを受信するステップであって、前記姿勢切替コマンドが、前記立位姿勢から地面張り付き姿勢に切り替えるように前記仮想キャラクターに指示するために使用されるステップと、
前記仮想キャラクターの中心点に基づき、前記仮想キャラクターの少なくとも一つのサンプリング点を決定するステップであって、前記サンプリング点が前記地面に対する衝突検出に使用される点であるステップと、
前記少なくとも一つのサンプリング点及び前記地面に基づき、前記地面に対する前記仮想キャラクターの法線方向を決定するステップであって、
前記サンプリング点から鉛直下方向で衝突検出を行い、前記仮想キャラクターが前記地面に衝突する際の衝突点を地面張り付き点として決定するステップと、
前記地面張り付き点に基づき、前記地面に対する前記仮想キャラクターの法線方向を決定するステップと、
を含むステップと、
前記地面に対する前記仮想キャラクターの前記法線方向に基づき、前記仮想キャラクターの地面張り付き姿勢を決定するステップと、
第2のユーザーインターフェイスを表示するステップであって、前記第2のユーザーインターフェイスが、前記地面張り付き姿勢で前記仮想環境の前記地面にある仮想キャラクターを含むステップと、
を含むことを特徴とする方法。 - 仮想環境における仮想キャラクターの姿勢決定方法であって、
第3のユーザーインターフェイスを表示するステップであって、前記第3のユーザーインターフェイスが、第1の地面張り付き姿勢で前記仮想環境の第1の地面位置にある仮想キャラクターを含むステップと、
移動コマンドを受信するステップであって、前記移動コマンドが、前記第1の地面位置から移動するように前記仮想キャラクターに指示するために使用されるステップと、
第2の地面位置に対する前記仮想キャラクターの法線方向に基づき、前記仮想キャラクターの第2の地面張り付き姿勢を決定するステップであって、
前記仮想キャラクターの中心点に基づき、前記仮想キャラクターの少なくとも一つのサンプリング点を決定するステップであって、前記サンプリング点が前記第2の地面に対する衝突検出に使用される点であるステップと、
前記少なくとも一つのサンプリング点及び前記第2の地面位置に基づき、前記第2の地面位置に対する前記仮想キャラクターの法線方向を決定するステップであって、
前記サンプリング点から鉛直下方向で衝突検出を行い、前記仮想キャラクターが前記第2の地面に衝突する際の衝突点を地面張り付き点として決定するステップと、
前記地面張り付き点に基づき、前記第2の地面に対する前記仮想キャラクターの法線方向を決定するステップと、
を含むステップと、
第4のユーザーインターフェイスを表示するステップであって、前記第4のユーザーインターフェイスが、前記第2の地面張り付き姿勢で前記仮想環境の第2の地面位置にある前記仮想キャラクターを含むステップと、
を含むことを特徴とする方法。 - 仮想環境における仮想キャラクターの姿勢決定方法であって、
第1のユーザーインターフェイスを表示するステップであって、前記第1のユーザーインターフェイスが、立位姿勢で前記仮想環境の地面にある仮想キャラクターを含むステップと、
姿勢切替コマンドを受信するステップであって、前記姿勢切替コマンドが、前記立位姿勢から地面張り付き姿勢に切り替えるように前記仮想キャラクターに指示するために使用されるステップと、
前記仮想キャラクターの中心点に基づき、前記仮想キャラクターの上半身サンプリング点及び下半身サンプリング点を決定するステップと、
前記上半身サンプリング点から衝突検出した後に得られた第1の地面エリアにある点である第1の地面張り付き点と、前記下半身サンプリング点から衝突検出した後に得られ第2の地面エリアにある点である第2の地面張り付き点との間の接続線を決定するステップであって、前記地面は、前記第1の地面エリア及び第2の地面エリアを含むステップと、
前記接続線に垂直で、かつロール角が0である垂直線に基づき、前記地面に対する前記仮想キャラクターの法線方向を決定するステップと、
第2のユーザーインターフェイスを表示するステップであって、前記第2のユーザーインターフェイスが、前記地面張り付き姿勢で前記仮想環境の地面にある仮想キャラクターを含み、前記仮想キャラクターの頭部が前記第1の地面エリアで宙に浮き、前記仮想キャラクターの足部が前記第2の地面エリアで宙に浮き、前記仮想キャラクターの腰部が前記第1の地面エリアと前記第2の地面エリアの境目で地面に埋め込まれるステップと、
を含むことを特徴とする方法。 - 仮想環境における仮想オブジェクトの姿勢決定装置であって、
前記仮想オブジェクトの少なくとも一つのサンプリング点を決定するためのサンプリング点決定モジュールであって、前記サンプリング点が地面に対する衝突検出に使用される点であるサンプリング点決定モジュールと、
前記少なくとも一つのサンプリング点及び前記仮想オブジェクトの位置する地面に基づき、前記地面に対する前記仮想オブジェクトの法線方向を決定するための法線決定モジュールと、
前記法線方向に基づき、前記仮想環境における前記仮想オブジェクトの地面張り付き姿勢を決定するための姿勢決定モジュールと、
を含み、
前記法線決定モジュールは、
前記サンプリング点から鉛直下方向で衝突検出を行い、前記仮想オブジェクトが前記地面に衝突する際の衝突点を地面張り付き点として決定するための検出ユニットと、
前記地面張り付き点に基づき、前記地面に対する前記仮想オブジェクトの前記法線方向を決定するための法線決定ユニットと、
を含むことを特徴とする装置。 - 前記サンプリング点は、前記仮想オブジェクトの中心点を含み、
前記法線決定ユニットは、前記地面張り付き点を始点として前記地面に垂直な第1の垂直線に基づき、前記地面に対する前記仮想オブジェクトの前記法線方向を決定するためにも使用される、
ことを特徴とする請求項15に記載の装置。 - 前記サンプリング点決定モジュールは、前記仮想オブジェクトの中心点を、前記仮想オブジェクトの前記サンプリング点として決定するためにも使用される、
ことを特徴とする請求項16に記載の装置。 - 前記サンプリング点決定モジュールは、
地面座標系のx軸に対する前記法線方向の第1のヨー角に基づき、前記仮想環境における前記仮想オブジェクトのピッチ角を決定するためのヨー角決定ユニットを含み、
前記ヨー角決定ユニットは、前記地面座標系のz軸に対する前記法線方向の第2のヨー角に基づき、前記仮想環境における前記仮想オブジェクトのロール角を決定するためにも使用され、
前記地面座標系は、前記仮想環境が配置されている世界座標系である、
ことを特徴とする請求項17に記載の装置。 - 前記サンプリング点は、前記仮想オブジェクトの前記地面張り付き姿勢での上半分の点を表すための前部サンプリング点と、前記仮想オブジェクトの前記地面張り付き姿勢での下半分の点を表すための後部サンプリング点とを含み、
前記法線決定ユニットは、前記前部サンプリング点から衝突検出した後に得られた点である第1の地面張り付き点と、前記後部サンプリング点から衝突検出した後に得られた点である第2の地面張り付き点との間の接続線を決定するためにも使用され、
前記法線決定ユニットは、前記接続線に垂直で、かつロール角が0である第2の垂直線に基づき、前記地面に対する前記仮想オブジェクトの法線方向を決定するためにも使用される、
ことを特徴とする請求項15に記載の装置。 - 前記サンプリング点決定モジュールは、前記仮想オブジェクトの中心点の前方の第1の距離にある点を、前記前部サンプリング点として決定するためにも使用され、
前記サンプリング点決定モジュールは、前記仮想オブジェクトの中心点の後方の第2の距離にある点を、前記後部サンプリング点として決定するためにも使用され、
前記サンプリング点決定モジュールは、前記前部サンプリング点及び前記後部サンプリング点を、前記仮想オブジェクトの前記サンプリング点として決定するためにも使用される、
ことを特徴とする請求項19に記載の装置。 - 前記姿勢決定モジュールは、地面座標系のx軸に対する前記法線方向の第1のヨー角に基づき、前記仮想環境における前記仮想オブジェクトのピッチ角を決定するためにも使用され、
前記地面座標系は、前記仮想環境が配置されている世界座標系である、
ことを特徴とする請求項19に記載の装置。 - 前記サンプリング点は、前記仮想オブジェクトの前記地面張り付き姿勢での上半分の点を表すための前部サンプリング点と、前記仮想オブジェクトの前記地面張り付き姿勢での下半分の点を表すための後部サンプリング点と、及び前記仮想オブジェクトの前記地面張り付き姿勢での左側または右側の点を表すためのサイドサンプリング点と、を含み、
前記法線決定ユニットは、前記前部サンプリング点から衝突検出した後に得られた点である第1の地面張り付き点と、前記後部サンプリング点から衝突検出した後に得られた点である第2の地面張り付き点と、前記サイドサンプリング点から衝突検出した後に得られた点である第3の地面張り付き点とが存在する平面を決定するためにも使用され、
前記法線決定ユニットは、前記平面に垂直で上向きの第3の垂直線に基づき、前記地面に対する前記仮想オブジェクトの前記法線方向を決定するためにも使用される、
ことを特徴とする請求項20に記載の装置。 - 前記サンプリング点決定モジュールは、前記仮想オブジェクトの中心点の前方の第1の距離にある点を、前記前部サンプリング点として決定するためにも使用され、
前記サンプリング点決定モジュールは、前記仮想オブジェクトの中心点の後方の第2の距離にある点を、前記後部サンプリング点として決定するためにも使用され、
前記サンプリング点決定モジュールは、前記仮想オブジェクトの中心点の左側の第3の距離にある点または前記仮想オブジェクトの中心点の右側の第4の距離にある点を、前記サイドサンプリング点として決定するためにも使用され、
前記サンプリング点決定モジュールは、前記前部サンプリング点と、前記後部サンプリング点と、前記サイドサンプリング点とを、前記仮想オブジェクトの前記サンプリング点として決定するためにも使用される、
ことを特徴とする請求項22に記載の装置。 - 前記姿勢決定モジュールは、地面座標系のx軸に対する前記法線方向の第1のヨー角に基づき、前記仮想環境における前記仮想オブジェクトのピッチ角を決定するためにも使用され、
前記姿勢決定モジュールは、前記地面座標系のz軸に対する前記法線方向の第2のヨー角に基づき、前記仮想環境における前記仮想オブジェクトのロール角を決定するためにも使用され、
前記地面座標系は、前記仮想環境が配置されている世界座標系である、
ことを特徴とする請求項22に記載の装置。 - 前記地面は、勾配のあるエリアと、曲面エリアと、陥凹エリアと、隆起エリアとのうちの少なくとも一つを含む、
ことを特徴とする請求項15から24のいずれか1項に記載の装置。 - 仮想環境における仮想キャラクターの姿勢決定装置であって、
第1のユーザーインターフェイスを表示するための第1の表示モジュールであって、前記第1のユーザーインターフェイスが、立位姿勢で前記仮想環境の地面にある仮想キャラクターを含む第1の表示モジュールと、 姿勢切替コマンドを受信するための第1の受信モジュールであって、前記姿勢切替コマンドが、前記立位姿勢から地面張り付き姿勢に切り替えるように前記仮想キャラクターに指示するために使用される第1の受信モジュールと、
前記地面に対する前記仮想キャラクターの法線方向に基づき、前記仮想キャラクターの地面張り付き姿勢を決定するための第1の決定モジュールと、を含み、
前記第1の表示モジュールは、第2のユーザーインターフェイスを表示するためにも使用され、前記第2のユーザーインターフェイスは、前記地面張り付き姿勢で前記仮想環境の地面にある仮想キャラクターを含み、
前記第1の決定モジュールは、前記姿勢切替コマンドを受信した後、前記仮想キャラクターの中心点に基づき、前記仮想キャラクターの少なくとも一つのサンプリング点を決定するためにも使用され、前記サンプリング点は、前記地面に対する衝突検出に使用される点であり、
前記第1の決定モジュールは、前記サンプリング点から鉛直下方向で衝突検出を行い、前記仮想キャラクターが前記地面に衝突する際の衝突点を地面張り付き点として決定し、前記地面張り付き点に基づき、前記地面に対する前記仮想キャラクターの前記法線方向を決定することによって、前記少なくとも一つのサンプリング点及び前記地面に基づき、前記地面に対する前記仮想キャラクターの法線方向を決定するためにも使用される、
ことを特徴とする装置。 - 仮想環境における仮想キャラクターの姿勢決定装置であって、
第3のユーザーインターフェイスを表示するための第2の表示モジュールであって、前記第3のユーザーインターフェイスが、第1の地面張り付き姿勢で前記仮想環境の第1の地面位置にある仮想キャラクターを含む第2の表示モジュールと、
移動コマンドを受信するための第2の受信モジュールであって、前記移動コマンドが、前記第1の地面位置から移動するように前記仮想キャラクターに指示するために使用される第2の受信モジュールと、
第2の地面位置に対する前記仮想キャラクターの法線方向に基づき、前記仮想キャラクターの第2の地面張り付き姿勢を決定するための第2の決定モジュールと、を含み、
前記第2の表示モジュールは、第4のユーザーインターフェイスを表示するためにも使用され、前記第4のユーザーインターフェイスは、前記第2の地面張り付き姿勢で前記仮想環境の第2の地面位置にある前記仮想キャラクターを含み、
前記第2の決定モジュールは、前記移動コマンドを受信した後、前記仮想キャラクターの中心点に基づき、前記仮想キャラクターの少なくとも一つのサンプリング点を決定するためにも使用され、前記サンプリング点は、地面に対する衝突検出に使用される点であり、
前記第2の決定モジュールは、前記サンプリング点から鉛直下方向で衝突検出を行い、前記仮想キャラクターが前記第2の地面に衝突する際の衝突点を地面張り付き点として決定し、前記第2の地面張り付き点に基づき、前記第2の地面に対する前記仮想キャラクターの前記法線方向を決定することによって、前記少なくとも一つのサンプリング点及び前記第2の地面位置に基づき、前記第2の地面位置に対する前記仮想キャラクターの法線方向を決定するためにも使用される、
ことを特徴とする装置。 - 仮想環境における仮想キャラクターの姿勢決定装置であって、
第1のユーザーインターフェイスを表示するための第3の表示モジュールであって、前記第3の表示モジュールが、立位姿勢で前記仮想環境の地面にある仮想キャラクターを含む第3の表示モジュールと、
姿勢切替コマンドを受信するための第3の受信モジュールであって、前記姿勢切替コマンドが、前記立位姿勢から地面張り付き姿勢に切り替えるように前記仮想キャラクターに指示するために使用される第3の受信モジュールと、
前記仮想キャラクターの中心点に基づき、前記仮想キャラクターの上半身サンプリング点及び下半身サンプリング点を決定するための第3の決定モジュールと、を含み、
前記第3の表示モジュールは、第2のユーザーインターフェイスを表示するためにも使用され、前記第2のユーザーインターフェイスは、前記地面張り付き姿勢で前記仮想環境の地面にある仮想キャラクターを含み、前記地面は、角度をなす第1の地面エリア及び第2の地面エリアを含み、前記仮想キャラクターの頭部が前記第1の地面エリアで宙に浮き、前記仮想キャラクターの足部が前記第2の地面エリアで宙に浮き、前記仮想キャラクターの腰部が前記第1の地面エリアと前記第2の地面エリアの境目で地面に埋め込まれ、
前記第3の決定モジュールは、前記上半身サンプリング点から衝突検出した後に得られた前記第1の地面エリアにある点である第1の地面張り付き点と、前記下半身サンプリング点から衝突検出した後に得られた前記第2の地面エリアにある点である第2の地面張り付き点との間の接続線を決定するためにも使用され、
前記第3の決定モジュールは、前記接続線に垂直で、かつロール角が0である垂直線に基づき、前記地面に対する前記仮想キャラクターの法線方向を決定するためにも使用される、
ことを特徴とする装置。 - メモリとプロセッサとを含む電子機器であって、
前記メモリには、少なくとも1つのコマンド、少なくとも1つのプログラム、コードセットまたはコマンドセットが記憶され、
前記少なくとも1つのコマンド、前記少なくとも1つのプログラム、前記コードセットまたはコマンドセットは、請求項1から14のいずれか1項に記載の仮想環境における仮想オブジェクトの姿勢決定方法を実現するように、前記プロセッサによってロードされて実行される、
ことを特徴とする電子機器。 - 少なくとも1つのコマンド、少なくとも1つのプログラム、コードセットまたはコマンドセットが記憶されるコンピュータ可読記憶媒体であって、
前記少なくとも1つのコマンド、前記少なくとも1つのプログラム、前記コードセットまたはコマンドセットは、請求項1から14のいずれか1項に記載の仮想環境における仮想オブジェクトの姿勢決定方法を実現するように、プロセッサによってロードされて実行される、
ことを特徴とする記憶媒体。 - 請求項1から14のいずれか1項に記載の仮想環境における仮想オブジェクトの姿勢決定方法を実現するように、プロセッサによってロードされて実行される、ことを特徴とするコンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810136822.0 | 2018-02-09 | ||
CN201810136822.0A CN108245893B (zh) | 2018-02-09 | 2018-02-09 | 三维虚拟环境中虚拟对象的姿态确定方法、装置及介质 |
PCT/CN2018/117008 WO2019153836A1 (zh) | 2018-02-09 | 2018-11-22 | 虚拟环境中虚拟对象的姿态确定方法、装置及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021512413A JP2021512413A (ja) | 2021-05-13 |
JP7076880B2 true JP7076880B2 (ja) | 2022-05-30 |
Family
ID=62745134
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020541430A Active JP7076880B2 (ja) | 2018-02-09 | 2018-11-22 | 仮想環境における仮想オブジェクトの姿勢決定方法、装置及び媒体 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11087537B2 (ja) |
EP (1) | EP3750609A4 (ja) |
JP (1) | JP7076880B2 (ja) |
CN (1) | CN108245893B (ja) |
WO (1) | WO2019153836A1 (ja) |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108245893B (zh) * | 2018-02-09 | 2021-06-29 | 腾讯科技(深圳)有限公司 | 三维虚拟环境中虚拟对象的姿态确定方法、装置及介质 |
CN109785444A (zh) * | 2019-01-07 | 2019-05-21 | 深圳增强现实技术有限公司 | 图像中现实平面的识别方法、装置及移动终端 |
CN110665230B (zh) * | 2019-09-26 | 2020-11-13 | 腾讯科技(深圳)有限公司 | 虚拟世界中的虚拟角色控制方法、装置、设备及介质 |
CN110755847B (zh) * | 2019-10-30 | 2021-03-16 | 腾讯科技(深圳)有限公司 | 虚拟操作对象的生成方法和装置、存储介质及电子装置 |
US11380037B2 (en) | 2019-10-30 | 2022-07-05 | Tencent Technology (Shenzhen) Company Limited | Method and apparatus for generating virtual operating object, storage medium, and electronic device |
CN111068318B (zh) * | 2019-12-26 | 2024-05-07 | 珠海金山数字网络科技有限公司 | 一种角色斜坡旋转方法及装置 |
CN111714886B (zh) * | 2020-07-24 | 2021-09-28 | 腾讯科技(深圳)有限公司 | 虚拟对象的控制方法、装置、设备以及存储介质 |
CN111882637B (zh) * | 2020-07-24 | 2023-03-31 | 上海米哈游天命科技有限公司 | 一种画面渲染方法、装置、设备和介质 |
CN111882633A (zh) * | 2020-07-24 | 2020-11-03 | 上海米哈游天命科技有限公司 | 一种画面渲染方法、装置、设备和介质 |
CN111921189B (zh) * | 2020-08-21 | 2022-03-01 | 腾讯科技(深圳)有限公司 | 虚拟对象控制方法和装置 |
CN112190940B (zh) * | 2020-10-19 | 2022-08-05 | 珠海金山网络游戏科技有限公司 | 动画处理方法及装置 |
CN112215968B (zh) * | 2020-10-29 | 2024-07-16 | 网易(杭州)网络有限公司 | 模型贴地处理方法、装置、存储介质与电子设备 |
US11580685B2 (en) * | 2020-12-08 | 2023-02-14 | Microsoft Technology Licensing, Llc | Physics engine with collision detection neighbor welding |
CN112546631B (zh) * | 2020-12-23 | 2023-03-03 | 上海米哈游天命科技有限公司 | 一种角色控制方法、装置、设备及存储介质 |
CN113926187A (zh) * | 2021-10-20 | 2022-01-14 | 腾讯科技(深圳)有限公司 | 虚拟场景中的对象控制方法、装置及终端设备 |
CN114487284B (zh) * | 2021-12-31 | 2023-09-08 | 武汉怡特环保科技有限公司 | 一种测量空气中重金属浓度的方法及系统 |
CN114849239A (zh) * | 2022-03-28 | 2022-08-05 | 联想(北京)有限公司 | 数据处理方法及电子设备 |
CN116071474A (zh) * | 2023-04-06 | 2023-05-05 | 山东捷瑞数字科技股份有限公司 | 基于三维引擎的运动姿态调整方法、装置、设备及介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006149767A (ja) | 2004-11-30 | 2006-06-15 | Nintendo Co Ltd | ゲームプログラムおよびゲーム装置 |
JP2010220878A (ja) | 2009-03-24 | 2010-10-07 | Square Enix Co Ltd | ゲーム装置、ゲームの進行方法、ゲームプログラム及び記録媒体 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4704622B2 (ja) * | 2001-07-30 | 2011-06-15 | 株式会社バンダイナムコゲームス | 画像生成システム、プログラム及び情報記憶媒体 |
JP4001227B2 (ja) * | 2002-05-16 | 2007-10-31 | 任天堂株式会社 | ゲーム装置及びゲームプログラム |
JP3457305B1 (ja) * | 2002-09-19 | 2003-10-14 | 株式会社コナミコンピュータエンタテインメント東京 | ゲーム装置、ゲーム制御方法及びプログラム |
JP4311391B2 (ja) * | 2005-10-03 | 2009-08-12 | ソニー株式会社 | 接触形状算出装置及び接触形状算出方法、並びにコンピュータ・プログラム |
JP4519883B2 (ja) * | 2007-06-01 | 2010-08-04 | 株式会社コナミデジタルエンタテインメント | キャラクター表示装置、キャラクター表示方法、ならびに、プログラム |
JP5149547B2 (ja) * | 2007-06-07 | 2013-02-20 | 株式会社コナミデジタルエンタテインメント | ゲーム装置、ゲーム装置の制御方法及びプログラム |
JP4823343B2 (ja) * | 2009-08-14 | 2011-11-24 | 株式会社ソニー・コンピュータエンタテインメント | ゲーム制御プログラム、ゲーム装置、及びゲーム制御方法 |
US8760395B2 (en) * | 2011-05-31 | 2014-06-24 | Microsoft Corporation | Gesture recognition techniques |
US9443352B1 (en) * | 2012-12-21 | 2016-09-13 | Motion Reality, Inc. | Navigating through a virtual environment having a real-world elevation characteristics using motion capture |
CN104063677B (zh) * | 2013-03-19 | 2019-04-30 | 北京三星通信技术研究有限公司 | 用于估计人体姿态的设备和方法 |
JP6736257B2 (ja) * | 2015-04-02 | 2020-08-05 | キヤノン株式会社 | 情報処理装置、情報処理方法、プログラム |
CN105867614A (zh) * | 2016-03-23 | 2016-08-17 | 北京宇航系统工程研究所 | 一种模拟导弹发射的虚拟环境生成交互系统与方法 |
CN105898346A (zh) * | 2016-04-21 | 2016-08-24 | 联想(北京)有限公司 | 控制方法、电子设备及控制系统 |
CN106931960B (zh) * | 2017-03-13 | 2020-05-05 | 武汉准我飞科技有限公司 | 一种姿态数据获取方法及装置 |
CN108245893B (zh) * | 2018-02-09 | 2021-06-29 | 腾讯科技(深圳)有限公司 | 三维虚拟环境中虚拟对象的姿态确定方法、装置及介质 |
-
2018
- 2018-02-09 CN CN201810136822.0A patent/CN108245893B/zh active Active
- 2018-11-22 JP JP2020541430A patent/JP7076880B2/ja active Active
- 2018-11-22 WO PCT/CN2018/117008 patent/WO2019153836A1/zh unknown
- 2018-11-22 EP EP18905079.2A patent/EP3750609A4/en active Pending
-
2020
- 2020-05-24 US US16/882,515 patent/US11087537B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006149767A (ja) | 2004-11-30 | 2006-06-15 | Nintendo Co Ltd | ゲームプログラムおよびゲーム装置 |
JP2010220878A (ja) | 2009-03-24 | 2010-10-07 | Square Enix Co Ltd | ゲーム装置、ゲームの進行方法、ゲームプログラム及び記録媒体 |
Also Published As
Publication number | Publication date |
---|---|
EP3750609A1 (en) | 2020-12-16 |
US20200286288A1 (en) | 2020-09-10 |
WO2019153836A1 (zh) | 2019-08-15 |
JP2021512413A (ja) | 2021-05-13 |
CN108245893B (zh) | 2021-06-29 |
CN108245893A (zh) | 2018-07-06 |
US11087537B2 (en) | 2021-08-10 |
EP3750609A4 (en) | 2021-11-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7076880B2 (ja) | 仮想環境における仮想オブジェクトの姿勢決定方法、装置及び媒体 | |
US11703993B2 (en) | Method, apparatus and device for view switching of virtual environment, and storage medium | |
US11224810B2 (en) | Method and terminal for displaying distance information in virtual scene | |
JP7247350B2 (ja) | 仮想環境においてマーク情報を生成する方法、装置、電子機器及びコンピュータプログラム | |
JP7264993B2 (ja) | 仮想対象と投擲物とのインタラクションを制御する方法及びその装置、並びにコンピュータプログラム | |
WO2019201047A1 (zh) | 在虚拟环境中进行视角调整的方法、装置及可读存储介质 | |
WO2019153824A1 (zh) | 虚拟对象控制方法、装置、计算机设备及存储介质 | |
CN109529319B (zh) | 界面控件的显示方法、设备及存储介质 | |
CN111035918B (zh) | 基于虚拟环境的侦察界面显示方法、装置及可读存储介质 | |
CN108664231B (zh) | 2.5维虚拟环境的显示方法、装置、设备及存储介质 | |
CN110917616B (zh) | 虚拟场景中的方位提示方法、装置、设备及存储介质 | |
WO2019205881A1 (zh) | 虚拟环境中的信息显示方法、装置、设备及存储介质 | |
KR102693824B1 (ko) | 가상 환경 관찰 방법, 기기 및 저장 매체 | |
JP2022509634A (ja) | 仮想環境における仮想アイテムの観察方法、装置およびコンピュータプログラム | |
JP7186901B2 (ja) | ホットスポットマップの表示方法、装置、コンピュータ機器および読み取り可能な記憶媒体 | |
AU2020428058B2 (en) | Method and apparatus for skill aiming in three-dimensional virtual environment, device and storage medium | |
CN111273780B (zh) | 基于虚拟环境的动画播放方法、装置、设备及存储介质 | |
CN109407959B (zh) | 虚拟场景中的虚拟对象控制方法、设备以及存储介质 | |
JP2022552306A (ja) | 仮想環境における仮想キャラクタ制御方法、装置及び機器 | |
JP2022524802A (ja) | 仮想環境におけるスコープの適用方法及び装置並びにコンピュータ装置及びプログラム | |
WO2022257690A1 (zh) | 在虚拟环境中标记物品的方法、装置、设备及存储介质 | |
JP2024509064A (ja) | 位置マークの表示方法及び装置、機器並びにコンピュータプログラム | |
CN112451969A (zh) | 虚拟对象控制方法、装置、计算机设备及存储介质 | |
CN111754631B (zh) | 三维模型的生成方法、装置、设备及可读存储介质 | |
CN113384902A (zh) | 虚拟对象的移动控制方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200728 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210819 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210830 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211118 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220418 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220512 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7076880 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |