Nothing Special   »   [go: up one dir, main page]

JP7374313B2 - Methods, devices, terminals and programs for driving vehicles in virtual environments - Google Patents

Methods, devices, terminals and programs for driving vehicles in virtual environments Download PDF

Info

Publication number
JP7374313B2
JP7374313B2 JP2022520700A JP2022520700A JP7374313B2 JP 7374313 B2 JP7374313 B2 JP 7374313B2 JP 2022520700 A JP2022520700 A JP 2022520700A JP 2022520700 A JP2022520700 A JP 2022520700A JP 7374313 B2 JP7374313 B2 JP 7374313B2
Authority
JP
Japan
Prior art keywords
virtual
driving
virtual vehicle
destination
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022520700A
Other languages
Japanese (ja)
Other versions
JP2022551112A (en
Inventor
リィウ,ジホォン
Original Assignee
テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド filed Critical テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド
Publication of JP2022551112A publication Critical patent/JP2022551112A/en
Application granted granted Critical
Publication of JP7374313B2 publication Critical patent/JP7374313B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/803Driving vehicles or craft, e.g. cars, airplanes, ships, robots or tanks
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • A63F13/5378Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for displaying an additional top view, e.g. radar screens or maps
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8017Driving on land or water; Flying

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Human Computer Interaction (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Description

本発明の実施例は、2020年2月4日に出願した出願番号が202010080028.6であり、発明の名称が「仮想環境における乗り物の運転方法、装置、端末及び記憶媒体」である中国特許出願に基づく優先権を主張し、その全ての内容を参照により本発明に援用する。 An embodiment of the present invention is a Chinese patent application filed on February 4, 2020 with the application number 202010080028.6 and the title of the invention is "Method, device, terminal and storage medium for driving a vehicle in a virtual environment" , the entire contents of which are incorporated herein by reference.

本発明は、ヒューマンコンピュータインタラクションの分野に関し、特に仮想環境における乗り物の運転方法、装置、端末及び記憶媒体に関する。 The present invention relates to the field of human-computer interaction, and in particular to a method, device, terminal and storage medium for driving a vehicle in a virtual environment.

一人称シューティング(First-person Shooting:FPS)ゲームは、3次元仮想環境に基づくアプリケーションプログラムである。ユーザは、仮想環境内の仮想オブジェクトを操作して、歩き、走り、登り、射撃などの動作を実行することができる。また、複数のユーザは、オンラインでチームを組み、同一の仮想環境で協力してタスクを完了することができる。 A first-person shooting (FPS) game is an application program based on a three-dimensional virtual environment. A user can manipulate virtual objects within a virtual environment to perform actions such as walking, running, climbing, shooting, etc. Multiple users can also team up online and collaborate to complete tasks in the same virtual environment.

仮想オブジェクトが現在の地点から仮想環境内の他の地点に移動するように制御する必要があり、且つ該2つの地点間の距離が遠い場合、ユーザは、仮想オブジェクトが仮想乗り物により目的地に搬送されるように、仮想オブジェクトが仮想環境に設置された仮想乗り物(例えば自動車、飛行機、オートバイなど)を運転するように制御することができる。ここで、ユーザは、運転ウィジェットを介して仮想乗り物の走行を制御する必要があり、運転ウィジェットは、方向転換ウィジェット、加速ウィジェット、減速ウィジェット、ブレーキウィジェット、ホーンウィジェット、変速ウィジェットなどを含む。 If a virtual object needs to be controlled to move from its current point to another point in the virtual environment, and the distance between the two points is long, the user can control the virtual object to be transported to the destination by a virtual vehicle. As described above, a virtual object can be controlled to drive a virtual vehicle (eg, a car, an airplane, a motorcycle, etc.) placed in a virtual environment. Here, the user needs to control the running of the virtual vehicle through the driving widget, and the driving widget includes a turn widget, an acceleration widget, a deceleration widget, a brake widget, a horn widget, a speed change widget, etc.

運転ウィジェットの数が多いため、ユーザ(特に仮想乗り物を初めて使用するユーザ)が仮想オブジェクトを制御して乗り物を運転することは困難である。 Due to the large number of driving widgets, it is difficult for users (especially users who are new to virtual vehicles) to control virtual objects and drive the vehicle.

本発明の実施例は、ユーザが仮想オブジェクトを制御して乗り物を運転する操作上の困難さを軽減することができる、仮想環境における乗り物の運転方法、装置、端末及び記憶媒体を提供する。その技術的手段は、以下の通りである。 Embodiments of the present invention provide a method, apparatus, terminal, and storage medium for driving a vehicle in a virtual environment, which allows a user to control virtual objects to reduce the operational difficulty of driving a vehicle. The technical means are as follows.

1つの態様では、本発明の実施例は、端末が実行する、仮想環境における乗り物の運転方法であって、走行画面及び地図表示ウィジェットを表示するステップであって、前記走行画面は、仮想オブジェクトが仮想乗り物を運転して仮想環境内を走行する画面であり、前記仮想乗り物は、手動運転モードにある、ステップと、前記仮想乗り物が前記仮想環境内の自動運転領域に位置する場合、前記地図表示ウィジェットに対するマーキング操作を受け付けるステップであって、前記マーキング操作は、前記地図表示ウィジェットにおいて地点をマーキングする操作である、ステップと、前記マーキング操作に応じて、前記仮想乗り物を自動運転モードに切り替え、前記仮想乗り物が目的地に自動的に走行するように制御するステップと、を含む、方法を提供する。 In one aspect, an embodiment of the present invention provides a method for driving a vehicle in a virtual environment performed by a terminal, the step of displaying a driving screen and a map display widget, the driving screen including a virtual object. A screen for driving a virtual vehicle in a virtual environment, the virtual vehicle being in a manual driving mode; and if the virtual vehicle is located in an automatic driving area in the virtual environment, the map display; a step of receiving a marking operation on the widget, the marking operation being an operation of marking a point on the map display widget; and switching the virtual vehicle to an automatic driving mode in response to the marking operation; controlling the virtual vehicle to automatically travel to a destination.

もう1つの態様では、本発明の実施例は、仮想環境における乗り物の運転装置であって、走行画面及び地図表示ウィジェットを表示する表示モジュールであって、前記走行画面は、仮想オブジェクトが仮想乗り物を運転して仮想環境内を走行する画面であり、前記仮想乗り物は、手動運転モードにある、表示モジュールと、前記仮想乗り物が前記仮想環境内の自動運転領域に位置する場合、前記地図表示ウィジェットに対するマーキング操作を受け付ける受け付けモジュールであって、前記マーキング操作は、前記地図表示ウィジェットにおいて地点をマーキングする操作である、受け付けモジュールと、前記マーキング操作に応じて、前記仮想乗り物を自動運転モードに切り替え、前記仮想乗り物が目的地に自動的に走行するように制御する制御モジュールと、を含む、装置を提供する。 In another aspect, an embodiment of the present invention provides an apparatus for driving a vehicle in a virtual environment, the display module displaying a driving screen and a map display widget, wherein the driving screen is configured such that a virtual object is driving a virtual vehicle. a screen for driving and traveling in a virtual environment, the virtual vehicle is in a manual driving mode, a display module; an acceptance module that accepts a marking operation, wherein the marking operation is an operation of marking a point on the map display widget; and a control module that controls the virtual vehicle to automatically travel to a destination.

もう1つの態様では、本発明の実施例は、プロセッサと、メモリと、を含む端末であって、前記メモリには、少なくとも1つの命令、少なくとも1つのプログラム、コードセット又は命令セットが記憶され、前記少なくとも1つの命令、前記少なくとも1つのプログラム、前記コードセット又は前記命令セットは、上記の仮想環境における乗り物の運転方法を実現するように、前記プロセッサによりロードされて実行される、端末を提供する。 In another aspect, an embodiment of the invention is a terminal including a processor and a memory, the memory storing at least one instruction, at least one program, code set or instruction set; The at least one instruction, the at least one program, the code set, or the instruction set is loaded and executed by the processor to implement the method of driving a vehicle in the virtual environment, providing a terminal. .

もう1つの態様では、コンピュータ読み取り可能な記憶媒体であって、前記記憶媒体には、少なくとも1つの命令、少なくとも1つのプログラム、コードセット又は命令セットが記憶され、前記少なくとも1つの命令、前記少なくとも1つのプログラム、前記コードセット又は前記命令セットは、上記の仮想環境における乗り物の運転方法を実現するように、プロセッサによりロードされて実行される、記憶媒体を提供する。 In another aspect, a computer-readable storage medium stores at least one instruction, at least one program, code set or instruction set, the at least one instruction, the at least one One program, the code set or the instruction set provides a storage medium that is loaded and executed by a processor to implement the method of driving a vehicle in the virtual environment described above.

もう1つの態様では、コンピュータ読み取り可能な記憶媒体に記憶されているコンピュータ命令を含む、コンピュータプログラムプロダクト又はコンピュータプログラムを提供する。コンピュータ機器のプロセッサは、コンピュータ読み取り可能な記憶媒体から該コンピュータ命令を読み取って実行することで、該コンピュータ機器において上記の仮想環境における乗り物の運転方法を実行する。 In another aspect, a computer program product or program is provided that includes computer instructions stored on a computer readable storage medium. A processor of the computing device reads and executes the computer instructions from the computer-readable storage medium to perform the method of driving a vehicle in a virtual environment on the computing device.

本発明の実施例に係る方法によれば、仮想乗り物が手動運転モードで仮想環境内の自動運転領域に走行した場合、地図表示ウィジェットに対するマーキング操作を受け付けたとき、該マーキング操作に応じて仮想乗り物を自動運転モードに切り替え、仮想乗り物が目的地に自動的に走行するように制御することで、ユーザが仮想乗り物を手動で制御する必要がなく、仮想乗り物の走行を制御するプロセスを簡素化し、ユーザが仮想乗り物の仮想環境内の走行を制御する操作上の困難さを軽減することができる。 According to the method according to the embodiment of the present invention, when a virtual vehicle travels in a manual driving mode to an autonomous driving area in a virtual environment, when a marking operation for a map display widget is received, the virtual vehicle By switching the virtual vehicle to self-driving mode and controlling the virtual vehicle to automatically drive to the destination, the user does not need to manually control the virtual vehicle, simplifying the process of controlling the virtual vehicle's driving, It is possible to reduce the operational difficulty for a user in controlling the travel of a virtual vehicle in a virtual environment.

関連技術における仮想乗り物の走行を手動で制御するプロセスのインターフェースを示す概略図である。1 is a schematic diagram illustrating an interface of a process for manually controlling the driving of a virtual vehicle in related art; FIG. 本発明の例示的な実施例に係る仮想環境における乗り物の運転プロセスのインターフェースを示す概略図である。1 is a schematic diagram illustrating an interface of a process of driving a vehicle in a virtual environment according to an exemplary embodiment of the present invention; FIG. 本発明の1つの例示的な実施例に係る実施環境を示す概略図である。1 is a schematic diagram illustrating an implementation environment according to one exemplary embodiment of the invention; FIG. 本発明の1つの例示的な実施例に係る仮想環境における乗り物の運転方法を示すフローチャートである。1 is a flowchart illustrating a method of operating a vehicle in a virtual environment according to one exemplary embodiment of the present invention. 本発明のもう1つの例示的な実施例に係る仮想環境における乗り物の運転方法を示すフローチャートである。5 is a flowchart illustrating a method of driving a vehicle in a virtual environment according to another exemplary embodiment of the present invention. 1つの例示的な実施例に係る自動運転領域に対応する衝突検出ボックスの概略図である。1 is a schematic diagram of a collision detection box corresponding to an autonomous driving region according to one exemplary embodiment; FIG. 1つの例示的な実施例に係る仮想乗り物に対応する衝突検出ボックスと自動運転領域に対応する衝突検出ボックスとの衝突の概略図である。2 is a schematic diagram of a collision between a collision detection box corresponding to a virtual vehicle and a collision detection box corresponding to an autonomous driving region according to one exemplary embodiment; FIG. マーク地点に基づいて目的地を決定するプロセスの実装の概略図である。1 is a schematic diagram of an implementation of a process for determining a destination based on marked points; FIG. 自動運転経路上のウェイポイントに基づいて仮想乗り物の自動走行を制御する実装の概略図である。1 is a schematic diagram of an implementation for controlling autonomous driving of a virtual vehicle based on waypoints on an autonomous driving route; FIG. 自動運転モード及び手動運転モードにおけるユーザインターフェースのインターフェース概略図である。FIG. 3 is an interface schematic diagram of a user interface in automatic operation mode and manual operation mode. 本発明のもう1つの例示的な実施例に係る仮想環境における乗り物の運転方法を示すフローチャートである。5 is a flowchart illustrating a method of driving a vehicle in a virtual environment according to another exemplary embodiment of the present invention. 本発明の1つの例示的な実施例に係る仮想環境における乗り物の運転装置の構成を示すブロック図である。1 is a block diagram illustrating the configuration of a vehicle operating device in a virtual environment according to one exemplary embodiment of the present invention; FIG. 本発明の1つの例示的な実施例に係る端末の構成を示すブロック図である。1 is a block diagram illustrating the configuration of a terminal according to one exemplary embodiment of the present invention. FIG.

本発明の目的、技術的手段、及び利点をより明確にするために、以下は、図面を参照しながら本発明の実施形態をさらに詳細に説明する。 In order to make the objects, technical means, and advantages of the present invention more clear, embodiments of the present invention will be described in more detail below with reference to the drawings.

まず、本発明の実施例に関する用語を紹介する。 First, terms related to embodiments of the present invention will be introduced.

仮想環境:アプリケーションプログラムが端末で実行されている際に表示(又は提供)される仮想環境である。該仮想環境は、実世界に対するシミュレーション環境であってもよいし、半シミュレーション及び半架空の環境であってもよいし、純粋な架空の環境であってもよい。仮想環境は、2次元仮想環境、2.5次元仮想環境、及び3次元仮想環境のうちの何れかであってもよいが、本発明はこれらに限定されない。以下の実施例では、仮想環境が3次元仮想環境であることを一例にして説明する。 Virtual environment: A virtual environment that is displayed (or provided) when an application program is running on a terminal. The virtual environment may be a simulation environment for the real world, a semi-simulated and semi-fictional environment, or a purely fictional environment. The virtual environment may be any one of a 2-dimensional virtual environment, a 2.5-dimensional virtual environment, and a 3-dimensional virtual environment, but the present invention is not limited thereto. In the following embodiments, the virtual environment is a three-dimensional virtual environment.

仮想オブジェクト:仮想環境における移動可能なオブジェクトを意味する。該移動可能なオブジェクトは、仮想キャラクタ、仮想動物、漫画又はアニメーションのキャラクタなどであってもよく、例えば、3次元仮想環境に表示されるキャラクタ、動物、植物、樽、壁、石などである。好ましくは、仮想オブジェクトは、スケルタルアニメーション技術に基づいて作成された3次元モデルである。各仮想オブジェクトは、3次元仮想環境において独自の形状及び体積を持ち、3次元仮想環境において空間の一部を占める。 Virtual object: means a movable object in a virtual environment. The movable object may be a virtual character, a virtual animal, a cartoon or animated character, etc., such as a character, an animal, a plant, a barrel, a wall, a stone, etc. displayed in a three-dimensional virtual environment. Preferably, the virtual object is a three-dimensional model created based on skeletal animation technology. Each virtual object has a unique shape and volume in the three-dimensional virtual environment, and occupies a portion of space in the three-dimensional virtual environment.

仮想乗り物:仮想環境内の仮想オブジェクトにより運転及び使用できる乗り物を意味し、仮想自動車、仮想オートバイ、仮想飛行機、仮想自転車、仮想戦車、仮想船などであってもよい。ここで、仮想乗り物は、仮想環境にランダムに設定されてもよい。また、各仮想乗り物は、3次元仮想環境において独自の形状及び体積を持ち、3次元仮想環境において空間の一部を占め、3次元仮想環境内の他の仮想オブジェクト(例えば建物、木)と衝突することができる。 Virtual vehicle: means a vehicle that can be driven and used by virtual objects in a virtual environment, and may be a virtual car, a virtual motorcycle, a virtual airplane, a virtual bicycle, a virtual tank, a virtual ship, etc. Here, the virtual vehicle may be randomly set in the virtual environment. Additionally, each virtual vehicle has its own shape and volume in the 3D virtual environment, occupies a portion of space in the 3D virtual environment, and collides with other virtual objects (e.g., buildings, trees) in the 3D virtual environment. can do.

一人称シューティングゲーム:ユーザが一人称視点でプレイできるシューティングゲームを意味する。ゲーム内の仮想環境の画面は、第1の仮想オブジェクトの視点で仮想環境を観察する画面である。ゲームでは、少なくとも2つの仮想オブジェクトが仮想環境でシングルラウンドの対戦モードのゲームを行う。仮想オブジェクトは、仮想環境で生きるために他の仮想オブジェクトにより行われる攻撃や仮想環境にある危険(例えば、毒ガス、沼地など)を回避する。仮想環境内の仮想オブジェクトの寿命値がゼロになった場合、仮想環境内の仮想オブジェクトの寿命が終了し、最終的に仮想環境内で生きる仮想オブジェクトが勝者となる。好ましくは、該対戦は、最初のクライアントが対戦に参加した時点を開始時点とし、最後のクライアントが対戦を離れる時点を終了時点とし、各クライアントが仮想環境内の1つ又は複数の仮想オブジェクトを制御できる。好ましくは、該対戦の競技モードは、シングルプレーヤの対戦モード、ダブルプレーヤの小規模チーム対戦モード、又はマルチプレーヤの大規模チーム対戦モードを含んでもよいが、本発明の実施例は対戦モードに限定されない。 First-person shooting game: means a shooting game that the user can play from a first-person perspective. The virtual environment screen in the game is a screen for observing the virtual environment from the viewpoint of the first virtual object. In the game, at least two virtual objects play a single round competitive mode game in a virtual environment. Virtual objects avoid attacks made by other virtual objects and dangers present in the virtual environment (eg, poison gas, swamps, etc.) in order to live in the virtual environment. When the lifespan value of the virtual object in the virtual environment becomes zero, the lifespan of the virtual object in the virtual environment ends, and the virtual object that finally lives in the virtual environment becomes the winner. Preferably, the match begins when the first client joins the match and ends when the last client leaves the match, with each client controlling one or more virtual objects within the virtual environment. can. Preferably, the competitive mode of competition may include a single player competitive mode, a double player small team competitive mode, or a multiplayer large team competitive mode, although embodiments of the present invention are limited to the competitive mode. Not done.

ユーザインターフェース(User Interface:UI)ウィジェット:アプリケーションプログラムのユーザインターフェースに見える如何なる視覚的なウィジェット又は要素を意味し、例えば画像、入力ボックス、テキストボックス、ボタン、ラベルなどのウィジェットを含む。UIウィジェットは、ユーザの操作に応答し、例えば、ユーザが短剣に対応するUIウィジェットをトリガすると、仮想オブジェクトが現在使用されている銃を短剣に切り替えるように制御する。また、例えば、乗り物を運転している際に、ユーザインターフェースには運転ウィジェットが表示され、ユーザは、運転ウィジェットをトリガすることで、仮想オブジェクトが仮想乗り物を運転するように制御してもよい。 User Interface (UI) widget: means any visual widget or element visible on the user interface of an application program, including widgets such as images, input boxes, text boxes, buttons, labels, etc. The UI widget responds to user operations, for example, when the user triggers a UI widget corresponding to a dagger, controls the virtual object to switch the currently used gun to a dagger. Also, for example, while driving a vehicle, a driving widget may be displayed on the user interface, and the user may control the virtual object to drive the virtual vehicle by triggering the driving widget.

本発明に係る方法は、仮想現実アプリケーションプログラム、3次元地図プログラム、軍事シミュレーションプログラム、一人称シューティングゲーム、マルチプレーヤオンラインバトルアリーナ(Multiplayer Online Battle Arena:MOBA)ゲームなどに適用されてもよい。以下の実施例では、ゲーム内のアプリケーションを一例にして説明する。 The method according to the present invention may be applied to virtual reality application programs, three-dimensional map programs, military simulation programs, first-person shooting games, Multiplayer Online Battle Arena (MOBA) games, etc. In the following embodiment, an application within a game will be explained as an example.

仮想環境に基づくゲームは、ゲーム世界の1つ又は複数の地図により構成される場合が多い。ゲーム内の仮想環境は、現実世界のシーンをシミュレートする。ユーザは、ゲーム内の仮想オブジェクトが歩き、走り、跳び、射撃、格闘、運転、使用される仮想アイテムの切り替え、仮想アイテムを使用して他の仮想オブジェクトなどにダメージを与える動作を行うように操作する。インタラクティブ性が高いゲームでは、複数のユーザがオンラインで競技のゲームを行うためにチームを組むことができる。 Games based on virtual environments often consist of one or more maps of the game world. The virtual environment within the game simulates real-world scenes. Users can manipulate virtual objects in the game to perform actions such as walking, running, jumping, shooting, fighting, driving, switching virtual items used, and using virtual items to damage other virtual objects. do. Highly interactive games allow multiple users to team up to play competitive games online.

図1は、関連技術における仮想乗り物の走行を制御するプロセスのインターフェースを示す概略図である。図1に示すように、ユーザが仮想オブジェクトを制御して仮想乗り物を運転する際に(図1における仮想乗り物は仮想自動車である)、ユーザインターフェース100には、走行画面が表示され、また、ユーザインターフェース100には、地図表示ウィジェット101、運転ウィジェット(方向ウィジェット102、加速ウィジェット103、ブレーキウィジェット104を含む)及び乗り物燃料インジケータ105が表示されている。ユーザは、地図表示ウィジェット101により仮想オブジェクトの現在地及び周囲環境を見ることができ、方向ウィジェット102により仮想乗り物が前進、後退及び方向転換するように制御することができ、加速ウィジェット103により仮想乗り物が加速するように制御することができ、ブレーキウィジェット104により仮想乗り物が迅速に停止するように制御することができ、仮想乗り物燃料インジケータ105により仮想乗り物の残りの燃料量を知ることができる。 FIG. 1 is a schematic diagram illustrating an interface of a process for controlling the travel of a virtual vehicle in the related art. As shown in FIG. 1, when a user controls a virtual object and drives a virtual vehicle (the virtual vehicle in FIG. 1 is a virtual car), a driving screen is displayed on the user interface 100, and the user Displayed on the interface 100 are a map display widget 101, a driving widget (including a direction widget 102, an acceleration widget 103, and a brake widget 104), and a vehicle fuel indicator 105. The map display widget 101 allows the user to view the current location and surrounding environment of the virtual object, the direction widget 102 allows the user to control the virtual vehicle to move forward, backward, and turn around, and the acceleration widget 103 allows the user to control the virtual vehicle to move forward, backward, and turn. The virtual vehicle can be controlled to accelerate, the brake widget 104 can be controlled to quickly stop the virtual vehicle, and the virtual vehicle fuel indicator 105 can tell the amount of fuel remaining in the virtual vehicle.

上記の方法で仮想乗り物の走行を手動で制御する際に、ユーザは、仮想乗り物の現在の環境に応じて異なる運転ウィジェットを操作し、走行ルートを手動で選択する必要があるため、初心者のユーザにとって操作の困難さが高く、ユーザが正しく操作しなかったり、間違ったルートを選択したりすると、目的地までの移動に大量の時間が掛かってしまう。 When manually controlling the virtual vehicle's driving in the above method, the user needs to operate different driving widgets and manually select the driving route according to the virtual vehicle's current environment, so novice users It is very difficult for users to operate, and if the user does not operate it correctly or chooses the wrong route, it will take a large amount of time to travel to the destination.

本発明の実施例は、仮想環境における乗り物の運転方法を提供する。図2は、本発明の例示的な実施例に係る仮想環境における乗り物の運転プロセスのインターフェースを示す概略図である。 Embodiments of the present invention provide a method of driving a vehicle in a virtual environment. FIG. 2 is a schematic diagram illustrating an interface for a process of driving a vehicle in a virtual environment according to an exemplary embodiment of the invention.

1つの好ましい態様では、ユーザが運転ウィジェット(図1に示される運転ウィジェットを含む)により仮想乗り物が仮想環境内を走行するように制御する際に、仮想乗り物が自動運転領域にある場合、端末は、ユーザインターフェース100に自動運転提示情報106を表示し、仮想乗り物を自動運転モードに切り替えることができることをユーザに提示する。また、地図表示ウィジェット101に対するトリガ操作を受け付けると、ユーザインターフェース100に拡大された地図表示ウィジェット101を表示し、地図表示ウィジェット101でユーザによりマーキングされた目的地107を受信する。目的地のマーキングが完了すると、端末は、仮想乗り物を自動運転モードに切り替え、自動運転モードでは、ユーザが手動で運転ウィジェットをタッチする必要がなく、仮想乗り物が目的地まで自動的に走行するように制御する。また、自動運転モードに切り替えた後、ユーザインターフェース100は、運転モード切り替えウィジェット108をさらに表示し、ユーザは、運転モード切り替えウィジェット108をクリックすることで仮想乗り物を再び手動運転モードに切り替え、運転ウィジェットにより仮想乗り物の走行を手動で制御してもよい。 In one preferred aspect, when the user controls the virtual vehicle to travel within the virtual environment using a driving widget (including the driving widget shown in FIG. 1), if the virtual vehicle is in an autonomous driving area, the terminal , displays automatic driving presentation information 106 on the user interface 100 to present to the user that the virtual vehicle can be switched to automatic driving mode. Further, when a trigger operation for the map display widget 101 is received, the enlarged map display widget 101 is displayed on the user interface 100, and the destination 107 marked by the user on the map display widget 101 is received. Once the destination has been marked, the device switches the virtual vehicle to autonomous driving mode, where the virtual vehicle automatically drives to the destination without the user having to manually touch the driving widget. to control. Further, after switching to the automatic driving mode, the user interface 100 further displays a driving mode switching widget 108, and the user can switch the virtual vehicle to the manual driving mode again by clicking the driving mode switching widget 108, and click the driving mode switching widget 108. The movement of the virtual vehicle may be manually controlled.

関連技術では、ユーザは、仮想乗り物を制御するために運転ウィジェットを手動で操作する必要があり、運転中に運転ルートを自ら選択する必要がある。これに対し、本発明の実施例に係る方法では、ユーザは、仮想乗り物が自動運転領域に移動するように制御し、地図表示ウィジェットにより自動運転の目的地を設定することで、ユーザが手動で操作する必要がなく、端末が運転ルートを自動的に決定して仮想乗り物の走行を制御することができるため、仮想乗り物の制御プロセスを簡素化し、仮想乗り物の操作の困難さを軽減し、仮想乗り物が目的地に到達するまでの時間を短縮することができる。 In related technologies, users are required to manually operate a driving widget to control a virtual vehicle and to select a driving route themselves while driving. In contrast, in the method according to the embodiment of the present invention, the user controls the virtual vehicle to move to the autonomous driving area, and sets the destination for autonomous driving using the map display widget. There is no need to operate the device, and the terminal can automatically determine the driving route and control the running of the virtual vehicle, which simplifies the virtual vehicle control process, reduces the difficulty of operating the virtual vehicle, and The time it takes for a vehicle to reach its destination can be shortened.

図3は、本発明の1つの例示的な実施例に係る実施環境を示す概略図である。該実施環境は、第1の端末120、サーバ140及び第2の端末160を含む。 FIG. 3 is a schematic diagram illustrating an implementation environment according to one exemplary embodiment of the invention. The implementation environment includes a first terminal 120, a server 140, and a second terminal 160.

第1の端末120は、仮想環境をサポートするアプリケーションプログラムをインストールして実行する。該アプリケーションプログラムは、仮想現実アプリケーションプログラム、3次元地図プログラム、軍事シミュレーションプログラム、FPSゲーム、MOBAゲーム、マルチプレーヤガンバトルサバイバルゲームの何れかであってもよい。第1の端末120は、第1のユーザにより使用される端末であり、第1のユーザは、第1の端末120を使用して、仮想環境における仮想オブジェクトが動作を行うように制御する。該動作は、体の姿勢の調整、這い、歩き、走り、乗り、跳び、運転、射撃、投げ、仮想アイテムの切り替え、仮想アイテムを使用して他の仮想オブジェクトなどにダメージを与える動作のうちの何れかの使用を含むが、これらに限定されない。例えば、仮想オブジェクトは、例えばシミュレートされたキャラクタオブジェクト又はアニメーションのキャラクタオブジェクトなどの第1の仮想キャラクタである。 The first terminal 120 installs and executes an application program that supports a virtual environment. The application program may be a virtual reality application program, a three-dimensional map program, a military simulation program, an FPS game, a MOBA game, or a multiplayer gun battle survival game. The first terminal 120 is a terminal used by a first user, and the first user uses the first terminal 120 to control virtual objects in the virtual environment to perform operations. These actions include adjusting body posture, crawling, walking, running, riding, jumping, driving, shooting, throwing, switching virtual items, and using virtual items to damage other virtual objects. including but not limited to any use. For example, the virtual object is a first virtual character, such as a simulated character object or an animated character object.

第1の端末120は、無線ネットワーク又は有線ネットワークを介してサーバ140に接続されている。 The first terminal 120 is connected to the server 140 via a wireless network or a wired network.

サーバ140は、1つのサーバ、複数のサーバ、クラウドコンピューティングプラットフォーム、及び仮想化センターのうちの少なくとも1つを含む。例えば、サーバ140は、プロセッサ144及びメモリ142を含み、メモリ142は、表示モジュール1421、受け付けモジュール1422、及び制御モジュール1423をさらに含む。サーバ140は、3次元仮想環境をサポートするアプリケーションプログラムにバックグラウンドのサービスを提供するために使用される。好ましくは、サーバ140は、一次的なコンピューティング作業を行い、第1の端末120及び第2の端末160は、二次的なコンピューティング作業を行い、或いは、サーバ140は、二次的なコンピューティング作業を行い、第1の端末120及び第2の端末160は、一次的なコンピューティング作業を行い、或いは、サーバ140、第1の端末120及び第2の端末160は、協調コンピューティングを行うために分散型のコンピューティングアーキテクチャを採用する。 Server 140 includes at least one of a server, multiple servers, a cloud computing platform, and a virtualization center. For example, the server 140 includes a processor 144 and a memory 142, and the memory 142 further includes a display module 1421, a reception module 1422, and a control module 1423. Server 140 is used to provide background services to application programs that support three-dimensional virtual environments. Preferably, server 140 performs primary computing tasks, first terminal 120 and second terminal 160 perform secondary computing tasks, or server 140 performs secondary computing tasks. The first terminal 120 and the second terminal 160 perform a primary computing operation, or the server 140, the first terminal 120 and the second terminal 160 perform collaborative computing. Adopt a distributed computing architecture to

第2の端末160は、仮想環境をサポートするアプリケーションプログラムをインストールして実行する。該アプリケーションプログラムは、仮想現実アプリケーションプログラム、3次元地図プログラム、軍事シミュレーションプログラム、FPSゲーム、MOBAゲーム、マルチプレーヤガンバトルサバイバルゲームの何れかであってもよい。第2の端末160は、第2のユーザにより使用される端末であり、第2のユーザは、第2の端末160を使用して、仮想環境における仮想オブジェクトが動作を行うように制御する。該動作は、体の姿勢の調整、這い、歩き、走り、乗り、跳び、運転、射撃、投げ、仮想アイテムの切り替え、仮想アイテムを使用して他の仮想オブジェクトなどにダメージを与える動作のうちの何れかの使用を含むが、これらに限定されない。例えば、仮想オブジェクトは、例えばシミュレートされたキャラクタオブジェクト又はアニメーションのキャラクタオブジェクトなどの第2の仮想キャラクタである。 The second terminal 160 installs and executes an application program that supports the virtual environment. The application program may be a virtual reality application program, a three-dimensional map program, a military simulation program, an FPS game, a MOBA game, or a multiplayer gun battle survival game. The second terminal 160 is a terminal used by a second user, and the second user uses the second terminal 160 to control virtual objects in the virtual environment to perform operations. These actions include adjusting body posture, crawling, walking, running, riding, jumping, driving, shooting, throwing, switching virtual items, and using virtual items to damage other virtual objects. including but not limited to any use. For example, the virtual object is a second virtual character, such as a simulated character object or an animated character object.

好ましくは、第1の仮想オブジェクトと第2の仮想オブジェクトとは、同一の仮想環境にある。好ましくは、第1の仮想オブジェクトと第2の仮想オブジェクトとは、同一のチーム、同一の組織に属してもよく、友人関係を持ってもよく、或いは一時的な通信権限を持ってもよい。 Preferably, the first virtual object and the second virtual object are in the same virtual environment. Preferably, the first virtual object and the second virtual object may belong to the same team or the same organization, may have a friendship relationship, or may have temporary communication authority.

好ましくは、第1の端末120及び第2の端末160にインストールされたアプリケーションプログラムは同一であり、或いは、2つの端末にインストールされたアプリケーションプログラムは、異なる制御システムプラットフォームの同一のタイプのアプリケーションプログラムである。第1の端末120は、一般に、複数の端末のうちの1つを意味してもよく、第2の端末160は、一般に、複数の端末のうちの1つを意味してもよく、本実施例では、単に第1の端末120及び第2の端末160を一例にして説明する。第1の端末120及び第2の端末160のデバイスタイプは、同一であってもよいし、異なってもよい。該デバイスタイプは、スマートフォン、タブレットコンピュータ、電子書籍リーダ、デジタルプレーヤ、ラップトップコンピュータ及びデスクトップコンピュータのうちの少なくとも1つを含む。以下の実施例では、端末にスマートフォンが含まれることを一例にして説明する。 Preferably, the application programs installed on the first terminal 120 and the second terminal 160 are the same, or the application programs installed on the two terminals are the same type of application program of different control system platforms. be. The first terminal 120 may generally refer to one of a plurality of terminals, and the second terminal 160 may generally refer to one of a plurality of terminals, and the present embodiment In the example, the first terminal 120 and the second terminal 160 will be explained as an example. The device types of first terminal 120 and second terminal 160 may be the same or different. The device type includes at least one of a smartphone, a tablet computer, an e-book reader, a digital player, a laptop computer, and a desktop computer. In the following embodiments, a case where a smartphone is included in the terminal will be explained as an example.

当業者が分かるように、上記の端末の数は、その数よりも多くてもよいし、少なくてもよい。例えば、上記の端末の数は、1つのみであってもよいし、数十又は数百であってもよいし、それ以上の数であってもよい。本発明の実施例は、端末の数及びデバイスタイプに限定されない。 As those skilled in the art will appreciate, the number of terminals described above may be greater or less than that number. For example, the number of terminals described above may be only one, tens or hundreds, or more. Embodiments of the invention are not limited to the number of terminals and device types.

図4は、本発明の1つの例示的な実施例に係る仮想環境における乗り物の運転方法を示すフローチャートである。本実施例では、該方法が図3に示す実施環境の第1の端末120、第2の端末160、又は該実施環境における他の端末に適用されることを一例にして説明する。該方法は、以下のステップを含む。 FIG. 4 is a flowchart illustrating a method of operating a vehicle in a virtual environment according to one exemplary embodiment of the invention. In this embodiment, the method will be explained by taking as an example the case where the method is applied to the first terminal 120, the second terminal 160, or another terminal in the implementation environment shown in FIG. 3. The method includes the following steps.

ステップ401:走行画面及び地図表示ウィジェットを表示する。走行画面は、仮想オブジェクトが仮想乗り物を運転して仮想環境内を走行する画面であり、仮想乗り物は、手動運転モードにある。 Step 401: Display the driving screen and map display widget. The driving screen is a screen in which a virtual object drives a virtual vehicle in a virtual environment, and the virtual vehicle is in a manual driving mode.

1つの好ましい態様では、走行画面及び地図表示ウィジェットはユーザインターフェースに表示され、地図表示ウィジェットは走行画面の上層に重ね合わされて表示される。 In one preferred embodiment, the driving screen and the map display widget are displayed on the user interface, and the map display widget is displayed superimposed on the driving screen.

ここで、該ユーザインターフェースは、仮想環境をサポートするアプリケーションプログラムのインターフェースであり、該ユーザインターフェースは、仮想環境画面、及び様々な機能に対応するウィジェットを含む。本発明の実施例では、該仮想環境画面は、走行画面である。 Here, the user interface is an interface of an application program that supports a virtual environment, and the user interface includes a virtual environment screen and widgets corresponding to various functions. In an embodiment of the invention, the virtual environment screen is a driving screen.

好ましくは、仮想環境画面は、仮想オブジェクトの視点で仮想環境を観察する画面である。視点(視角)とは、仮想環境において仮想オブジェクトの一人称視点又は三人称視点で観察を行う際の視点を意味する。好ましくは、本発明の実施例では、視点は、仮想環境においてカメラモデルにより仮想オブジェクトを観察する際の視点である。 Preferably, the virtual environment screen is a screen for observing the virtual environment from the viewpoint of a virtual object. A viewpoint (viewing angle) means a viewpoint when observing a virtual object from a first-person viewpoint or a third-person viewpoint in a virtual environment. Preferably, in an embodiment of the invention, the viewpoint is a viewpoint from which a virtual object is observed by a camera model in a virtual environment.

好ましくは、カメラモデルは、仮想環境において仮想オブジェクトに自動的に追従し、即ち、仮想環境における仮想オブジェクトの位置が変化すると、カメラモデルが仮想環境において仮想オブジェクトの位置に追従して同時に変化し、該カメラモデルが常に仮想環境において仮想オブジェクトの所定の距離範囲内にある。好ましくは、自動的な追従プロセスでは、カメラモデルと仮想オブジェクトとの相対位置は変化しない。 Preferably, the camera model automatically follows the virtual object in the virtual environment, i.e. when the position of the virtual object in the virtual environment changes, the camera model changes simultaneously to follow the position of the virtual object in the virtual environment; The camera model is always within a predetermined distance of a virtual object in the virtual environment. Preferably, the automatic tracking process does not change the relative position of the camera model and the virtual object.

カメラモデルとは、仮想環境における仮想オブジェクトの周囲の3次元モデルを意味する。一人称視点を採用する場合、該カメラモデルは、仮想オブジェクトの頭の近傍又は仮想オブジェクトの頭に位置する。三人称視点を採用する場合、該カメラモデルは、仮想オブジェクトの後方に位置し、且つ仮想オブジェクトに対して固定されてもよいし、仮想オブジェクトから所定の距離を離れて任意の位置に位置してもよい。該カメラモデルを使用して、様々な角度から仮想環境内に位置する仮想オブジェクトを観察してもよい。好ましくは、該三人称視点は、一人称視点の肩越し視点である場合、カメラモデルは、仮想オブジェクト(例えば仮想オブジェクトの頭及び肩)の後方に位置する。好ましくは、一人称視点及び三人称視点に加えて、視点は、トップビューの視点などの他の視点をさらに含む。トップビューの視点を採用する場合、該カメラモデルを仮想オブジェクトの頭上の空中に位置してもよい。トップビューの視点は、空中から平面視するように仮想環境を観察する視点である。好ましくは、該カメラモデルは、実際には仮想環境に表示されなく、即ち、ユーザインターフェースに表示される仮想環境には該カメラモデルが表示されない。 A camera model means a three-dimensional model of the surroundings of a virtual object in a virtual environment. When adopting a first-person perspective, the camera model is located near or at the head of the virtual object. When adopting a third-person perspective, the camera model may be located behind the virtual object and fixed relative to the virtual object, or may be located at an arbitrary position a predetermined distance away from the virtual object. good. The camera model may be used to view virtual objects located within the virtual environment from various angles. Preferably, when the third-person perspective is an over-the-shoulder perspective of the first-person perspective, the camera model is located behind the virtual object (eg, the head and shoulders of the virtual object). Preferably, in addition to the first-person and third-person perspectives, the perspectives further include other perspectives, such as a top-view perspective. When adopting a top-view perspective, the camera model may be positioned in the air above the virtual object. The top view viewpoint is a viewpoint from which the virtual environment is observed as if viewed from above. Preferably, the camera model is not actually displayed in the virtual environment, ie the camera model is not displayed in the virtual environment displayed on the user interface.

カメラモデルが仮想オブジェクトから所定の距離を離れて任意の位置に位置することを一例にして説明する。好ましくは、1つの仮想オブジェクトは1つのカメラモデルに対応し、該カメラモデルは、仮想オブジェクトを回転の中心として回転してもよい。例えば、仮想オブジェクトの任意の1つの点を回転の中心としてカメラモデルを回転させ、カメラモデルの回転中、角度で回転することだけでなく、変位でもシフトする。回転の際に、カメラモデルと該回転の中心との間の距離をそのまま維持し、即ち、カメラモデルは、回転の中心を球の中心として球の表面で回転する。ここで、仮想オブジェクトの任意の1つの点は、仮想オブジェクトの頭、胴体、又は仮想オブジェクトの周囲の任意の1つの点であってもよいが、本発明の実施例はこれらに限定されない。好ましくは、カメラモデルが仮想オブジェクトを観察する際に、該カメラモデルの視点(視角)の中心の向きは、該カメラモデルが位置する球面上の点が球の中心を向く方向である。 An example will be explained in which the camera model is located at an arbitrary position at a predetermined distance from the virtual object. Preferably, one virtual object corresponds to one camera model, and the camera model may rotate around the virtual object as a center of rotation. For example, a camera model is rotated about any one point of the virtual object as the center of rotation, and during the rotation of the camera model, it is not only rotated by angle but also shifted by displacement. During rotation, the distance between the camera model and the center of rotation remains unchanged, ie, the camera model rotates on the surface of the sphere with the center of rotation as the center of the sphere. Here, any one point on the virtual object may be the head, body, or any one point around the virtual object, but the embodiments of the present invention are not limited thereto. Preferably, when the camera model observes the virtual object, the direction of the center of the viewpoint (viewing angle) of the camera model is such that the point on the spherical surface where the camera model is located faces the center of the sphere.

例えば、図2に示すように、該走行画面は、第三者の視点から仮想環境で観察を行う際の画面である。なお、他の可能な態様では、走行画面は、一人称の観点から仮想環境で観察を行う際の画面であってもよいが、本実施例はこれらに限定されない。 For example, as shown in FIG. 2, the running screen is a screen used when observing a virtual environment from a third person's perspective. Note that in another possible embodiment, the running screen may be a screen for observing in a virtual environment from a first-person perspective, but the present embodiment is not limited thereto.

好ましくは、走行画面には、山、平地、川、湖、海、砂漠、天空、植物、建物のうちの少なくとも1つの要素を含む仮想環境における他の要素がさらに表示されている。 Preferably, other elements in the virtual environment including at least one element of mountains, plains, rivers, lakes, oceans, deserts, sky, plants, and buildings are also displayed on the running screen.

地図表示ウィジェットは、仮想環境内の領域の全部又は一部の地図状況を表示するために使用されるウィジェットである。好ましくは、地図表示ウィジェットに表示される地図画面は、仮想環境を上から下への角度から観察した際の画面である。 The map display widget is a widget used to display the map situation of all or part of the area within the virtual environment. Preferably, the map screen displayed on the map display widget is a screen when the virtual environment is observed from an angle from top to bottom.

地図表示ウィジェットには、仮想環境の表示に加えて、現在の仮想オブジェクトのオブジェクト識別子がさらに表示されている。好ましくは、該オブジェクト識別子は、地図表示ウィジェットにより表示される地図の中央に表示され、仮想環境内の仮想オブジェクトの位置が変わると、それに応じて地図表示ウィジェットにより表示される地図も変わる。 In addition to displaying the virtual environment, the map display widget further displays the object identifier of the current virtual object. Preferably, the object identifier is displayed in the center of the map displayed by the map display widget, and as the position of the virtual object within the virtual environment changes, the map displayed by the map display widget changes accordingly.

好ましくは、ユーザインターフェースは、走行画面及び地図表示ウィジェットを表示することに加えて、手動運転モードで仮想乗り物を制御するための運転ウィジェットをさらに表示する。ここで、異なる仮想乗り物に対応する運転ウィジェットのタイプ及び数は異なる場合がある。例えば、仮想オブジェクトが仮想自動車を運転する場合、ユーザインターフェースに表示される運転ウィジェットは、方向ウィジェット、加速ウィジェット及びブレーキウィジェットを含んでもよい。仮想オブジェクトが仮想オートバイを運転する場合、ユーザインターフェースに表示される運転ウィジェットは、方向ウィジェット、加速ウィジェット、ブレーキウィジェット、ヘッド上げウィジェット及びヘッド下げウィジェットを含んでもよい。本発明の実施例は、ユーザインターフェースにおける運転ウィジェットのタイプ及び分布位置に限定されない。 Preferably, the user interface, in addition to displaying the driving screen and map display widget, further displays a driving widget for controlling the virtual vehicle in manual driving mode. Here, the type and number of driving widgets corresponding to different virtual vehicles may be different. For example, if the virtual object drives a virtual car, the driving widgets displayed on the user interface may include a direction widget, an acceleration widget, and a brake widget. If the virtual object drives a virtual motorcycle, the driving widgets displayed on the user interface may include a direction widget, an acceleration widget, a brake widget, a head up widget, and a head down widget. Embodiments of the present invention are not limited to the type and distribution location of driving widgets in a user interface.

例えば、図2に示すように、ユーザインターフェース100は、方向ウィジェット102、加速ウィジェット103及びブレーキウィジェット104を含む。 For example, as shown in FIG. 2, user interface 100 includes a direction widget 102, an acceleration widget 103, and a brake widget 104.

ステップ402:仮想乗り物が仮想環境内の自動運転領域に位置する場合、地図表示ウィジェットに対するマーキング操作を受け付ける。マーキング操作は、地図表示ウィジェットにおいて地点をマーキングする操作である。 Step 402: If the virtual vehicle is located in the autonomous driving area within the virtual environment, a marking operation on the map display widget is accepted. The marking operation is an operation of marking a point on the map display widget.

本発明の実施例では、仮想乗り物は、仮想環境内の全ての領域で自動的に走行することができることではなく、自動運転領域でのみ自動的に走行することができる。1つの可能な態様では、仮想環境に自動運転領域が事前設定されており、仮想乗り物が自動運転領域にある場合、ユーザは、地図表示ウィジェットにより自動運転の目的地を設定することができる。 In embodiments of the invention, the virtual vehicle is not able to automatically drive in all areas within the virtual environment, but only in autonomous driving areas. In one possible aspect, if the virtual environment is pre-populated with a self-driving region and the virtual vehicle is in the self-driving region, the map display widget allows the user to set the self-driving destination.

好ましくは、自動運転領域は、仮想環境内の所定道路を含む。即ち、ユーザは、自動運転の目的地を設定する前に、仮想乗り物が所定道路まで走行するように手動で制御する必要がある。なお、所定道路外に位置する、仮想環境内の環境が単純な他の領域(即ち、環境要素が少ない領域)も自動運転領域として設定されてもよく、本実施例は、自動運転領域の具体的なタイプに限定されない。 Preferably, the automatic driving area includes a predetermined road within the virtual environment. That is, before setting the destination for automatic driving, the user needs to manually control the virtual vehicle to travel to a predetermined road. Note that other areas in the virtual environment that are located outside of the predetermined road and have a simple environment (i.e., areas with few environmental elements) may also be set as automatic driving areas. Not limited to specific types.

好ましくは、端末は、仮想乗り物が自動運転領域に位置するか否かをリアルタイムで検出し、仮想乗り物が自動運転領域に位置すると検出した場合、ユーザインターフェースに提示情報を表示し、地図表示ウィジェットにより自動運転の目的地を設定して自動運転モードに入ることができることをユーザに提示する。 Preferably, the terminal detects in real time whether the virtual vehicle is located in the autonomous driving area, and if the terminal detects that the virtual vehicle is located in the autonomous driving area, displays presentation information on the user interface, and displays the presentation information by the map display widget. Present the user with the ability to set a destination for automatic driving and enter automatic driving mode.

1つの可能な態様では、地図表示ウィジェットに対する確認操作を受け付けると、端末は、拡大された地図を表示し、さらに地図表示ウィジェットに対するマーキング操作を受け付ける。ここで、該マーキング操作は、地図上の特定の領域に対するクリック操作であってもよく、それに応じて、クリック操作に対応するクリック位置は、マーキングされた地点の位置である。 In one possible embodiment, upon receiving a confirmation operation for the map display widget, the terminal displays an enlarged map and further accepts a marking operation for the map display widget. Here, the marking operation may be a click operation on a specific area on the map, and accordingly, the click position corresponding to the click operation is the position of the marked point.

なお、仮想乗り物が自動運転領域外に位置する場合、又は仮想オブジェクトが乗り物を運転していない場合であっても、ユーザは、地図表示ウィジェットに対してマーキング操作を行ってもよい。なお、該マーキング操作で示される地点は、仮想乗り物が自動的に走行するように制御するためものではなく、マーク地点と仮想オブジェクトの現在地との相対的な方位を示すための位置マーキング機能のみを有する。 Note that even if the virtual vehicle is located outside the automatic driving area or the virtual object is not driving the vehicle, the user may perform a marking operation on the map display widget. Note that the point indicated by the marking operation is not used to control the automatic movement of the virtual vehicle, but only uses a position marking function to indicate the relative direction between the marked point and the current location of the virtual object. have

なお、端末により制御される仮想オブジェクトが仮想乗り物の運転者である場合のみ、ユーザは、マーキング操作を行うことができるが、仮想オブジェクトが仮想乗り物の乗客である場合、ユーザは、マーキング操作を行うことができない(即ち、自動運転を設定する権限を有しない)。 Note that the user can perform a marking operation only when the virtual object controlled by the terminal is a driver of a virtual vehicle, but when the virtual object is a passenger of a virtual vehicle, the user can perform a marking operation. (i.e., does not have the authority to configure automatic driving).

ステップ403:マーキング操作に応じて、仮想乗り物を自動運転モードに切り替え、仮想乗り物が目的地に自動的に走行するように制御する。 Step 403: Switch the virtual vehicle to automatic driving mode in response to the marking operation, and control the virtual vehicle to automatically travel to the destination.

また、端末は、マーキング操作に従って仮想乗り物を自動運転モードに切り替え、自動運転の目的地を決定することで、仮想乗り物が目的地まで自動的に走行するように制御する。ここで、現在地点から目的地までの仮想乗り物の走行経路は、端末により自動的に計画される。 The terminal also controls the virtual vehicle to automatically travel to the destination by switching the virtual vehicle to automatic driving mode according to the marking operation and determining the destination for automatic driving. Here, the travel route of the virtual vehicle from the current location to the destination is automatically planned by the terminal.

1つの可能な態様では、仮想環境内の全ての仮想乗り物は、自動運転モードをサポートする。 In one possible aspect, all virtual vehicles within the virtual environment support autonomous driving mode.

他の可能な態様では、仮想環境内の所定の仮想乗り物は、自動運転モードをサポートする。それに応じて、仮想乗り物が所定の仮想乗り物である場合、端末は、マーキング操作に応じて、仮想乗り物を自動運転モードに切り替える。ここで、該所定の仮想乗り物は、仮想自動車、仮想戦車及び仮想船を含んでもよく、仮想自転車及び仮想オートバイを含まなくてもよい。 In other possible aspects, certain virtual vehicles within the virtual environment support autonomous driving modes. Accordingly, if the virtual vehicle is a predetermined virtual vehicle, the terminal switches the virtual vehicle to automatic driving mode in response to the marking operation. Here, the predetermined virtual vehicle may include a virtual car, a virtual tank, and a virtual ship, and may not include a virtual bicycle and a virtual motorcycle.

好ましくは、自動運転モードでは、端末は、モード提示情報を表示し、仮想乗り物が現在自動運転モードにあることをユーザに提示する。 Preferably, in the automatic driving mode, the terminal displays mode presentation information to present to the user that the virtual vehicle is currently in the automatic driving mode.

1つの可能な態様では、自動運転モードでは、ユーザは、仮想乗り物を手動で制御することはできなく、或いは、ユーザは、依然として運転ウィジェットにより仮想乗り物を手動で制御することができ、且つ仮想乗り物を手動で制御した後、仮想乗り物の自動運転モードを終了してもよい。 In one possible aspect, in autonomous driving mode, the user cannot manually control the virtual vehicle, or alternatively, the user can still manually control the virtual vehicle with the driving widget and the virtual vehicle After manually controlling the virtual vehicle, the automated driving mode may be terminated.

なお、自動運転モードで地図に対するマーキング操作を再度受け付けると、端末は、該マーキング操作に従って目的地を更新し、仮想乗り物が更新された目的地まで自動的に走行するように制御する。 Note that when the terminal receives a marking operation on the map again in the automatic driving mode, the terminal updates the destination according to the marking operation, and controls the virtual vehicle to automatically travel to the updated destination.

上述したように、本発明の実施例では、仮想乗り物が手動運転モードで仮想環境内の自動運転領域に走行した場合、地図表示ウィジェットに対するマーキング操作を受け付けたとき、該マーキング操作に応じて仮想乗り物を自動運転モードに切り替え、仮想乗り物が目的地に自動的に走行するように制御することで、ユーザが仮想乗り物を手動で制御する必要がなく、仮想乗り物の走行を制御するプロセスを簡素化し、ユーザが仮想乗り物の仮想環境内の走行を制御する操作上の困難さを軽減することができる。 As described above, in the embodiment of the present invention, when a virtual vehicle travels in a manual driving mode to an autonomous driving area in a virtual environment, when a marking operation for a map display widget is received, the virtual vehicle is moved in accordance with the marking operation. By switching the virtual vehicle to self-driving mode and controlling the virtual vehicle to automatically drive to the destination, the user does not need to manually control the virtual vehicle, simplifying the process of controlling the virtual vehicle's driving, It is possible to reduce the operational difficulty for a user in controlling the travel of a virtual vehicle in a virtual environment.

また、関連技術では、仮想乗り物を手動で制御する際に、ユーザは頻繁に制御操作を行う必要があり、それに応じて、端末は制御操作を高い頻度で検出し、制御操作に応答する(例えば、タッチスクリーンで受け付けたタッチ操作を検出して応答する)必要があるため、自動運転プロセス中に端末により処理されるデータ量が大きくなり、端末の消費電力が増加してしまう。これに対して、本発明の実施例に係る技術によれば、端末は、マークに基づいて目的地まで自動的に運転することができ、自動運転プロセス中にユーザが制御操作を行う必要がなく、仮想乗り物の走行中に端末により実行される制御操作の検出及び応答の頻度を減少させることができるため、端末のデータ処理量を低減させ、端末の消費電力を削減することができる。 In addition, in related technology, when manually controlling a virtual vehicle, the user needs to perform control operations frequently, and accordingly, the terminal detects the control operations frequently and responds to the control operations (e.g. , detecting and responding to touch operations received on the touch screen), this increases the amount of data processed by the terminal during the autonomous driving process and increases the power consumption of the terminal. In contrast, according to the technology according to the embodiment of the present invention, the terminal can automatically drive to the destination based on the mark, and there is no need for the user to perform control operations during the automatic driving process. Since the frequency of detection and response to control operations performed by the terminal while the virtual vehicle is running can be reduced, the amount of data processing by the terminal can be reduced, and the power consumption of the terminal can be reduced.

さらに、端末は、サーバを介して目的地を他の端末に送信し、他の端末は、サーバを介してリアルタイムの制御データ及び位置データを他の端末に転送する必要がなく、該目的地に基づいて自動運転中の仮想乗り物を復元することで、サーバのデータ転送量を低減させ、サーバのデータ転送負荷を軽減することができる。 Furthermore, the terminal can send the destination to other terminals via the server, and the other terminals can send the destination to the destination without the need to transfer real-time control data and location data to other terminals via the server. By restoring a virtual vehicle that is currently operating automatically based on the above information, it is possible to reduce the amount of data transferred by the server and reduce the data transfer load on the server.

現実の車両の自動運転機能(車両認識、車線認識などの複雑な画像認識技術が必要である)とは異なり、本発明の実施例では、仮想乗り物により実現される自動運転機能の困難さと計算量を低減させるために、仮想乗り物が自動運転領域(例えば所定道路)のみで自動運転を行うことができる。即ち、仮想乗り物の自動運転経路は、自動運転領域内に位置する。以下は、例示的な実施例を参照しながら、自動運転機能を実現するプロセスを説明する。 Unlike the self-driving function of real vehicles (which requires complex image recognition technology such as vehicle recognition and lane recognition), embodiments of the present invention reduce the difficulty and computational complexity of the self-driving function realized by virtual vehicles. In order to reduce this, the virtual vehicle can perform autonomous driving only in an autonomous driving area (eg, a predetermined road). That is, the automatic driving route of the virtual vehicle is located within the automatic driving area. The following describes a process for realizing autonomous driving functionality with reference to exemplary embodiments.

図5は、本発明のもう1つの例示的な実施例に係る仮想環境における乗り物の運転方法を示すフローチャートである。本実施例では、該方法が図3に示す実施環境の第1の端末120、第2の端末160、又は該実施環境における他の端末に適用されることを一例にして説明する。該方法は、以下のステップを含む。 FIG. 5 is a flowchart illustrating a method of driving a vehicle in a virtual environment according to another exemplary embodiment of the invention. In this embodiment, the method will be explained by taking as an example the case where the method is applied to the first terminal 120, the second terminal 160, or another terminal in the implementation environment shown in FIG. 3. The method includes the following steps.

ステップ501:走行画面及び地図表示ウィジェットを表示する。走行画面は、仮想オブジェクトが仮想乗り物を運転して仮想環境内を走行する画面であり、仮想乗り物は、手動運転モードにある。 Step 501: Display the driving screen and map display widget. The driving screen is a screen in which a virtual object drives a virtual vehicle in a virtual environment, and the virtual vehicle is in a manual driving mode.

ステップ501の態様は、上記のステップ401を参照してもよく、本実施例ではその説明を省略する。 The aspect of step 501 may refer to step 401 described above, and its explanation is omitted in this embodiment.

ステップ502:仮想乗り物が仮想環境内の自動運転領域に位置する場合、地図表示ウィジェットに対するマーキング操作を受け付ける。マーキング操作は、地図において地点をマーキングする操作である。 Step 502: If the virtual vehicle is located in the autonomous driving area within the virtual environment, a marking operation on the map display widget is accepted. The marking operation is an operation of marking a point on a map.

仮想乗り物が自動運転領域に位置するか否かを判断する方法に関して、1つの可能な態様では、仮想環境内の仮想オブジェクト(例えば仮想乗り物、仮想建物、仮想障害物、仮想木など)について衝突検出ボックスを設定することに加えて、本発明の実施例では、仮想環境内の自動運転領域について衝突検出ボックスをさらに設定する。該衝突検出ボックスは、仮想環境内の他の仮想オブジェクトが自動運転領域に入ることを検出するために使用される。 Regarding the method of determining whether a virtual vehicle is located in an autonomous driving region, one possible aspect includes collision detection for virtual objects (e.g., virtual vehicles, virtual buildings, virtual obstacles, virtual trees, etc.) within the virtual environment. In addition to setting up boxes, embodiments of the present invention further set up collision detection boxes for autonomous driving regions within the virtual environment. The collision detection box is used to detect that other virtual objects in the virtual environment enter the autonomous driving area.

例えば、図6に示すように、自動運転領域が仮想環境内の所定道路である場合、各所定道路は、それぞれの衝突検出ボックス61に対応する(図中の点線領域は、衝突検出ボックスの範囲である)。 For example, as shown in FIG. 6, when the automatic driving area is a predetermined road in the virtual environment, each predetermined road corresponds to a respective collision detection box 61 (the dotted line area in the figure is the range of the collision detection box). ).

好ましくは、第1の衝突検出ボックスと第2の衝突検出ボックスとが衝突している場合、端末は、仮想乗り物が前記自動運転領域に位置すると決定する。ここで、第1の衝突検出ボックスは、仮想乗り物に対応する衝突検出ボックスであり、第2の衝突検出ボックスは、自動運転領域に対応する衝突検出ボックスである。 Preferably, if the first collision detection box and the second collision detection box are in collision, the terminal determines that the virtual vehicle is located in the autonomous driving area. Here, the first collision detection box is a collision detection box corresponding to a virtual vehicle, and the second collision detection box is a collision detection box corresponding to an automatic driving area.

例えば、図7に示すように、仮想自動車に対応する第1の衝突検出ボックス71と仮想道路に対応する第2の衝突検出ボックス72とが衝突している場合、端末は、仮想自動車が自動運転領域に位置すると決定する。 For example, as shown in FIG. 7, if the first collision detection box 71 corresponding to the virtual car and the second collision detection box 72 corresponding to the virtual road collide, the terminal detects that the virtual car is driving automatically. Determine to be located in the area.

なお、仮想乗り物が自動運転領域に位置するか否かを決定する上記の方法に加えて、他の可能な態様では、端末は、仮想環境における仮想乗り物の位置の座標、及び自動運転領域に対応する領域座標範囲に基づいて、仮想乗り物が自動運転領域に位置するか否かを決定してもよいが(座標が領域座標範囲内に位置する場合、仮想乗り物が自動運転領域に位置すると決定する)、本実施例はこれに限定されない。 It should be noted that in addition to the above method of determining whether a virtual vehicle is located in an autonomous driving area, in another possible embodiment, the terminal determines the coordinates of the position of the virtual vehicle in the virtual environment and corresponding to the autonomous driving area. It may be determined whether the virtual vehicle is located in the autonomous driving area based on the area coordinate range (if the coordinates are located within the area coordinate range, it is determined that the virtual vehicle is located in the autonomous driving area). ), but the present embodiment is not limited thereto.

また、仮想乗り物が自動運転領域に位置する場合、端末は、地図表示ウィジェットに対するマーキング操作を受け付ける。ここで、マーキング操作を受け付けるプロセスは、上記のステップ402を参照してもよく、本実施例ではその説明を省略する。 Furthermore, when the virtual vehicle is located in the autonomous driving area, the terminal accepts a marking operation on the map display widget. Here, for the process of accepting the marking operation, the above step 402 may be referred to, and the explanation thereof will be omitted in this embodiment.

ステップ503:マーキング操作により示されるマーク地点に基づいて目的地を決定する。目的地は、自動運転領域に位置する。 Step 503: Determine the destination based on the marked point indicated by the marking operation. The destination is located in the autonomous driving area.

本実施例では、仮想乗り物は自動運転領域のみで自動運転を実現できるため、仮想乗り物がマーキング操作により示されるマーク地点に基づいて自動運転領域外の領域に走行し、仮想乗り物の走行異常(例えば仮想環境における障害物との衝突)が生じることを回避するために、1つの可能な態様では、端末は、マーキング操作により示されるマーク地点に基づいて、自動運転領域の範囲内の目的地を決定する。 In this example, since the virtual vehicle can realize automatic driving only in the automatic driving area, the virtual vehicle travels to an area outside the automatic driving area based on the mark point indicated by the marking operation, and the virtual vehicle runs abnormally (e.g. In order to avoid collisions with obstacles in the virtual environment, in one possible embodiment the terminal determines the destination within the autonomous driving area based on the marked points indicated by the marking operation. do.

好ましくは、マーキング操作により示されるマーク地点が自動運転領域に位置する場合、端末は、マーク地点を目的地として決定する。ここで、端末は、マーク地点の地点座標及び自動運転領域の領域座標範囲に基づいて、マーク地点が自動運転領域に位置するか否かを決定してもよいが、本実施例は具体的な決定方法に限定されない。 Preferably, when the marked point indicated by the marking operation is located in the automatic driving area, the terminal determines the marked point as the destination. Here, the terminal may determine whether the marked point is located in the automated driving area based on the point coordinates of the marked point and the area coordinate range of the automated driving area, but this embodiment The method of determination is not limited.

好ましくは、マーキング操作により示されるマーク地点が自動運転領域外に位置する場合、端末は、自動運転領域内のマーク地点に最も近い地点を目的地として決定する。 Preferably, when the mark point indicated by the marking operation is located outside the automatic driving area, the terminal determines the closest point to the mark point within the automatic driving area as the destination.

ユーザの学習コストを削減するために、マーク地点が自動運転領域外に位置する場合、端末は、その後に目的地に基づいて自動運転を行うように、自動運転領域内のマーク地点に最も近い地点を該目的地として自動的に決定する。 In order to reduce the user's learning cost, if the marked point is located outside the autonomous driving area, the terminal will select the closest point to the marked point within the autonomous driving area so that the terminal will subsequently perform automatic driving based on the destination. is automatically determined as the destination.

例えば、図8に示すように、自動運転領域が仮想環境内の所定道路である場合、ユーザにより地図においてマーキングされたマーク地点81が所定道路外に位置するとき、端末は、所定道路上のマーク地点81に最も近い地点を目的地82として決定する。 For example, as shown in FIG. 8, when the automatic driving area is a predetermined road in the virtual environment, when the mark point 81 marked on the map by the user is located outside the predetermined road, the terminal The point closest to point 81 is determined as destination 82.

マーク地点に基づいて目的地を自動的に決定することに加えて、他の可能な態様では、マーキング操作により示されるマーク地点が自動運転領域外に位置する場合、端末は、マーキング提示情報を表示してもよい。該マーキング提示情報は、マーキング操作により示されるマーク地点が自動運転領域内になるまで、自動運転領域内に目的地を設定するように提示するために使用される。 In addition to automatically determining the destination based on the marked point, in another possible embodiment, if the marked point indicated by the marking operation is located outside the autonomous driving area, the terminal displays marking presentation information. You may. The marking presentation information is used to present the destination to be set within the automatic driving area until the mark point indicated by the marking operation is within the automatic driving area.

ステップ504:仮想乗り物が所在する現在地点及び目的地に基づいて自動運転経路を決定する。自動運転経路は、自動運転領域に位置する。 Step 504: Determine an automated driving route based on the current location of the virtual vehicle and the destination. The automatic driving route is located in the automatic driving area.

また、端末は、仮想乗り物が所在する現在地点及び決定された目的地に基づいて、自動運転領域内の自動運転経路を決定する。 The terminal also determines an automated driving route within the automated driving area based on the current location where the virtual vehicle is located and the determined destination.

現在地点を始点とし、目的地を終点とする経路が複数ある可能性があり、例えば、自動運転領域が所定道路である場合、現在地点から目的地に走行する際に、異なる分岐道路を選択することができる。このため、仮想乗り物の走行時間を短縮するために、好ましくは、該自動運転経路は、現在地点から目的地までの最短経路である。 There may be multiple routes starting from the current location and ending at the destination. For example, if the automated driving area is a predetermined road, different branch roads may be selected when driving from the current location to the destination. be able to. Therefore, in order to shorten the travel time of the virtual vehicle, the automatic driving route is preferably the shortest route from the current location to the destination.

最短経路を決定する方法について、1つの可能な態様で、端末は、深さ優先探索(Depth First Search)アルゴリズムにより、経路分岐点をノードとして、少なくとも1つの候補経路を決定する(各ノードは1回だけ走査される)。これによって、各候補経路の長さに基づいて、最短の候補経路を自動運転経路として決定する。ここで、経路分岐点は、自動運転領域に事前設定されている分岐点である。なお、端末は、他のグラフアルゴリズムにより候補経路を決定してもよいが、本実施例はこれに限定されない。 Regarding the method of determining the shortest path, in one possible aspect, the terminal determines at least one candidate route using a route branch point as a node (each node has one scanned only once). Thereby, the shortest candidate route is determined as the automatic driving route based on the length of each candidate route. Here, the route branch point is a branch point preset in the automatic driving area. Note that the terminal may determine candidate routes using other graph algorithms, but the present embodiment is not limited to this.

他の可能な態様では、端末は、グラフアルゴリズムにより少なくとも1つの候補経路を決定した後、地図に各候補経路を表示し、ユーザの選択操作に従って自動運転経路を決定するが、本実施例はこれに限定されない。 In another possible embodiment, the terminal determines at least one candidate route using a graph algorithm, displays each candidate route on a map, and determines an autonomous driving route according to the user's selection operation; but not limited to.

例えば、図9に示すように、端末は、自動運転経路91を決定する。 For example, as shown in FIG. 9, the terminal determines an automatic driving route 91.

ステップ505:仮想乗り物を自動運転モードに切り替え、仮想乗り物が自動運転経路に従って目的地に走行するように制御する。 Step 505: Switch the virtual vehicle to automatic driving mode and control the virtual vehicle to travel to the destination according to the automatic driving route.

自動運転の困難さ及び演算量を低減させるために、1つの可能な態様では、自動運転領域にウェイポイントが事前設定されている。それに応じて、端末は、自動運転経路上のウェイポイントに基づいて、仮想乗り物が目的地に自動的に走行するように制御する。 In order to reduce the difficulty and computational complexity of automatic driving, in one possible embodiment waypoints are preset in the automatic driving area. In response, the terminal controls the virtual vehicle to automatically travel to the destination based on the waypoints on the automated driving route.

好ましくは、このステップは、以下のサブステップを含む。 Preferably, this step includes the following substeps.

ステップ1:自動運転経路における少なくとも2つのウェイポイントを決定する。ウェイポイントは、自動運転領域に事前設定されている。 Step 1: Determine at least two waypoints on the automated driving route. Waypoints are preset in the autonomous driving area.

例えば、図9に示すように、仮想環境内の所定道路(自動運転領域)には幾つかのウェイポイント92が設定されており、自動運転経路91上のウェイポイントは、K、G、D、E、Fを含む。 For example, as shown in FIG. 9, several waypoints 92 are set on a predetermined road (automatic driving area) in the virtual environment, and the waypoints on the automatic driving route 91 are K, G, D, Including E and F.

ステップ2:少なくとも2つのウェイポイントのウェイポイント順序に従って、仮想乗り物が目的地に走行するように制御する。 Step 2: controlling the virtual vehicle to travel to a destination according to the waypoint order of at least two waypoints.

ウェイポイント順序は、自動運転経路における現在地点から目的地までの経過したウェイポイントの順序を意味し、図9では、該ウェイポイント順序は、K→G→D→E→Fである。 The waypoint order means the order of waypoints passed from the current point to the destination on the automatic driving route, and in FIG. 9, the waypoint order is K→G→D→E→F.

1つの可能な態様では、自動運転経路にk個のウェイポイントが含まれる場合、端末がウェイポイント順序に従って仮想乗り物が目的地に走行するように制御するステップは、以下のステップを含む。 In one possible aspect, when the automated driving route includes k waypoints, controlling the terminal to drive the virtual vehicle to the destination according to the waypoint order includes the following steps.

ステップ1:仮想乗り物が第1の走行方向に従って現在地点から1番目のウェイポイントまで走行するように制御する。第1の走行方向は、現在地点が1番目のウェイポイントに向く方向である。 Step 1: Control the virtual vehicle to travel from the current location to a first waypoint according to a first traveling direction. The first traveling direction is the direction in which the current location faces the first waypoint.

好ましくは、仮想乗り物が所在する現在地点にウェイポイントが設定されていない場合、端末は、仮想乗り物が第1の走行方向に従って1番目のウェイポイントまで走行するように制御するために、現在の始点及び自動運転経路上の1番目のウェイポイントに基づいて第1の走行方向を決定する。 Preferably, if no waypoint is set at the current location where the virtual vehicle is located, the terminal may set the current starting point to control the virtual vehicle to travel according to the first traveling direction to the first waypoint. and determining a first driving direction based on the first waypoint on the automatic driving route.

例えば、図9に示すように、仮想乗り物が所在する現在地点にウェイポイントが設定されていないため、端末は、まず仮想乗り物がウェイポイントK(1番目のウェイポイント)まで走行するように制御する。 For example, as shown in FIG. 9, since no waypoint is set at the current location where the virtual vehicle is located, the terminal first controls the virtual vehicle to travel to waypoint K (the first waypoint). .

なお、仮想乗り物が所在する現在地点にウェイポイントが設定されている場合、端末は、ステップ2を直接実行する。 Note that if a waypoint is set at the current location where the virtual vehicle is located, the terminal directly executes step 2.

ステップ2:仮想乗り物が第2の走行方向に従ってn番目のウェイポイントからn+1番目のウェイポイントまで走行するように制御する。第2の走行方向は、n番目のウェイポイントがn+1番目のウェイポイントに向く方向であり、nは1以上k-1以下の整数である。 Step 2: Control the virtual vehicle to travel from the nth waypoint to the n+1th waypoint according to the second traveling direction. The second running direction is a direction in which the n-th waypoint faces the (n+1)th waypoint, where n is an integer from 1 to k-1.

1つの可能な態様では、自動運転領域内の隣接するウェイポイント間の経路が直線(又はほぼ直線)であり、且つ障害物を含まないため、仮想乗り物がn番目のウェイポイントに走行した場合、端末は、仮想乗り物が第2の走行方向に従ってn+1番目のウェイポイントまで走行するように制御するために、n番目のウェイポイント及びn+1番目のウェイポイントに基づいて第2の走行方向を決定する。このステップを繰り返すことにより、仮想乗り物は、k番目のウェイポイント(即ち、自動運転経路上の最後のウェイポイント)に走行する。 In one possible aspect, the path between adjacent waypoints in the autonomous driving region is straight (or nearly straight) and does not include obstacles, so that if the virtual vehicle travels to the nth waypoint, The terminal determines a second driving direction based on the nth waypoint and the n+1th waypoint to control the virtual vehicle to travel to the n+1th waypoint according to the second driving direction. By repeating this step, the virtual vehicle travels to the kth waypoint (ie, the last waypoint on the automated driving route).

例えば、図9に示すように、端末は、仮想乗り物がウェイポイントK、G、D、E、Fを順次通過するように制御する。 For example, as shown in FIG. 9, the terminal controls the virtual vehicle to sequentially pass through waypoints K, G, D, E, and F.

ステップ3:仮想乗り物が第3の走行方向に従ってk番目のウェイポイントから目的地まで走行するように制御する。第3の走行方向は、k番目のウェイポイントが目的地に向く方向である。 Step 3: Control the virtual vehicle to travel from the kth waypoint to the destination according to the third travel direction. The third travel direction is the direction in which the kth waypoint faces the destination.

好ましくは、目的地にウェイポイントが設定されていない場合、端末は、仮想乗り物が第3の走行方向に従って目的地まで走行するように制御するために、k番目のウェイポイント及び目的地に基づいて第3の走行方向を決定する。 Preferably, if the destination has no waypoint set, the terminal is configured to control the virtual vehicle based on the kth waypoint and the destination to control the virtual vehicle to travel to the destination according to the third travel direction. Determine a third running direction.

例えば、図9に示すように、目的地がウェイポイントFとIとの間に位置する(ウェイポイントが設定されていない)ため、端末は、ウェイポイントFが目的地に向く方向に従って、仮想乗り物が目的地まで自動的に走行するように制御する。 For example, as shown in FIG. 9, since the destination is located between waypoints F and I (no waypoint is set), the terminal selects the virtual vehicle according to the direction in which waypoint F faces toward the destination. control so that the vehicle automatically travels to the destination.

ステップ506:仮想乗り物が目的地に走行した場合、仮想乗り物を手動運転モードに切り替え、仮想乗り物が走行を停止するように制御する。 Step 506: When the virtual vehicle has traveled to the destination, switch the virtual vehicle to manual driving mode and control the virtual vehicle to stop traveling.

1つの可能な態様では、上記のステップにより仮想乗り物が目的地まで走行するように制御した後、端末は、仮想乗り物を手動運転モードに自動的に切り替え、仮想乗り物が目的地で停止するように制御する。 In one possible embodiment, after controlling the virtual vehicle to travel to the destination according to the above steps, the terminal automatically switches the virtual vehicle to manual driving mode and causes the virtual vehicle to stop at the destination. Control.

好ましくは、ユーザによりマーキングされたマーク地点と目的地と完全に一致しない可能性があるため、端末は、仮想乗り物を手動運転モードに切り替えた後、地図表示ウィジェットにマーク地点を自動的に表示してもよい。これによって、ユーザは、該マーク地点と目的地との相対的な位置関係に基づいて、仮想乗り物がマーク地点に走行するように手動で制御することができる。 Preferably, the terminal automatically displays the marked points in the map display widget after switching the virtual vehicle to manual driving mode, since the marked points marked by the user may not exactly match the destination. You can. This allows the user to manually control the virtual vehicle to travel to the marked point based on the relative positional relationship between the marked point and the destination.

好ましくは、マーク地点と目的地とが異なる場合、端末は、仮想乗り物が目的地の所在する方位に方向転換するように自動的に制御する。 Preferably, if the marked point and the destination are different, the terminal automatically controls the virtual vehicle to turn to the direction where the destination is located.

本実施例では、ユーザにより手動で設定されたマーク地点が自動運転領域外に位置する場合、端末は、自動運転領域内のマーク地点に最も近い目的地を決定し、該目的地と現在地点に基づいて自動運転経路を決定する。これによって、仮想乗り物が非自動運転領域に自動的に走行することによる運転異常を回避することができる。 In this embodiment, if the marked point manually set by the user is located outside the automated driving area, the terminal determines the closest destination to the marked point within the automated driving area, and connects the destination and the current location. The automated driving route is determined based on the This makes it possible to avoid abnormal driving caused by the virtual vehicle automatically traveling into a non-automatic driving area.

また、本実施例では、自動運転領域にウェイポイントを設定することによって、自動運転経路が決定された後、端末は、自動運転経路上のウェイポイントに基づいて仮想乗り物の走行方向を決定し、該走行方向に基づいて仮想乗り物の自動走行を制御することができる。即ち、端末は、自動運転を実現する際に少量のデータを処理して計算することで、自動運転を実現する際の難易度及び演算量を低減させることができる。 Furthermore, in this embodiment, after the automated driving route is determined by setting waypoints in the automated driving area, the terminal determines the traveling direction of the virtual vehicle based on the waypoints on the automated driving route, Automatic running of the virtual vehicle can be controlled based on the running direction. That is, by processing and calculating a small amount of data when realizing automatic driving, the terminal can reduce the difficulty level and amount of calculation when realizing automatic driving.

また、本実施例では、自動運転領域について衝突検出ボックスを設定することで、該衝突検出ボックスを用いて仮想乗り物が自動運転領域に位置するか否かを決定することができ、仮想乗り物が所在する位置の決定プロセスを簡素化することができる。 Furthermore, in this embodiment, by setting a collision detection box for the automatic driving area, it is possible to use the collision detection box to determine whether or not the virtual vehicle is located in the automatic driving area. This simplifies the process of determining the location.

1つの可能な態様では、手動運転モードでは、ユーザインターフェースに運転ウィジェットが表示されており、且つ運転ウィジェットがクリック可能状態にある。自動運転プロセスにおいてユーザが運転ウィジェットを誤ってタッチして自動運転モードを解除することを回避するために、自動運転モードでは、端末は、ユーザインターフェースにおける運転ウィジェットをクリック不可状態に設定し、或いは、運転ウィジェットを非表示する。 In one possible aspect, in manual driving mode, a driving widget is displayed on the user interface and the driving widget is clickable. In order to avoid the user accidentally touching the driving widget and canceling the automatic driving mode during the automatic driving process, in the automatic driving mode, the terminal sets the driving widget in the user interface to a non-clickable state, or Hide driving widget.

それに応じて、仮想乗り物が目的地に走行した場合、端末は、運転ウィジェットをクリック可能状態に設定し、或いは、運転ウィジェットの表示を復元する。これによって、ユーザは仮想乗り物の走行を手動で制御し続けることができる。 Accordingly, when the virtual vehicle travels to the destination, the terminal sets the driving widget to a clickable state or restores the display of the driving widget. This allows the user to continue to manually control the driving of the virtual vehicle.

好ましくは、手動運転モードでは、実際の運転シーンをシミュレートするために、仮想オブジェクトは仮想アイテムを使用できない。例えば、仮想オブジェクトは、仮想補充ボトルを使用できず、仮想攻撃アイテムを使用して仮想環境内の他の仮想オブジェクトを攻撃することができず、仮想投げアイテムを使用できない。それに応じて、端末は、アイテム使用ウィジェットを表示しない。 Preferably, in manual driving mode, the virtual object cannot use virtual items to simulate a real driving scene. For example, virtual objects cannot use virtual refill bottles, cannot use virtual attack items to attack other virtual objects in the virtual environment, and cannot use virtual throwing items. Accordingly, the terminal does not display the item usage widget.

一方、本発明の実施例では、自動運転モードでは、ユーザによる手動制御が必要がなく、仮想乗り物が仮想環境において自動的に走行することができるため、ユーザが乗り物の自動運転中に仮想アイテムを使用できるようにするために、端末は、アイテム使用ウィジェットを表示する。これによって、ユーザは、アイテム使用ウィジェットをトリガして仮想アイテムを使用することができる。 On the other hand, in the embodiment of the present invention, the virtual vehicle can automatically run in the virtual environment without requiring manual control by the user in the automatic driving mode, so that the user can select virtual items while the vehicle is automatically driving. To enable use, the terminal displays an item usage widget. This allows the user to trigger the item usage widget to use the virtual item.

好ましくは、該アイテム使用ウィジェットは、例えば仮想ライフルの射撃ウィジェットなどの仮想攻撃アイテムに対応する使用ウィジェット、例えば仮想包帯の使用ウィジェットなどの仮想補充アイテムに対応する使用ウィジェット、又は、例えば仮想手榴弾の投擲ウィジェットなどの仮想投擲アイテムに対応する使用ウィジェットである。本発明の実施例は、アイテム使用ウィジェットのタイプに限定されない。それに応じて、アイテム使用ウィジェットに対するトリガ操作を受け付けると、端末は、仮想オブジェクトが仮想アイテムを使用するように制御する。なお、仮想乗り物を手動運転モードに切り替えると、端末は、アイテム使用ウィジェットを非表示する。 Preferably, the item usage widget is a usage widget corresponding to a virtual attack item, such as e.g. a virtual rifle shooting widget, a usage widget corresponding to a virtual replenishment item, e.g. a virtual bandage usage widget, or a usage widget corresponding to a virtual replenishment item, e.g. a virtual grenade throwing widget. This is a widget used that corresponds to virtual throwing items such as widgets. Embodiments of the present invention are not limited to types of item usage widgets. Accordingly, upon receiving a trigger operation for the item use widget, the terminal controls the virtual object to use the virtual item. Note that when the virtual vehicle is switched to manual driving mode, the terminal hides the item usage widget.

例えば、図10に示すように、自動運転モードでは、端末は、ユーザインターフェース1000における運転ウィジェット1004を非表示し、ユーザインターフェース1000に照準ウィジェット1001及び撃ちウィジェット1002を表示する。 For example, as shown in FIG. 10, in the automatic driving mode, the terminal hides the driving widget 1004 on the user interface 1000 and displays the aiming widget 1001 and the shooting widget 1002 on the user interface 1000.

自動運転モードにおいてユーザインターフェースにおける運転ウィジェットをクリック不可状態に設定し、或いは、運転ウィジェットを非表示する場合、ユーザは、自動運転中に仮想乗り物を手動で制御することができなくなる。実際の状況では、仮想環境内の他の仮想オブジェクトにより攻撃された場合、ユーザは攻撃を回避するために運転ルートを変更する必要がある場合が多い。従って、1つの可能な態様では、自動運転モードでは、ユーザインターフェースに運転モード切り替えウィジェットが表示されており、運転モード切り替えウィジェットに対するトリガ操作を受け付けると、端末は、仮想乗り物を手動運転モードに切り替え、運転ウィジェットをクリック可能状態に設定し、或いは、運転ウィジェットの表示を復元する。 If the driving widget on the user interface is set to a non-clickable state in the automatic driving mode, or if the driving widget is hidden, the user will not be able to manually control the virtual vehicle during automatic driving. In real situations, when attacked by other virtual objects in the virtual environment, users often need to change their driving route to avoid the attack. Therefore, in one possible aspect, in the automatic driving mode, a driving mode switching widget is displayed on the user interface, and upon receiving a trigger operation for the driving mode switching widget, the terminal switches the virtual vehicle to the manual driving mode, Set the driving widget to a clickable state or restore the display of the driving widget.

例えば、図10に示すように、自動運転モードでは、ユーザインターフェース1000には運転モード切り替えウィジェット1003が表示されている。運転モード切り替えウィジェット1003に対するクリック操作を受け付けると、端末は、仮想乗り物の自動運転モードを解除するように制御し、ユーザインターフェース1000に運転ウィジェット1004を再度表示する(それと同時に、攻撃ウィジェットを非表示する)。 For example, as shown in FIG. 10, in the automatic driving mode, a driving mode switching widget 1003 is displayed on the user interface 1000. Upon receiving a click operation on the driving mode switching widget 1003, the terminal controls the virtual vehicle to cancel the automatic driving mode, and displays the driving widget 1004 again on the user interface 1000 (and at the same time hides the attack widget). ).

本実施例では、自動運転モードでは、端末は、運転ウィジェットをクリック不可状態に設定し、或いは、運転ウィジェットを非表示することで、ユーザが誤って運転ウィジェットをタッチして自動運転モードを終了することを回避することができる。また、端末は、ユーザインターフェースに運転モード切り替えウィジェットを表示することで、ユーザが該ウィジェットをトリガして自動運転モードを終了することができる。 In this embodiment, in the automatic driving mode, the terminal sets the driving widget to a non-clickable state or hides the driving widget, so that the user accidentally touches the driving widget and ends the automatic driving mode. This can be avoided. Furthermore, by displaying a driving mode switching widget on the user interface of the terminal, the user can trigger the widget to end the automatic driving mode.

上記の各実施例と組み合わせて、1つの例示的な例では、仮想乗り物の自動運転を制御するプロセスが図11に示されている。 In combination with the above embodiments, in one illustrative example, a process for controlling autonomous driving of a virtual vehicle is illustrated in FIG.

ステップ1101:仮想乗り物を手動で制御する。 Step 1101: Manually control the virtual vehicle.

ステップ1102:自動運転領域に入ったか否かを判断する。自動運転領域に入った場合は、ステップ1103に進み、自動運転領域に入っていない場合、ステップ1101に戻る。 Step 1102: Determine whether the automatic driving region has been entered. If the automatic driving area has been entered, the process advances to step 1103; if the automatic driving area has not been entered, the process returns to step 1101.

ステップ1103:自動運転が可能である旨の提示情報を表示する。 Step 1103: Display information indicating that automatic driving is possible.

ステップ1104:地図に対するマーキング操作を受け付けたか否かを判断する。受け付けた場合、ステップ1105に進み、そうでない場合、ステップ1103に戻る。 Step 1104: Determine whether a marking operation on the map has been accepted. If accepted, the process advances to step 1105; otherwise, the process returns to step 1103.

ステップ1105:マーキング操作に対応する目的地を地図に表示する。 Step 1105: Display the destination corresponding to the marking operation on the map.

ステップ1106:目的地に対する決定操作を受け付けたか否かを判断する。受け付けた場合、ステップ1107に進み、そうでない場合、ステップ1105に戻る。 Step 1106: Determine whether a determination operation for the destination has been accepted. If accepted, the process advances to step 1107; otherwise, the process returns to step 1105.

ステップ1107:自動運転モードに入る。 Step 1107: Enter automatic operation mode.

ステップ1108:自動運転経路が決定されたか否かを判断する。決定された場合、ステップ1109に進み、そうでない場合は、ステップ1107に戻る。 Step 1108: Determine whether the automatic driving route has been determined. If determined, the process advances to step 1109; otherwise, the process returns to step 1107.

ステップ1109:自動運転経路上のウェイポイントに基づいて仮想乗り物が走行するように制御する。 Step 1109: Control the virtual vehicle to travel based on waypoints on the automatic driving route.

ステップ1110:目的地に到達したか否かを判断する。到達した場合、ステップ1111に進み、そうでない場合、ステップ1109に戻る。 Step 1110: Determine whether the destination has been reached. If it has been reached, the process advances to step 1111; otherwise, the process returns to step 1109.

ステップ1111:仮想乗り物が走行を停止するように制御する。 Step 1111: Control the virtual vehicle to stop running.

図12は、本発明の1つの例示的な実施例に係る仮想環境における乗り物の運転装置の構成を示すブロック図である。該装置は、以下のモジュールを含む。 FIG. 12 is a block diagram illustrating the configuration of a vehicle operator in a virtual environment according to one exemplary embodiment of the present invention. The device includes the following modules:

表示モジュール1201は、走行画面及び地図表示ウィジェットを表示する。該走行画面は、仮想オブジェクトが仮想乗り物を運転して仮想環境内を走行する画面であり、該仮想乗り物は、手動運転モードにある。 The display module 1201 displays a driving screen and a map display widget. The driving screen is a screen in which a virtual object drives a virtual vehicle in a virtual environment, and the virtual vehicle is in a manual driving mode.

受け付けモジュール1202は、該仮想乗り物が該仮想環境内の自動運転領域に位置する場合、該地図表示ウィジェットに対するマーキング操作を受け付ける。該マーキング操作は、該地図表示ウィジェットにおいて地点をマーキングする操作である。 The acceptance module 1202 accepts a marking operation for the map display widget when the virtual vehicle is located in an autonomous driving area within the virtual environment. The marking operation is an operation of marking a point on the map display widget.

制御モジュール1203は、該マーキング操作に応じて、該仮想乗り物を自動運転モードに切り替え、該仮想乗り物が目的地に自動的に走行するように制御する。 The control module 1203 switches the virtual vehicle to an automatic driving mode in response to the marking operation, and controls the virtual vehicle to automatically travel to the destination.

好ましくは、制御モジュール1203は、該マーキング操作により示されるマーク地点に基づいて該目的地を決定し、該目的地は、自動運転領域に位置し、該仮想乗り物が所在する現在地点及び該目的地に基づいて自動運転経路を決定し、該自動運転経路は、該自動運転領域に位置し、該仮想乗り物を自動運転モードに切り替え、該仮想乗り物が該自動運転経路に従って該目的地に走行するように制御する。 Preferably, the control module 1203 determines the destination based on the marked point indicated by the marking operation, the destination is located in an autonomous driving area, and the control module 1203 determines the destination based on the current location where the virtual vehicle is located and the destination. determines an automated driving route based on the automated driving route, the automated driving route is located in the automated driving area, switches the virtual vehicle to an automated driving mode, and causes the virtual vehicle to travel to the destination according to the automated driving route. to control.

好ましくは、該仮想乗り物が前記自動運転経路に従って該目的地に走行するように制御する際に、制御モジュール1203は、該自動運転経路における少なくとも2つのウェイポイントを決定し、該ウェイポイントは、該自動運転領域に事前設定され、該少なくとも2つのウェイポイントのウェイポイント順序に従って、該仮想乗り物が該目的地に走行するように制御する。 Preferably, in controlling the virtual vehicle to travel to the destination according to the automated driving route, the control module 1203 determines at least two waypoints on the automated driving route, and the waypoints are configured to The virtual vehicle is controlled to travel to the destination according to a waypoint order of the at least two waypoints that is preset in an automatic driving area.

好ましくは、自動運転経路は、k個のウェイポイントを含み、kは2以上の整数である。該少なくとも2つのウェイポイントのウェイポイント順序に従って、該仮想乗り物が該目的地に走行するように制御する際に、制御モジュール1203は、該仮想乗り物が第1の走行方向に従って該現在地点から1番目のウェイポイントまで走行するように制御し、該第1の走行方向は、該現在地点が該1番目のウェイポイントに向く方向であり、該仮想乗り物が第2の走行方向に従ってn番目のウェイポイントからn+1番目のウェイポイントまで走行するように制御し、該第2の走行方向は、該n番目のウェイポイントが該n+1番目のウェイポイントに向く方向であり、nは1以上k-1以下の整数であり、該仮想乗り物が第3の走行方向に従ってk番目のウェイポイントから該目的地まで走行するように制御し、該第3の走行方向は、該k番目のウェイポイントが該目的地に向く方向である。 Preferably, the automated driving route includes k waypoints, where k is an integer of 2 or more. In controlling the virtual vehicle to travel to the destination according to the waypoint order of the at least two waypoints, the control module 1203 may cause the virtual vehicle to travel to the destination from the current location according to a first travel direction. The virtual vehicle is controlled to travel to the n-th waypoint according to the second traveling direction, and the first traveling direction is a direction in which the current location is directed to the first waypoint. The second traveling direction is a direction in which the n-th waypoint faces the n+1-th waypoint, where n is 1 or more and k-1 or less. an integer, the virtual vehicle is controlled to travel from the kth waypoint to the destination according to a third travel direction, and the third travel direction is such that the kth waypoint travels to the destination. This is the direction you are facing.

好ましくは、該マーキング操作により示されるマーク地点に基づいて該目的地を決定する際に、制御モジュール1203は、該マーキング操作により示される該マーク地点が該自動運転領域に位置する場合、該マーク地点を該目的地として決定し、該マーキング操作により示される該マーク地点が該自動運転領域外に位置する場合、該自動運転領域内の該マーク地点に最も近い地点を該目的地として決定し、或いは、マーキング提示情報を表示し、該マーキング提示情報は、該自動運転領域内に該目的地を設定するように提示するために使用される。 Preferably, when determining the destination based on the mark point indicated by the marking operation, the control module 1203 determines whether the mark point indicated by the marking operation is located in the automatic driving area. is determined as the destination, and if the marked point indicated by the marking operation is located outside the automated driving area, determines the point closest to the marked point within the automated driving area as the destination, or , display marking presentation information, and the marking presentation information is used to present setting the destination within the automatic driving area.

好ましくは、該仮想乗り物が所在する現在地点及び該目的地に基づいて自動運転経路を決定する際に、制御モジュール1203は、該仮想環境内の経路分岐点をノードとして、深さ優先探索アルゴリズムにより該現在地点と該目的地との間の少なくとも1つの候補経路を決定し、該経路分岐点は、該自動運転領域に事前設定されている分岐点であり、最短の候補経路を該自動運転経路として決定する。 Preferably, when determining the automated driving route based on the current location where the virtual vehicle is located and the destination, the control module 1203 uses a depth-first search algorithm using route branch points in the virtual environment as nodes. At least one candidate route between the current point and the destination is determined, the route branch point is a branch point preset in the automated driving area, and the shortest candidate route is determined as the automated driving route. Determine as.

好ましくは、制御モジュール1203は、第1の衝突検出ボックスと第2の衝突検出ボックスとが衝突している場合、該仮想乗り物が該自動運転領域に位置すると決定し、該第1の衝突検出ボックスは、該仮想乗り物に対応する衝突検出ボックスであり、該第2の衝突検出ボックスは、該自動運転領域に対応する衝突検出ボックスである。 Preferably, the control module 1203 determines that the virtual vehicle is located in the autonomous driving area if the first collision detection box and the second collision detection box are in a collision, and the control module 1203 determines that the virtual vehicle is located in the autonomous driving area; is a collision detection box corresponding to the virtual vehicle, and the second collision detection box is a collision detection box corresponding to the automatic driving area.

好ましくは、該装置は、該仮想乗り物が該目的地に走行した場合、該仮想乗り物を手動運転モードに切り替え、該仮想乗り物が走行を停止するように制御する第1の切り替えモジュール、をさらに含む。 Preferably, the apparatus further includes a first switching module that controls the virtual vehicle to switch to manual driving mode and stop traveling when the virtual vehicle has traveled to the destination. .

好ましくは、該手動運転モードにおいて運転ウィジェットが表示されており、且つ該運転ウィジェットがクリック可能状態にある。該装置は、自動運転モードにおいて該運転ウィジェットをクリック不可状態に設定し、或いは、該運転ウィジェットを非表示し、該仮想乗り物が該目的地に走行した場合、該運転ウィジェットをクリック可能状態に設定し、或いは、該運転ウィジェットの表示を復元する設定モジュールと、をさらに含む。 Preferably, the driving widget is displayed in the manual driving mode, and the driving widget is clickable. The device sets the driving widget to a non-clickable state in the automatic driving mode, or hides the driving widget, and sets the driving widget to a clickable state when the virtual vehicle travels to the destination. or a setting module for restoring the display of the driving widget.

好ましくは、該装置は、該自動運転モードにおいて運転モード切り替えウィジェットを表示し、該運転モード切り替えウィジェットに対するトリガ操作に応じて、該仮想乗り物を手動運転モードに切り替え、該運転ウィジェットをクリック可能状態に設定し、或いは、該運転ウィジェットの表示を復元する第2の切り替えモジュール、をさらに含む。 Preferably, the device displays a driving mode switching widget in the automatic driving mode, and in response to a trigger operation on the driving mode switching widget, switches the virtual vehicle to the manual driving mode and makes the driving widget clickable. The driving widget further includes a second switching module for setting or restoring the display of the driving widget.

好ましくは、手動運転モードにおいてアイテム使用ウィジェットが表示されておらず、該アイテム使用ウィジェットは、該仮想オブジェクトが仮想アイテムを使用するように制御するために使用される。該装置は、自動運転モードにおいて該アイテム使用ウィジェットを表示するアイテムウィジェット表示モジュールと、該アイテム使用ウィジェットに対するトリガ操作に応じて、該仮想オブジェクトが該仮想アイテムを使用するように制御するアイテム使用モジュールと、をさらに含む。 Preferably, the item usage widget is not displayed in the manual operation mode, and the item usage widget is used to control the virtual object to use the virtual item. The device includes an item widget display module that displays the item use widget in automatic operation mode, and an item use module that controls the virtual object to use the virtual item in response to a trigger operation for the item use widget. , further including.

好ましくは、該自動運転領域は、該仮想環境内の所定道路を含む。 Preferably, the automatic driving area includes a predetermined road within the virtual environment.

上述したように、本発明の実施例では、仮想乗り物が手動運転モードで仮想環境内の自動運転領域に走行した場合、地図表示ウィジェットに対するマーキング操作を受け付けたとき、該マーキング操作に応じて仮想乗り物を自動運転モードに切り替え、仮想乗り物が目的地に自動的に走行するように制御することで、ユーザが仮想乗り物を手動で制御する必要がなく、仮想乗り物の走行を制御するプロセスを簡素化し、ユーザが仮想乗り物の仮想環境内の走行を制御する操作上の困難さを軽減することができる。 As described above, in the embodiment of the present invention, when a virtual vehicle travels in a manual driving mode to an autonomous driving area in a virtual environment, when a marking operation for a map display widget is received, the virtual vehicle is moved in accordance with the marking operation. By switching the virtual vehicle to self-driving mode and controlling the virtual vehicle to automatically drive to the destination, the user does not need to manually control the virtual vehicle, simplifying the process of controlling the virtual vehicle's driving, It is possible to reduce the operational difficulty for a user in controlling the travel of a virtual vehicle in a virtual environment.

本実施例では、ユーザにより手動で設定されたマーク地点が自動運転領域外に位置する場合、端末は、自動運転領域内のマーク地点に最も近い目的地を決定し、該目的地と現在地点に基づいて自動運転経路を決定する。これによって、仮想乗り物が非自動運転領域に自動的に走行することによる運転異常を回避することができる。 In this embodiment, if the marked point manually set by the user is located outside the automated driving area, the terminal determines the closest destination to the marked point within the automated driving area, and connects the destination and the current location. The automated driving route is determined based on the This makes it possible to avoid abnormal driving caused by the virtual vehicle automatically traveling into a non-automatic driving area.

また、本実施例では、自動運転領域にウェイポイントを設定することによって、自動運転経路が決定された後、自動運転経路上のウェイポイントに基づいて仮想乗り物の走行方向を決定し、該走行方向に基づいて仮想乗り物の自動走行を制御することができる。即ち、自動運転を実現すると共に、自動運転を実現する際の難易度及び演算量を低減させることができる。 In addition, in this embodiment, after the automatic driving route is determined by setting waypoints in the automatic driving area, the traveling direction of the virtual vehicle is determined based on the waypoints on the automatic driving route, and the traveling direction is Automatic driving of a virtual vehicle can be controlled based on the following. That is, it is possible to realize automatic driving and to reduce the difficulty level and amount of calculation when realizing automatic driving.

また、本実施例では、自動運転領域について衝突検出ボックスを設定することで、該衝突検出ボックスを用いて仮想乗り物が自動運転領域に位置するか否かを決定することができ、仮想乗り物が所在する位置の決定プロセスを簡素化することができる。 Furthermore, in this embodiment, by setting a collision detection box for the automatic driving area, it is possible to use the collision detection box to determine whether or not the virtual vehicle is located in the automatic driving area. This simplifies the process of determining the location.

本実施例では、自動運転モードでは、端末は、運転ウィジェットをクリック不可状態に設定し、或いは、運転ウィジェットを非表示することで、ユーザが誤って運転ウィジェットをタッチして自動運転モードを終了することを回避することができる。また、端末は、ユーザインターフェースに運転モード切り替えウィジェットを表示することで、ユーザが該ウィジェットをトリガして自動運転モードを終了することができる。 In this embodiment, in the automatic driving mode, the terminal sets the driving widget to a non-clickable state or hides the driving widget, so that the user accidentally touches the driving widget and ends the automatic driving mode. This can be avoided. Furthermore, by displaying a driving mode switching widget on the user interface of the terminal, the user can trigger the widget to end the automatic driving mode.

図13は、本発明の1つの例示的な実施例に係る端末1300の構成を示すブロック図である。該端末1300は、例えばスマートフォン、タブレットコンピュータ、MP3(Moving Picture Experts Group Audio Layer III:ムービングピクチャーエキスパートグループオーディオレイヤーIII)プレーヤ、MP4(Moving Picture Experts Group Audio Layer IV:ムービングピクチャーエキスパートグループオーディオレイヤーIV)プレーヤなどの携帯型移動端末であってもよい。端末1300は、ユーザ装置、携帯型端末、及び他の名称とも称される。 FIG. 13 is a block diagram illustrating the configuration of a terminal 1300 according to one exemplary embodiment of the present invention. The terminal 1300 is, for example, a smartphone, a tablet computer, an MP3 (Moving Picture Experts Group Audio Layer III) player, an MP4 (Moving Picture Experts Group Audio Layer III) player, or an MP4 (Moving Picture Experts Group Audio Layer III) player. r IV: Moving Picture Expert Group Audio Layer IV) Player It may also be a portable mobile terminal such as. Terminal 1300 may also be referred to as user equipment, portable terminal, and other names.

一般に、端末1300は、プロセッサ1301及びメモリ1302を含む。 Generally, terminal 1300 includes a processor 1301 and memory 1302.

プロセッサ1301は、4コアプロセッサ、8コアプロセッサなどのような1つ又は複数の処理コアを含んでもよい。プロセッサ1301は、DSP(Digital Signal Processing:デジタル信号処理)、FPGA(Field Programmable Gate Array:フィールドプログラマブルゲートアレイ)、及びPLA(Programmable Logic Array:プログラマブルロジックアレイ)の少なくとも1つのハードウェア形式で実現されてもよい。プロセッサ1301は、メインプロセッサ及びコプロセッサを含んでもよい。メインプロセッサは、アウェイク状態でデータを処理するために使用されるプロセッサであり、CPU(Central Processing Unit:中央処理装置)とも称される。コプロセッサは、スタンバイ状態でデータを処理するために使用される低電力プロセッサである。幾つかの実施例では、プロセッサ1301は、GPU(Graphics Processing Unit:グラフィックスプロセッシングユニット)と統合されてもよく、GPUは、表示画面に表示される必要がある内容をレンダリング及び描画するために使用される。幾つかの実施例では、プロセッサ1301は、AI(Artificial Intelligence:人工知能)プロセッサをさらに含んでもよく、該AIプロセッサは、機械学習に関連する計算操作を処理するために使用される。 Processor 1301 may include one or more processing cores, such as a four-core processor, an eight-core processor, and the like. The processor 1301 includes at least one of DSP (Digital Signal Processing), FPGA (Field Programmable Gate Array), and PLA (Programmable Logic Array). realized in one hardware format Good too. Processor 1301 may include a main processor and a co-processor. The main processor is a processor used to process data in an awake state, and is also referred to as a CPU (Central Processing Unit). A coprocessor is a low power processor used to process data in standby state. In some embodiments, processor 1301 may be integrated with a Graphics Processing Unit (GPU), which is used to render and draw content that needs to be displayed on a display screen. be done. In some embodiments, processor 1301 may further include an artificial intelligence (AI) processor, which is used to process computational operations related to machine learning.

メモリ1302は、1つ又は複数のコンピュータ読み取り可能な記憶媒体を含んでもよく、該コンピュータ読み取り可能な記憶媒体は、有形で非一時的であってもよい。メモリ1302は、高速ランダムアクセスメモリ及び不揮発性メモリ、例えば、1つ又は複数の磁気ディスク記憶装置やフラッシュメモリ記憶装置をさらに含んでもよい。幾つかの実施例では、メモリ1302における非一時的なコンピュータ読み取り可能な記憶媒体は、少なくとも1つの命令が記憶され、該少なくとも1つの命令は、本発明の実施例に係る方法を実現するように、プロセッサ1301により実行されるために使用される。 Memory 1302 may include one or more computer-readable storage media, which may be tangible and non-transitory. Memory 1302 may further include high speed random access memory and non-volatile memory, such as one or more magnetic disk storage devices or flash memory storage devices. In some embodiments, a non-transitory computer-readable storage medium in memory 1302 stores at least one instruction for implementing a method according to an embodiment of the invention. , used for execution by processor 1301.

幾つかの実施例では、端末1300は、好ましくは、周辺機器インターフェース1303及び少なくとも1つの周辺機器をさらに含んでもよい。具体的には、周辺機器は、無線周波数回路1304、タッチ表示スクリーン1305、カメラコンポーネント1306、オーディオ回路1307、位置特定コンポーネント1308、及び電源1309のうちの少なくとも1つを含む。 In some embodiments, terminal 1300 may preferably further include a peripheral interface 1303 and at least one peripheral. Specifically, the peripherals include at least one of a radio frequency circuit 1304, a touch display screen 1305, a camera component 1306, an audio circuit 1307, a location component 1308, and a power source 1309.

周辺機器インターフェース1303は、I/O(入力/出力)に関連する少なくとも1つの周辺機器をプロセッサ1301及びメモリ1302に接続するために使用されてもよい。幾つかの実施例では、プロセッサ1301、メモリ1302及び周辺機器インターフェース1303は、同一のチップ又は回路基板に統合される。他の幾つかの実施例では、プロセッサ1301、メモリ1302及び周辺機器インターフェース1303の何れか1つ又は2つは、単独したチップ又は回路基板に実装されてもよいが、本実施例はこれらに限定されない。 Peripheral interface 1303 may be used to connect at least one I/O (input/output) related peripheral to processor 1301 and memory 1302. In some embodiments, processor 1301, memory 1302, and peripheral interface 1303 are integrated on the same chip or circuit board. In some other embodiments, one or more of processor 1301, memory 1302, and peripheral interface 1303 may be implemented on a single chip or circuit board, but this embodiment is not limited thereto. Not done.

無線周波数回路1304は、電磁信号とも称されるRF(Radio Frequency:無線周波数)信号を送受信するために使用される。無線周波数回路1304は、電磁信号を介して通信ネットワーク及び他の通信機器と通信する。無線周波数回路1304は、電気信号を送信用の電磁信号に変換し、或いは、受信した電磁信号を電気信号に変換する。好ましくは、無線周波数回路1304は、アンテナシステム、RF送受信機、1つ又は複数の増幅器、チューナ、発振器、デジタル信号プロセッサ、コーデックチップセット、ユーザIDモジュールカードなどを含む。無線周波数回路1304は、少なくとも1つの無線通信プロトコルを介して他の端末と通信することができる。該無線通信プロトコルは、ワールドワイドウェブ、メトロポリタン領域ネットワーク、イントラネット、各世代の移動通信ネットワーク(2G、3G、4G及び5G)、ワイヤレスローカル領域ネットワーク及び/又はWiFi(Wireless Fidelity:ワイヤレスフィデリティ)ネットワークを含むが、これらに限定されない。幾つかの実施例では、無線周波数回路1304は、NFC(Near Field Communication:近距離無線通信)に関連する回路を含んでもよいが、本発明はこれらに限定されない。 Radio frequency circuit 1304 is used to transmit and receive RF (Radio Frequency) signals, also referred to as electromagnetic signals. Radio frequency circuit 1304 communicates with communication networks and other communication equipment via electromagnetic signals. Radio frequency circuit 1304 converts electrical signals into electromagnetic signals for transmission, or converts received electromagnetic signals into electrical signals. Preferably, radio frequency circuitry 1304 includes an antenna system, an RF transceiver, one or more amplifiers, a tuner, an oscillator, a digital signal processor, a codec chipset, a user ID module card, and the like. Radio frequency circuit 1304 can communicate with other terminals via at least one wireless communication protocol. The wireless communication protocols include the World Wide Web, metropolitan area networks, intranets, mobile communication networks of each generation (2G, 3G, 4G and 5G), wireless local area networks and/or Wireless Fidelity (WiFi) networks. However, it is not limited to these. In some embodiments, radio frequency circuitry 1304 may include circuitry related to Near Field Communication (NFC), although the invention is not limited thereto.

タッチ表示スクリーン1305は、UI(User Interface:ユーザインターフェース)を表示するために使用される。該UIは、グラフィック、テキスト、アイコン、ビデオ、及びそれらの任意の組み合わせを含んでもよい。タッチ表示スクリーン1305は、タッチ表示スクリーン1305の表面又は表面の上方でのタッチ信号を取り込む能力を有する。タッチ信号は、処理のための制御信号としてプロセッサ1301に入力されてもよい。タッチ表示スクリーン1305は、ソフトボタン及び/又はソフトキーボードとも称される仮想ボタン及び/又は仮想キーボードを提供するために使用される。幾つかの実施例では、1つのタッチ表示スクリーン1305は、端末1300のフロントパネルに配置されてもよい。他の幾つかの実施例では、少なくとも2つのタッチ表示スクリーン1305は、端末1300の異なる表面にそれぞれ配置され、或いは折り畳むように設計されてもよい。さらに他の幾つかの実施例では、タッチ表示スクリーン1305は、端末1300の湾曲した表面又は折り畳み面上に配置された可撓性ディスプレイスクリーンであってもよい。また、タッチ表示スクリーン1305は、非矩形の不規則な形状、即ち、特殊な形状のスクリーンとして構成されてもよい。タッチ表示スクリーン1305は、LDC(Liquid Crystal Display:液晶ディスプレイ)、OLED(Organic Light-Emitting Diode:有機発光ダイオード)などの材料で形成されてもよい。 Touch display screen 1305 is used to display a UI (User Interface). The UI may include graphics, text, icons, video, and any combination thereof. Touch display screen 1305 has the ability to capture touch signals at or above the surface of touch display screen 1305. The touch signal may be input to processor 1301 as a control signal for processing. Touch display screen 1305 is used to provide virtual buttons and/or a virtual keyboard, also referred to as soft buttons and/or soft keyboard. In some examples, one touch display screen 1305 may be located on the front panel of terminal 1300. In some other examples, at least two touch display screens 1305 may be each placed on a different surface of terminal 1300 or may be designed to be foldable. In still some other examples, touch display screen 1305 may be a flexible display screen disposed on a curved or folded surface of terminal 1300. The touch display screen 1305 may also be configured as a non-rectangular irregularly shaped screen, ie, a specially shaped screen. The touch display screen 1305 may be formed of a material such as an LDC (Liquid Crystal Display) or an OLED (Organic Light-Emitting Diode).

カメラコンポーネント1306は、画像又はビデオを取り込むために使用される。好ましくは、カメラコンポーネント1306は、フロントカメラ及びリアカメラを含む。通常、フロントカメラはビデオ通話や自撮りを実現するために使用され、リアカメラは写真やビデオを実現するために使用される。幾つかの実施例では、リアカメラは、メインカメラと被写界深度カメラとの融合を実現して背景ぼかし機能を実現するために、メインカメラ、被写界深度カメラ、及び広角カメラのうちの少なくとも2つである。メインカメラと広角カメラと融合して、パノラマ撮影とVR(Virtual Reality:バーチャルリアリティ)の撮影機能を実現する。幾つかの実施例では、カメラコンポーネント1306は、フラッシュをさらに含んでもよい。フラッシュは、単一色温度フラッシュ又はダブル色温度フラッシュであってもよい。ダブル色温度フラッシュは、ウォームライトフラッシュとコールドライトフラッシュの組み合わせを意味し、様々な色温度での光補正に使用してもよい。 Camera component 1306 is used to capture images or video. Preferably, camera component 1306 includes a front camera and a rear camera. Usually, the front camera is used to realize video calls and selfies, and the rear camera is used to realize photos and videos. In some embodiments, the rear camera is one of the main camera, the depth of field camera, and the wide-angle camera to achieve the fusion of the main camera and the depth of field camera to achieve the background blur function. At least two. By combining the main camera and wide-angle camera, it realizes panoramic shooting and VR (Virtual Reality) shooting functions. In some examples, camera component 1306 may further include a flash. The flash may be a single color temperature flash or a dual color temperature flash. Double color temperature flash refers to the combination of warm light flash and cold light flash, and may be used for light correction at various color temperatures.

オーディオ回路1307は、ユーザと端末1300との間のオーディオインターフェースを提供するために使用される。オーディオ回路1307は、マイクロフォン及びスピーカを含んでもよい。マイクロフォンは、ユーザ及び環境の音波を取り込み、音波を電気信号に変換して処理のためにプロセッサ1301に入力し、或いは無線周波数回路1304に入力して音声通信を実現するために使用される。ステレオ取得又はノイズ低減のために、端末1300の異なる部分に複数のマイクロフォンがそれぞれ配置されてもよい。マイクは、アレイマイク又は全方向性コレクション型マイクであってもよい。スピーカは、プロセッサ1301又は無線周波数回路1304からの電気信号を音波に変換するために使用される。スピーカは、従来の薄膜スピーカであってもよいし、圧電セラミックスピーカであってもよい。スピーカは、圧電セラミックスピーカである場合、電気信号を人間の可聴音波に変換するだけでなく、距離測定などのために電気信号を人間の非可聴音波に変換してもよい。幾つかの実施例では、オーディオ回路1307は、ヘッドホンジャックをさらに含んでもよい。 Audio circuit 1307 is used to provide an audio interface between the user and terminal 1300. Audio circuit 1307 may include a microphone and speakers. The microphone is used to capture user and environmental sound waves and convert the sound waves into electrical signals that are input to the processor 1301 for processing or to the radio frequency circuit 1304 to achieve voice communication. Multiple microphones may each be placed in different parts of the terminal 1300 for stereo acquisition or noise reduction. The microphone may be an array microphone or an omnidirectional collection type microphone. A speaker is used to convert electrical signals from processor 1301 or radio frequency circuit 1304 into sound waves. The speaker may be a conventional thin film speaker or a piezoelectric ceramic speaker. If the speaker is a piezoelectric ceramic speaker, it may not only convert electrical signals into human audible sound waves, but also convert electrical signals into human inaudible sound waves for purposes such as distance measurement. In some embodiments, audio circuit 1307 may further include a headphone jack.

位置特定コンポーネント1308は、ナビゲーション又はLBS(Location Based Service:ロケーションベースサービス)を実現するために、端末1300の現在の地理的位置を特定するために使用される。位置特定コンポーネント1308は、米国のGPS(Global Positioning System:全地球測位システム)、中国の北斗システム、又はロシアのガリレオシステムに基づく測位コンポーネントであってもよい。 The location component 1308 is used to identify the current geographical location of the terminal 1300 to implement navigation or LBS (Location Based Service). The positioning component 1308 may be a positioning component based on the US Global Positioning System (GPS), China's BeiDou system, or Russia's Galileo system.

電源1309は、端末1300内の各コンポーネントに電力を供給するために使用される。電源1309は、交流、直流、一次的な電池、又は充電式電池であってもよい。電源1309が充電式電池を含む場合、該充電式電池は、有線充電式電池又は無線充電式電池であってもよい。有線充電式電池は有線回路で充電される電池であり、無線充電式電池は無線回路で充電される電池である。該充電式電池は、急速充電技術をサポートするものを採用してもよい。 Power supply 1309 is used to power each component within terminal 1300. Power source 1309 may be an alternating current, direct current, primary battery, or rechargeable battery. If power source 1309 includes a rechargeable battery, the rechargeable battery may be a wired rechargeable battery or a wireless rechargeable battery. A wired rechargeable battery is a battery that is charged by a wired circuit, and a wireless rechargeable battery is a battery that is charged by a wireless circuit. The rechargeable battery may support fast charging technology.

幾つかの実施例では、端末1300は、1つ又は複数のセンサ1310をさらに含む。該1つ又は複数のセンサ1310は、加速度センサ1311、ジャイロスコープセンサ1312、圧力センサ1313、指紋センサ1314、光学センサ1315、及び近接センサ1316を含むが、これらに限定されない。 In some examples, terminal 1300 further includes one or more sensors 1310. The one or more sensors 1310 include, but are not limited to, an acceleration sensor 1311, a gyroscope sensor 1312, a pressure sensor 1313, a fingerprint sensor 1314, an optical sensor 1315, and a proximity sensor 1316.

加速度センサ1311は、端末1300により確立された座標系の3つの座標軸上の加速度の大きさを検出してもよい。例えば、加速度センサ1311を使用して、3つの座標軸上の重力加速度の成分を検出してもよい。プロセッサ1301は、加速度センサ1311により収集された重力加速度信号に基づいて、タッチ表示スクリーン1305により水平ビュー又は垂直ビューでユーザインターフェースを表示するように制御してもよい。加速度センサ1311は、ゲーム又はユーザの動きデータを収集するために使用されてもよい。 Acceleration sensor 1311 may detect the magnitude of acceleration on three coordinate axes of the coordinate system established by terminal 1300. For example, the acceleration sensor 1311 may be used to detect components of gravitational acceleration on three coordinate axes. Processor 1301 may control touch display screen 1305 to display a user interface in a horizontal or vertical view based on the gravitational acceleration signal collected by acceleration sensor 1311. Acceleration sensor 1311 may be used to collect game or user movement data.

ジャイロスコープセンサ1312は、端末1300の本体の方向及び回転角度を検出してもよい。ジャイロスコープセンサ1312は、加速度センサ1311と協調して、端末1300でのユーザの3D動作を収集してもよい。プロセッサ1301は、ジャイロスコープセンサ1312により収集されたデータに基づいて、動作センシング(例えば、ユーザの傾斜操作に従ってUIを変更する)、撮影中の画像安定化、ゲーム制御、及び慣性ナビゲーションを実現してもよい。 Gyroscope sensor 1312 may detect the direction and rotation angle of the main body of terminal 1300. Gyroscope sensor 1312 may cooperate with acceleration sensor 1311 to collect 3D motion of the user at terminal 1300. The processor 1301 implements motion sensing (for example, changing the UI according to the user's tilt operation), image stabilization during shooting, game control, and inertial navigation based on the data collected by the gyroscope sensor 1312. Good too.

圧力センサ1313は、端末1300のサイドフレーム及び/又はタッチ表示スクリーン1305の下層に配置されてもよい。圧力センサ1313が端末1300のサイドフレームに配置されている場合、端末1300のユーザの把持信号を検出し、把持信号に基づいて左右の手を認識し、或いはショートカット操作を行ってもよい。圧力センサ1313がタッチ表示スクリーン1305の下層に配置されている場合、タッチ表示スクリーン1305に対するユーザの圧力操作に従って、UIインターフェースでの操作可能なウィジェットを制御してもよい。操作可能なウィジェットは、ボタンウィジェット、スクロールバーウィジェット、アイコンウィジェット、及びメニューウィジェットのうちの少なくとも1つを含む。 Pressure sensor 1313 may be placed on the side frame of terminal 1300 and/or underneath the touch display screen 1305. When the pressure sensor 1313 is disposed on the side frame of the terminal 1300, it may detect a grip signal of the user of the terminal 1300, recognize the left and right hands based on the grip signal, or perform a shortcut operation. If the pressure sensor 1313 is disposed below the touch display screen 1305, the operable widgets on the UI interface may be controlled according to the user's pressure operation on the touch display screen 1305. The operable widget includes at least one of a button widget, a scroll bar widget, an icon widget, and a menu widget.

指紋センサ1314は、収集された指紋に従ってユーザのIDを識別するように、ユーザの指紋を収集するために使用される。識別されたユーザのIDが信頼可能なIDである場合、プロセッサ1301は、画面のロック解除、暗号化された情報の表示、ソフトウェアのダウンロード、支払い、及び設定の変更を含む関連する機密操作を実行することをユーザに許可する。指紋センサ1314は、端末1300の前面、背面、又は側面に配置されてもよい。端末1300に物理的ボタン又は製造業者のロゴ(Logo)が設けられている場合、指紋センサ1314は、物理的ボタン又は製造業者のロゴと統合されてもよい。 Fingerprint sensor 1314 is used to collect the user's fingerprints so as to identify the user's ID according to the collected fingerprints. If the identified user's ID is a trusted ID, the processor 1301 performs related sensitive operations including unlocking the screen, displaying encrypted information, downloading software, making payments, and changing settings. Allow users to: Fingerprint sensor 1314 may be placed on the front, back, or side of terminal 1300. If the terminal 1300 is provided with a physical button or manufacturer's logo, the fingerprint sensor 1314 may be integrated with the physical button or manufacturer's logo.

光学センサ1315は、周囲光強度を収集するために使用される。1つの実施例では、プロセッサ1301は、光学センサ1315により収集された周囲光強度に基づいて、タッチ表示スクリーン1305の表示輝度を制御してもよい。具体的には、周囲光強度が高い場合、タッチ表示スクリーン1305の表示輝度を高くし、周囲光強度が低い場合、タッチ表示スクリーン1305の表示輝度を低くする。他の実施例では、プロセッサ1301は、光学センサ1315により収集された周囲光強度に基づいて、カメラコンポーネント1306の撮影パラメータを動的に調整してもよい。 Optical sensor 1315 is used to collect ambient light intensity. In one example, processor 1301 may control display brightness of touch display screen 1305 based on ambient light intensity collected by optical sensor 1315. Specifically, when the ambient light intensity is high, the display brightness of the touch display screen 1305 is increased, and when the ambient light intensity is low, the display brightness of the touch display screen 1305 is decreased. In other examples, processor 1301 may dynamically adjust imaging parameters of camera component 1306 based on ambient light intensity collected by optical sensor 1315.

近接センサ1316は、距離センサとも呼ばれ、通常、端末1300の前面に配置される。近接センサ1316は、ユーザと端末1300の前面との間の距離を収集するために使用される。1つの実施例では、ユーザと端末1300の前面との間の距離が徐々に小さくなると近接センサ1316により検出された場合、プロセッサ1301は、オンスクリーン状態からオフスクリーン状態に切り替えるようにタッチ表示スクリーン1305を制御する。ユーザと端末1300の前面との間の距離が徐々に大きくなると近接センサ1316により検出された場合、プロセッサ1301は、オフスクリーン状態からオンスクリーン状態に切り替えるようにタッチ表示スクリーン1305を制御する。 Proximity sensor 1316 is also called distance sensor and is typically placed on the front of terminal 1300. Proximity sensor 1316 is used to collect the distance between the user and the front of terminal 1300. In one example, when the distance between the user and the front surface of the terminal 1300 is detected by the proximity sensor 1316, the processor 1301 causes the touch display screen 1305 to switch from an on-screen state to an off-screen state. control. When proximity sensor 1316 detects that the distance between the user and the front of terminal 1300 gradually increases, processor 1301 controls touch display screen 1305 to switch from an off-screen state to an on-screen state.

なお、当業者が理解できるように、端末1300は、図13に示す構成に限定されず、図示されているものより多く、又は少ない構成要素を含んでもよいし、特定の構成要素を組み合わせてもよいし、異なる構成要素の配置を採用してもよい。 Note that, as those skilled in the art will understand, the terminal 1300 is not limited to the configuration shown in FIG. or a different arrangement of components may be employed.

本発明の実施例は、コンピュータ読み取り可能な記憶媒体をさらに提供する。該記憶媒体には、少なくとも1つの命令、少なくとも1つのプログラム、コードセット又は命令セットが記憶され、該少なくとも1つの命令、少なくとも1つのプログラム、コードセット又は命令セットは、上記の何れかの実施例に記載されている仮想環境における乗り物の運転方法を実現するように、プロセッサによりロードされて実行される。 Embodiments of the invention further provide a computer readable storage medium. The storage medium stores at least one instruction, at least one program, code set, or instruction set, and the at least one instruction, at least one program, code set, or instruction set is an instruction set according to any of the embodiments described above. is loaded and executed by a processor to implement the method of driving a vehicle in a virtual environment as described in .

本発明の実施例は、コンピュータ読み取り可能な記憶媒体に記憶されているコンピュータ命令を含む、コンピュータプログラムプロダクト又はコンピュータプログラムをさらに提供する。コンピュータ機器のプロセッサは、コンピュータ読み取り可能な記憶媒体から該コンピュータ命令を読み取って実行することで、該コンピュータ機器において上記の仮想環境における乗り物の運転方法を実行する。 Embodiments of the invention further provide a computer program product or computer program that includes computer instructions stored on a computer-readable storage medium. A processor of the computing device reads and executes the computer instructions from the computer-readable storage medium to perform the method of driving a vehicle in a virtual environment on the computing device.

当業者が理解できるように、上記の実施例のステップの全部又は一部は、ハードウェアにより実現されてもよいし、関連するハードウェアが実行するようにプログラムを介して指示することで実現されてもよい。該プログラムは、コンピュータ読み取り可能な記憶媒体に記憶されてもよい。上述した記憶媒体は、読み取り専用メモリ、磁気ディスク又は光ディスクなどであってもよい。 As those skilled in the art will understand, all or part of the steps in the above embodiments may be implemented by hardware or by instructing the relevant hardware to perform via a program. It's okay. The program may be stored on a computer readable storage medium. The storage medium mentioned above may be a read-only memory, a magnetic disk, an optical disk, or the like.

以上は、単に本発明の例示的な実施例を説明し、本発明を制限するものではない。本発明の主旨及び原則の範囲内で行われる変更、均等的な置換、改良などは、本発明の保護範囲内に含まれる。
The foregoing merely describes exemplary embodiments of the invention and is not intended to limit the invention. Changes, equivalent substitutions, improvements, etc. made within the spirit and principles of the present invention shall fall within the protection scope of the present invention.

Claims (15)

端末が実行する、仮想環境における乗り物の運転方法であって、
走行画面及び地図表示ウィジェットを表示するステップであって、前記走行画面は、仮想オブジェクトが仮想乗り物を運転して仮想環境内を走行する画面であり、前記仮想乗り物は、手動運転モードにある、ステップと、
前記仮想乗り物が前記仮想環境内の自動運転領域に位置する場合、前記地図表示ウィジェットに対するマーキング操作を受け付けるステップであって、前記マーキング操作は、前記地図表示ウィジェットにおいて地点をマーキングする操作である、ステップと、
前記マーキング操作に応じて、前記仮想乗り物を自動運転モードに切り替え、前記仮想乗り物が目的地に自動的に走行するように制御するステップと、を含
前記マーキング操作に応じて、前記仮想乗り物を自動運転モードに切り替え、前記仮想乗り物が目的地に自動的に走行するように制御するステップは、
前記マーキング操作により示されるマーク地点に基づいて前記目的地を決定するステップであって、前記目的地は、自動運転領域に位置する、ステップと、
前記仮想乗り物が所在する現在地点及び前記目的地に基づいて自動運転経路を決定するステップであって、前記自動運転経路は、前記自動運転領域に位置する、ステップと、
前記仮想乗り物を自動運転モードに切り替え、前記仮想乗り物が前記自動運転経路に従って前記目的地に走行するように制御するステップと、を含み、
前記仮想乗り物が前記自動運転経路に従って前記目的地に走行するように制御するステップは、
前記自動運転経路における少なくとも2つのウェイポイントを決定するステップであって、前記ウェイポイントは、前記自動運転領域に事前設定されている、ステップと、
前記少なくとも2つのウェイポイントのウェイポイント順序に従って、前記仮想乗り物が前記目的地に走行するように制御するステップと、を含む、方法。
A method of driving a vehicle in a virtual environment executed by a terminal, the method comprising:
Displaying a driving screen and a map display widget, the driving screen being a screen in which a virtual object drives a virtual vehicle in a virtual environment, and the virtual vehicle is in a manual driving mode. and,
If the virtual vehicle is located in an autonomous driving area in the virtual environment, a step of accepting a marking operation on the map display widget, the marking operation being an operation of marking a point on the map display widget. and,
In response to the marking operation, switching the virtual vehicle to an automatic driving mode and controlling the virtual vehicle to automatically travel to a destination,
The step of switching the virtual vehicle to an automatic driving mode in response to the marking operation and controlling the virtual vehicle to automatically travel to the destination,
determining the destination based on the mark point indicated by the marking operation, the destination being located in an automatic driving area;
determining an automated driving route based on the current location where the virtual vehicle is located and the destination, the automated driving route being located in the automated driving area;
switching the virtual vehicle to a self-driving mode and controlling the virtual vehicle to travel to the destination according to the self-driving route;
The step of controlling the virtual vehicle to travel to the destination according to the automatic driving route,
determining at least two waypoints on the automated driving route, the waypoints being preset in the automated driving area;
controlling the virtual vehicle to travel to the destination according to a waypoint order of the at least two waypoints.
前記自動運転経路は、k個のウェイポイントを含み、kは2以上の整数であり、
前記少なくとも2つのウェイポイントのウェイポイント順序に従って、前記仮想乗り物が前記目的地に走行するように制御するステップは、
前記仮想乗り物が第1の走行方向に従って前記現在地点から1番目のウェイポイントまで走行するように制御するステップであって、前記第1の走行方向は、前記現在地点が前記1番目のウェイポイントに向く方向である、ステップと、
前記仮想乗り物が第2の走行方向に従ってn番目のウェイポイントからn+1番目のウェイポイントまで走行するように制御するステップであって、前記第2の走行方向は、前記n番目のウェイポイントが前記n+1番目のウェイポイントに向く方向であり、nは1以上k-1以下の整数である、ステップと、
前記仮想乗り物が第3の走行方向に従ってk番目のウェイポイントから前記目的地まで走行するように制御するステップであって、前記第3の走行方向は、前記k番目のウェイポイントが前記目的地に向く方向である、ステップと、を含む、請求項に記載の方法。
The automatic driving route includes k waypoints, k is an integer of 2 or more,
controlling the virtual vehicle to travel to the destination according to a waypoint order of the at least two waypoints;
controlling the virtual vehicle to travel from the current location to a first waypoint according to a first travel direction, the first travel direction being such that the current location is at the first waypoint; Step, which is the direction to face,
controlling the virtual vehicle to travel from the n-th waypoint to the n+1-th waypoint according to a second traveling direction, the second traveling direction being such that the n-th waypoint is the n+1-th waypoint; a step in the direction toward the th waypoint, where n is an integer from 1 to k-1,
controlling the virtual vehicle to travel from a k-th waypoint to the destination according to a third traveling direction, the third traveling direction being such that the k-th waypoint travels to the destination; 2. The method of claim 1 , including the step of oriented.
前記マーキング操作により示されるマーク地点に基づいて前記目的地を決定するステップは、
前記マーキング操作により示される前記マーク地点が前記自動運転領域に位置する場合、前記マーク地点を前記目的地として決定するステップと、
前記マーキング操作により示される前記マーク地点が前記自動運転領域外に位置する場合、前記自動運転領域内の前記マーク地点に最も近い地点を前記目的地として決定し、或いは、マーキング提示情報を表示するステップであって、前記マーキング提示情報は、前記自動運転領域内に前記目的地を設定するように提示するために使用される、ステップと、を含む、請求項1又は2に記載の方法。
Determining the destination based on the marked point indicated by the marking operation,
If the marked point indicated by the marking operation is located in the automatic driving area, determining the marked point as the destination;
If the mark point indicated by the marking operation is located outside the automatic driving area, determining a point closest to the mark point within the automatic driving area as the destination, or displaying marking presentation information. 3. The method according to claim 1, further comprising the step of: the marking presentation information being used to present the destination to be set within the automatic driving area.
端末が実行する、仮想環境における乗り物の運転方法であって、
走行画面及び地図表示ウィジェットを表示するステップであって、前記走行画面は、仮想オブジェクトが仮想乗り物を運転して仮想環境内を走行する画面であり、前記仮想乗り物は、手動運転モードにある、ステップと、
前記仮想乗り物が前記仮想環境内の自動運転領域に位置する場合、前記地図表示ウィジェットに対するマーキング操作を受け付けるステップであって、前記マーキング操作は、前記地図表示ウィジェットにおいて地点をマーキングする操作である、ステップと、
前記マーキング操作に応じて、前記仮想乗り物を自動運転モードに切り替え、前記仮想乗り物が目的地に自動的に走行するように制御するステップと、を含み、
前記マーキング操作に応じて、前記仮想乗り物を自動運転モードに切り替え、前記仮想乗り物が目的地に自動的に走行するように制御するステップは、
前記マーキング操作により示されるマーク地点に基づいて前記目的地を決定するステップであって、前記目的地は、自動運転領域に位置する、ステップと、
前記仮想乗り物が所在する現在地点及び前記目的地に基づいて自動運転経路を決定するステップであって、前記自動運転経路は、前記自動運転領域に位置する、ステップと、
前記仮想乗り物を自動運転モードに切り替え、前記仮想乗り物が前記自動運転経路に従って前記目的地に走行するように制御するステップと、を含み、
前記仮想乗り物が所在する現在地点及び前記目的地に基づいて自動運転経路を決定するステップは、
前記仮想環境内の経路分岐点をノードとして、深さ優先探索アルゴリズムにより前記現在地点と前記目的地との間の少なくとも1つの候補経路を決定するステップであって、前記経路分岐点は、前記自動運転領域に事前設定されている分岐点である、ステップと、
最短の候補経路を前記自動運転経路として決定するステップと、を含む、方法。
A method of driving a vehicle in a virtual environment executed by a terminal, the method comprising:
Displaying a driving screen and a map display widget, the driving screen being a screen in which a virtual object drives a virtual vehicle in a virtual environment, and the virtual vehicle is in a manual driving mode. and,
If the virtual vehicle is located in an autonomous driving area in the virtual environment, a step of accepting a marking operation on the map display widget, the marking operation being an operation of marking a point on the map display widget. and,
In response to the marking operation, switching the virtual vehicle to an automatic driving mode and controlling the virtual vehicle to automatically travel to a destination,
The step of switching the virtual vehicle to an automatic driving mode in response to the marking operation and controlling the virtual vehicle to automatically travel to the destination,
determining the destination based on the mark point indicated by the marking operation, the destination being located in an automatic driving area;
determining an automated driving route based on the current location where the virtual vehicle is located and the destination, the automated driving route being located in the automated driving area;
switching the virtual vehicle to a self-driving mode and controlling the virtual vehicle to travel to the destination according to the self-driving route;
Determining an automated driving route based on the current location where the virtual vehicle is located and the destination,
determining at least one candidate route between the current point and the destination using a route branch point in the virtual environment as a node by a depth-first search algorithm, the route branch point being a node in the automatic Steps, which are branch points preset in the operating area,
determining a shortest candidate route as the automated driving route .
端末が実行する、仮想環境における乗り物の運転方法であって、
走行画面及び地図表示ウィジェットを表示するステップであって、前記走行画面は、仮想オブジェクトが仮想乗り物を運転して仮想環境内を走行する画面であり、前記仮想乗り物は、手動運転モードにある、ステップと、
前記仮想乗り物が前記仮想環境内の自動運転領域に位置する場合、前記地図表示ウィジェットに対するマーキング操作を受け付けるステップであって、前記マーキング操作は、前記地図表示ウィジェットにおいて地点をマーキングする操作である、ステップと、
前記マーキング操作に応じて、前記仮想乗り物を自動運転モードに切り替え、前記仮想乗り物が目的地に自動的に走行するように制御するステップと、を含み、
前記仮想乗り物が前記仮想環境内の自動運転領域に位置するか否かを決定する際に、
第1の衝突検出ボックスと第2の衝突検出ボックスとが衝突している場合、前記仮想乗り物が前記自動運転領域に位置すると決定し、
前記第1の衝突検出ボックスは、前記仮想乗り物に対応する衝突検出ボックスであり、
前記第2の衝突検出ボックスは、前記自動運転領域に対応する衝突検出ボックスである、方法。
A method of driving a vehicle in a virtual environment executed by a terminal, the method comprising:
Displaying a driving screen and a map display widget, the driving screen being a screen in which a virtual object drives a virtual vehicle in a virtual environment, and the virtual vehicle is in a manual driving mode. and,
If the virtual vehicle is located in an autonomous driving area in the virtual environment, a step of accepting a marking operation on the map display widget, the marking operation being an operation of marking a point on the map display widget. and,
In response to the marking operation, switching the virtual vehicle to an automatic driving mode and controlling the virtual vehicle to automatically travel to a destination,
In determining whether the virtual vehicle is located in an autonomous driving region within the virtual environment,
If the first collision detection box and the second collision detection box have collided, determining that the virtual vehicle is located in the automatic driving area;
The first collision detection box is a collision detection box corresponding to the virtual vehicle,
The method, wherein the second collision detection box is a collision detection box corresponding to the automatic driving area.
前記マーキング操作に応じて、前記仮想乗り物を自動運転モードに切り替え、前記仮想乗り物が目的地に自動的に走行するように制御した後、
前記仮想乗り物が前記目的地に走行した場合、前記仮想乗り物を手動運転モードに切り替え、前記仮想乗り物が走行を停止するように制御するステップ、をさらに含む、請求項1乃至の何れかに記載の方法。
After switching the virtual vehicle to an automatic driving mode in response to the marking operation and controlling the virtual vehicle to automatically travel to the destination,
6. The method according to claim 1 , further comprising, when the virtual vehicle has traveled to the destination, switching the virtual vehicle to a manual driving mode and controlling the virtual vehicle to stop traveling. the method of.
前記手動運転モードにおいて運転ウィジェットが表示されており、且つ前記運転ウィジェットがクリック可能状態にあり、
前記方法は、
前記自動運転モードにおいて前記運転ウィジェットをクリック不可状態に設定し、或いは、前記運転ウィジェットを非表示するステップと、
前記仮想乗り物が前記目的地に走行した場合、前記運転ウィジェットをクリック可能状態に設定し、或いは、前記運転ウィジェットの表示を復元するステップと、をさらに含む、請求項1乃至の何れかに記載の方法。
a driving widget is displayed in the manual driving mode, and the driving widget is clickable;
The method includes:
setting the driving widget to a non-clickable state in the automatic driving mode, or hiding the driving widget;
7. The method according to claim 1, further comprising the step of setting the driving widget to a clickable state or restoring the display of the driving widget when the virtual vehicle has traveled to the destination. the method of.
前記自動運転モードにおいて運転モード切り替えウィジェットを表示するステップと、
前記運転モード切り替えウィジェットに対するトリガ操作に応じて、前記仮想乗り物を前記手動運転モードに切り替え、前記運転ウィジェットをクリック可能状態に設定し、或いは、前記運転ウィジェットの表示を復元するステップと、をさらに含む、請求項に記載の方法。
Displaying a driving mode switching widget in the automatic driving mode;
The method further includes the step of switching the virtual vehicle to the manual driving mode, setting the driving widget to a clickable state, or restoring the display of the driving widget in response to a trigger operation on the driving mode switching widget. , the method according to claim 7 .
前記手動運転モードにおいてアイテム使用ウィジェットが表示されておらず、前記アイテム使用ウィジェットは、前記仮想オブジェクトが仮想アイテムを使用するように制御するために使用され、
前記マーキング操作に応じて前記仮想乗り物を自動運転モードに切り替えた後、前記方法は、
自動運転モードにおいて前記アイテム使用ウィジェットを表示するステップと、
前記アイテム使用ウィジェットに対するトリガ操作に応じて、前記仮想オブジェクトが前記仮想アイテムを使用するように制御するステップと、をさらに含む、請求項1乃至の何れかに記載の方法。
In the manual operation mode, the item use widget is not displayed, and the item use widget is used to control the virtual object to use the virtual item;
After switching the virtual vehicle to an autonomous driving mode in response to the marking operation, the method includes:
Displaying the item usage widget in automatic driving mode;
9. The method according to claim 1 , further comprising controlling the virtual object to use the virtual item in response to a trigger operation on the item usage widget.
前記自動運転領域は、前記仮想環境内の所定道路を含む、請求項1乃至の何れかに記載の方法。 10. The method according to claim 1, wherein the automatic driving area includes a predetermined road within the virtual environment. 仮想環境における乗り物の運転装置であって、
走行画面及び地図表示ウィジェットを表示する表示モジュールであって、前記走行画面は、仮想オブジェクトが仮想乗り物を運転して仮想環境内を走行する画面であり、前記仮想乗り物は、手動運転モードにある、表示モジュールと、
前記仮想乗り物が前記仮想環境内の自動運転領域に位置する場合、前記地図表示ウィジェットに対するマーキング操作を受け付ける受け付けモジュールであって、前記マーキング操作は、前記地図表示ウィジェットにおいて地点をマーキングする操作である、受け付けモジュールと、
前記マーキング操作に応じて、前記仮想乗り物を自動運転モードに切り替え、前記仮想乗り物が目的地に自動的に走行するように制御する制御モジュールと、を含
前記制御モジュールは、
前記マーキング操作により示されるマーク地点に基づいて前記目的地を決定し、前記目的地は、自動運転領域に位置し、
前記仮想乗り物が所在する現在地点及び前記目的地に基づいて自動運転経路を決定し、前記自動運転経路は、前記自動運転領域に位置し、
前記仮想乗り物を自動運転モードに切り替え、
前記自動運転経路における少なくとも2つのウェイポイントを決定し、前記ウェイポイントは、前記自動運転領域に事前設定されており、
前記少なくとも2つのウェイポイントのウェイポイント順序に従って、前記仮想乗り物が前記目的地に走行するように制御する、装置。
A vehicle driving device in a virtual environment, the device comprising:
A display module that displays a driving screen and a map display widget, the driving screen being a screen in which a virtual object drives a virtual vehicle in a virtual environment, and the virtual vehicle is in a manual driving mode. a display module;
When the virtual vehicle is located in an autonomous driving area in the virtual environment, an acceptance module that accepts a marking operation on the map display widget, the marking operation being an operation of marking a point on the map display widget; reception module,
a control module that switches the virtual vehicle to an automatic driving mode in response to the marking operation and controls the virtual vehicle to automatically travel to a destination;
The control module includes:
determining the destination based on the mark point indicated by the marking operation, the destination being located in an automatic driving area,
determining an automated driving route based on the current location where the virtual vehicle is located and the destination; the automated driving route is located in the automated driving area;
switching the virtual vehicle to autonomous driving mode;
determining at least two waypoints on the automated driving route, the waypoints being preset in the automated driving area;
The apparatus controls the virtual vehicle to travel to the destination according to a waypoint order of the at least two waypoints .
仮想環境における乗り物の運転装置であって、 A vehicle driving device in a virtual environment, the device comprising:
走行画面及び地図表示ウィジェットを表示する表示モジュールであって、前記走行画面は、仮想オブジェクトが仮想乗り物を運転して仮想環境内を走行する画面であり、前記仮想乗り物は、手動運転モードにある、表示モジュールと、 A display module that displays a driving screen and a map display widget, the driving screen being a screen in which a virtual object drives a virtual vehicle in a virtual environment, and the virtual vehicle is in a manual driving mode. a display module;
前記仮想乗り物が前記仮想環境内の自動運転領域に位置する場合、前記地図表示ウィジェットに対するマーキング操作を受け付ける受け付けモジュールであって、前記マーキング操作は、前記地図表示ウィジェットにおいて地点をマーキングする操作である、受け付けモジュールと、 When the virtual vehicle is located in an autonomous driving area in the virtual environment, an acceptance module that accepts a marking operation on the map display widget, the marking operation being an operation of marking a point on the map display widget; reception module,
前記マーキング操作に応じて、前記仮想乗り物を自動運転モードに切り替え、前記仮想乗り物が目的地に自動的に走行するように制御する制御モジュールと、を含み、 a control module that switches the virtual vehicle to an automatic driving mode in response to the marking operation and controls the virtual vehicle to automatically travel to a destination;
前記制御モジュールは、 The control module includes:
前記マーキング操作により示されるマーク地点に基づいて前記目的地を決定し、前記目的地は、自動運転領域に位置し、 determining the destination based on the mark point indicated by the marking operation, the destination being located in an automatic driving area,
前記仮想環境内の経路分岐点をノードとして、深さ優先探索アルゴリズムにより、前記仮想乗り物が所在する現在地点と前記目的地との間の少なくとも1つの候補経路を決定し、前記経路分岐点は、前記自動運転領域に事前設定されている分岐点であり、 At least one candidate route between the current location where the virtual vehicle is located and the destination is determined by a depth-first search algorithm using route branch points in the virtual environment as nodes, and the route branch points are: A branch point preset in the automatic driving area,
最短の候補経路を自動運転経路として決定し、前記自動運転経路は、前記自動運転領域に位置し、 determining the shortest candidate route as an automatic driving route, the automatic driving route being located in the automatic driving area,
前記仮想乗り物を自動運転モードに切り替え、前記仮想乗り物が前記自動運転経路に従って前記目的地に走行するように制御する、装置。 An apparatus that switches the virtual vehicle to an automatic driving mode and controls the virtual vehicle to travel to the destination according to the automatic driving route.
仮想環境における乗り物の運転装置であって、 A vehicle driving device in a virtual environment, the device comprising:
走行画面及び地図表示ウィジェットを表示する表示モジュールであって、前記走行画面は、仮想オブジェクトが仮想乗り物を運転して仮想環境内を走行する画面であり、前記仮想乗り物は、手動運転モードにある、表示モジュールと、 A display module that displays a driving screen and a map display widget, the driving screen being a screen in which a virtual object drives a virtual vehicle in a virtual environment, and the virtual vehicle is in a manual driving mode. a display module;
前記仮想乗り物が前記仮想環境内の自動運転領域に位置する場合、前記地図表示ウィジェットに対するマーキング操作を受け付ける受け付けモジュールであって、前記マーキング操作は、前記地図表示ウィジェットにおいて地点をマーキングする操作である、受け付けモジュールと、 When the virtual vehicle is located in an autonomous driving area in the virtual environment, an acceptance module that accepts a marking operation on the map display widget, the marking operation being an operation of marking a point on the map display widget; reception module,
前記マーキング操作に応じて、前記仮想乗り物を自動運転モードに切り替え、前記仮想乗り物が目的地に自動的に走行するように制御する制御モジュールと、を含み、 a control module that switches the virtual vehicle to an automatic driving mode in response to the marking operation and controls the virtual vehicle to automatically travel to a destination;
前記仮想乗り物が前記仮想環境内の自動運転領域に位置するか否かを決定する際に、 In determining whether the virtual vehicle is located in an autonomous driving region within the virtual environment,
第1の衝突検出ボックスと第2の衝突検出ボックスとが衝突している場合、前記仮想乗り物が前記自動運転領域に位置すると決定し、 If the first collision detection box and the second collision detection box have collided, determining that the virtual vehicle is located in the automatic driving area;
前記第1の衝突検出ボックスは、前記仮想乗り物に対応する衝突検出ボックスであり、 The first collision detection box is a collision detection box corresponding to the virtual vehicle,
前記第2の衝突検出ボックスは、前記自動運転領域に対応する衝突検出ボックスである、装置。 The device, wherein the second collision detection box is a collision detection box corresponding to the automatic driving region.
プロセッサと、メモリと、を含む端末であって、
前記メモリには、少なくとも1つの命令、少なくとも1つのプログラム、コードセット又は命令セットが記憶され、
前記少なくとも1つの命令、前記少なくとも1つのプログラム、前記コードセット又は前記命令セットは、請求項1乃至10の何れかに記載の仮想環境における乗り物の運転方法を実現するように、前記プロセッサによりロードされて実行される、端末。
A terminal including a processor and a memory,
the memory stores at least one instruction, at least one program, code set or instruction set;
The at least one instruction, the at least one program, the code set or the instruction set are loaded by the processor to implement the method of driving a vehicle in a virtual environment according to any of claims 1 to 10 . Terminal.
請求項1乃至10の何れかに記載の仮想環境における乗り物の運転方法をコンピュータに実行させるためのプログラム。 A program for causing a computer to execute the method for driving a vehicle in a virtual environment according to any one of claims 1 to 10 .
JP2022520700A 2020-02-04 2020-11-12 Methods, devices, terminals and programs for driving vehicles in virtual environments Active JP7374313B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202010080028.6 2020-02-04
CN202010080028.6A CN111228804B (en) 2020-02-04 2020-02-04 Method, device, terminal and storage medium for driving vehicle in virtual environment
PCT/CN2020/128377 WO2021155694A1 (en) 2020-02-04 2020-11-12 Method and apparatus for driving traffic tool in virtual environment, and terminal and storage medium

Publications (2)

Publication Number Publication Date
JP2022551112A JP2022551112A (en) 2022-12-07
JP7374313B2 true JP7374313B2 (en) 2023-11-06

Family

ID=70878167

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022520700A Active JP7374313B2 (en) 2020-02-04 2020-11-12 Methods, devices, terminals and programs for driving vehicles in virtual environments

Country Status (4)

Country Link
JP (1) JP7374313B2 (en)
KR (1) KR102680606B1 (en)
CN (1) CN111228804B (en)
WO (1) WO2021155694A1 (en)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111228804B (en) * 2020-02-04 2021-05-14 腾讯科技(深圳)有限公司 Method, device, terminal and storage medium for driving vehicle in virtual environment
CN111760275B (en) * 2020-07-08 2024-07-30 网易(杭州)网络有限公司 Game control method and device and electronic equipment
CN112156474B (en) * 2020-09-25 2023-01-24 努比亚技术有限公司 Carrier control method, carrier control equipment and computer readable storage medium
US12128322B2 (en) 2020-11-12 2024-10-29 Tencent Technology (Shenzhen) Company Limited Method and apparatus for driving vehicle in virtual environment, terminal, and storage medium
CN112386912B (en) * 2021-01-21 2021-04-23 博智安全科技股份有限公司 Ground reconnaissance and visibility adjudication method, terminal device and computer-readable storage medium
CN113041619B (en) * 2021-04-26 2023-03-14 腾讯科技(深圳)有限公司 Control method, device, equipment and medium for virtual vehicle
WO2023069556A1 (en) * 2021-10-19 2023-04-27 Cyngn, Inc. System and method of same-loop adaptive simulation for autonomous driving
CN114344899A (en) * 2021-10-26 2022-04-15 腾讯科技(深圳)有限公司 Coordinate axis display method, device, terminal and medium applied to virtual environment
CN114011073B (en) * 2021-11-05 2023-07-14 腾讯科技(深圳)有限公司 Method, apparatus, device and computer readable storage medium for controlling carrier
CN115346362B (en) * 2022-06-10 2024-04-09 斑马网络技术有限公司 Driving data processing method and device, electronic equipment and storage medium
CN115105077A (en) * 2022-06-22 2022-09-27 中国人民解放军空军特色医学中心 System for evaluating individual characteristics of flight personnel

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009175876A (en) 2008-01-22 2009-08-06 Nippon Signal Co Ltd:The Device and method for generating network for searching for all minimum-cost routes, and route search device using the network
JP2015206655A (en) 2014-04-18 2015-11-19 株式会社デンソー Automatic driving plan display device and program for automatic driving plan display device
JP2019043344A (en) 2017-09-01 2019-03-22 株式会社デンソー Vehicle drive control device and method of controlling the same

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8456475B2 (en) * 2003-06-30 2013-06-04 Microsoft Corporation Motion line switching in a virtual environment
US8713696B2 (en) * 2006-01-13 2014-04-29 Demand Media, Inc. Method and system for dynamic digital rights bundling
CN101241507B (en) * 2008-01-17 2011-09-14 腾讯科技(深圳)有限公司 Map road-seeking method and system
JP5482280B2 (en) * 2010-02-18 2014-05-07 ソニー株式会社 Information processing apparatus, electric vehicle, and discharge management method
CN104931037B (en) * 2014-03-18 2018-12-25 厦门高德软件有限公司 A kind of navigation hint information generating method and device
JPWO2018079764A1 (en) * 2016-10-31 2019-09-19 学 秋田 Mobile terminal device, network game system, race game processing method
CN106730841B (en) * 2017-01-17 2020-10-27 网易(杭州)网络有限公司 Path finding method and device
CN108245888A (en) * 2018-02-09 2018-07-06 腾讯科技(深圳)有限公司 Virtual object control method, device and computer equipment
CN109011575B (en) * 2018-07-04 2019-07-02 苏州玩友时代科技股份有限公司 A kind of automatic method for searching, device and equipment
CN110559662B (en) * 2019-09-12 2021-01-26 腾讯科技(深圳)有限公司 Visual angle switching method, device, terminal and medium in virtual environment
CN110681156B (en) * 2019-10-10 2021-10-29 腾讯科技(深圳)有限公司 Virtual role control method, device, equipment and storage medium in virtual world
CN111228804B (en) * 2020-02-04 2021-05-14 腾讯科技(深圳)有限公司 Method, device, terminal and storage medium for driving vehicle in virtual environment

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009175876A (en) 2008-01-22 2009-08-06 Nippon Signal Co Ltd:The Device and method for generating network for searching for all minimum-cost routes, and route search device using the network
JP2015206655A (en) 2014-04-18 2015-11-19 株式会社デンソー Automatic driving plan display device and program for automatic driving plan display device
JP2019043344A (en) 2017-09-01 2019-03-22 株式会社デンソー Vehicle drive control device and method of controlling the same

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
SE-MOOK ファイナルファンタジーXV アルティマニア -シナリオSIDE- 初版,FINAL FANTASY XV ULTIMANIA - SCENARIO SIDE -,株式会社スクウェア・エニックス,2016年12月28日,409~456頁

Also Published As

Publication number Publication date
KR20220046651A (en) 2022-04-14
JP2022551112A (en) 2022-12-07
CN111228804B (en) 2021-05-14
KR102680606B1 (en) 2024-07-03
WO2021155694A1 (en) 2021-08-12
CN111228804A (en) 2020-06-05

Similar Documents

Publication Publication Date Title
JP7374313B2 (en) Methods, devices, terminals and programs for driving vehicles in virtual environments
US11565181B2 (en) Virtual object control method and apparatus, computer device, and storage medium
US11703993B2 (en) Method, apparatus and device for view switching of virtual environment, and storage medium
CN110115838B (en) Method, device, equipment and storage medium for generating mark information in virtual environment
CN111265869B (en) Virtual object detection method, device, terminal and storage medium
CN111035918B (en) Reconnaissance interface display method and device based on virtual environment and readable storage medium
CN110665230B (en) Virtual role control method, device, equipment and medium in virtual world
CN108671543A (en) Labelled element display methods, computer equipment and storage medium in virtual scene
CN111414080B (en) Method, device and equipment for displaying position of virtual object and storage medium
CN112121422B (en) Interface display method, device, equipment and storage medium
CN110917616B (en) Orientation prompting method, device, equipment and storage medium in virtual scene
JP2023504650A (en) INTERACTION TOOL DISPLAY METHOD, DEVICE, TERMINAL AND COMPUTER PROGRAM
CN108786110B (en) Method, device and storage medium for displaying sighting telescope in virtual environment
CN110681156B (en) Virtual role control method, device, equipment and storage medium in virtual world
CN111338534A (en) Virtual object game method, device, equipment and medium
CN112569607A (en) Display method, device, equipment and medium for pre-purchased prop
TW202210147A (en) Method and apparatus for adjusting position of widget in application, device, and storage medium
JP7413563B2 (en) Virtual object control method, device, equipment and computer program
JP2024509064A (en) Location mark display method, device, equipment and computer program
CN108536295A (en) Object control method, apparatus in virtual scene and computer equipment
CN113041619B (en) Control method, device, equipment and medium for virtual vehicle
CN108744511B (en) Method, device and storage medium for displaying sighting telescope in virtual environment
CN113289336A (en) Method, apparatus, device and medium for tagging items in a virtual environment
CN112755517B (en) Virtual object control method, device, terminal and storage medium
TW202243713A (en) Method and apparatus for controlling virtual object, electronic device, non-transitory computer-readable storage medium, and computer program product

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220404

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230516

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230815

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231010

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231024

R150 Certificate of patent or registration of utility model

Ref document number: 7374313

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150