CN113244616A - 基于虚拟场景的互动方法、装置、设备及可读存储介质 - Google Patents
基于虚拟场景的互动方法、装置、设备及可读存储介质 Download PDFInfo
- Publication number
- CN113244616A CN113244616A CN202110703616.5A CN202110703616A CN113244616A CN 113244616 A CN113244616 A CN 113244616A CN 202110703616 A CN202110703616 A CN 202110703616A CN 113244616 A CN113244616 A CN 113244616A
- Authority
- CN
- China
- Prior art keywords
- scene
- virtual
- virtual scene
- camera
- displaying
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/52—Controlling the output signals based on the game progress involving aspects of the displayed game scene
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/53—Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
- A63F13/537—Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/55—Controlling game characters or game objects based on the game progress
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/80—Special adaptations for executing a specific game genre or game mode
- A63F13/837—Shooting of targets
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/64—Circuits for processing colour signals
- H04N9/74—Circuits for processing colour signals for obtaining special effects
- H04N9/75—Chroma key
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/30—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
- A63F2300/308—Details of the user interface
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/60—Methods for processing data by generating or executing the game program
- A63F2300/66—Methods for processing data by generating or executing the game program for rendering three dimensional images
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/80—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
- A63F2300/8076—Shooting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Computer Graphics (AREA)
- Optics & Photonics (AREA)
- Signal Processing (AREA)
- Processing Or Creating Images (AREA)
Abstract
本申请公开了一种基于虚拟场景的互动方法、装置、设备及可读存储介质,涉及虚拟环境领域。该方法包括:接收虚拟场景显示操作;采集第一场景图像;显示虚拟环境画面,其中包括虚拟场景与抠图对象,抠图对象中包括对第一场景图像抠图得到的第一对象,以及对第二场景图像抠图得到的第二对象,其中,第二场景图像是通过配置有摄像头的第二终端采集得到的图像。在显示虚拟场景的过程中,第一对象和第二对象是从摄像头采集的场景图像中抠图得到的,也即将现实中的人、物与虚拟场景结合起来,使现实中的人、物能够与虚拟场景进行直接交互,而无需通过虚拟对象的形式与虚拟场景交互,提高了虚拟场景与用户之间的交互多样性,以及提高了交互效率。
Description
技术领域
本申请实施例涉及虚拟环境领域,特别涉及一种基于虚拟场景的互动方法、装置、设备及可读存储介质。
背景技术
基于虚拟场景的应用程序通常是通过三维模型构建虚拟环境后,基于虚拟环境运行的程序,该应用程序运行时,玩家能够通过控制虚拟对象在虚拟环境之中运动,从而与虚拟环境进行互动。
相关技术中,玩家在控制虚拟环境中的虚拟对象时,可以通过触摸显示屏进行控制,也可以通过外部输入设备输入控制信号进行控制,虚拟对象则根据玩家的控制实现在虚拟环境中的运动。
然而,通过上述方式实现的互动过程停留在虚拟对象在虚拟环境中的互动过程上,互动过程较为单一,且玩家需要对虚拟对象进行控制完成互动,互动实现过程较为繁琐。
发明内容
本申请实施例提供了一种基于虚拟场景的互动方法、装置、设备及可读存储介质,可以提高玩家与虚拟环境进行互动的多样性和效率。所述技术方案如下:
一方面,提供了一种基于虚拟场景的互动方法,应用于配置有摄像头的第一终端中,所述方法包括:
接收虚拟场景显示操作;
响应于所述虚拟场景显示操作通过所述摄像头采集第一场景图像,所述第一场景图像中包括位于所述第一终端的摄像头拍摄范围内的第一对象;
显示虚拟环境画面,所述虚拟环境画面中包括虚拟场景与抠图对象,所述抠图对象中包括对所述第一场景图像进行抠图得到的所述第一对象,以及对第二场景图像进行抠图得到的第二对象,其中,所述第二场景图像是通过配置有摄像头的第二终端采集得到的图像。
另一方面,提供了一种基于虚拟场景的互动装置,应用于配置有摄像头的第一终端中,所述装置包括:
接收模块,用于接收虚拟场景显示操作;
采集模块,用于响应于所述虚拟场景显示操作通过所述摄像头采集第一场景图像,所述第一场景图像中包括位于所述第一终端的摄像头拍摄范围内的第一对象;
显示模块,用于显示虚拟环境画面,所述虚拟环境画面中包括虚拟场景与抠图对象,所述抠图对象中包括对所述第一场景图像进行抠图得到的所述第一对象,以及对第二场景图像进行抠图得到的第二对象,其中,所述第二场景图像是通过配置有摄像头的第二终端采集得到的图像。
另一方面,提供了一种计算机设备,所述计算机设备包括处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现如上述本申请实施例中任一所述的基于虚拟场景的互动方法。
另一方面,提供了一种计算机可读存储介质,所述存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由处理器加载并执行以实现如上述本申请实施例中任一所述的基于虚拟场景的互动方法。
另一方面,提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行上述实施例中任一所述的基于虚拟场景的互动方法。
本申请实施例提供的技术方案带来的有益效果至少包括:
在显示虚拟场景的过程中,在虚拟场景中增加显示第一对象和第二对象,其中,第一对象和第二对象是从摄像头采集的场景图像中抠图得到的,也即将现实中的人、物与虚拟场景结合起来,使现实中的人、物能够与虚拟场景进行直接交互,而无需通过虚拟对象的形式与虚拟场景交互,提高了虚拟场景与用户之间的交互多样性,以及无需玩家对虚拟对象进行控制与虚拟场景进行交互,提高了交互效率。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请一个示例性实施例提供的抠图对象生成过程示意图;
图2是本申请一个示例性实施例提供的电子设备的结构框图;
图3是本申请一个示例性实施例提供的实施环境示意图;
图4是本申请一个示例性实施例提供的基于虚拟场景的互动方法的流程图;
图5是基于图4示出的实施例提供的虚拟环境画面的界面示意图;
图6是本申请一个示例性实施例提供的实施环境整体示意图;
图7是本申请另一个示例性实施例提供的基于虚拟场景的互动方法的流程图;
图8是基于图7示出的实施例提供的观察角度变化过程的示意图;
图9是本申请另一个示例性实施例提供的基于虚拟场景的互动观察方法的流程图;
图10是基于图9示出的实施例提供的角度调整控件的界面示意图;
图11是本申请一个示例性实施例提供的基于虚拟场景的互动过程整体流程图;
图12是本申请一个示例性实施例提供的基于虚拟场景的互动装置的结构框图;
图13是本申请另一个示例性实施例提供的基于虚拟场景的互动装置的结构框图;
图14是本申请一个示例性的实施例提供的终端的结构框图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
首先,对本申请实施例中涉及的名词进行简单介绍:
虚拟环境:是应用程序在终端上运行时显示(或提供)的虚拟环境。该虚拟环境可以是对真实世界的仿真环境,也可以是半仿真半虚构的环境,还可以是纯虚构的环境。虚拟环境可以是二维虚拟环境、2.5维虚拟环境和三维虚拟环境中的任意一种,本申请对此不加以限定。下述实施例以虚拟环境是三维虚拟环境来举例说明。本申请实施例中,该虚拟环境又称为虚拟场景。
抠图对象:是指通过实景摄像头采集得到场景图像后,从场景图像中抠图得到的指定对象。示意性的,本申请实施例中,以从场景图像中对人像进行抠图得到抠图对象为例进行说明。示意性的,请参考图1,其示出了本申请一个示例性实施例提供的抠图对象生成过程示意图,如图1所示,通过实景摄像头100对场景进行图像采集,得到场景图像110,其中,实景摄像头100的图像采集范围内包括人物120,从而场景图像110中包括对应的对象121,将对象121从场景图像110中抠出,得到抠图对象122。
本申请实施例中,通过在虚拟环境画面中显示虚拟场景以及位于虚拟场景中的抠图对象,营造玩家自身在虚拟场景中进行互动的体验。
本申请中的终端可以是台式计算机、膝上型便携计算机、手机、平板电脑、电子书阅读器、MP3(Moving Picture Experts Group Audio Layer III,动态影像专家压缩标准音频层面3)播放器、MP4(Moving Picture Experts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器等等。该终端中安装和运行有支持虚拟环境的应用程序,比如支持三维虚拟环境的应用程序。该应用程序可以是虚拟现实应用程序、三维地图程序、军事仿真程序、第三人称射击游戏(Third-Person Shooting game,FPS)、第一人称射击游戏(First-Person Shooting game,FPS)、多人在线战术竞技游戏(Multiplayer OnlineBattle Arena Games,MOBA)中的任意一种。可选地,该应用程序可以是单机版的应用程序,比如单机版的三维游戏程序,也可以是网络联机版的应用程序。
图2示出了本申请一个示例性实施例提供的电子设备的结构框图。该电子设备200包括:操作系统220和应用程序222。
操作系统220是为应用程序222提供对计算机硬件的安全访问的基础软件。
应用程序222是支持虚拟环境的应用程序。可选地,应用程序222是支持三维虚拟环境的应用程序。该应用程序222可以是虚拟现实应用程序、三维地图程序、军事仿真程序、TPS游戏、FPS游戏、MOBA游戏、多人枪战类生存游戏中的任意一种。该应用程序222可以是单机版的应用程序,比如单机版的三维游戏程序,也可以是网络联机版的应用程序。
图3示出了本申请一个示例性实施例提供的计算机系统的结构框图。该计算机系统300包括:第一设备320、服务器340和第二设备360。
第一设备320安装和运行有支持虚拟环境的应用程序。该应用程序可以是虚拟现实应用程序、三维地图程序、军事仿真程序、TPS游戏、FPS游戏、MOBA游戏、多人枪战类生存游戏中的任意一种。第一设备320是第一用户使用的设备,第一用户使用第一设备320控制位于虚拟环境中的第一抠图对象活动,其中,第一设备320配置有第一摄像头,通过第一摄像头对第一用户或者其他图像采集范围内的用户进行图像采集并抠图后,将第一抠图对象显示在虚拟环境中。
第一设备320通过无线网络或有线网络与服务器340相连。
服务器340包括一台服务器、多台服务器、云计算平台和虚拟化中心中的至少一种。服务器340用于为支持三维虚拟环境的应用程序提供后台服务。可选地,服务器340承担主要计算工作,第一设备320和第二设备360承担次要计算工作;或者,服务器340承担次要计算工作,第一设备320和第二设备360承担主要计算工作;或者,服务器340、第一设备320和第二设备360三者之间采用分布式计算架构进行协同计算。
第二设备360安装和运行有支持虚拟环境的应用程序。该应用程序可以是虚拟现实应用程序、三维地图程序、军事仿真程序、FPS游戏、MOBA游戏、多人枪战类生存游戏中的任意一种。第二设备360是第二用户使用的设备,第二用户使用第二设备360控制位于虚拟环境中的第二抠图对象活动,其中,第二设备360配置有第二摄像头,通过第二摄像头对第二用户或者其他图像采集范围内的用户进行图像采集并抠图后,将第二抠图对象显示在虚拟环境中。
可选地,第一抠图对象和第二抠图对象处于同一虚拟环境中。可选地,第一抠图对象和第二抠图对象可以属于同一个队伍、同一个组织、具有好友关系或具有临时性的通讯权限。可选地,第一抠图对象和第二抠图对象也可以属于不同队伍、不同组织、或具有敌对性的两个团体。
可选地,第一设备320和第二设备360上安装的应用程序是相同的,或两个设备上安装的应用程序是不同控制系统平台的同一类型应用程序。第一设备320可以泛指多个设备中的一个,第二设备360可以泛指多个设备中的一个,本实施例仅以第一设备320和第二设备360来举例说明。第一设备320和第二设备360的设备类型相同或不同,该设备类型包括:游戏主机、台式计算机、智能手机、平板电脑、电子书阅读器、MP3播放器、MP4播放器和膝上型便携计算机中的至少一种。以下实施例以设备是台式计算机来举例说明。
本领域技术人员可以知晓,上述设备的数量可以更多或更少。比如上述设备可以仅为一个,或者上述设备为几十个或几百个,或者更多数量。本申请实施例对设备的数量和设备类型不加以限定。
值得注意的是,上述服务器340可以实现为物理服务器,也可以实现为云端的云服务器,其中,云技术(Cloud technology)是指在广域网或局域网内将硬件、软件、网络等系列资源统一起来,实现数据的计算、储存、处理和共享的一种托管技术。云技术基于云计算商业模式应用的网络技术、信息技术、整合技术、管理平台技术、应用技术等的总称,可以组成资源池,按需所用,灵活便利。云计算技术将变成重要支撑。技术网络系统的后台服务需要大量的计算、存储资源,如视频网站、图片类网站和更多的门户网站。伴随着互联网行业的高度发展和应用,将来每个物品都有可能存在自己的识别标志,都需要传输到后台系统进行逻辑处理,不同程度级别的数据将会分开处理,各类行业数据皆需要强大的系统后盾支撑,只能通过云计算来实现。
在一些实施例中,本申请实施例提供的方法可以应用于云游戏场景中,从而通过云服务器完成游戏过程中数据逻辑的计算,而终端负责游戏界面的显示。
在一些实施例中,上述服务器340还可以实现为区块链系统中的节点。区块链(Blockchain)是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链,本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层。
本申请实施例的应用场景包括如下场景中的至少一种:
第一种,应用于游戏场景中,其中,该游戏可以实现为云游戏,也即由云服务器完成游戏过程中的计算逻辑,而终端用于完成游戏过程中的显示逻辑。
示意性的,该游戏可以实现为劲舞游戏、射击游戏、益智游戏中的至少一种。玩家A通过配置有第一摄像头的第一终端采集场景图像,并从场景图像中抠图得到玩家A对应的抠图对象a;玩家B通过配置有第二摄像头的第二终端采集场景图像,并从场景图像中抠图得到玩家B对应的抠图对象b。将抠图对象a和抠图对象b以及预先设置好的虚拟场景显示在终端界面中,从而实现玩家A和玩家B在虚拟场景中互动并参与游戏的过程。
第二种,应用于直播场景中,其中,直播应用程序中包括主播和观众,其中,主播是指创建直播间的用户,观众是指对直播间进行观看的用户,在直播间中,观众能够与观众在虚拟场景中进行互动,或者,主播能够与观众在虚拟场景中进行互动。
示意性的,主播1在直播间中创建虚拟场景互动活动,并邀请观众参与,观众2受邀与主播1共同参与虚拟场景互动活动,主播1通过配置有第一摄像头的第一终端采集场景图像,并从场景图像中抠图得到主播1对应的抠图对象m;观众2通过配置有第二摄像头的第二终端采集场景图像,并从场景图像中抠图得到观众2对应的抠图对象n。将抠图对象m和抠图对象n以及预先设置好的虚拟场景显示在终端界面中,从而实现主播1和观众2在虚拟场景中互动。其中,除观众2以外的其他观众能够对主播1与观众2在虚拟场景中的互动过程进行观看。
结合上述名词简介以及实施环境说明,对本申请实施例中提供的基于虚拟场景的互动方法进行说明,请参考图4,其示出了本申请一个示例性实施例提供的基于虚拟场景的互动方法的流程图,以该方法应用于配置有摄像头的第一终端中为例进行说明,如图4所示,该方法包括:
步骤401,接收虚拟场景显示操作。
在一些实施例中,该虚拟场景显示操作是指用户指示开启虚拟场景的操作。
示意性的,针对不同的应用场景,该虚拟场景显示操作的实现方式包括如下方式中的至少一种:
第一,针对云游戏应用场景,用户触发游戏开启操作作为虚拟场景显示操作,也即根据游戏开启操作启动云游戏对局并进入游戏界面。其中,用户可以与好友组队进入云游戏对局,也可以在进入云游戏对局之后邀请好友组队。
第二,针对直播应用场景,主播帐号触发互动空间开启操作作为虚拟场景显示操作,也即根据互动空间开启操作开启主播帐号与观众帐号进行互动的虚拟场景。
示意性的,玩家在智能设备上打开游戏直播的链接,同时在显示器前固定摄像头设备,确保自己的指定部位或者全身处于摄像头的取景范围内。
在一些实施例中,第一终端所配置的摄像头为2维摄像头,也即,用于对平面图像进行采集。或者,第一终端所配置的摄像头为3维摄像头,也即,在采集图像的过程中对景深信息进行采集。
当第一终端配置的摄像头为2维摄像头时,在终端与服务器之间的数据交互为平面图像基础上的数据交互,减少了数据交互量;当第一终端配置的摄像头为3维摄像头时,终端能够根据采集到的景深信息构建出玩家对应的三维模型,提高虚拟场景中显示的抠图对象的真实性。
步骤402,响应于虚拟场景显示操作通过摄像头采集第一场景图像。
其中,第一场景图像中包括位于与第一终端的摄像头拍摄范围内的第一对象。也即,第一场景图像是指第一终端配置的摄像头所采集得到的图像,其中,第一终端以视频流的形式连续对第一场景图像进行采集,而在第一场景图像的采集过程中,第一对象处于摄像头的拍摄范围内并显示在第一场景图像中。
在一些实施例中,当终端接收到虚拟场景显示操作时,即开启摄像头并通过摄像头对第一场景图像进行采集。
其中,在对第一场景图像进行采集后还需要对第一场景图像进行抠图处理,从第一场景图像中抠图得到第一对象。对第一场景图像进行抠图的过程可以由终端完成,也可以由服务器完成,其中,当对第一场景图像进行抠图的过程由终端完成时,则在摄像头采集得到第一场景图像后,直接对第一场景图像进行抠图处理,从而节约了终端与服务器之间的数据交互量;当对第一场景图像进行抠图的过程由服务器完成时,在摄像头采集得到第一场景图像后,将第一场景图像发送至服务器,由服务器对第一场景图像进行抠图得到第一对象。
步骤403,显示虚拟环境画面,虚拟环境画面中包括虚拟场景与抠图对象。
其中,抠图对象中包括对第一场景图像进行抠图得到的第一对象,以及对第二场景图像进行抠图得到的第二对象,第二场景图像是通过配置有摄像头的第二终端采集得到的图像。
第一对象和第二对象为共同参与在同一虚拟对局中的对象,值得注意的是,本实施例中以虚拟场景中包括第一对象和第二对象为例进行说明,在一些可选的实施例中,虚拟场景中也可以仅包括一个对象,或者包括三个或者三个以上对象,本实施例对此不加以限定。
其中,本实施例中以服务器对场景图像进行抠图为例进行说明,则终端向服务器发送第一场景图像,并接收服务器反馈的画面显示数据,该画面显示数据中包括虚拟场景对应的场景数据以及抠图对象对应的对象数据。
其中,虚拟场景的场景数据是根据预先设定的虚拟场景确定的与虚拟场景对应的数据;或者,场景数据是根据用户对虚拟场景的选择确定的与选择结果对应的数据,提供了用户对虚拟场景进行选择的方案,增加了虚拟场景互动中的多样性;或者,场景数据是根据随机得到的虚拟场景确定的与随机结果对应的数据。本实施例对此不加以限定。
终端基于服务器反馈的场景数据和对象数据显示虚拟环境画面。
在一些实施例中,第一对象和第二对象在虚拟场景中的显示位置是在预设的候选位置中随机确定的,从而增加了对象显示的不确定性;或者,第一对象和第二对象在虚拟场景中的显示位置是服务器根据预设的显示规则向终端指示的。示意性的,对象数据中包括对象显示位置,则基于场景数据显示虚拟场景,并在虚拟场景中的对象显示位置处显示抠图对象。
其中,对象数据中包括第一对象对应的第一对象数据和第二对象对应的第二对象数据,第一对象数据包括第一对象显示位置,第二对象数据包括第二对象显示位置,从而根据第一对象显示位置将第一对象显示在虚拟场景中的对应位置,并根据第二对象显示位置将第二对象显示在虚拟场景中的对应位置。
其中,对象显示位置以坐标的形式实现,也即,将抠图对象的指定标识点处于对象显示位置的方式对抠图对象的显示位置进行指示。示意性的,以抠图对象最小外接框的中心点与对象显示位置重合的方式对抠图对象的显示位置进行指示。
在一些实施例中,抠图对象的显示尺寸与抠图对象在场景图像中的显示大小相关,也即玩家距离摄像头越近,采集得到的场景图像中玩家对应的对象显示区域越大,则抠图得到的抠图对象显示尺寸越大;或者,在另一些实施例中,抠图对象的显示尺寸为服务器根据抠图得到的大小按照预设尺寸要求调整得到的。
在一些实施例中,虚拟环境画面上还叠加显示有场景图像,如:虚拟环境换面的右上角叠加显示有第一场景图像和第二场景图像。示意性的,图5是本申请一个示例性实施例提供的虚拟环境画面的界面示意图,如图5所示,在虚拟环境画面500上叠加显示有第一场景图像510和第二场景图像520,第一场景图像510中包括第一对象511,与虚拟环境画面500中显示的第一对象511对应,也即虚拟环境画面500中显示的第一对象511是从第一场景图像510中抠图得到的;第二场景图像520中包括第二对象521,与虚拟环境画面500中显示的第二对象521对应,也即虚拟环境画面500中显示的第二对象521是从第二场景图像520中抠图得到的。
在一些实施例中,对虚拟场景进行观察的角度能够调整。其中,目标帐号在虚拟场景中对应一个对虚拟场景进行观察的摄像机模型;或者,目标帐号在虚拟场景中对应多个对虚拟场景进行观察的摄像机模型。
当目标帐号在虚拟场景中对应一个对虚拟场景进行观察的摄像机模型时,则当观察角度需要调整时,对摄像机模型在虚拟场景中的观察位置进行调整;示意性的,如图5所示,在虚拟环境画面500上还显示有摄像机模型标识530,其中包括第一摄像机模型531、第二摄像机模型532、第三摄像机模型533和第四摄像机模型534;当目标帐号对应一个摄像机模型时,以目标帐号对应第一摄像机模型531为例,则第二摄像机模型532、第三摄像机模型533和第四摄像机模型534为其他参与虚拟场景的帐号对虚拟场景进行观察采用的摄像机模型。当目标帐号需要调整对虚拟场景进行观察的角度时,对第一摄像机模型531在虚拟场景中的观察位置进行调整;或者,对第一摄像机模型531在虚拟场景中的观察焦距进行调整。
当目标帐号在虚拟场景中对应多个摄像机模型时,则当观察角度需要调整时,在观察虚拟环境的摄像机模型之间进行切换。也即,接收视角调整操作,基于视角调整操作,将观察虚拟场景与抠图对象的第一观察角度调整为第二观察角度,其中,第一观察角度与虚拟场景中的第一摄像机模型对应,第二观察角度与虚拟场景中的第二摄像机模型对应。可选地,确定目标帐号在虚拟场景中对应的摄像机模型,其中,摄像机模型至少包括第一摄像机模型和第二摄像机模型,第一摄像机模型为当前对虚拟场景进行观察所应用的摄像机模型,基于视角调整操作,将观察虚拟场景的第一摄像机模型切换至第二摄像机模型,以第二观察角度对虚拟场景进行观察。其中,第一摄像机模型第第一观察角度与第二摄像机模型的第二观察角度不同。
示意性的,如图5所示,在虚拟环境画面500上还显示有摄像机模型标识530,其中包括第一摄像机模型531、第二摄像机模型532、第三摄像机模型533和第四摄像机模型534;当目标帐号对应多个摄像机模型时,示意性的,第一摄像机模型531、第二摄像机模型532、第三摄像机模型533和第四摄像机模型534皆为目标帐号在虚拟场景中对应的摄像机模型。示意性的,目标帐号当前通过第一摄像机模型531对虚拟场景进行观察,当目标帐号需要调整对虚拟场景进行观察的角度时,基于视角调整操作,从第一摄像机模型531切换至第二摄像机模型532,通过第二摄像机模型532对虚拟场景以及抠图对象进行观察。
在一些实施例中,调整对虚拟场景进行观察的角度时,根据角度变化实时调整抠图对象的显示方向,保持抠图对象面对观察角度显示。
综上所述,本申请实施例提供的方法,在显示虚拟场景的过程中,在虚拟场景中增加显示第一对象和第二对象,其中,第一对象和第二对象是从摄像头采集的场景图像中抠图得到的,也即将现实中的人、物与虚拟场景结合起来,使现实中的人、物能够与虚拟场景进行直接交互,而无需通过虚拟对象的形式与虚拟场景交互,提高了虚拟场景与用户之间的交互多样性,以及无需玩家对虚拟对象进行控制与虚拟场景进行交互,提高了交互效率。
示意性的,图6是本申请一个示例性实施例提供的实施环境整体示意图,如图6所示,玩家A操作智能设备610进行游戏参与,智能设备610配置有摄像头对玩家A进行图像采集;玩家B操作智能设备620进行游戏参与,智能设备620配置有摄像头对玩家B进行图像采集。服务器640接收智能设备610、智能设备620发送的采集的场景图像,并对场景图像进行抠图,得到玩家A、玩家B以对应的抠图对象,将虚拟场景和抠图对象反馈至观看终端650进行显示,其中,智能设备610、智能设备620也属于观看终端。
在一些实施例中,用户首先需要进行配准,从而将对象与图像背景进行区分,提高对象的抠图准确率。图7是本申请另一个示例性实施例提供的基于虚拟场景的互动方法的流程图,以该方法应用于配置有摄像头的第一终端中为例进行说明,如图7所示,该方法包括:
步骤701,接收虚拟场景显示操作。
在一些实施例中,该虚拟场景显示操作是指用户指示开启虚拟场景的操作。
示意性的,玩家在智能设备上打开游戏直播的链接,同时在显示器前固定方式摄像头设备,确保自己的指定部位或者全身处于摄像头的取景范围内。
步骤702,响应于虚拟场景显示操作通过摄像头采集第一场景图像。
其中,第一场景图像中包括位于与第一终端的摄像头拍摄范围内的第一对象。也即,第一场景图像是指第一终端配置的摄像头所采集得到的图像。
步骤703,显示校准画面,校准画面中包括第一场景图像,第一场景图像中包括指示框和指示线。
其中,指示框用于对第一对象进行框选指示,指示线位于第一场景图像的指定位置且将第一场景图像分割为第一区域和第二区域。
示意性的,请参考图8,其示出了本申请一个示例性实施例提供的校准画面的示意图,如图8所示,在校准画面800中显示有第一场景图像810,第一场景图像810中包括第一对象820、指示框830以及指示线840,其中,指示框830通过预先训练好的对象识别模型对第一对象820进行框选,指示线840纵向显示在第一场景图像820中间,将第一场景图像810分为左半区域841和右半区域842。
值得注意的是,上述图8中,以指示线纵向显示为例进行说明,在一些实施例中,指示线也可以实现为横向显示,本实施例对此不加以限定。
步骤704,通过采集第一对象从第一位置移动至第二位置的阶段图像,对第一场景图像的背景部分进行指示。
其中,第一位置为指示框位于第一区域的位置,第二位置为指示框位于第二区域的位置。也即,控制指示框从第一场景图像的第一区域移动至第一场景图像的第二区域,从而在指示框在第一区域内显示时,第二区域内显示的内容为完整的背景图像,当指示框在第二区域内显示时,第一区域内显示的内容为完整的背景图像,将两部分完整的背景图像结合,即可得到第一场景图像中除第一对象以外完整的背景图像,后续在对的第一场景图像中的第一对象进行抠图时,能够根据已识别得到的背景图像实现抠图过程,提高了抠图结果的准确率。
示意性的,请参考图9,其示出了本申请一个示例性实施例提供的校准过程的示意图,如图9所示,初始时刻第一对象910位于第一场景图像900的中间位置,首先玩家向左移动,从而第一对象910位于第一场景图像900的左侧位置,且使得指示框920完整位于指示线930的左侧;继而玩家向右移动,从而第一对象910位于第一场景图像900的右侧位置,且使得指示框920完整位于指示线930的右侧,根据指示框920完整位于指示线930的左侧时,指示线930右侧的图像,以及指示框920完整位于指示线930的右侧时,指示线930左侧的图像,得到第一场景图像900的背景图像,为从第一场景图像900中抠图得到第一对象910提供基础。
值得注意的是,上述过程中以第一场景图像的校准过程为例进行说明,本申请实施例中,第二场景图像的校准过程与第一场景图像的校准过程一致,本申请实施例不加以赘述。
步骤705,显示虚拟环境画面,虚拟环境画面中包括虚拟场景与抠图对象。
其中,抠图对象中包括对第一场景图像进行抠图得到的第一对象,以及对第二场景图像进行抠图得到的第二对象,第二场景图像是通过配置有摄像头的第二终端采集得到的图像。
在一些实施例中,响应于第一对象和第二对象的配准过程完成,显示虚拟环境画面,服务器根据第一对象配准后的第一背景区域对第一场景图像中的第一对象进行抠图处理,同理,服务器根据第二对象配准后的第二背景区域对第二场景图像中的第二对象进行抠图处理,从而在虚拟场景中显示第一对象和第二对象。
综上所述,本申请实施例提供的方法,在显示虚拟场景的过程中,在虚拟场景中增加显示第一对象和第二对象,其中,第一对象和第二对象是从摄像头采集的场景图像中抠图得到的,也即将现实中的人、物与虚拟场景结合起来,使现实中的人、物能够与虚拟场景进行直接交互,而无需通过虚拟对象的形式与虚拟场景交互,提高了虚拟场景与用户之间的交互多样性,以及无需玩家对虚拟对象进行控制与虚拟场景进行交互,提高了交互效率。
本实施例提供的方法,通过校准的过程,对第一场景图像以及第二场景图像的背景区域进行确定,从而为后续对第一场景图像进行抠图得到第一对象,以及为后续对的第二场景图像进行抠图得到第二对象提供基础,提高了从第一场景图像中抠图得到第一对象的准确率,以及提高了从第二场景图像中抠图得到第二对象的准确率。
在一个可选的实施例中,上述第一对象和第二对象还能够在虚拟场景中进行互动。图10是本申请另一个示例性实施例提供的基于虚拟场景的互动方法的流程图,以该方法应用于配置有摄像头的第一终端中为例进行说明,如图10所示,该方法包括:
步骤1001,接收虚拟场景显示操作。
在一些实施例中,该虚拟场景显示操作是指用户指示开启虚拟场景的操作。
示意性的,玩家在智能设备上打开游戏直播的链接,同时在显示器前固定方式摄像头设备,确保自己的指定部位或者全身处于摄像头的取景范围内。
步骤1002,响应于虚拟场景显示操作通过摄像头采集第一场景图像。
其中,第一场景图像中包括位于与第一终端的摄像头拍摄范围内的第一对象。也即,第一场景图像是指第一终端配置的摄像头所采集得到的图像。
步骤1003,显示虚拟环境画面,虚拟环境画面中包括虚拟场景与抠图对象。
其中,抠图对象中包括对第一场景图像进行抠图得到的第一对象,以及对第二场景图像进行抠图得到的第二对象,第二场景图像是通过配置有摄像头的第二终端采集得到的图像。
在一些实施例中,响应于第一对象和第二对象的配准过程完成,显示虚拟环境画面,服务器根据第一对象配准后的第一背景区域对第一场景图像中的第一对象进行抠图处理。
步骤1004,响应于第一对象和第二对象在虚拟场景中符合互动要求,通过虚拟环境画面显示互动动画。
在一些实施例中,响应于第一对象和第二对象的抠图动作符合动作要求,通过虚拟环境画面显示互动动画。其中,响应于第一对象和第二对象中的其中一个对象抠图动作符合动作要求,显示互动动画;或者,响应于第一对象和第二对象的抠图动作皆符合动作要求,显示互动动画。
其中,动作要求包括如下情况中的至少一种:
第一种,虚拟场景中包括互动触发物体,响应于第一对象的抠图动作与互动触发物体接触,通过虚拟环境画面显示第一对象与虚拟场景之间的互动动画;或者,响应于第二对象的抠图动作与互动触发物体接触,通过虚拟环境画面显示第二对象与虚拟场景之间的互动动画。
示意性的,以第一对象的互动过程为例进行说明,在虚拟场景中显示有目标物体,第一对象通过执行任意动作与目标物体接触,从而触发第一对象在虚拟场景中的显示特效。如:第一对象与目标物体接触后,在虚拟场景中围绕第一对象显示烟花特效。
值得注意的是,上述举例中以第一对象与虚拟场景之间的互动动画为例进行说明,本实施例还可以实现为当第一对象与目标物体接触后,产生与第二对象之间的互动关系,如:显示第一对象向第二对象递花的动画。
第二种,响应于第一对象和第二对象的抠图动作与预设基准动作匹配,通过虚拟环境画面显示与预设基准动作对应的互动动画。
示意性的,当第一对象和第二对象的动作皆为双臂张开的动作时,则表示第一对象和第二对象与预设基准动作匹配,并显示第一对象和第二对象手拉手跳舞的动画。
上述在判断第一对象和第二对象的动作与预设基准动作的匹配情况时,以第一对象为例,通过服务器对第一对象的识别在第一对象上设置骨骼点,用于表示第一对象的骨骼动作,从而将第一对象的骨骼动作与预设基准动作进行匹配,得到第一对象的动作与预设基准动作的匹配情况。其中,骨骼点的设置是通过对人像姿势进行计算得到头部、手足等肢体骨骼点的坐标实现的。
第三种,响应于第一对象的抠图动作与预设基准动作匹配,通过虚拟环境画面显示第一对象与虚拟场景的互动动画;或者,响应于第二对象的抠图动作与预设基准动作匹配,通过虚拟环境画面显示第二对象与虚拟场景的互动动画。
值得注意的是,由于本申请实施例中的第一场景图像和第二场景图像为二维图像,故从第一场景图像中抠图得到的第一对象,以及从第二场景图像中抠图得到的第二对象也对应为二维图像,故,互动动画的显示方式包括如下情况中的至少一种:
1、创作与第一对象和第二对象对应的三维虚拟对象进行互动动作的执行,从而显示互动动画。
其中,第一对象和第二对象对应的三维虚拟对象可以是在预设三维虚拟模型的基础上,根据对第一对象和第二对象的图像识别结果,对发型、发色、衣服颜色、下装类型、下装颜色、鞋子类型、鞋子颜色等模型部分和模型参数进行调整得到的三维模型。
2、在预设三维虚拟模型的头部位置贴上第一对象的头部贴图作为第一对象参与互动的模型,在预设三维虚拟模型的头部位置贴上第二对象的头部贴图作为第二对象参与互动的模型。
3、显示第一对象和第二对象在横向平面内互动的动画,如:第一对象和第二对象的动作为向身体两侧伸出双手时,显示第一对象和第二对象牵手面对镜头的跳舞动画。
综上所述,本申请实施例提供的方法,在显示虚拟场景的过程中,在虚拟场景中增加显示第一对象和第二对象,其中,第一对象和第二对象是从摄像头采集的场景图像中抠图得到的,也即将现实中的人、物与虚拟场景结合起来,使现实中的人、物能够与虚拟场景进行直接交互,而无需通过虚拟对象的形式与虚拟场景交互,提高了虚拟场景与用户之间的交互多样性,以及无需玩家对虚拟对象进行控制与虚拟场景进行交互,提高了交互效率。
本实施例提供的方法,提供了第一对象与虚拟场景、对第二对象与虚拟场景以及第一对象与第二对象之间的互动,增加了虚拟场景中的互动方式,提高了用户与虚拟对象或者用户之间的互动多样性。
示意性的,以本申请实施例提供的基于虚拟场景的互动方法应用于云游戏中为例。图11是本申请一个示例性实施例提供的基于虚拟场景的互动过程整体流程图,如图11所示,该过程中包括:
步骤1101,云服务器启动云游戏。
在云服务器中运行云游戏,从而玩家能够接入云服务器进行云游戏。
步骤1102,玩家登陆至大厅。
在一些实施例中,多名玩家使用账号系统登陆到云游戏大厅。
步骤1103,玩家通过大厅加入房间。
一个云游戏房间中包括至少一个玩家,在本申请实施例中,有一个云游戏房间中包括至少两个玩家,且至少两个玩家之间可以互动。
步骤1104,云服务器初始化玩家数据。
云服务器首先将玩家对应的游戏帐号数据进行初始化。
步骤1105,云服务器创建个人渲染相机。
云服务器在游戏场景内创建玩家独有的虚拟摄像机,与玩家一一绑定,用来捕获指定角度的游戏画面回传给指定玩家。
步骤1106,云服务器创建个人音频组。
步骤1107,玩家与云服务器建立连接,并交换编解码信息。
其中,编码和解码为视频处理的对应过程,由云服务器对游戏过程视频进行编码后发送至终端,终端对编码视频进行解码,得到解码视频流进行播放;而终端在通过摄像头采集得到视频流,对摄像头采集的视频流进行编码,并发送至云服务器进行解码以及后续的抠图等处理。
步骤1108,云服务器向玩家发送相机渲染视频流,以及发送编码视频流。
步骤1109,玩家进行数据流模拟输入。
步骤1110,玩家向数据处理服务器发送摄像头采集流。
步骤1111,数据处理服务器向人工智能(Artificial Intelligence,AI)算力服务器进行数据流传递。
步骤1112,AI算力服务器进行骨骼计算和视频抠图。
AI算力服务器对终端摄像头采集的视频流的每一帧进行抠图,去除背景抠出人像,按照人像姿势计算手足、头部等肢体骨骼点坐标。
步骤1113,AI算力服务器向云服务器进行数据流传递。
AI算力服务器完成抠图后,将带有透明背景的视频流(图片流)连同骨骼点坐标数据传递到云服务器;云服务器收到抠图后的视频流,渲染到游戏中,根据骨骼点坐标实现触碰特效等功能;场景内的相机渲染出包含人像的场景内容,传输到玩家端进行游戏画面的显示。
图12是本申请一个示例性实施例提供的基于虚拟场景的互动装置结构框图,如图12所示,以该装置应用于配置有摄像头的第一终端中,该装置包括:
接收模块1210,用于接收虚拟场景显示操作;
采集模块1220,用于响应于所述虚拟场景显示操作通过所述摄像头采集第一场景图像,所述第一场景图像中包括位于所述第一终端的摄像头拍摄范围内的第一对象;
显示模块1230,用于显示虚拟环境画面,所述虚拟环境画面中包括虚拟场景与抠图对象,所述抠图对象中包括对所述第一场景图像进行抠图得到的所述第一对象,以及对第二场景图像进行抠图得到的第二对象,其中,所述第二场景图像是通过配置有摄像头的第二终端采集得到的图像。
在一个可选的实施例中,所述装置还包括:
发送模块1240,用于向服务器发送所述第一场景图像;
所述接收模块1210,还用于接收服务器反馈的画面显示数据,所述画面显示数据中包括所述虚拟场景对应的场景数据以及所述抠图对象对应的对象数据;
所述显示模块1230,还用于基于所述场景数据和所述对象数据显示所述虚拟环境画面。
在一个可选的实施例中,所述对象数据中包括对象显示位置;
所述显示模块1230,还用于基于所述场景数据显示所述虚拟场景;
所述显示模块1230,还用于基于所述对象显示位置定位所述抠图对象对应所述虚拟场景的显示位置;在所述显示位置处显示所述抠图对象。
在一个可选的实施例中,所述显示模块1230,还用于显示校准画面,所述校准画面中包括所述第一场景图像,所述第一场景图像中包括指示框和指示线,所述指示框用于对所述第一对象进行框选指示,所述指示线位于所述第一场景图像的指定位置且将所述第一场景图像分割为第一区域和第二区域;
所述采集模块1220,还用于通过采集所述第一对象从第一位置移动至第二位置的阶段图像,对所述第一场景图像的背景部分进行指示,其中,所述第一位置为所述指示框的位于所述第一区域的位置,所述第二位置为所述指示框位于所述第二区域的位置。
在一个可选的实施例中,所述显示模块1230,还用于响应于所述第一对象和所述第二对象在所述虚拟场景中符合互动要求,通过所述虚拟环境画面显示互动动画。
在一个可选的实施例中,所述显示模块1230,还用于响应于所述第一对象和所述第二对象的抠图动作符合动作要求,通过所述虚拟环境画面显示所述互动动画。
在一个可选的实施例中,所述虚拟场景中还包括互动触发物体;
所述显示模块1230,还用于响应于所述第一对象的抠图动作与所述互动触发物体接触,通过所述虚拟环境画面显示所述第一对象与所述虚拟场景之间的互动动画;
或,
所述显示模块1230,还用于响应于所述第二对象的抠图动作与所述互动触发物体接触,通过所述虚拟环境画面显示所述第二对象与所述虚拟场景之间的互动动画。
在一个可选的实施例中,所述显示模块1230,还用于响应于所述第一对象和所述第二对象的抠图动作与预设基准动作匹配,通过所述虚拟环境画面显示与所述预设基准动作对应的互动动画。
综上所述,本申请实施例提供的装置,在显示虚拟场景的过程中,在虚拟场景中增加显示第一对象和第二对象,其中,第一对象和第二对象是从摄像头采集的场景图像中抠图得到的,也即将现实中的人、物与虚拟场景结合起来,使现实中的人、物能够与虚拟场景进行直接交互,而无需通过虚拟对象的形式与虚拟场景交互,提高了虚拟场景与用户之间的交互多样性,以及无需玩家对虚拟对象进行控制与虚拟场景进行交互,提高了交互效率。
需要说明的是:上述实施例提供的基于虚拟场景的互动装置,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将设备的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的基于虚拟场景的互动装置与基于虚拟场景的互动方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
图14示出了本申请一个示例性实施例提供的终端1400的结构框图。该终端1400可以是:智能手机、平板电脑、MP3播放器(Moving Picture Experts Group Audio LayerIII,动态影像专家压缩标准音频层面3)、MP4(Moving Picture Experts Group AudioLayer IV,动态影像专家压缩标准音频层面4)播放器、笔记本电脑或台式电脑。终端1400还可能被称为用户设备、便携式终端、膝上型终端、台式终端等其他名称。
通常,终端1400包括有:处理器1401和存储器1402。
处理器1401可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器1401可以采用DSP(Digital Signal Processing,数字信号处理)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)、PLA(Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器1401也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(Central ProcessingUnit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器1401可以在集成有GPU(Graphics Processing Unit,图像处理器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器1401还可以包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
存储器1402可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器1402还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器1402中的非暂态的计算机可读存储介质用于存储至少一个指令,该至少一个指令用于被处理器1401所执行以实现本申请中方法实施例提供的基于虚拟场景的互动方法。
在一些实施例中,终端1400还可选包括有:外围设备接口1403和至少一个外围设备。处理器1401、存储器1402和外围设备接口1403之间可以通过总线或信号线相连。各个外围设备可以通过总线、信号线或电路板与外围设备接口1403相连。具体地,外围设备包括:射频电路1404、显示屏1405、摄像头1406、音频电路1407、定位组件1408和电源1409中的至少一种。
外围设备接口1403可被用于将I/O(Input/Output,输入/输出)相关的至少一个外围设备连接到处理器1401和存储器1402。在一些实施例中,处理器1401、存储器1402和外围设备接口1403被集成在同一芯片或电路板上;在一些其他实施例中,处理器1401、存储器1402和外围设备接口1403中的任意一个或两个可以在单独的芯片或电路板上实现,本实施例对此不加以限定。
射频电路1404用于接收和发射RF(Radio Frequency,射频)信号,也称电磁信号。射频电路1404通过电磁信号与通信网络以及其他通信设备进行通信。射频电路1404将电信号转换为电磁信号进行发送,或者,将接收到的电磁信号转换为电信号。可选地,射频电路1404包括:天线系统、RF收发器、一个或多个放大器、调谐器、振荡器、数字信号处理器、编解码芯片组、用户身份模块卡等等。射频电路1404可以通过至少一种无线通信协议来与其它终端进行通信。该无线通信协议包括但不限于:万维网、城域网、内联网、各代移动通信网络(2G、3G、4G及5G)、无线局域网和/或WiFi(Wireless Fidelity,无线保真)网络。在一些实施例中,射频电路1404还可以包括NFC(Near Field Communication,近距离无线通信)有关的电路,本申请对此不加以限定。
显示屏1405用于显示UI(User Interface,用户界面)。该UI可以包括图形、文本、图标、视频及其它们的任意组合。当显示屏1405是触摸显示屏时,显示屏1405还具有采集在显示屏1405的表面或表面上方的触摸信号的能力。该触摸信号可以作为控制信号输入至处理器1401进行处理。此时,显示屏1405还可以用于提供虚拟按钮和/或虚拟键盘,也称软按钮和/或软键盘。在一些实施例中,显示屏1405可以为一个,设置终端1400的前面板;在另一些实施例中,显示屏1405可以为至少两个,分别设置在终端1400的不同表面或呈折叠设计;在再一些实施例中,显示屏1405可以是柔性显示屏,设置在终端1400的弯曲表面上或折叠面上。甚至,显示屏1405还可以设置成非矩形的不规则图形,也即异形屏。显示屏1405可以采用LCD(Liquid Crystal Display,液晶显示屏)、OLED(Organic Light-Emitting Diode,有机发光二极管)等材质制备。
摄像头组件1406用于采集图像或视频。可选地,摄像头组件1406包括前置摄像头和后置摄像头。通常,前置摄像头设置在终端的前面板,后置摄像头设置在终端的背面。在一些实施例中,后置摄像头为至少两个,分别为主摄像头、景深摄像头、广角摄像头、长焦摄像头中的任意一种,以实现主摄像头和景深摄像头融合实现背景虚化功能、主摄像头和广角摄像头融合实现全景拍摄以及VR(Virtual Reality,虚拟现实)拍摄功能或者其它融合拍摄功能。在一些实施例中,摄像头组件1406还可以包括闪光灯。闪光灯可以是单色温闪光灯,也可以是双色温闪光灯。双色温闪光灯是指暖光闪光灯和冷光闪光灯的组合,可以用于不同色温下的光线补偿。
音频电路1407可以包括麦克风和扬声器。麦克风用于采集用户及环境的声波,并将声波转换为电信号输入至处理器1401进行处理,或者输入至射频电路1404以实现语音通信。出于立体声采集或降噪的目的,麦克风可以为多个,分别设置在终端1400的不同部位。麦克风还可以是阵列麦克风或全向采集型麦克风。扬声器则用于将来自处理器1401或射频电路1404的电信号转换为声波。扬声器可以是传统的薄膜扬声器,也可以是压电陶瓷扬声器。当扬声器是压电陶瓷扬声器时,不仅可以将电信号转换为人类可听见的声波,也可以将电信号转换为人类听不见的声波以进行测距等用途。在一些实施例中,音频电路1407还可以包括耳机插孔。
定位组件1408用于定位终端1400的当前地理位置,以实现导航或LBS(LocationBased Service,基于位置的服务)。定位组件1408可以是基于美国的GPS(GlobalPositioning System,全球定位系统)、中国的北斗系统或俄罗斯的伽利略系统的定位组件。
电源1409用于为终端1400中的各个组件进行供电。电源1409可以是交流电、直流电、一次性电池或可充电电池。当电源1409包括可充电电池时,该可充电电池可以是有线充电电池或无线充电电池。有线充电电池是通过有线线路充电的电池,无线充电电池是通过无线线圈充电的电池。该可充电电池还可以用于支持快充技术。
在一些实施例中,终端1400还包括有一个或多个传感器1410。该一个或多个传感器1410包括但不限于:加速度传感器1411、陀螺仪传感器1412、压力传感器1413、指纹传感器1414、光学传感器1415以及接近传感器1416。
加速度传感器1411可以检测以终端1400建立的坐标系的三个坐标轴上的加速度大小。比如,加速度传感器1411可以用于检测重力加速度在三个坐标轴上的分量。处理器1401可以根据加速度传感器1411采集的重力加速度信号,控制触摸显示屏1405以横向视图或纵向视图进行用户界面的显示。加速度传感器1411还可以用于游戏或者用户的运动数据的采集。
陀螺仪传感器1412可以检测终端1400的机体方向及转动角度,陀螺仪传感器1412可以与加速度传感器1411协同采集用户对终端1400的3D动作。处理器1401根据陀螺仪传感器1412采集的数据,可以实现如下功能:动作感应(比如根据用户的倾斜操作来改变UI)、拍摄时的图像稳定、游戏控制以及惯性导航。
压力传感器1413可以设置在终端1400的侧边框和/或触摸显示屏1405的下层。当压力传感器1413设置在终端1400的侧边框时,可以检测用户对终端1400的握持信号,由处理器1401根据压力传感器1413采集的握持信号进行左右手识别或快捷操作。当压力传感器1413设置在触摸显示屏1405的下层时,由处理器1401根据用户对触摸显示屏1405的压力操作,实现对UI界面上的可操作性控件进行控制。可操作性控件包括按钮控件、滚动条控件、图标控件、菜单控件中的至少一种。
指纹传感器1414用于采集用户的指纹,由处理器1401根据指纹传感器1414采集到的指纹识别用户的身份,或者,由指纹传感器1414根据采集到的指纹识别用户的身份。在识别出用户的身份为可信身份时,由处理器1401授权该用户执行相关的敏感操作,该敏感操作包括解锁屏幕、查看加密信息、下载软件、支付及更改设置等。指纹传感器1414可以被设置终端1400的正面、背面或侧面。当终端1400上设置有物理按键或厂商Logo时,指纹传感器1414可以与物理按键或厂商Logo集成在一起。
光学传感器1415用于采集环境光强度。在一个实施例中,处理器1401可以根据光学传感器1415采集的环境光强度,控制触摸显示屏1405的显示亮度。具体地,当环境光强度较高时,调高触摸显示屏1405的显示亮度;当环境光强度较低时,调低触摸显示屏1405的显示亮度。在另一个实施例中,处理器1401还可以根据光学传感器1415采集的环境光强度,动态调整摄像头组件1406的拍摄参数。
接近传感器1416,也称距离传感器,通常设置在终端1400的前面板。接近传感器1416用于采集用户与终端1400的正面之间的距离。在一个实施例中,当接近传感器1416检测到用户与终端1400的正面之间的距离逐渐变小时,由处理器1401控制触摸显示屏1405从亮屏状态切换为息屏状态;当接近传感器1416检测到用户与终端1400的正面之间的距离逐渐变大时,由处理器1401控制触摸显示屏1405从息屏状态切换为亮屏状态。
本领域技术人员可以理解,图14中示出的结构并不构成对终端1400的限定,可以包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
可选地,该计算机可读存储介质可以包括:只读存储器(ROM,Read Only Memory)、随机存取记忆体(RAM,Random Access Memory)、固态硬盘(SSD,Solid State Drives)或光盘等。其中,随机存取记忆体可以包括电阻式随机存取记忆体(ReRAM,Resistance RandomAccess Memory)和动态随机存取存储器(DRAM,Dynamic Random Access Memory)。上述本申请实施例序号仅仅为了描述,不代表实施例的优劣。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上所述仅为本申请的可选实施例,并不用以限制本申请,凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。
Claims (14)
1.一种基于虚拟场景的互动方法,其特征在于,应用于配置有摄像头的第一终端中,所述方法包括:
接收虚拟场景显示操作;
响应于所述虚拟场景显示操作通过所述摄像头采集第一场景图像,所述第一场景图像中包括位于所述第一终端的摄像头拍摄范围内的第一对象;
显示虚拟环境画面,所述虚拟环境画面中包括虚拟场景与抠图对象,所述抠图对象中包括对所述第一场景图像进行抠图得到的所述第一对象,以及对第二场景图像进行抠图得到的第二对象,其中,所述第二场景图像是通过配置有摄像头的第二终端采集得到的图像。
2.根据权利要求1所述的方法,其特征在于,所述显示虚拟环境画面,包括:
向服务器发送所述第一场景图像;
接收服务器反馈的画面显示数据,所述画面显示数据中包括所述虚拟场景对应的场景数据以及所述抠图对象对应的对象数据;
基于所述场景数据和所述对象数据显示所述虚拟环境画面。
3.根据权利要求2所述的方法,其特征在于,所述对象数据中包括对象显示位置;
所述基于所述场景数据和所述对象数据显示所述虚拟环境画面,包括:
基于所述场景数据显示所述虚拟场景;
在所述虚拟场景中的所述对象显示位置处显示所述抠图对象。
4.根据权利要求1至3任一所述的方法,其特征在于,所述显示虚拟环境画面之前,还包括:
显示校准画面,所述校准画面中包括所述第一场景图像,所述第一场景图像中包括指示框和指示线,所述指示框用于对所述第一对象进行框选指示,所述指示线位于所述第一场景图像的指定位置且将所述第一场景图像分割为第一区域和第二区域;
通过采集所述第一对象从第一位置移动至第二位置的阶段图像,对所述第一场景图像的背景部分进行指示,其中,所述第一位置为所述指示框的位于所述第一区域的位置,所述第二位置为所述指示框位于所述第二区域的位置。
5.根据权利要求1至3任一所述的方法,其特征在于,所述显示虚拟环境画面之后,还包括:
响应于所述第一对象和所述第二对象在所述虚拟场景中符合互动要求,通过所述虚拟环境画面显示互动动画。
6.根据权利要求5所述的方法,其特征在于,所述响应于所述第一对象和所述第二对象在所述虚拟场景中符合互动要求,通过所述虚拟环境画面显示互动动画,包括:
响应于所述第一对象和所述第二对象的抠图动作符合动作要求,通过所述虚拟环境画面显示所述互动动画。
7.根据权利要求6所述的方法,其特征在于,所述虚拟场景中还包括互动触发物体;
所述响应于所述第一对象和所述第二对象的抠图动作符合动作要求,通过所述虚拟环境画面显示所述互动动画,包括:
响应于所述第一对象的抠图动作与所述互动触发物体接触,通过所述虚拟环境画面显示所述第一对象与所述虚拟场景之间的互动动画;
或,
响应于所述第二对象的抠图动作与所述互动触发物体接触,通过所述虚拟环境画面显示所述第二对象与所述虚拟场景之间的互动动画。
8.根据权利要求6所述的方法,其特征在于,所述响应于所述第一对象和所述第二对象的抠图动作符合动作要求,通过所述虚拟环境画面显示所述互动动画,包括:
响应于所述第一对象和所述第二对象的抠图动作与预设基准动作匹配,通过所述虚拟环境画面显示与所述预设基准动作对应的互动动画。
9.根据权利要求1至3任一所述的方法,其特征在于,所述方法还包括:
接收视角调整操作;
基于所述视角调整操作,将观察所述虚拟场景与所述抠图对象的第一观察角度调整为第二观察角度,其中,所述第一观察角度与所述虚拟场景中的第一摄像机模型对应,所述第二观察角度与所述虚拟场景中的第二摄像机模型对应。
10.根据权利要求9所述的方法,其特征在于,所述基于所述视角调整操作,将观察所述虚拟场景与所述抠图对象的第一观察角度调整为第二观察角度,包括:
确定目标帐号在所述虚拟场景中对应的摄像机模型,所述摄像机模型至少包括所述第一摄像机模型和所述第二摄像机模型,所述第一摄像机模型为当前对所述虚拟场景进行观察所应用的摄像机模型;
基于所述视角调整操作,将观察所述虚拟场景的所述第一摄像机模型切换至所述第二摄像机模型,以所述第二观察角度对所述虚拟场景进行观察。
11.一种基于虚拟场景的互动装置,其特征在于,应用于配置有摄像头的第一终端中,所述装置包括:
接收模块,用于接收虚拟场景显示操作;
采集模块,用于响应于所述虚拟场景显示操作通过所述摄像头采集第一场景图像,所述第一场景图像中包括位于所述第一终端的摄像头拍摄范围内的第一对象;
显示模块,用于显示虚拟环境画面,所述虚拟环境画面中包括虚拟场景与抠图对象,所述抠图对象中包括对所述第一场景图像进行抠图得到的所述第一对象,以及对第二场景图像进行抠图得到的第二对象,其中,所述第二场景图像是通过配置有摄像头的第二终端采集得到的图像。
12.根据权利要求11所述的装置,其特征在于,所述装置还包括:
发送模块,用于向服务器发送所述第一场景图像;
所述接收模块,还用于接收服务器反馈的画面显示数据,所述画面显示数据中包括所述虚拟场景对应的场景数据以及所述抠图对象对应的对象数据;
所述显示模块,还用于基于所述场景数据和所述对象数据显示所述虚拟环境画面。
13.一种计算机设备,其特征在于,所述计算机设备包括处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现如权利要求1至10任一所述的基于虚拟场景的互动方法。
14.一种计算机可读存储介质,其特征在于,所述存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由处理器加载并执行以实现如权利要求1至10任一所述的基于虚拟场景的互动方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110703616.5A CN113244616B (zh) | 2021-06-24 | 2021-06-24 | 基于虚拟场景的互动方法、装置、设备及可读存储介质 |
PCT/CN2022/092190 WO2022267729A1 (zh) | 2021-06-24 | 2022-05-11 | 基于虚拟场景的互动方法、装置、设备、介质及程序产品 |
US18/299,772 US20230245385A1 (en) | 2021-06-24 | 2023-04-13 | Interactive method and apparatus based on virtual scene, device, and medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110703616.5A CN113244616B (zh) | 2021-06-24 | 2021-06-24 | 基于虚拟场景的互动方法、装置、设备及可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113244616A true CN113244616A (zh) | 2021-08-13 |
CN113244616B CN113244616B (zh) | 2023-09-26 |
Family
ID=77189499
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110703616.5A Active CN113244616B (zh) | 2021-06-24 | 2021-06-24 | 基于虚拟场景的互动方法、装置、设备及可读存储介质 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20230245385A1 (zh) |
CN (1) | CN113244616B (zh) |
WO (1) | WO2022267729A1 (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113709515A (zh) * | 2021-09-06 | 2021-11-26 | 广州麦田信息技术有限公司 | 一种新媒体直播和用户线上互动方法 |
WO2022267729A1 (zh) * | 2021-06-24 | 2022-12-29 | 腾讯科技(深圳)有限公司 | 基于虚拟场景的互动方法、装置、设备、介质及程序产品 |
CN115997385A (zh) * | 2022-10-12 | 2023-04-21 | 广州酷狗计算机科技有限公司 | 基于增强现实的界面显示方法、装置、设备、介质和产品 |
WO2024125046A1 (zh) * | 2022-12-15 | 2024-06-20 | 腾讯科技(深圳)有限公司 | 虚拟角色的显示方法、装置、设备及存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104169941A (zh) * | 2011-12-01 | 2014-11-26 | 莱特克拉夫特科技有限责任公司 | 自动跟踪抠像区系统 |
CN105184787A (zh) * | 2015-08-31 | 2015-12-23 | 广州市幸福网络技术有限公司 | 一种自动对人像进行抠图的证照相机及方法 |
CN106792246A (zh) * | 2016-12-09 | 2017-05-31 | 福建星网视易信息系统有限公司 | 一种融合式虚拟场景互动的方法及系统 |
CN110969905A (zh) * | 2019-11-29 | 2020-04-07 | 塔普翊海(上海)智能科技有限公司 | 混合现实的远程教学互动、教具互动系统及其互动方法 |
CN111698390A (zh) * | 2020-06-23 | 2020-09-22 | 网易(杭州)网络有限公司 | 虚拟摄像机控制方法及装置、虚拟演播厅实现方法及系统 |
CN111701238A (zh) * | 2020-06-24 | 2020-09-25 | 腾讯科技(深圳)有限公司 | 虚拟画卷的显示方法、装置、设备及存储介质 |
CN112044068A (zh) * | 2020-09-10 | 2020-12-08 | 网易(杭州)网络有限公司 | 人机交互方法、装置、存储介质及计算机设备 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9791917B2 (en) * | 2015-03-24 | 2017-10-17 | Intel Corporation | Augmentation modification based on user interaction with augmented reality scene |
CN111050189B (zh) * | 2019-12-31 | 2022-06-14 | 成都酷狗创业孵化器管理有限公司 | 直播方法、装置、设备和存储介质 |
CN112148197A (zh) * | 2020-09-23 | 2020-12-29 | 北京市商汤科技开发有限公司 | 增强现实ar交互方法、装置、电子设备及存储介质 |
CN113244616B (zh) * | 2021-06-24 | 2023-09-26 | 腾讯科技(深圳)有限公司 | 基于虚拟场景的互动方法、装置、设备及可读存储介质 |
-
2021
- 2021-06-24 CN CN202110703616.5A patent/CN113244616B/zh active Active
-
2022
- 2022-05-11 WO PCT/CN2022/092190 patent/WO2022267729A1/zh unknown
-
2023
- 2023-04-13 US US18/299,772 patent/US20230245385A1/en active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104169941A (zh) * | 2011-12-01 | 2014-11-26 | 莱特克拉夫特科技有限责任公司 | 自动跟踪抠像区系统 |
CN105184787A (zh) * | 2015-08-31 | 2015-12-23 | 广州市幸福网络技术有限公司 | 一种自动对人像进行抠图的证照相机及方法 |
CN106792246A (zh) * | 2016-12-09 | 2017-05-31 | 福建星网视易信息系统有限公司 | 一种融合式虚拟场景互动的方法及系统 |
CN110969905A (zh) * | 2019-11-29 | 2020-04-07 | 塔普翊海(上海)智能科技有限公司 | 混合现实的远程教学互动、教具互动系统及其互动方法 |
CN111698390A (zh) * | 2020-06-23 | 2020-09-22 | 网易(杭州)网络有限公司 | 虚拟摄像机控制方法及装置、虚拟演播厅实现方法及系统 |
CN111701238A (zh) * | 2020-06-24 | 2020-09-25 | 腾讯科技(深圳)有限公司 | 虚拟画卷的显示方法、装置、设备及存储介质 |
CN112044068A (zh) * | 2020-09-10 | 2020-12-08 | 网易(杭州)网络有限公司 | 人机交互方法、装置、存储介质及计算机设备 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022267729A1 (zh) * | 2021-06-24 | 2022-12-29 | 腾讯科技(深圳)有限公司 | 基于虚拟场景的互动方法、装置、设备、介质及程序产品 |
CN113709515A (zh) * | 2021-09-06 | 2021-11-26 | 广州麦田信息技术有限公司 | 一种新媒体直播和用户线上互动方法 |
CN115997385A (zh) * | 2022-10-12 | 2023-04-21 | 广州酷狗计算机科技有限公司 | 基于增强现实的界面显示方法、装置、设备、介质和产品 |
WO2024077518A1 (zh) * | 2022-10-12 | 2024-04-18 | 广州酷狗计算机科技有限公司 | 基于增强现实的界面显示方法、装置、设备、介质和产品 |
WO2024125046A1 (zh) * | 2022-12-15 | 2024-06-20 | 腾讯科技(深圳)有限公司 | 虚拟角色的显示方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
WO2022267729A1 (zh) | 2022-12-29 |
US20230245385A1 (en) | 2023-08-03 |
CN113244616B (zh) | 2023-09-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111589128B (zh) | 基于虚拟场景的操作控件显示方法及装置 | |
CN111013142B (zh) | 互动效果显示方法、装置、计算机设备及存储介质 | |
CN111050189B (zh) | 直播方法、装置、设备和存储介质 | |
CN113244616B (zh) | 基于虚拟场景的互动方法、装置、设备及可读存储介质 | |
CN107982918B (zh) | 游戏对局结果的展示方法、装置及终端 | |
CN111672106B (zh) | 虚拟场景显示方法、装置、计算机设备及存储介质 | |
CN117085322B (zh) | 基于虚拟场景的互动观察方法、装置、设备及介质 | |
CN111744185B (zh) | 虚拟对象控制方法、装置、计算机设备及存储介质 | |
CN111603770A (zh) | 虚拟环境画面的显示方法、装置、设备及介质 | |
CN111603771A (zh) | 动画生成方法、装置、设备及介质 | |
CN112569600A (zh) | 虚拟场景中的路径信息发送方法、计算机设备及存储介质 | |
CN113509720A (zh) | 虚拟对战的回放方法、装置、终端、服务器及存储介质 | |
CN109806583B (zh) | 用户界面显示方法、装置、设备及系统 | |
CN113181647A (zh) | 信息显示方法、装置、终端及存储介质 | |
CN108579075B (zh) | 操作请求响应方法、装置、存储介质及系统 | |
CN108184130B (zh) | 模拟器系统、直播方法、装置及存储介质 | |
CN110833695B (zh) | 基于虚拟场景的业务处理方法、装置、设备及存储介质 | |
CN112007362A (zh) | 虚拟世界中的显示控制方法、装置、存储介质及设备 | |
CN113194329B (zh) | 直播互动方法、装置、终端及存储介质 | |
CN113599810B (zh) | 基于虚拟对象的显示控制方法、装置、设备及介质 | |
CN112367533B (zh) | 交互业务的处理方法、装置、设备及计算机可读存储介质 | |
CN111651616B (zh) | 多媒体资源的生成方法、装置、设备及介质 | |
CN113457173A (zh) | 远程教学方法、装置、计算机设备及存储介质 | |
CN112774185A (zh) | 牌类虚拟场景中的虚拟牌控制方法、装置及设备 | |
CN112604274A (zh) | 虚拟对象的显示方法、装置、终端及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 40051661 Country of ref document: HK |
|
GR01 | Patent grant | ||
GR01 | Patent grant |