Nothing Special   »   [go: up one dir, main page]

CN112241203A - 三维虚拟角色的控制装置及方法、存储介质及电子设备 - Google Patents

三维虚拟角色的控制装置及方法、存储介质及电子设备 Download PDF

Info

Publication number
CN112241203A
CN112241203A CN202011134430.4A CN202011134430A CN112241203A CN 112241203 A CN112241203 A CN 112241203A CN 202011134430 A CN202011134430 A CN 202011134430A CN 112241203 A CN112241203 A CN 112241203A
Authority
CN
China
Prior art keywords
head
virtual character
control
dimensional virtual
parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011134430.4A
Other languages
English (en)
Inventor
王毅
赵冰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Boguan Information Technology Co Ltd
Original Assignee
Guangzhou Boguan Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou Boguan Information Technology Co Ltd filed Critical Guangzhou Boguan Information Technology Co Ltd
Priority to CN202011134430.4A priority Critical patent/CN112241203A/zh
Publication of CN112241203A publication Critical patent/CN112241203A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6045Methods for processing data by generating or executing the game program for mapping control signals received from the input arrangement into game commands
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/65Methods for processing data by generating or executing the game program for computing the condition of a game character
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Architecture (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本公开涉及计算机领域,具体涉及一种三维虚拟角色的控制装置、一种三维虚拟角色的控制方法、计算机可读存储介质及电子设备,上述装置包括:第一控制模块,用于实时采集主播的头部画面,提取画面的头部特征,并根据头部特征的运动数据控制观众客户端界面中的三维虚拟角色的头部骨骼执行头部动作;第二控制模块,用于实时接收第一控制指令,根据第一控制指令在第一参数库中调用第一控制参数,并根据第一控制参数控制三维虚拟角色的身体骨骼执行身体动作。通过本公开实施例的技术方案,可以根据接收到的画面和控制指令控制虚拟角色的头部、身体及表情等动作,使得虚拟角色具有更丰富的互动形式。

Description

三维虚拟角色的控制装置及方法、存储介质及电子设备
技术领域
本公开涉及计算机领域,具体而言,涉及一种三维虚拟角色的控制装置、一种三维虚拟角色的控制方法、计算机可读存储介质及电子设备。
背景技术
在当今社会中,视频直播的应用场景已经越来越广泛。例如,游戏直播、秀场直播、明星直播、全民直播等。其中,大部分视频直播均采用真人直播的方式进行直播。随着直播技术的发展,一些主播希望用虚拟角色代替真人画面进行直播,达到更好的直播效果。
在相关的虚拟角色直播技术中,通常使用动作捕捉设备进行直播。在直播过程中,通过动作捕捉设备捕捉当前直播主体的全身动作,并将捕捉到的动作数据实时发送给动画模型,从而驱动动画模型进行相应的动作,以实现用动画模型代替真人直播的效果。
然而,在直播中使用的动作捕捉设备价格较为昂贵,操作难度大,且穿戴起来比较麻烦,因此无法普及。同时,动作捕捉设备只能捕捉到主播的身体动作,无法捕捉到主播的头部动作及面部表情,因此会导致虚拟角色的表现形式较为单调等问题。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本公开的目的在于提供一种三维虚拟角色的控制装置、一种三维虚拟角色的控制方法、计算机可读存储介质及电子设备,可以根据接收到的头部画面控制虚拟角色的头部,并根据控制指令控制虚拟角色的身体动作,使得虚拟主播的互动形式更丰富。
本公开的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本公开的实践而习得。
根据本公开的第一方面,提供了一种三维虚拟角色的控制装置,包括:第一控制模块,用于实时采集主播的头部画面,提取至少两个所述头部画面的头部特征,根据所述至少两个头部画面的头部特征计算运动数据,并根据所述头部特征的运动数据控制观众客户端界面中的三维虚拟角色的头部骨骼执行头部动作;第二控制模块,用于实时接收第一控制指令,根据所述第一控制指令在第一参数库中调用第一控制参数,并根据所述第一控制参数控制所述三维虚拟角色的身体骨骼执行身体动作。
可选的,基于前述方案,所述根据至少两个头部画面的头部特征计算运动数据,包括:获取采集时间上,前一个头部画面中头部特征的第一位置,以及后一个头部画面中头部特征的第二位置,并计算所述第二位置和所述第一位置之间的向量差,并将所述向量差确定为所述头部特征的运动数据。
可选的,基于前述方案,所述第一控制模块包括:第一采集单元,用于实时采集主播的头部画面;特征提取单元,提取所述头部画面的头部特征;所述头部特征的运动数据包括旋转数据和移动数据;旋转控制单元,用于将所述旋转数据转换为旋转参数,并根据所述旋转参数控制所述三维虚拟角色的头部骨骼进行旋转;移动控制单元,用于将所述移动数据转换为移动参数,并根据所述移动参数控制所述三维虚拟角色的头部骨骼进行移动。
可选的,基于前述方案,所述装置还包括:第三控制模块,用于实时接收主播的第二控制指令,并根据所述第二控制指令控制所述三维虚拟角色的面部骨骼执行面部动作。
可选的,基于前述方案,所述第二控制指令包括预设操作指令;所述第三控制模块包括:指令接收单元,用于实时接收所述预设操作指令,根据所述预设操作指令在第二参数库中调用第二控制参数;表情控制单元,用于根据所述第二控制参数控制所述面部骨骼执行面部动作,以控制所述虚拟角色的面部表情。
可选的,基于前述方案,所述第二控制指令包括音频数据;所述第三控制模块包括:音频解析单元,用于实时接收所述音频数据,并对所述音频数据进行解析得到对应的音频参数;嘴型控制单元,用于根据所述音频参数在第三参数库中调用第三控制参数,并根据所述第三控制参数控制所述三维虚拟角色的嘴部骨骼执行嘴型动作。
可选的,基于前述方案,所述音频参数包括音调参数、频率参数、强度参数中至少一种。
根据本公开的第二方面,提供了一种三维虚拟角色的控制方法,包括:实时采集主播的头部画面,提取至少两个头部画面的头部特征,根据所述至少两个头部画面的头部特征计算运动数据,并根据所述头部特征的运动数据控制观众客户端界面中的三维虚拟角色的头部骨骼执行头部动作;实时接收第一控制指令,根据所述第一控制指令在第一参数库中调用第一控制参数,并根据所述第一控制参数控制所述三维虚拟橘色的身体骨骼执行身体动作。
可选的,基于前述方案,所述方法还包括:实时接收第二控制指令,并根据所述第二控制指令控制所述三维虚拟角色的面部骨骼执行面部动作。
根据本公开的第三方面,提供了一种计算机可读存储介质,其上存储有计算机程序,所述程序被处理器执行时实现如上述实施例中第一方面所述的三维虚拟角色的控制方法。
根据本公开的第四方面,提供了一种电子设备,包括:
处理器;以及
存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如上述实施例中第一方面所述的三维虚拟角色的控制方法。
本公开实施例提供的技术方案可以包括以下有益效果:
本公开的一种实施例所述提供的一种三维虚拟角色的控制装置,该装置包括:第一控制模块,可以根据头部画面控制虚拟角色的头部动作;第二控制模块,可以根据控制指令控制虚拟角色的身体动作。本公开的方案,一方面,不需要穿戴昂贵且复杂的动作捕捉设备,即可对虚拟主播的身体动作进行控制,成本较低且操作简单;另一方面,该方案还可以根据接收到的头部画面控制虚拟角色的头部,使得虚拟角色的表现形式更丰富。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。在附图中:
图1示出了可以应用本公开实施例的三维虚拟角色的控制装置的示例性系统架构的示意图;
图2示意性示出本公开示例性实施例中三维虚拟角色的控制装置的组成示意图;
图3示意性示出本公开示例性实施例中第一控制模块的组成示意图;
图4示意性示出本公开示例性实施例中提取头部画面的头部特征的示意图;
图5示意性示出本公开示例性实施例中一种头部特征的变化的示意图;
图6示意性示出本公开示例性实施例中另一种头部特征的变化的示意图;
图7示意性示出本公开示例性实施例中通过头部画面控制三维虚拟角色头部骨骼的流程图;
图8示意性示出本公开示例性实施例中通过按键输入控制三维虚拟角色身体骨骼的流程图;
图9示意性示出本公开示例性实施例中一种第三控制模块的组成的示意图;
图10示意性示出本公开示例性实施例中通过按键输入控制三维虚拟角色表情变化的示意图;
图11示意性示出本公开示例性实施例中通过按键输入控制三维虚拟角色面部表情的流程图;
图12示意性示出本公开示例性实施例中通过图像数据控制三维虚拟角色面部表情的流程图;
图13示意性示出本公开示例性实施例中通过按键输入控制三维虚拟角色两次表情变化的示意图;
图14示意性示出本公开示例性实施例中通过按键输入控制三维虚拟角色多次表情变化的示意图;
图15示意性示出本公开示例性实施例中另一种第三控制模块的组成的示意图;
图16示意性示出本公开示例性实施例中通过音频数据控制三维虚拟角色嘴部动作的流程图;
图17示意性示出本公开示例性实施例中一种三维虚拟角色的控制方法的示意图;
图18示意性示出了适于用来实现本公开示例性实施例的电子设备的计算机系统的结构示意图。
具体实施方式
现在将参照附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。此外,所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施例中。在下面的描述中,提供许多具体细节从而给出对本公开的实施例的充分理解。然而,本领域技术人员将意识到,可以实践本公开的技术方案而没有特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知结构、方法、装置、实现、材料或者操作以避免模糊本公开的各方面。
附图中所示的方框图仅仅是功能实体,不一定必须与物理上独立的实体相对应。即,可以采用软件形式来实现这些功能实体,或在一个或多个软件硬化的模块中实现这些功能实体或功能实体的一部分,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
附图中所示的流程图仅是示例性说明,不是必须包括所有的步骤。例如,有的步骤还可以分解,而有的步骤可以合并或部分合并,因此实际执行的顺序有可能根据实际情况改变。另外,下面所有的术语“第一”、“第二”仅是为了区分的目的,不应作为本公开内容的限制。
图1示出了可以应用本公开实施例的三维虚拟角色的控制装置的示例性系统架构的示意图。
如图1所示,系统架构1000可以包括终端设备1001、1002、1003中的一种或多种,网络1004和服务器1005。网络1004用以在终端设备1001、1002、1003和服务器1005之间提供通信链路的介质。网络1004可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。比如服务器1005可以是多个服务器组成的服务器集群等。
用户可以使用终端设备1001、1002、1003通过网络1004与服务器1005交互,以接收或发送消息等。终端设备1001、1002、1003可以是具有显示屏和摄像模组的各种电子设备,包括但不限于智能手机、平板电脑、便携式计算机和台式计算机等等。另外,服务器1005可以是提供各种服务的服务器。
在一种实施例中,本公开的三维虚拟角色的控制装置可以设置在服务器1005中,服务器1005可以获取由终端设备1001、1002、1003发出的画面或控制指令,并根据本公开的三维虚拟角色的控制装置对画面或控制指令进行处理,以实现控制观众客户端界面中的三维虚拟角色的目的。此外,还可以在终端设备1001、1002、1003等设备中设置三维虚拟角色的控制装置,本公开对此不做特殊限定。本公开中的三维虚拟角色的控制装置,可以应用于各种直播场景,或者可以应用于各种需要对虚拟角色进行控制的场景。例如,在游戏直播场景中,主播可以使用本方案的三维虚拟角色的控制装置,通过控制指令和画面控制虚拟角色,使得虚拟角色的表现形式更丰富。下面将结合图2对本示例性实施例中的三维虚拟角色的控制装置200的模块进行更详细的说明。
第一控制模块210,用于实时采集主播的头部画面,提取至少两个头部画面的头部特征,根据至少两个头部画面的头部特征计算运动数据,并根据头部特征的运动数据控制观众客户端界面中的三维虚拟角色的头部骨骼执行头部动作。
在本公开的一种示例实施例中,上述采集主播的头部画面,可以通过第一控制模块所在终端设置的图像采集模块采集得到,其中,图像采集模块可以例如为摄像模组;还可以在其他终端的图像采集模块采集得到头部画面后,通过第一控制模块直接获取该其他终端采集得到的头部画面。需要说明的是,在采集头部画面时,可以直接采集主播头部画面;也可以采集主播上半身画面或全身画面,在这些画面中提取头部画面。本公开对头部画面的来源和采集方式不作特殊限制。
在本公开的一种示例实施例中,在获取到主播的头部画面之后,可以提取头部画面的头部特征,具体地,可以应用图像识别技术提取头部特征。在进行图像识别时,可以在图像中准确标定出人脸的位置和大小,人脸图像中包含的模式特征十分丰富,如直方图特征、颜色特征、模板特征、结构特征及Haar特征等。
在本公开的一种示例实施例中,当主播的头部运动时,可以通过获取到至少两个头部画面提取主播头部的头部特征,并根据至少两个头部画面的头部特征计算运动数据,并根据上述运动数据控制观众客户端界面中的三维虚拟角色的头部骨骼执行头部动作。具体的,当主播的头部发生运动时,其头部特征也随之运动,此时可以根据运动前获取的头部画面中头部特征的位置,以及运动后获取的头部画面中头部特征的位置计算头部特征的位置变化数据,并将该头部特征的位置变化数据作为头部特征的运动数据与三维虚拟角色相关联,然后根据头部特征的运动数据控制三维虚拟角色的头部骨骼执行头部动作。
在本公开的一种示例实施例中,当获取到至少两个头部画面,并提取了两个头部画面的头部特征时,可以根据采集时间顺序确定前一个头部画面和后一个头部画面,然后将前一个头部画面的头部特征的位置确定为第一位置,将后一个头部画面的头部特征的位置确定为第二位置。然后计算第二位置与第一位置的向量差,并将这个向量差确定为头部特征的运动数据。
在本公开的一种示例实施例中,参照图3所示,第一控制模块300可以包括第一采集单元310、特征提取单元320、旋转控制单元330、移动控制单元340:
第一采集单元310,可以用于实时采集主播的头部画面。
在本公开的一种示例实施例中,主播的头部画面可以使用多种设备进行采集。例如:可以使用台式计算机上的摄像头设备进行采集,也可以使用手机上的前置摄像头或后置摄像头进行采集,还可以采用摄像机进行采集,只要能够采集到实物景象并生成头部画面即可。本公开对头部画面的采集方式并不做特殊限定。
特征提取单元320,可以用于提取上述头部画面的头部特征。
在本公开的一种示例实施例中,提取头部画面的头部特征就是把上述的模式特征的信息挑出来,并利用这些特征实现人脸识别。在进行人脸识别时,可以使用基于几何特征的方法、局部特征分析方法、特征脸方法、神经网络等方法进行识别。具体的,可以采用RealsenseSDK、SmartLogon、Luxand FaceSDK等软件进行人脸识别。举例而言,如图4所示,对“笑脸410”进行特征提取后可以得到特征420,该特征420中包括多个特征点;对“哭脸430”进行特征提取后可以得到特征440,该特征440中也包括多个特征点。需要说明的是,在一些实施例中,针对某些特征,可能仅存在一个特征点,本公开对特征包括的特征点的数量不做特殊限定。
在本公开的一种示例实施例中,当主播的头部运动时,采集到的头部画面的头部特征也随之运动,得到多种运动数据。上述运动数据可以包括旋转数据,还可以包括移动数据。其中,旋转数据可以包括在以主播正面为X轴正向的三维坐标系中,绕X轴旋转的旋转数据、绕Y轴旋转的旋转数据以及绕Z轴旋转的旋转数据等;移动数据可以包括前后移动数据、左右移动数据、斜向移动数据等。
举例而言,如图5所示,当主播在进行直播时,头部进行了旋转动作550,接收到的前一个头部画面510经变化得到后一个头部画面530,提取得到的与前一个头部画面510对应的头部特征520变化为与后一个头部画面530对应的头部特征540,此时,头部特征520中的第一位置P1(x,y,z)变化为第二位置P1′(x′,y′,z′),此时,计算第二位置P1′与第一位置P1之间的向量差,并将这个向量差确定为头部特征的旋转数据。
再如图6所示,当主播在进行直播时,头部进行了旋转动作650,即主播头部向左旋转90°,接收到的前一个头部画面610经变化得到后一个头部画面630,提取得到的与前一个头部画面610对应的头部特征620也变化为与后一个头部画面630对应的头部特征640,此时,头部特征620中的第一位置P2(q,w,e)变化为第二位置P2′(q′,w′,e′),此时,计算第二位置P2′与第一位置P2之间的向量差,并将这个向量差确定为头部特征的旋转数据。
旋转控制单元330,用于将旋转数据转换为旋转参数,并根据旋转参数控制三维虚拟角色的头部骨骼进行旋转;
在本公开的一种示例实施例中,可以将上述单元中得到的旋转数据转换为旋转参数,使得旋转数据可以在各种应用场景中直接使用,在得到旋转参数后,可以将该旋转参数输入至三维环境中,使得三维虚拟角色的头部骨骼进行旋转。
移动控制单元340,用于将移动数据转换为移动参数,并根据移动参数控制三维虚拟角色的头部骨骼进行移动。
在本公开的一种示例实施例中,可以将上述单元中得到的移动数据转换为移动参数,使得移动数据可以在各种应用场景中直接使用,在得到移动参数后,可以将该移动参数输入至三维环境中,使得三维虚拟角色的头部骨骼进行移动。
在本公开的一些示例实施例中,通过上述第一控制模块中的第一采集单元310、特征提取单元320、旋转控制单元330、移动控制单元340,可以实时采集主播的头部画面并提取头部画面的头部特征,并根据头部特征的运动数据控制三维虚拟角色的运动,使得虚拟角色的表现力更加丰富,达到更好的直播效果。
以下参照图7所示,以第一控制模块为三维引擎中的控制模块为例,对本公开实施例中的技术方案进行详细阐述,在具体实现控制的过程中,进行以下步骤以完成第一控制模块的功能:
S710,将三维虚拟角色的骨骼导入三维引擎;
S720,三维引擎通过外部设备采集主播的头部画面;
S730,根据获取到的头部画面计算头部特征的运动数据;
S740,将上述运动数据与三维引擎中的头部骨骼结合,并根据运动数据控制头部骨骼执行相应的动作;
S750,将三维虚拟引擎中的画面实时输出。
通过以上步骤,可以通过外部设备采集主播的头部画面,用户终端上显示的画面随着主播头部的运动而变化,使得三维引擎中的三维虚拟角色头部更加灵活,增加了实时互动的形式。
第二控制模块220,用于实时接收第一控制指令,根据第一控制指令在第一参数库中调用第一控制参数,并根据第一控制参数控制三维虚拟角色的身体骨骼执行身体动作。
在本公开的一种示例实施例中,可以通过输入第一控制指令使得三维虚拟角色的身体骨骼执行身体动作。其中,第一控制指令可以包括按键输入指令、音频输入指令、触控输入指令等,本公开对第一控制指令的输入形式不作特殊限制。
在本公开的一种示例实施例中,每个第一控制指令都对应有一个第一控制参数,当接收到第一控制指令时,在第一参数库中调用与第一控制指令对应的第一控制参数,该第一控制参数可以直接对三维虚拟角色的身体骨骼执行身体动作。
以下参照图8所示,以第二控制模块为三维引擎中的控制模块为例,对本公开实施例中的技术方案进行详细阐述,在具体实现控制的过程中,进行以下步骤以完成第二控制模块的功能:
S810,将三维虚拟角色的骨骼导入三维引擎;
S820,生成三维虚拟角色动作库,三维虚拟角色动作库通过以下步骤生成:
S821,使用动作捕捉设备获取预设对象的动作,其中,该预设对象的动作数据包括骨骼数据;
S823,生成动作BVH文件;
S830,将键盘上的按键与对应的三维虚拟角色动作绑定;
S840,接收到主播在键盘上输入的按键,根据按键绑定的三维虚拟角色动作控制三维虚拟角色的身体骨骼执行对应的动作;
S850,将三维虚拟引擎中的画面实时输出。
通过以上步骤,可以采用按键输入使得三维虚拟角色展现对应的身体动作,使得三维引擎中的三维虚拟角色可以展现多种多样的身体动作,增加了实时互动的形式。
在本公开的一些示例实施例中,通过上述第一控制模块210和第二控制模块220,可以获取头部画面以控制三维虚拟角色,并可以获取第一控制指令以控制三维虚拟角色的身体动作,一方面,不需要穿戴昂贵且复杂的动作捕捉设备,即可对虚拟主播的身体动作进行控制,成本较低且操作简单;另一方面,该方案还可以根据接收到的头部画面控制虚拟角色的头部,使得虚拟角色的表现形式更丰富。
在本公开的一种示例实施例中,除了上述第一控制模块和第二控制模块之外,三维虚拟角色的控制装置还可以包括第三控制模块,第三控制模块可以实时接收主播的第二控制指令,并根据第二控制指令控制三维虚拟角色的面部骨骼执行面部动作。其中,第二控制指令可以包括按键输入指令、音频输入指令、触控输入指令、图像输入指令等,本公开对第一控制指令的输入形式不作特殊限制。
在本公开的一种示例实施例中,上述第三控制模块可以包括:指令接收单元910、表情控制单元920,下面将结合图9对本示例性实施例中的第三控制模块900的单元进行更详细的说明。
指令接收单元910,用于实时接收预设操作指令,根据预设操作指令在第二参数库中调用第二控制参数。
在本公开的一种示例实施例中,三维虚拟角色的控制装置可以实时接收输入的预设操作指令,其中,预设操作指令可以包括按键输入指令、触控输入指令、图像输入指令等。当三维虚拟角色的控制装置获取到预设操作指令时,在第二参数库中调用与之对应的第二控制参数,其中,第二控制参数是可以直接对三维虚拟角色进行控制的参数。
表情控制单元920,用于根据第二控制参数控制面部骨骼执行面部动作,以控制虚拟角色的面部表情。
在本公开的一种示例实施例中,在获取到第二控制参数之后,可以根据第二控制参数对三维虚拟角色进行面部控制,可以使得三维虚拟角色做出“微笑”的表情,也可以使得三维虚拟角色做出“哭泣”的表情等。
举例而言,如图10所示,当主播在键盘上输入“cry”时,三维虚拟角色的控制装置获取到“cry”这个预设控制指令,此时,在控制面部表情的第二参数库中调用与“cry”对应的第二控制参数,该第二控制参数是可以直接对三维虚拟角色的面部表情进行控制的参数,通过将该参数与三维虚拟角色的面部骨骼相关联,以此达到通过控制三维虚拟角色从“微笑”1010做出“哭泣”1020的目的。
以下参照图11所示,以在三维引擎中使用按键输入为预设控制指令为例,对本公开实施例中的技术方案进行详细阐述,在具体实现控制的过程中,进行以下步骤以完成第三控制模块的功能:
S1110,将三维虚拟角色的骨骼导入三维引擎;
S1120,将键盘上的按键与对应的面部表情绑定。例如,将按键1与“微笑”表情绑定;
S1130,接收到主播在键盘上输入的按键,根据按键绑定的面部表情控制三维虚拟角色的面部骨骼执行对应的面部表情;
S1140,将三维虚拟引擎中的画面实时输出。
通过以上步骤,可以采用按键输入使得三维虚拟角色展现对应的表情,三维引擎中的三维虚拟角色面部表情更加丰富,避免三维虚拟角色的呆板。
在本公开的一种示例实施例中,上述预设操作指令可以包括图像数据,上述图像数据可以包括,包括主播面部图像的任意一种图像数据。具体的,预先在三维虚拟角色的控制装置中设置有多个预设表情,其中,上述预设表情一一对应有表情特征。在对获取到的主播面部表情进行特征提取后,如果这些表情特征符合上述预设表情的表情特征,则使三维虚拟角色做出该预设表情。例如,当主播做出“单眨眼”的表情时,上述装置获取到“单眨眼”图像,并对其进行特征提取,然后,将提取到的特征与三维虚拟角色的控制装置中的“单眨眼”预设表情的表情特征进行比对,如比对一致,则控制三维虚拟角色做出“单眨眼”这一的预设表情。通过本实施例的方案,可以使得三维虚拟角色具有更好的表现力。
以下参照图12所示,以在三维引擎中使用图像指令作为预设控制指令为例,对本公开实施例中的技术方案进行详细阐述,在具体实现控制的过程中,进行以下步骤以完成第三控制模块的功能。
S1210,将三维虚拟角色的骨骼导入三维引擎;
S1220,设置需要触发的面部表情的预设条件。例如,该预设条件可以包括嘴角特征和下嘴唇特征的垂直距离大于预设阈值。当嘴角特征和下嘴唇特征的垂直距离大于预设阈值,则触发三维虚拟角色“微笑”的面部表情;
S1230,三维引擎通过外部设备采集图像数据;
S1240,当图像数据中的特征触发对应面部表情的预设条件时,控制三维虚拟角色执行该面部表情。
S1250,将三维虚拟引擎中的画面实时输出。
通过以上步骤,可以通过外部设备采集主播的头部画面,三维虚拟角色显示的面部表情随着主播面部表情的变化而变化,使得三维虚拟角色面部表情更加丰富,增加了实时互动的形式。
进一步的,上述第二控制参数还可以包括多个不断变化的表情参数,即通过一个预设操作指令可以完成多个三维虚拟角色表情的变化。如图13所示,当主播在键盘上输入“101”时,三维虚拟角色的控制装置获取到“101”这个预设控制指令,此时,在控制面部表情的第二参数库中调用与“101”对应的第二控制参数,该第二控制参数包括了“微笑”“哭泣”这两个表情参数,通过将该参数与三维虚拟角色的面部骨骼相关联,以此达到通过控制三维虚拟角色从“无表情”1310先做出“微笑”1320,再做出“哭泣”1330的目的。此外,上述第二控制参数还可以包括多个连续变化的表情参数,如图14所示,从“无表情”1410至“微笑”1460之间还可以设置多个过渡表情,可以包括“微笑1”1420、“微笑2”1430、“微笑3”1440、“微笑4”1450,设置多个过渡表情可以更加顺滑的变换到下一个表情,使得三维虚拟角色的表情变换更加自然。
在本公开的一种示例实施例中,上述第三控制模块可以包括:音频解析单元1510,嘴型控制单元1520,下面将结合图15对本示例性实施例中的第三控制模块1500的单元进行更详细的说明。
音频解析单元1510,用于实时接收音频数据,并对音频数据进行解析得到对应的音频参数。
在本公开的一种示例实施例中,三维虚拟角色控制装置可以接收音频数据,并将音频数据进行解析得到对应的音频参数,其中,音频参数可以包括音调参数、频率参数、强度参数中至少一种。
嘴型控制单元1520,用于根据音频参数在第三参数库中调用第三控制参数,并根据第三控制参数控制三维虚拟角色的嘴部骨骼执行嘴型动作。
在本公开的一种示例实施例中,可以在三维虚拟角色的控制装置中预设有“A”“E”“I”“O”“U”嘴部动作。当主播说话时,实时获取主播发出的音频数据,经过上述音频解析单元1110的解析后,得到音频数据的音调参数,可以将音调参数与“A”“E”“I”“O”“U”的嘴部动作关联起来,当获取到一特定音调时,显示与之对应的嘴部动作。例如,当获取到的音调参数为1000mel时,控制三维虚拟角色的嘴部动作为“E”。
以下参照图16所示,以在三维引擎中使用音频数据作为第二控制指令为例,对本公开实施例中的技术方案进行详细阐述,在具体实现控制的过程中,进行以下步骤以完成第三控制模块的功能。
S1610,将三维虚拟角色的骨骼导入三维引擎;
S1620,设置音频数据对应的嘴部动作。具体的,根据音频数据的音调设置对应“A”“E”“I”“O”“U”嘴部动作;
S1630,三维引擎通过外部设备采集主播音频数据;
S1640,解析音频数据,并判断其中的音调参数对应哪个嘴部动作;
S1650,控制三维虚拟角色执行上述判断的嘴部动作;
S1660,将三维虚拟引擎中的画面实时输出。
通过以上步骤,可以通过外部设备采集主播的音频数据,三维虚拟角色的嘴部动作随着音频数据音调的变化而变化,使得三维引擎中的三维虚拟角色的面部表情更加灵活。
在本公开的一种示例实施例中,当通过上述单元进行解析后得到了频率参数,可以根据频率参数在第三参数库中调用与该频率参数对应的第三控制参数,然后根据第三控制参数控制嘴部骨骼执行嘴型动作。举例而言,当上述单元解析得到的频率参数为1KHz时,使得三维虚拟角色的嘴部骨骼做出“瘪嘴”的动作。
进一步的,可以将音频参数划分为多个范围,每个范围内对应的第三控制参数都不相同,可以包括在每个范围内对应的不同的嘴部动作。例如,当上述单元解析得到的频率参数为900Hz-1000Hz时,三维虚拟角色的嘴部骨骼做出“张嘴”的嘴型动作;当上述单元解析得到的频率参数为1000Hz-1100Hz时,三维虚拟角色的嘴部骨骼做出“抿嘴”的嘴型动作。此外,也可以设置不同范围内对应的嘴部动作相同,但幅度不相同,例如,当上述单元解析得到的强度参数为30dB-60dB时,三维虚拟角色的嘴部骨骼做出“微笑”的嘴型动作;当上述单元解析得到的频率参数为60dB-120dB时,三维虚拟角色的嘴部骨骼做出“大笑”的嘴型动作。
在本公开的一些示例实施例中,通过上述音频解析单元1510,嘴型控制单元1520,可以使用音频数据对三维虚拟角色的嘴部动作进行控制,三维虚拟角色可以根据不同的音频数据展现不同的嘴部动作,一方面,可以使得三维虚拟角色更加具有趣味性,另一方面,当主播暂时不想三维虚拟角色的嘴部动作进行控制时,可以通过输入音频数据改变三维虚拟角色的嘴部动作,避免了直播画面的呆板。
此外,在本公开的示例性实施方式中,还提供了一种三维虚拟角色的控制方法。参照图17所示,上述三维虚拟角色的控制方法包括:步骤S1710:实时采集主播的头部画面,提取至少两个头部画面的头部特征,根据至少两个头部画面的头部特征计算运动数据,并根据头部特征的运动数据控制观众客户端界面中的三维虚拟角色的头部骨骼执行头部动作;步骤S1720:实时接收第一控制指令,根据第一控制指令在第一参数库中调用第一控制参数,并根据第一控制参数控制三维虚拟橘色的身体骨骼执行身体动作。
在本公开的一种示例性实施例中,基于前述方案,方法还包括:实时接收第二控制指令,并根据第二控制指令控制三维虚拟角色的面部骨骼执行面部动作。在本公开的一种示例性实施例中,基于前述方案,根据至少两个头部画面的头部特征计算运动数据,包括:获取采集时间上,前一个头部画面中头部特征的第一位置,以及后一个头部画面中头部特征的第二位置,并计算第二位置和第一位置之间的向量差,并将向量差确定为头部特征的运动数据。在本公开的一种示例性实施例中,基于前述方案,实时采集主播的头部画面;提取头部画面的头部特征,其中,头部特征的运动数据包括旋转数据和移动数据;将旋转数据转换为旋转参数,并根据旋转参数控制三维虚拟角色的头部骨骼进行旋转;将移动数据转换为移动参数,并根据移动参数控制三维虚拟角色的头部骨骼进行移动。
在本公开的一种示例性实施例中,基于前述方案,第二控制指令包括预设操作指令;实时接收预设操作指令,根据预设操作指令在第二参数库中调用第二控制参数;根据第二控制参数控制面部骨骼执行面部动作,以控制虚拟角色的面部表情。
在本公开的一种示例性实施例中,基于前述方案,第二控制指令包括音频数据;实时接收音频数据,并对音频数据进行解析得到对应的音频参数;根据音频参数在第三参数库中调用第三控制参数,并根据第三控制参数控制三维虚拟角色的嘴部骨骼执行嘴型动作。
在本公开的一种示例性实施例中,基于前述方案,音频参数包括音调参数、频率参数、强度参数中至少一种。
由于本公开的示例实施例的三维虚拟角色的控制方法的步骤与上述三维虚拟角色的控制装置的各个功能模块对应,因此对于本公开方法实施例中未披露的细节,请参照本公开上述的三维虚拟角色的控制装置的实施例。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
此外,在本公开的示例性实施例中,还提供了一种能够实现上述三维虚拟角色的控制装置的电子设备。
所属技术领域的技术人员能够理解,本公开的各个方面可以实现为系统、方法或程序产品。因此,本公开的各个方面可以具体实现为以下形式,即:完全的硬件实施例、完全的软件实施例(包括固件、微代码等),或硬件和软件方面结合的实施例,这里可以统称为“电路”、“模块”或“系统”。
下面参照图18来描述根据本公开的这种实施例的电子设备1800。图18显示的电子设备1800仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图18所示,电子设备1800以通用计算设备的形式表现。电子设备1800的组件可以包括但不限于:上述至少一个处理单元1810、上述至少一个存储单元1820、连接不同系统组件(包括存储单元1820和处理单元1810)的总线1830、显示单元1840。
其中,可以在存储单元中设置本公开的三维虚拟角色的控制装置,上述控制装置可以被处理单元1810执行,使得处理单元1810执行本说明书上述“示例性装置”部分中描述的根据本公开各种示例性实施例的装置的功能。例如,处理单元1810可以执行如图2中所示的三维虚拟角色的控制装置200的功能:第一控制模块210:实时采集主播的头部画面,提取头部画面的头部特征,并根据头部特征的运动数据控制观众客户端界面中的三维虚拟角色的头部骨骼执行头部动作;第二控制模块220,实时接收第一控制指令,根据第一控制指令在第一参数库中调用第一控制参数,并根据第一控制参数控制三维虚拟角色的身体骨骼执行身体动作。
存储单元1820可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)1821和/或高速缓存存储单元1822,还可以进一步包括只读存储单元(ROM)1823。
存储单元1820还可以包括具有一组(至少一个)程序模块1825的程序/实用工具1824,这样的程序模块1825包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线1830可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备1800也可以与一个或多个外部设备1870(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备1800交互的设备通信,和/或与使得该电子设备1800能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口1850进行。并且,电子设备1800还可以通过网络适配器1860与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器1860通过总线1830与电子设备1800的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备1800使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
通过以上的实施例的描述,本领域的技术人员易于理解,这里描述的示例实施例可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施例的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、终端装置、或者网络设备等)执行根据本公开实施例的方法。
在本公开的示例性实施例中,还提供了一种计算机可读存储介质,其上存储有能够实现本说明书上述方法的程序产品。在一些可能的实施例中,本公开的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当程序产品在终端设备上运行时,程序代码用于使终端设备执行本说明书上述“示例性方法”部分中描述的根据本公开各种示例性实施例的步骤。
计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本公开操作的程序代码,程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
此外,上述附图仅是根据本公开示例性实施例的方法所包括的处理的示意性说明,而不是限制目的。易于理解,上述附图所示的处理并不表明或限制这些处理的时间顺序。另外,也易于理解,这些处理可以是例如在多个模块中同步或异步执行的。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其他实施例。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限。

Claims (11)

1.一种三维虚拟角色的控制装置,其特征在于,包括:
第一控制模块,用于实时采集主播的头部画面,提取至少两个所述头部画面的头部特征,根据所述至少两个头部画面的头部特征计算运动数据,并根据所述头部特征的运动数据控制观众客户端界面中的三维虚拟角色的头部骨骼执行头部动作;
第二控制模块,用于实时接收第一控制指令,根据所述第一控制指令在第一参数库中调用第一控制参数,并根据所述第一控制参数控制所述三维虚拟角色的身体骨骼执行身体动作。
2.根据权利要求1所述的装置,其特征在于,所述根据至少两个头部画面的头部特征计算运动数据,包括:
获取采集时间上,前一个头部画面中头部特征的第一位置,以及后一个头部画面中头部特征的第二位置,计算所述第二位置和所述第一位置之间的向量差,并将所述向量差确定为所述头部特征的运动数据。
3.根据权利要求1所述的装置,其特征在于,所述第一控制模块包括:
第一采集单元,用于实时采集主播的头部画面;
特征提取单元,提取所述头部画面的头部特征所述头部特征的运动数据包括旋转数据和移动数据;
旋转控制单元,用于将所述旋转数据转换为旋转参数,并根据所述旋转参数控制所述三维虚拟角色的头部骨骼进行旋转;
移动控制单元,用于将所述移动数据转换为移动参数,并根据所述移动参数控制所述三维虚拟角色的头部骨骼进行移动。
4.根据权利要求1所述的装置,其特征在于,所述装置还包括:
第三控制模块,用于实时接收主播的第二控制指令,并根据所述第二控制指令控制所述三维虚拟角色的面部骨骼执行面部动作。
5.根据权利要求4所述的装置,其特征在于,所述第二控制指令包括预设操作指令;
所述第三控制模块包括:
指令接收单元,用于实时接收所述预设操作指令,根据所述预设操作指令在第二参数库中调用第二控制参数;
表情控制单元,用于根据所述第二控制参数控制所述面部骨骼执行面部动作,以控制所述虚拟角色的面部表情。
6.根据权利要求4所述的装置,其特征在于,所述第二控制指令包括音频数据;
所述第三控制模块包括:
音频解析单元,用于实时接收所述音频数据,并对所述音频数据进行解析得到对应的音频参数;
嘴型控制单元,用于根据所述音频参数在第三参数库中调用第三控制参数,并根据所述第三控制参数控制所述三维虚拟角色的嘴部骨骼执行嘴型动作。
7.根据权利要求6所述的装置,其特征在于,所述音频参数包括音调参数、频率参数、强度参数中至少一种。
8.一种三维虚拟角色的控制方法,其特征在于,包括:
实时采集主播的头部画面,提取至少两个头部画面的头部特征,根据所述至少两个头部画面的头部特征计算运动数据,并根据所述头部特征的运动数据控制观众客户端界面中的三维虚拟角色的头部骨骼执行头部动作;
实时接收第一控制指令,根据所述第一控制指令在第一参数库中调用第一控制参数,并根据所述第一控制参数控制所述三维虚拟橘色的身体骨骼执行身体动作。
9.根据权利要求8所述的方法,其特征在于,所述方法还包括:
实时接收第二控制指令,并根据所述第二控制指令控制所述三维虚拟角色的面部骨骼执行面部动作。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现如权利要求8至9中任一项所述的方法。
11.一种电子设备,其特征在于,包括:
处理器;以及
存储器,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如权利要求8至9中任一项所述的方法。
CN202011134430.4A 2020-10-21 2020-10-21 三维虚拟角色的控制装置及方法、存储介质及电子设备 Pending CN112241203A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011134430.4A CN112241203A (zh) 2020-10-21 2020-10-21 三维虚拟角色的控制装置及方法、存储介质及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011134430.4A CN112241203A (zh) 2020-10-21 2020-10-21 三维虚拟角色的控制装置及方法、存储介质及电子设备

Publications (1)

Publication Number Publication Date
CN112241203A true CN112241203A (zh) 2021-01-19

Family

ID=74169635

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011134430.4A Pending CN112241203A (zh) 2020-10-21 2020-10-21 三维虚拟角色的控制装置及方法、存储介质及电子设备

Country Status (1)

Country Link
CN (1) CN112241203A (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113050859A (zh) * 2021-04-19 2021-06-29 北京市商汤科技开发有限公司 交互对象的驱动方法、装置、设备以及存储介质
CN113332711A (zh) * 2021-06-30 2021-09-03 北京字跳网络技术有限公司 一种角色交互方法、终端、设备及存储介质
CN113518235A (zh) * 2021-04-30 2021-10-19 广州繁星互娱信息科技有限公司 直播视频数据生成方法、装置及存储介质
CN113546420A (zh) * 2021-07-23 2021-10-26 网易(杭州)网络有限公司 虚拟对象的控制方法、装置、存储介质及电子设备
CN114079800A (zh) * 2021-09-18 2022-02-22 深圳市有伴科技有限公司 虚拟角色演出方法、装置、系统及计算机可读存储介质
CN116228942A (zh) * 2023-03-17 2023-06-06 北京优酷科技有限公司 角色动作提取方法、设备和存储介质
WO2023202358A1 (zh) * 2022-04-19 2023-10-26 北京字跳网络技术有限公司 虚拟对象的运动控制方法及设备

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107170030A (zh) * 2017-05-31 2017-09-15 珠海金山网络游戏科技有限公司 一种虚拟主播直播方法及系统
CN107483915A (zh) * 2017-08-23 2017-12-15 京东方科技集团股份有限公司 三维图像的控制方法及装置
CN108986190A (zh) * 2018-06-21 2018-12-11 珠海金山网络游戏科技有限公司 一种基于三维动画中非人形角色的虚拟主播的方法和系统
CN109120985A (zh) * 2018-10-11 2019-01-01 广州虎牙信息科技有限公司 直播中的形象展示方法、装置和存储介质
CN110141857A (zh) * 2019-04-26 2019-08-20 腾讯科技(深圳)有限公司 虚拟角色的面部显示方法、装置、设备及存储介质
CN110557625A (zh) * 2019-09-17 2019-12-10 北京达佳互联信息技术有限公司 虚拟形象直播方法、终端、计算机设备及存储介质
CN110570499A (zh) * 2019-09-09 2019-12-13 珠海金山网络游戏科技有限公司 一种表情生成方法、装置、计算设备及存储介质
CN110650354A (zh) * 2019-10-12 2020-01-03 苏州大禹网络科技有限公司 虚拟动漫角色直播方法、系统、设备及存储介质

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107170030A (zh) * 2017-05-31 2017-09-15 珠海金山网络游戏科技有限公司 一种虚拟主播直播方法及系统
CN107483915A (zh) * 2017-08-23 2017-12-15 京东方科技集团股份有限公司 三维图像的控制方法及装置
CN108986190A (zh) * 2018-06-21 2018-12-11 珠海金山网络游戏科技有限公司 一种基于三维动画中非人形角色的虚拟主播的方法和系统
CN109120985A (zh) * 2018-10-11 2019-01-01 广州虎牙信息科技有限公司 直播中的形象展示方法、装置和存储介质
CN110141857A (zh) * 2019-04-26 2019-08-20 腾讯科技(深圳)有限公司 虚拟角色的面部显示方法、装置、设备及存储介质
CN110570499A (zh) * 2019-09-09 2019-12-13 珠海金山网络游戏科技有限公司 一种表情生成方法、装置、计算设备及存储介质
CN110557625A (zh) * 2019-09-17 2019-12-10 北京达佳互联信息技术有限公司 虚拟形象直播方法、终端、计算机设备及存储介质
CN110650354A (zh) * 2019-10-12 2020-01-03 苏州大禹网络科技有限公司 虚拟动漫角色直播方法、系统、设备及存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
MISS_INGS: "《会说话的汤姆猫有什么玩法》", Retrieved from the Internet <URL:《https://zhidao.baidu.com/question/204967827930056965.html?fr=wwwt&word=%BB%E1%CB%B5%BB%B0%B5%C4%CC%C0%C4%B7%C3%A8%D4%F5%C3%B4%CD%E6&ie=gbk&dyTabStr=MCw0LDIsMSw1LDMsNiw3LDgsOQ==》> *

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113050859A (zh) * 2021-04-19 2021-06-29 北京市商汤科技开发有限公司 交互对象的驱动方法、装置、设备以及存储介质
CN113050859B (zh) * 2021-04-19 2023-10-24 北京市商汤科技开发有限公司 交互对象的驱动方法、装置、设备以及存储介质
CN113518235A (zh) * 2021-04-30 2021-10-19 广州繁星互娱信息科技有限公司 直播视频数据生成方法、装置及存储介质
CN113518235B (zh) * 2021-04-30 2023-11-28 广州繁星互娱信息科技有限公司 直播视频数据生成方法、装置及存储介质
CN113332711A (zh) * 2021-06-30 2021-09-03 北京字跳网络技术有限公司 一种角色交互方法、终端、设备及存储介质
CN113332711B (zh) * 2021-06-30 2023-07-18 北京字跳网络技术有限公司 一种角色交互方法、终端、设备及存储介质
CN113546420A (zh) * 2021-07-23 2021-10-26 网易(杭州)网络有限公司 虚拟对象的控制方法、装置、存储介质及电子设备
CN113546420B (zh) * 2021-07-23 2024-04-09 网易(杭州)网络有限公司 虚拟对象的控制方法、装置、存储介质及电子设备
CN114079800A (zh) * 2021-09-18 2022-02-22 深圳市有伴科技有限公司 虚拟角色演出方法、装置、系统及计算机可读存储介质
WO2023202358A1 (zh) * 2022-04-19 2023-10-26 北京字跳网络技术有限公司 虚拟对象的运动控制方法及设备
CN116228942A (zh) * 2023-03-17 2023-06-06 北京优酷科技有限公司 角色动作提取方法、设备和存储介质
CN116228942B (zh) * 2023-03-17 2024-02-06 北京优酷科技有限公司 角色动作提取方法、设备和存储介质

Similar Documents

Publication Publication Date Title
CN112241203A (zh) 三维虚拟角色的控制装置及方法、存储介质及电子设备
KR102503413B1 (ko) 애니메이션 인터랙션 방법, 장치, 기기 및 저장 매체
CN112215927B (zh) 人脸视频的合成方法、装置、设备及介质
CN111145322B (zh) 用于驱动虚拟形象的方法、设备和计算机可读存储介质
CN110465097B (zh) 游戏中的角色立绘显示方法及装置、电子设备、存储介质
US11670015B2 (en) Method and apparatus for generating video
US20230047858A1 (en) Method, apparatus, electronic device, computer-readable storage medium, and computer program product for video communication
CN112135160A (zh) 直播中虚拟对象控制方法及装置、存储介质和电子设备
CN111862280A (zh) 虚拟角色控制方法、系统、介质及电子设备
CN113920167A (zh) 一种图像处理方法、装置、存储介质及计算机系统
CN112562045A (zh) 生成模型和生成3d动画的方法、装置、设备和存储介质
CN111063024A (zh) 三维虚拟人驱动方法、装置、电子设备及存储介质
CN114463470A (zh) 虚拟空间浏览方法、装置、电子设备和可读存储介质
CN117135331A (zh) 一种用于生成3d数字人视频的方法及系统
JP2008135923A (ja) リアルタイムに相互作用する映像の制作方法、映像の制作装置、および映像の制作システム
CN112017140A (zh) 用于处理人物形象数据的方法和装置
CN115984943B (zh) 面部表情捕捉及模型训练方法、装置、设备、介质及产品
CN116523734A (zh) 基于人工智能的视频生成方法、装置、电子设备及介质
WO2023076648A1 (en) Extraction of user representation from video stream to a virtual environment
CN112686990A (zh) 一种三维模型显示方法、装置、存储介质和计算机设备
CN114741541B (zh) 基于模板化编辑的ai数字人对ppt的交互控制方法及装置
CN118781239A (zh) 一种动态说话人脸生成方法、装置、设备及其存储介质
CN118691717A (zh) 视频生成方法、装置、设备以及存储介质
CN118397674A (zh) 基于快速归一化流模型的语音驱动虚拟数字人脸生成方法
WO2020147598A1 (zh) 模型动作方法、装置、带屏音箱、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination