CN109889893A - 视频处理方法、装置及设备 - Google Patents
视频处理方法、装置及设备 Download PDFInfo
- Publication number
- CN109889893A CN109889893A CN201910304462.5A CN201910304462A CN109889893A CN 109889893 A CN109889893 A CN 109889893A CN 201910304462 A CN201910304462 A CN 201910304462A CN 109889893 A CN109889893 A CN 109889893A
- Authority
- CN
- China
- Prior art keywords
- image
- frame image
- video
- posture
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 72
- 238000012545 processing Methods 0.000 title claims abstract description 35
- 230000008569 process Effects 0.000 claims description 23
- 238000012360 testing method Methods 0.000 claims description 8
- 230000005055 memory storage Effects 0.000 claims 1
- 238000003672 processing method Methods 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 26
- 230000009471 action Effects 0.000 description 17
- 230000006870 function Effects 0.000 description 8
- 238000004590 computer program Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000000630 rising effect Effects 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000005611 electricity Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000005291 magnetic effect Effects 0.000 description 2
- 241000406668 Loxodonta cyclotis Species 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
本公开实施例提供一种视频处理方法、装置及设备,该方法包括:在视频中获取连续的N帧图像,每帧图像中均包括第一对象,N为大于1的整数;确定每帧图像中的第一对象的姿势类型,并根据每帧图像中的第一对象的姿势类型,确定第一对象的姿势分布,姿势分布用于指示第一对象的姿势的变化规律;根据第一对象的姿势分布和N帧图像,在视频中增加特效。提高了在视频中增加的特效的精确度。
Description
技术领域
本公开实施例涉及计算机技术领域,尤其涉及一种视频处理方法、装置及设备。
背景技术
为了提高视频播放效果,可以在视频中增加特效,例如,特效可以包括在视频中增加灯光闪烁、增加预设声音等。
在视频中增加特效时,通常由人工看观看视频,在确定视频中出现预设动作时,在该预设动作对应的播放时刻关联一个特效;在视频播放过程中,当播放到该时刻时,则在视频中显示相应的特效。例如,在人工观察在视频的第10秒时出现鼓掌动作,则在第10秒关联一个特效,当视频播放到第10秒时,显示一个与鼓掌相关的特效。然而,在上述过程中,根据视频的播放时刻增加特效,视频中出现预设动作的时刻与显示该预设动作对应的特效的时刻可能存在偏差,导致在视频中增加的特效的精确度较差。
发明内容
本公开实施例提供一种视频处理方法、装置及设备,提高了在视频中增加的特效的精确度。
第一方面,本公开实施例提供一种视频处理方法,包括:
在视频中获取连续的N帧图像,每帧所述图像中均包括第一对象,所述N为大于1的整数;
确定每帧图像中的所述第一对象的姿势类型,并根据每帧图像中的所述第一对象的姿势类型,确定所述第一对象的姿势分布,所述姿势分布用于指示所述第一对象的姿势的变化规律;
根据所述第一对象的姿势分布和所述N帧图像,在所述视频中增加特效。
在一种可能的实施方式中,根据所述第一对象的姿势分布和所述N帧图像,在所述视频中增加特效,包括:
判断所述第一对象的姿势分布是否满足预设姿势分布;
在所述第一对象的姿势分布满足预设姿势分布时,获取所述预设姿势分布对应的目标特效,并根据所述N帧图像在所述视频中增加所述目标特效。
在一种可能的实施方式中,根据每帧图像中的所述第一对象的姿势类型,确定所述第一对象的姿势分布,包括:
按照所述N帧图像在所述视频中的顺序,对所述N帧图像进行分组,得到至少两组图像,每组图像中包括连续的M帧图像,所述M为大于1的整数;
根据每组图像中每个图像中的所述第一对象的姿势类型,确定每组图像对应的姿势类型;
根据每组图像对应的姿势类型,确定所述第一对象的姿势分布。
在一种可能的实施方式中,针对所述N帧图像中的任意的第一图像,确定所述第一图像中的所述第一对象的姿势类型,包括:
在所述第一图像中检测对象区域,所述对象区域中包括所述第一图像中与所述第一对象对应的部分;
对所述对象区域进行处理,以确定所述第一图像中的所述第一对象的姿势类型。
在一种可能的实施方式中,在所述第一图像中检测对象区域,包括:
将表示所述第一图像的数据输入至第一识别模型,以获取所述对象区域;其中,所述第一识别模型为对多组第一样本进行学习得到的,每组第一样本包括样本图像和所述样本图像中的样本对象区域,所述样本图像中包括所述第一对象对应的图像。
在一种可能的实施方式中,对所述对象区域进行处理,以确定所述第一图像中的所述第一对象的姿势类型,包括:
将表示所述对象区域的数据输入至第二识别模型,以获取所述第一图像中的所述第一对象的姿势类型;其中,所述第二识别模型为对多组第二样本进行学习得到的,每组第二样本包括样本对象区域和在所述样本对象区域中识别得到的样本姿势类型,所述样本对象区域中包括所述第一对象对应的图像。
在一种可能的实施方式中,所述视频为正在拍摄的视频;在视频中获取连续的N帧图像,包括:
在所述视频中获取N帧待处理图像,所述N帧待处理图像中包括所述视频中已拍摄的最后N帧图像;
判断所述N帧待处理图像中是否每帧待处理图像中均包括所述第一对象,若是,则将所述N帧待处理图像确定为所述N帧图像。
在一种可能的实施方式中,根据所述N帧图像在所述视频中增加所述目标特效,包括:
在所述N帧图像中的第N帧图像中的增加所述特效。
在一种可能的实施方式中,所述视频为拍摄完成的视频;所述在视频中获取连续的N帧图像,包括:
执行待处理图像选择操作,所述待处理图像选择操作包括:从所述视频的预设图像起,在所述视频中获取连续的N帧待处理图像;
执行N帧图像确定操作,所述N帧图像确定操作包括:判断所述N帧待处理图像中是否每帧待处理图像中均包括所述第一对象对应的图像,若是,则将所述N帧待处理图像确定为所述N帧图像,若否,则将所述预设图像更新为所述视频中所述预设图像之后的一帧图像;
重复执行所述待处理图像选择操作和所述N帧图像确定操作,直至确定得到所述N帧图像。
在一种可能的实施方式中,根据所述N帧图像在所述视频中增加所述目标特效,包括:
在所述N帧图像中的至少一帧图像中增加所述特效。
在一种可能的实施方式中,所述在视频中获取连续的N帧图像,包括:
确定待在所述视频中增加的特效;
确定待在所述视频中增加的特效对应的所述第一对象;
根据所述第一对象,在所述视频中确定所述N帧图像。
在一种可能的实施方式中,在视频中获取连续的N帧图像之前,还包括:
确定未在所述N帧图像中增加所述目标特效。
第二方面,本公开实施例提供一种视频处理装置,包括获取模块、第一确定模块、第二确定模块和增加模块,其中,
所述获取模块用于,在视频中获取连续的N帧图像,每帧所述图像中均包括第一对象,所述N为大于1的整数;
所述第一确定模块用于,确定每帧图像中的所述第一对象的姿势类型;
所述第二确定模块用于,根据每帧图像中的所述第一对象的姿势类型,确定所述第一对象的姿势分布,所述姿势分布用于指示所述第一对象的姿势的变化规律;
所述增加模块用于,根据所述第一对象的姿势分布和所述N帧图像,在所述视频中增加特效。
在一种可能的实施方式中,所述增加模块具体用于:
判断所述第一对象的姿势分布是否满足预设姿势分布;
在所述第一对象的姿势分布满足预设姿势分布时,获取所述预设姿势分布对应的目标特效,并根据所述N帧图像在所述视频中增加所述目标特效。
在一种可能的实施方式中,所述第二确定模块具体用于:
按照所述N帧图像在所述视频中的顺序,对所述N帧图像进行分组,得到至少两组图像,每组图像中包括连续的M帧图像,所述M为大于1的整数;
根据每组图像中每个图像中的所述第一对象的姿势类型,确定每组图像对应的姿势类型;
根据每组图像对应的姿势类型,获取所述第一对象的姿势分布。
在一种可能的实施方式中,针对所述N帧图像中的任意的第一图像,所述第一确定模块具体用于:
在所述第一图像中检测对象区域,所述对象区域中包括所述第一图像中与所述第一对象对应的部分;
对所述对象区域进行处理,以获取所述第一图像中的所述第一对象的姿势类型。
在一种可能的实施方式中,所述第一确定模块具体用于:
将表示所述第一图像的数据输入至第一识别模型,以获取所述对象区域;其中,所述第一识别模型为对多组第一样本进行学习得到的,每组第一样本包括样本图像和所述样本图像中的样本对象区域,所述样本图像中包括所述第一对象对应的图像。
在一种可能的实施方式中,所述第一确定模块具体用于:
将表示所述对象区域的数据输入至第二识别模型,以获取所述第一图像中的所述第一对象的姿势类型;其中,所述第二识别模型为对多组第二样本进行学习得到的,每组第二样本包括样本对象区域和在所述样本对象区域中识别得到的样本姿势类型,所述样本对象区域中包括所述第一对象对应的图像。
在一种可能的实施方式中,所述视频为正在拍摄的视频;所述获取模块具体用于:
在所述视频中获取N帧待处理图像,所述N帧待处理图像中包括所述视频中已拍摄的最后N帧图像;
判断所述N帧待处理图像中是否每帧待处理图像中均包括所述第一对象,若是,则将所述N帧待处理图像确定为所述N帧图像。
在一种可能的实施方式中,所述增加模块具体用于:
在所述N帧图像中的第N帧图像中的增加所述特效。
在一种可能的实施方式中,所述视频为拍摄完成的视频;所述获取模块具体用于:
执行待处理图像选择操作,所述待处理图像选择操作包括:从所述视频的预设图像起,在所述视频中获取连续的N帧待处理图像;
执行N帧图像确定操作,所述N帧图像确定操作包括:判断所述N帧待处理图像中是否每帧待处理图像中均包括所述第一对象对应的图像,若是,则将所述N帧待处理图像确定为所述N帧图像,若否,则将所述预设图像更新为所述视频中所述预设图像之后的一帧图像;
重复执行所述待处理图像选择操作和所述N帧图像确定操作,直至确定得到所述N帧图像。
在一种可能的实施方式中,所述增加模块具体用于:
在所述N帧图像中的至少一帧图像中增加所述特效。
在一种可能的实施方式中,所述获取模块具体用于:
确定待在所述视频中增加的特效;
确定待在所述视频中增加的特效对应的所述第一对象;
根据所述第一对象,在所述视频中确定所述N帧图像。
在一种可能的实施方式中,所述装置还包括第三确定模块,其中,
所述第三确定模块用于,在所述获取模块在视频中获取连续的N帧图像之前,确定未在所述N帧图像中增加所述目标特效。
第三方面,本公开实施例提供一种电子设备,包括:处理器,所述处理器与存储器耦合;
所述存储器用于,存储计算机程序;
所述处理器用于,执行所述存储器中存储的计算机程序,以使得所述终端设备执行上述第一方面任一项所述的方法。
第四方面,本公开实施例提供一种可读存储介质,包括程序或指令,当所述程序或指令在计算机上运行时,如上述第一方面任意一项所述的方法被执行。
本公开实施例提供的视频处理方法、装置及设备,当需要在视频中增加第一对象对应的特效时,在视频中确定连续的、包括第一对象的N帧图像,获取每帧图像中的第一对象的姿势类型,并根据每帧图像中的第一对象的姿势类型,获取第一对象的姿势分布,根据第一对象的姿势分布和N帧图像,在视频中增加特效。在上述过程中,以视频帧为单位,确定视频中第一对象的姿势分布,根据视频中第一对象的姿势分布,可以准确的确定得到视频中是否出现预设动作,进而可以准确的确定得到是否在视频中增加特效。在确定在视频中增加特效时,根据连续的N帧图像在视频中增加特效,即,可以以视频帧为粒度在视频中增加特效,提高了增加特效的精确度。
附图说明
为了更清楚地说明本公开实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本公开实施例提供的视频处理的架构图;
图2为本公开实施例提供的一种视频处理方法的流程示意图;
图3A为本公开实施例提供的一种视频帧的示意图;
图3B为本公开实施例提供的另一种视频帧的示意图;
图4A为本公开实施例提供的又一种视频帧的示意图;
图4B为本公开实施例提供的另一种视频帧的示意图;
图5为本公开实施例提供的另一种视频处理方法的流程示意图;
图6为本申请实施例提供的视频处理过程示意图;
图7为本公开实施例提供的一种视频处理装置的结构示意图;
图8为本公开实施例提供的另一种视频处理装置的结构示意图;
图9为本公开实施例提供的电子设备的结构示意图。
具体实施方式
为使本公开实施例的目的、技术方案和优点更加清楚,下面将结合本公开实施例中的附图,对本公开实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
图1为本公开实施例提供的视频处理的架构图。在视频中增加特效时,通常是判断视频中是否出现了预设动作(例如,鼓掌、摇头等),当确定视频中出现了预设动作之后,则在视频中增加预设的动作对应的特效。请参见图1,当需要在视频中增加预设动作(假设预设动作对应第一对象,即,由第一对象执行预设动作,第一对象可以为手、腿、头、车辆等)对应的特效时,可以在视频中进行图像提取,以得到N张连续的图像(图像1、图像2、……、图像N)。可以对提取到的每张图像进行识别处理,以得到每张图像中第一对象的姿势类型,并根据每帧图像中的第一对象的姿势类型,获取第一对象的姿势分布,在第一对象的姿势分布满足预设分布时,则可以确定视频中出现了预设动作,则在视频中增加预设动作对应的特效。
在上述过程中,以视频帧为单位,确定视频中第一对象的姿势分布,根据视频中第一对象的姿势分布,可以准确的确定得到视频中是否出现预设动作,进而可以准确的确定得到是否在视频中增加特效。在确定在视频中增加特效时,根据连续的N帧图像在视频中增加特效,即,可以以视频帧为粒度在视频中增加特效,提高了增加特效的精确度。
下面,通过具体实施例对本申请所示的技术方案进行详细说明。需要说明的是,下面几个具体实施例可以相互结合,对于相同或相似的内容,在不同的实施例中不再进行重复说明。
图2为本公开实施例提供的一种视频处理方法的流程示意图。请参见图2,该方法可以包括:
S201、在视频中获取连续的N帧图像。
本公开实施例的执行主体可以为电子设备,也可以为设置在电子设备中的视频处理装置。可选的,视频处理装置可以通过软件实现,也可以通过软件和硬件的结合实现。
可选的,电子设备可以为手机、电脑、具有处理功能的摄像机等设备。
其中,每帧图像中均包括第一对象,N为大于1的整数。
每帧图像中均包括完整的视频内容,例如,当视频为经过压缩处理的视频时,则N帧图像均为视频中的关键帧。
可选的,第一对象可以为手、腿、头、车辆、飞机等。
可选的,可以先确定待在视频中增加的特效,确定待在视频中增加的特效对应的第一对象,并根据第一对象,在视频中确定N帧图像。例如,在确定待在视频中增加的特效对应的第一对象时,可以先确定待在视频中增加的特效对应的预设动作,确定执行该预设动作的对象为第一对象。
例如,假设待在视频中增加的特效为灯光特效,灯光特效对应的预设动作为鼓掌动作,执行鼓掌动作的对象为手,因此,可以确定第一对象为手,相应的,在视频中确定的连续N张图像均包括手。
当视频处理的应用场景不同时,确定连续的N帧图像的过程也不同,例如,可以包括至少如下两种可能的应用场景:
一种可能的应用场景:视频为正在拍摄的视频,即,一边进行视频拍摄,一边在正在拍摄的视频中增加特效。
在该种可能的应用场景中,可以通过如下可行的实现方式获取连续的N帧图像:在视频中获取N帧待处理图像,N帧待处理图像中包括视频中已拍摄的最后N帧图像,判断N帧待处理图像中是否每帧待处理图像中均包括第一对象,若是,则将N帧待处理图像确定为所述N帧图像。若否,则不将该N帧待处理图像确定为所述N帧图像,可以在拍摄得到新的图像之后,更新N帧待处理图像,并重复上述过程,直至确定得到所述N帧图像。
下面,结合图3A-图3B,对在该种应用场景中确定连续的N帧图像的过程进行详细说明。
图3A为本公开实施例提供的一种视频帧的示意图。假设第一对象为手,N为6。请参见图3A,假设当前拍摄的最后一帧图像为第80帧图像,第75帧图像至第80帧图像中均包括手,由于拍摄得到的最后6帧图像(第75帧图像至第80帧图像)中均包括手,则可以将第75帧图像至第80帧图像确定为连续的6帧图像。
图3B为本公开实施例提供的另一种视频帧的示意图。假设第一对象为手,N为6。请参见图3B,在T1时刻,拍摄的最后一帧图像为第80帧图像,其中,第75-76、78-80帧图像中包括手,第77帧图像中不包括手,由于最后拍摄得到的6帧图像中存在不包括手的图像,则继续进行拍摄,直至在T2时刻时,拍摄得到的最后一帧图像为第83帧图像,且第78帧图像至第83帧图像中均包括手,则将第78帧图像至第83帧中图像确定为连续的6帧图像。
另一种可能的应用场景:视频为拍摄完成的视频,即,在已拍摄完成的视频中增加特效。
在该种可能的应用场景中,可以通过如下可行的实现方式获取连续的N帧图像:执行待处理图像选择操作,待处理图像选择操作包括:从视频的预设图像起,在视频中获取连续的N帧待处理图像。执行N帧图像确定操作,N帧图像确定操作包括:判断N帧待处理图像中是否每帧待处理图像中均包括第一对象对应的图像,若是,则将N帧待处理图像确定为N帧图像,若否,则将预设图像更新为视频中预设图像之后的一帧图像。重复执行待处理图像选择操作和N帧图像确定操作,直至确定得到N帧图像。
可选的,可以将预设图像更新为视频中预设图像之后的一帧图像。或者,可以将预设图像更新为第二图像的后一帧图像,所述第二图像为所述N帧待处理图像中最后一个不包括第一对象的图像。
下面,结合图4A-图4B,对在该种应用场景中确定连续的N帧图像的过程进行详细说明。
图4A为本公开实施例提供的又一种视频帧的示意图。假设第一对象为手,N为6,预设图像为第一帧图像。请参见图4A,初始时,预设图像为第一帧图像,因此,确定N帧待处理图像为第1帧图像至第6帧图像。由于第1帧图像至第6帧图像中的第3帧图像不包括手,则将预设图像更新为第二帧图像,相应的,N帧待处理图像更新为第2帧图像至第7帧图像。由于第2帧图像至第7帧图像中的第3帧图像中不包括手,则将预设图像更新为第三帧图像,相应的,N帧待处理图像更新为第3帧图像至第8帧图像中的图像。由于第3帧图像至第8帧图像中的第3帧图像中不包括手,则将预设图像更新为第四帧图像,相应的,N帧待处理图像更新为第4帧图像至第9帧图像,由于第4帧图像至第9帧图像中均包括手,则将第4帧图像至第9帧图像确定为连续的6帧图像。
图4B为本公开实施例提供的另一种视频帧的示意图。假设第一对象为手,N为6,预设图像为第一帧图像。请参见图4B,初始时,预设图像为第一帧图像,因此,确定N帧待处理图像为第1帧图像至第6帧图像。由于第1帧图像至第6帧图像中的第3帧图像不包括手,则在第1帧图像至第6帧图像中确定第二图像,由于第3帧图像中不包括手,因此,将第3帧图像确定为第二图像,因此,将预设图像更新为第4帧图像(第二图像的后一帧图像),相应的,N帧待处理图像更新为第4帧图像至第9帧图像,由于第4帧图像至第9帧图像中均包括手,则将第4帧图像至第9帧图像确定为连续的6帧图像。
可选的,为了避免在相同的视频帧中增加重复的特效,则确定得到的该N帧图像为未增加目标特效(待在视频中增加的特效)的图像。
S202、确定每帧图像中的第一对象的姿势类型。
可选的,可以预先设置第一对象的多种姿势类型,例如,当第一对象为手时,则手的姿势类型可以包括:双手正对打开、双手合十、握拳等。例如,当第一对象为头时,则头的姿势类型可以包括:抬头、低头、左侧偏头、右侧偏头等。
获取每帧图像中的第一对象的姿势类型的过程相同,下面,以获取第一图像中的第一对象的姿势类型的过程进行说明。
针对N帧图像中的任意的第一图像,可以在第一图像中检测对象区域,对象区域中包括第一图像中与第一对象对应的部分,并对对象区域进行处理,以获取第一图像中的第一对象的姿势类型。
可选的,可以通过如下可行的实现方式在第一图像中检测对象区域:将表示第一图像的数据输入至第一识别模型,以获取对象区域;其中,第一识别模型为对多组第一样本进行学习得到的,每组第一样本包括样本图像和样本图像中的样本对象区域,样本图像中包括第一对象对应的图像。
表示第一图像的数据输入可以为第一图像、第一图像的灰度图像等。对象区域可以为第一图像中包括第一对象的一个矩形区域。
由于第一识别模型为对大量的第一样本学习得到的,因此,通过第一识别模型可以在第一图像中准确的检测对象区域。
可以根据第一识别模型的输出确定对象区域。第一识别模型的输出可以为第一图像中对象区域对应的图像,也可以为对象区域的至少两个顶点在第一图像中的位置(例如坐标)。当第一识别模型的输出为对象区域的两个顶点时,该两个顶点为对角线上的两个顶点。
可选的,可以通过如下可行的实现方式获取第一图像中的第一对象的姿势类型:将表示对象区域的数据输入至第二识别模型,以获取第一图像中的第一对象的姿势类型;其中,第二识别模型为对多组第二样本进行学习得到的,每组第二样本包括样本对象区域和在样本对象区域中识别得到的样本姿势类型,样本对象区域中包括第一对象对应的图像。
表示对象区域的数据可以为对象区域对应的图像,或者对象区域的至少两个顶点在第一图像中的位置(例如坐标)。当表示对象区域的数据为对象区域的两个顶点时,该两个顶点为对角线上的两个顶点。
可以根据第二识别模型的输出确定第一图像中的第一对象的姿势类型。第二识别模型的输出可以为表示姿势类型的字符(例如,数字、字母等)。
由于第二识别模型为对大量的第二样本学习得到的,因此,通过第二识别模型可以在对象区域中准确的确定得到第一对象的姿势类型。
S203、根据每帧图像中的第一对象的姿势类型,确定第一对象的姿势分布。
其中,第一对象的姿势分布用于指示第一对象的姿势的变化规律。
例如,假设第一对象为手,N为6,该6帧图像中的第一对象的姿势类型依次为:双手正对打开、双手正对打开、双手正对打开、双手合十、双手合十、双手合十。由此,可以得到第一对象的姿势分布为:双手正对打开到双手合十。
可选的,为了提高获取第一对象的姿势分布的准确性,可以对通过如下可行的实现方式获取第一对象的姿势分布:按照N帧图像在视频中的顺序,对N帧图像进行分组,得到至少两组图像,每组图像中包括连续的M帧图像,M为大于1的整数;根据每组图像中每个图像中的第一对象的姿势类型,确定每组图像对应的姿势类型;根据每组图像对应的姿势类型,获取第一对象的姿势分布。
可选的,针对任意一组图像,若该组图像中大于或等于第一阈值个图像的姿势类型为第一姿势类型,则确定该组图像对应的姿势类型为第一姿势类型。
例如,假设M为3,第一阈值为2,则当一组图像中存在2个或3个图像对应的姿势类型为双手合十类型时,则确定该组图像对应的姿势类型为双手合十类型。
例如,假设N为9,该9帧图像分别记为图像1、图像2、……、图像9,M为3,则对该9帧图像的分组、以及确定得到的各图像组对应的姿势类型可以为表1所示:
表1
需要说明的是,表1只是以示例的形式示意对图像进行的分组,以使各图像对应的姿势类型。
在上述过程中,即使对个别图像中的第一对象的姿势类型识别错误,依然可以获取得到正确的第一对象的姿势分布,使得视频处理的容错性能较高。
S204、根据第一对象的姿势分布和N帧图像,在视频中增加特效。
可选的,可以判断第一对象的姿势分布是否满足预设姿势分布,在第一对象的姿势分布满足预设姿势分布时,获取预设姿势分布对应的目标特效,并根据N帧图像在视频中增加目标特效。
可选的,当视频处理的应用场景不同时,根据N帧图像在视频中增加目标特效的过程也不同。
一种可能的应用场景:视频为正在拍摄的视频,即,一边进行视频拍摄,一边在正在拍摄的视频中增加特效。
在该种应用场景下,可以在N帧图像中的第N帧图像中的增加特效。或者,在第N帧图像对应的播放时刻在视频中增加特效,特效的显示时刻可以为预设时长。
另一种可能的应用场景:视频为拍摄完成的视频,即,在已拍摄完成的视频中增加特效。
在该种应用场景下,可以在N帧图像中的至少一帧图像中增加特效。例如,可以在N帧图像中全部增加特效,即,在该N帧图像对应的播放时刻之间在视频中增加特效。或者,在该N帧图像中的部分图像中增加特效,即,在该N帧图像中的部分图像对应的播放时刻之间在视频中增加特效。
本公开实施例提供的视频处理方法,当需要在视频中增加第一对象对应的特效时,在视频中确定连续的、包括第一对象的N帧图像,获取每帧图像中的第一对象的姿势类型,并根据每帧图像中的第一对象的姿势类型,获取第一对象的姿势分布,根据第一对象的姿势分布和N帧图像,在视频中增加特效。在上述过程中,以视频帧为单位,确定视频中第一对象的姿势分布,根据视频中第一对象的姿势分布,可以准确的确定得到视频中是否出现预设动作,进而可以准确的确定得到是否在视频中增加特效。在确定在视频中增加特效时,根据连续的N帧图像在视频中增加特效,即,可以以视频帧为粒度在视频中增加特效,提高了增加特效的精确度。
在上述任意一个实施例的基础上,下面,通过图5所示的实施例,对视频处理方法进行详细说明。
图5为本公开实施例提供的另一种视频处理方法的流程示意图。请参见图5,该方法可以包括:
S501、在视频中获取连续的N帧图像。
需要说明的是,S501的执行过程可以参见S202的执行过程,此处不再进行赘述。
S502、按照N帧图像在视频中的顺序,对N帧图像进行分组,得到至少两组图像。
其中,每组图像中包括连续的M帧图像,M为大于1的整数。
从N帧图像中的第一帧图像起,依次将连续的M帧图像分为一组,得到至少两组图像。例如,N帧图像中的第1帧图像至第M帧图像分为一组,第M+1帧图像至第2M帧图像分为一组,依次类推,直至将N帧图像分组完毕。
可选的,N为M的整数倍。
S503、确定每组图像中每个图像中的第一对象的姿势类型。
需要说明的是,S503的执行过程可以参见S202的执行过程,此处不再进行赘述。
S504、根据每组图像中每个图像中的第一对象的姿势类型,确定每组图像对应的姿势类型。
针对任意一组图像,若该组图像中大于或等于第一阈值个图像的姿势类型为第一姿势类型,则确定该组图像对应的姿势类型为第一姿势类型。
例如,假设M为3,第一阈值为2,则当一组图像中存在2个或3个图像对应的姿势类型为双手合十类型时,则确定该组图像对应的姿势类型为双手合十类型。
S505、根据每组图像对应的姿势类型,确定第一对象的姿势分布。
例如,若第一对象为手,在S502中确定得到2组图像,假设第一组图像对应的姿势类型为双手正对打开,第二组图像对应的姿势类型为双手合十,则第一对象的姿势分布为双手正对打开到双手合十。
S506、判断第一对象的姿势分布是否满足预设姿势分布。
若是,则执行S507-S508。
若否,则执行S501。
可选的,若第一对象的姿势分布所指示的第一对象的姿势的变化规律,与预设姿势分布所指示的第一对象的姿势的变化规律相同,则确定第一对象的姿势分布是否满足预设姿势分布。
S507、获取预设姿势分布对应的目标特效。
可选的,可以预先设置姿势分布与特效之间的对应关系,相应的,可以根据预设姿势分布和该对象关系确定目标特效。
S508、根据N帧图像在视频中增加目标特效。
需要说明的是,S508的执行过程可以参见S204的执行过程,此处不再进行赘述。
在图5所示的实施例中,以视频帧为单位,确定视频中第一对象的姿势分布,根据视频中第一对象的姿势分布,可以准确的确定得到视频中是否出现预设动作,进而可以准确的确定得到是否在视频中增加特效。在确定在视频中增加特效时,根据连续的N帧图像在视频中增加特效,即,可以以视频帧为粒度在视频中增加特效,提高了增加特效的精确度。进一步的,即使对个别图像中的第一对象的姿势类型识别错误,依然可以获取得到正确的第一对象的姿势分布,使得视频处理的容错性能较高。
在上述任意一个实施例的基础上,下面,结合图6,通过具体示例,对上述方法实施例所示的视频处理方法进行详细说明。
图6为本申请实施例提供的视频处理过程示意图。假设第一对象为手,N为6,待增加的特效为撒花。请参见图6,假设确定得到的6张图像分别为P1、P2、……、P6。
请参见图6,将P1、P2和P3分为一组图像,将P4、P5和P6分为一组图像。分别将表示该6张图像的数据输入至第一预设模型,得到每张图像中的对象区域,其中,对象区域中包括手。分别将表示6张图像中的对象区域输入至第二预设模型,得到手的姿势类型,例如,确定得到的手的姿势类型分别为:双手正对打开、双手正对打开、双手合十、双手合十、双手合十、双手合十。由此可以确定第一组图像对应的姿势类型为双手正对打开,第二组图像对应的姿势类型为双手合十,因此,可以确定第一对象(手)对应的姿势分布为:双手正对打开到双手合十,确定该姿势分布满足预设姿势分组,则在该6张图像中增加撒花特效。当然,还可以在该6张图像中的部分图像中增加撒花特效。
在图6所示的实施例中,以视频帧为单位,确定视频中第一对象的姿势分布,根据视频中第一对象的姿势分布,可以准确的确定得到视频中是否出现预设动作,进而可以准确的确定得到是否在视频中增加特效。在确定在视频中增加特效时,根据连续的N帧图像在视频中增加特效,即,可以以视频帧为粒度在视频中增加特效,提高了增加特效的精确度。进一步的,即使对个别图像中的第一对象的姿势类型识别错误,依然可以获取得到正确的第一对象的姿势分布,使得视频处理的容错性能较高。
图7为本公开实施例提供的一种视频处理装置的结构示意图。请参见图7,该视频处理装置10可以包括获取模块11、第一确定模块12、第二确定模块13和增加模块14,其中,
所述获取模块11用于,在视频中获取连续的N帧图像,每帧所述图像中均包括第一对象,所述N为大于1的整数;
所述第一确定模块12用于,确定每帧图像中的所述第一对象的姿势类型;
所述第二确定模块13用于,根据每帧图像中的所述第一对象的姿势类型,确定所述第一对象的姿势分布,所述姿势分布用于指示所述第一对象的姿势的变化规律;
所述增加模块14用于,根据所述第一对象的姿势分布和所述N帧图像,在所述视频中增加特效。
本公开实施例提供的视频处理装置可以执行上述方法实施例所示的技术方案,其实现原理以及有益效果类似,此处不再进行赘述。
在一种可能的实施方式中,所述增加模块14具体用于:
判断所述第一对象的姿势分布是否满足预设姿势分布;
在所述第一对象的姿势分布满足预设姿势分布时,获取所述预设姿势分布对应的目标特效,并根据所述N帧图像在所述视频中增加所述目标特效。
在一种可能的实施方式中,所述第二确定模块13具体用于:
按照所述N帧图像在所述视频中的顺序,对所述N帧图像进行分组,得到至少两组图像,每组图像中包括连续的M帧图像,所述M为大于1的整数;
根据每组图像中每个图像中的所述第一对象的姿势类型,确定每组图像对应的姿势类型;
根据每组图像对应的姿势类型,获取所述第一对象的姿势分布。
在一种可能的实施方式中,针对所述N帧图像中的任意的第一图像,所述第一确定模块12具体用于:
在所述第一图像中检测对象区域,所述对象区域中包括所述第一图像中与所述第一对象对应的部分;
对所述对象区域进行处理,以获取所述第一图像中的所述第一对象的姿势类型。
在一种可能的实施方式中,所述第一确定模块12具体用于:
将表示所述第一图像的数据输入至第一识别模型,以获取所述对象区域;其中,所述第一识别模型为对多组第一样本进行学习得到的,每组第一样本包括样本图像和所述样本图像中的样本对象区域,所述样本图像中包括所述第一对象对应的图像。
在一种可能的实施方式中,所述第一确定模块12具体用于:
将表示所述对象区域的数据输入至第二识别模型,以获取所述第一图像中的所述第一对象的姿势类型;其中,所述第二识别模型为对多组第二样本进行学习得到的,每组第二样本包括样本对象区域和在所述样本对象区域中识别得到的样本姿势类型,所述样本对象区域中包括所述第一对象对应的图像。
在一种可能的实施方式中,所述视频为正在拍摄的视频;所述获取模块11具体用于:
在所述视频中获取N帧待处理图像,所述N帧待处理图像中包括所述视频中已拍摄的最后N帧图像;
判断所述N帧待处理图像中是否每帧待处理图像中均包括所述第一对象,若是,则将所述N帧待处理图像确定为所述N帧图像。
在一种可能的实施方式中,所述增加模块14具体用于:
在所述N帧图像中的第N帧图像中的增加所述特效。
在一种可能的实施方式中,所述视频为拍摄完成的视频;所述获取模块11具体用于:
执行待处理图像选择操作,所述待处理图像选择操作包括:从所述视频的预设图像起,在所述视频中获取连续的N帧待处理图像;
执行N帧图像确定操作,所述N帧图像确定操作包括:判断所述N帧待处理图像中是否每帧待处理图像中均包括所述第一对象对应的图像,若是,则将所述N帧待处理图像确定为所述N帧图像,若否,则将所述预设图像更新为所述视频中所述预设图像之后的一帧图像;
重复执行所述待处理图像选择操作和所述N帧图像确定操作,直至确定得到所述N帧图像。
在一种可能的实施方式中,所述增加模块14具体用于:
在所述N帧图像中的至少一帧图像中增加所述特效。
在一种可能的实施方式中,所述获取模块11具体用于:
确定待在所述视频中增加的特效;
确定待在所述视频中增加的特效对应的所述第一对象;
根据所述第一对象,在所述视频中确定所述N帧图像。
图8为本公开实施例提供的另一种视频处理装置的结构示意图。在图7所示实施例的基础上,请参见图8,视频处理装置10还包括第三确定模块15,其中,
所述第三确定模块15用于,在所述获取模块11在视频中获取连续的N帧图像之前,确定未在所述N帧图像中增加所述目标特效。
本公开实施例提供的视频处理装置可以执行上述方法实施例所示的技术方案,其实现原理以及有益效果类似,此处不再进行赘述。
图9为本公开实施例提供的电子设备的结构示意图。电子设备20可以为终端设备或服务器。其中,终端设备可以包括但不限于诸如移动电话、笔记本电脑、数字广播接收器、个人数字助理(Personal Digital Assistant,简称PDA)、平板电脑(Portable AndroidDevice,简称PAD)、便携式多媒体播放器(PortableMedia Player,简称PMP)、车载终端(例如车载导航终端)等等的移动终端以及诸如数字TV、台式计算机等等的固定终端。图9示出的电子设备仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
请参见图9,电子设备20可以包括处理装置(例如中央处理器、图形处理器等)21,其可以根据存储在只读存储器(Read Only Memory,简称ROM)22中的程序或者从存储装置28加载到随机访问存储器(Random AccessMemory,简称RAM)23中的程序而执行各种适当的动作和处理。在RAM 23中,还存储有电子设备20操作所需的各种程序和数据。处理装置21、ROM 22以及RAM 23通过总线24彼此相连。输入/输出(I/O)接口25也连接至总线24。
通常,以下装置可以连接至I/O接口25:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置26;包括例如液晶显示器(Liquid CrystalDisplay,简称LCD)、扬声器、振动器等的输出装置27;包括例如磁带、硬盘等的存储装置28;以及通信装置29。通信装置29可以允许电子设备20与其他设备进行无线或有线通信以交换数据。虽然图9示出了具有各种装置的电子设备20,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置29从网络上被下载和安装,或者从存储装置28被安装,或者从ROM22被安装。在该计算机程序被处理装置21执行时,执行本公开实施例的方法中限定的上述功能。
需要说明的是,本公开上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备执行上述实施例所示的方法。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,上述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LocalArea Network,简称LAN)或广域网(Wide Area Network,简称WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。
最后应说明的是:以上各实施例仅用以说明本公开实施例的技术方案,而非对其限制;尽管参照前述各实施例对本公开实施例进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本公开实施例方案的范围。
Claims (15)
1.一种视频处理方法,其特征在于,包括:
在视频中获取连续的N帧图像,每帧所述图像中均包括第一对象,所述N为大于1的整数;
确定每帧图像中的所述第一对象的姿势类型,并根据每帧图像中的所述第一对象的姿势类型,确定所述第一对象的姿势分布,所述姿势分布用于指示所述第一对象的姿势的变化规律;
根据所述第一对象的姿势分布和所述N帧图像,在所述视频中增加特效。
2.根据权利要求1所述的方法,其特征在于,根据所述第一对象的姿势分布和所述N帧图像,在所述视频中增加特效,包括:
判断所述第一对象的姿势分布是否满足预设姿势分布;
在所述第一对象的姿势分布满足预设姿势分布时,获取所述预设姿势分布对应的目标特效,并根据所述N帧图像在所述视频中增加所述目标特效。
3.根据权利要求1或2所述的方法,其特征在于,根据每帧图像中的所述第一对象的姿势类型,确定所述第一对象的姿势分布,包括:
按照所述N帧图像在所述视频中的顺序,对所述N帧图像进行分组,得到至少两组图像,每组图像中包括连续的M帧图像,所述M为大于1的整数;
根据每组图像中每个图像中的所述第一对象的姿势类型,确定每组图像对应的姿势类型;
根据每组图像对应的姿势类型,确定所述第一对象的姿势分布。
4.根据权利要求1-3任一项所述的方法,其特征在于,针对所述N帧图像中的任意的第一图像,确定所述第一图像中的所述第一对象的姿势类型,包括:
在所述第一图像中检测对象区域,所述对象区域中包括所述第一图像中与所述第一对象对应的部分;
对所述对象区域进行处理,以确定所述第一图像中的所述第一对象的姿势类型。
5.根据权利要求4所述的方法,其特征在于,在所述第一图像中检测对象区域,包括:
将表示所述第一图像的数据输入至第一识别模型,以获取所述对象区域;其中,所述第一识别模型为对多组第一样本进行学习得到的,每组第一样本包括样本图像和所述样本图像中的样本对象区域,所述样本图像中包括所述第一对象对应的图像。
6.根据权利要求4或5所述的方法,其特征在于,对所述对象区域进行处理,以确定所述第一图像中的所述第一对象的姿势类型,包括:
将表示所述对象区域的数据输入至第二识别模型,以获取所述第一图像中的所述第一对象的姿势类型;其中,所述第二识别模型为对多组第二样本进行学习得到的,每组第二样本包括样本对象区域和在所述样本对象区域中识别得到的样本姿势类型,所述样本对象区域中包括所述第一对象对应的图像。
7.根据权利要求2所述的方法,其特征在于,所述视频为正在拍摄的视频;在视频中获取连续的N帧图像,包括:
在所述视频中获取N帧待处理图像,所述N帧待处理图像中包括所述视频中已拍摄的最后N帧图像;
判断所述N帧待处理图像中是否每帧待处理图像中均包括所述第一对象,若是,则将所述N帧待处理图像确定为所述N帧图像。
8.根据权利要求7所述的方法,其特征在于,根据所述N帧图像在所述视频中增加所述目标特效,包括:
在所述N帧图像中的第N帧图像中的增加所述特效。
9.根据权利要求2所述的方法,其特征在于,所述视频为拍摄完成的视频;所述在视频中获取连续的N帧图像,包括:
执行待处理图像选择操作,所述待处理图像选择操作包括:从所述视频的预设图像起,在所述视频中获取连续的N帧待处理图像;
执行N帧图像确定操作,所述N帧图像确定操作包括:判断所述N帧待处理图像中是否每帧待处理图像中均包括所述第一对象对应的图像,若是,则将所述N帧待处理图像确定为所述N帧图像,若否,则将所述预设图像更新为所述视频中所述预设图像之后的一帧图像;
重复执行所述待处理图像选择操作和所述N帧图像确定操作,直至确定得到所述N帧图像。
10.根据权利要求9所述的方法,其特征在于,根据所述N帧图像在所述视频中增加所述目标特效,包括:
在所述N帧图像中的至少一帧图像中增加所述特效。
11.根据权利要求1-10任一项所述的方法,其特征在于,所述在视频中获取连续的N帧图像,包括:
确定待在所述视频中增加的特效;
确定待在所述视频中增加的特效对应的所述第一对象;
根据所述第一对象,在所述视频中确定所述N帧图像。
12.根据权利要求2所述的方法,其特征在于,在视频中获取连续的N帧图像之前,还包括:
确定未在所述N帧图像中增加所述目标特效。
13.一种视频处理装置,其特征在于,包括获取模块、第一确定模块、第二确定模块和增加模块,其中,
所述获取模块用于,在视频中获取连续的N帧图像,每帧所述图像中均包括第一对象,所述N为大于1的整数;
所述第一确定模块用于,确定每帧图像中的所述第一对象的姿势类型;
所述第二确定模块用于,根据每帧图像中的所述第一对象的姿势类型,确定所述第一对象的姿势分布,所述姿势分布用于指示所述第一对象的姿势的变化规律;
所述增加模块用于,根据所述第一对象的姿势分布和所述N帧图像,在所述视频中增加特效。
14.一种电子设备,其特征在于,包括:至少一个处理器和存储器;
所述存储器存储计算机执行指令;
所述至少一个处理器执行所述存储器存储的计算机执行指令,使得所述至少一个处理器执行如权利要求1-12任一项所述的视频处理方法。
15.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有计算机执行指令,当处理器执行所述计算机执行指令时,实现如权利要求1-12任一项所述的视频处理方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910304462.5A CN109889893A (zh) | 2019-04-16 | 2019-04-16 | 视频处理方法、装置及设备 |
PCT/CN2019/126757 WO2020211422A1 (zh) | 2019-04-16 | 2019-12-19 | 视频处理方法、装置及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910304462.5A CN109889893A (zh) | 2019-04-16 | 2019-04-16 | 视频处理方法、装置及设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109889893A true CN109889893A (zh) | 2019-06-14 |
Family
ID=66937553
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910304462.5A Pending CN109889893A (zh) | 2019-04-16 | 2019-04-16 | 视频处理方法、装置及设备 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN109889893A (zh) |
WO (1) | WO2020211422A1 (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110223325A (zh) * | 2019-06-18 | 2019-09-10 | 北京字节跳动网络技术有限公司 | 对象跟踪方法、装置及设备 |
CN111416991A (zh) * | 2020-04-28 | 2020-07-14 | Oppo(重庆)智能科技有限公司 | 特效处理方法和设备,及存储介质 |
WO2020211422A1 (zh) * | 2019-04-16 | 2020-10-22 | 北京字节跳动网络技术有限公司 | 视频处理方法、装置及设备 |
CN112199016A (zh) * | 2020-09-30 | 2021-01-08 | 北京字节跳动网络技术有限公司 | 图像处理方法、装置、电子设备及计算机可读存储介质 |
CN112929743A (zh) * | 2021-01-22 | 2021-06-08 | 广州光锥元信息科技有限公司 | 对视频中指定对象添加视频特效的方法、装置及移动端 |
EP4016993A4 (en) * | 2019-08-16 | 2022-08-31 | Beijing Bytedance Network Technology Co., Ltd. | IMAGE PROCESSING METHOD AND APPARATUS, ELECTRONIC DEVICE AND COMPUTER READABLE STORAGE MEDIUM |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104902212A (zh) * | 2015-04-30 | 2015-09-09 | 努比亚技术有限公司 | 一种视频通信方法及装置 |
US20160364103A1 (en) * | 2015-06-11 | 2016-12-15 | Yaron Galant | Method and apparatus for using gestures during video playback |
CN106385591A (zh) * | 2016-10-17 | 2017-02-08 | 腾讯科技(上海)有限公司 | 视频处理方法及视频处理装置 |
CN108289180A (zh) * | 2018-01-30 | 2018-07-17 | 广州市百果园信息技术有限公司 | 根据肢体动作处理视频的方法、介质和终端装置 |
CN108712661A (zh) * | 2018-05-28 | 2018-10-26 | 广州虎牙信息科技有限公司 | 一种直播视频处理方法、装置、设备及存储介质 |
CN108833818A (zh) * | 2018-06-28 | 2018-11-16 | 腾讯科技(深圳)有限公司 | 视频录制方法、装置、终端及存储介质 |
CN109391792A (zh) * | 2017-08-03 | 2019-02-26 | 腾讯科技(深圳)有限公司 | 视频通信的方法、装置、终端及计算机可读存储介质 |
CN109462776A (zh) * | 2018-11-29 | 2019-03-12 | 北京字节跳动网络技术有限公司 | 一种视频特效添加方法、装置、终端设备及存储介质 |
CN109618183A (zh) * | 2018-11-29 | 2019-04-12 | 北京字节跳动网络技术有限公司 | 一种视频特效添加方法、装置、终端设备及存储介质 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004112112A (ja) * | 2002-09-13 | 2004-04-08 | Sony Corp | 情報処理装置 |
US20130201328A1 (en) * | 2012-02-08 | 2013-08-08 | Hing Ping Michael CHUNG | Multimedia processing as a service |
CN107481327B (zh) * | 2017-09-08 | 2019-03-15 | 腾讯科技(深圳)有限公司 | 关于增强现实场景的处理方法、装置、终端设备及系统 |
CN109089058B (zh) * | 2018-07-06 | 2021-05-11 | 广州方硅信息技术有限公司 | 视频画面处理方法、电子终端及装置 |
CN109889893A (zh) * | 2019-04-16 | 2019-06-14 | 北京字节跳动网络技术有限公司 | 视频处理方法、装置及设备 |
-
2019
- 2019-04-16 CN CN201910304462.5A patent/CN109889893A/zh active Pending
- 2019-12-19 WO PCT/CN2019/126757 patent/WO2020211422A1/zh active Application Filing
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104902212A (zh) * | 2015-04-30 | 2015-09-09 | 努比亚技术有限公司 | 一种视频通信方法及装置 |
US20160364103A1 (en) * | 2015-06-11 | 2016-12-15 | Yaron Galant | Method and apparatus for using gestures during video playback |
CN106385591A (zh) * | 2016-10-17 | 2017-02-08 | 腾讯科技(上海)有限公司 | 视频处理方法及视频处理装置 |
CN109391792A (zh) * | 2017-08-03 | 2019-02-26 | 腾讯科技(深圳)有限公司 | 视频通信的方法、装置、终端及计算机可读存储介质 |
CN108289180A (zh) * | 2018-01-30 | 2018-07-17 | 广州市百果园信息技术有限公司 | 根据肢体动作处理视频的方法、介质和终端装置 |
CN108712661A (zh) * | 2018-05-28 | 2018-10-26 | 广州虎牙信息科技有限公司 | 一种直播视频处理方法、装置、设备及存储介质 |
CN108833818A (zh) * | 2018-06-28 | 2018-11-16 | 腾讯科技(深圳)有限公司 | 视频录制方法、装置、终端及存储介质 |
CN109462776A (zh) * | 2018-11-29 | 2019-03-12 | 北京字节跳动网络技术有限公司 | 一种视频特效添加方法、装置、终端设备及存储介质 |
CN109618183A (zh) * | 2018-11-29 | 2019-04-12 | 北京字节跳动网络技术有限公司 | 一种视频特效添加方法、装置、终端设备及存储介质 |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020211422A1 (zh) * | 2019-04-16 | 2020-10-22 | 北京字节跳动网络技术有限公司 | 视频处理方法、装置及设备 |
CN110223325A (zh) * | 2019-06-18 | 2019-09-10 | 北京字节跳动网络技术有限公司 | 对象跟踪方法、装置及设备 |
EP4016993A4 (en) * | 2019-08-16 | 2022-08-31 | Beijing Bytedance Network Technology Co., Ltd. | IMAGE PROCESSING METHOD AND APPARATUS, ELECTRONIC DEVICE AND COMPUTER READABLE STORAGE MEDIUM |
US11516411B2 (en) | 2019-08-16 | 2022-11-29 | Beijing Bytedance Network Technology Co., Ltd. | Image processing method and apparatus, electronic device and computer-readable storage medium |
CN111416991A (zh) * | 2020-04-28 | 2020-07-14 | Oppo(重庆)智能科技有限公司 | 特效处理方法和设备,及存储介质 |
CN112199016A (zh) * | 2020-09-30 | 2021-01-08 | 北京字节跳动网络技术有限公司 | 图像处理方法、装置、电子设备及计算机可读存储介质 |
CN112929743A (zh) * | 2021-01-22 | 2021-06-08 | 广州光锥元信息科技有限公司 | 对视频中指定对象添加视频特效的方法、装置及移动端 |
Also Published As
Publication number | Publication date |
---|---|
WO2020211422A1 (zh) | 2020-10-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109889893A (zh) | 视频处理方法、装置及设备 | |
CN110288547A (zh) | 用于生成图像去噪模型的方法和装置 | |
CN108345387A (zh) | 用于输出信息的方法和装置 | |
CN109829432A (zh) | 用于生成信息的方法和装置 | |
CN110188719A (zh) | 目标跟踪方法和装置 | |
CN109618236A (zh) | 视频评论处理方法和装置 | |
CN110413812A (zh) | 神经网络模型的训练方法、装置、电子设备及存储介质 | |
CN110213614A (zh) | 从视频文件中提取关键帧的方法和装置 | |
CN109600559B (zh) | 一种视频特效添加方法、装置、终端设备及存储介质 | |
CN109815365A (zh) | 用于处理视频的方法和装置 | |
CN109688428A (zh) | 视频评论生成方法和装置 | |
CN108882025A (zh) | 视频帧处理方法和装置 | |
CN110059624B (zh) | 用于检测活体的方法和装置 | |
CN109683710B (zh) | 一种手掌法向量确定方法、装置、设备及存储介质 | |
CN109117758A (zh) | 用于生成信息的方法和装置 | |
CN107704388A (zh) | 用于确定应用的启动时间的方法和装置 | |
CN108446658A (zh) | 用于识别人脸图像的方法和装置 | |
CN110188782A (zh) | 图像相似性确定方法、装置、电子设备及可读存储介质 | |
CN108921138B (zh) | 用于生成信息的方法和装置 | |
CN110334650A (zh) | 物体检测方法、装置、电子设备及存储介质 | |
CN110287161A (zh) | 图像处理方法和装置 | |
CN109981989A (zh) | 渲染图像的方法、装置、电子设备和计算机可读存储介质 | |
CN110198473A (zh) | 视频处理方法、装置、电子设备及计算机可读存储介质 | |
CN109522451A (zh) | 重复视频检测方法和装置 | |
CN109829431A (zh) | 用于生成信息的方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190614 |
|
RJ01 | Rejection of invention patent application after publication |