CN107454359B - 播放视频的方法及装置 - Google Patents
播放视频的方法及装置 Download PDFInfo
- Publication number
- CN107454359B CN107454359B CN201710633215.0A CN201710633215A CN107454359B CN 107454359 B CN107454359 B CN 107454359B CN 201710633215 A CN201710633215 A CN 201710633215A CN 107454359 B CN107454359 B CN 107454359B
- Authority
- CN
- China
- Prior art keywords
- behavior
- human behavior
- human
- video
- playing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/442—Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
- H04N21/44213—Monitoring of end-user related data
- H04N21/44218—Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
- H04N21/47217—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for controlling playback functions for recorded or on-demand content, e.g. using progress bars, mode or play-point indicators or bookmarks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
- H04N21/4728—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Databases & Information Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Computer Networks & Wireless Communication (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Television Signal Processing For Recording (AREA)
Abstract
本公开是关于一种播放视频的方法及装置,属于视频监控技术领域。所述方法包括:获取关联信息,所述关联信息指示第一人体行为与目标时刻之间的对应关系;在播放视频过程中,接收用户输入的第二人体行为;基于所述关联信息定位与所述第二人体行为对应的播放时刻;按照所述播放时刻播放目标视频,所述目标视频为通过录像获取的视频。本公开解决了相关技术中用户为查找到自己感兴趣的内容,每次需要对录制的视频进行回放,查找过程较繁琐,查找效率较低的问题,简化了查找过程,提高了查找效率,用于视频播放。
Description
技术领域
本公开涉及视频监控技术领域,特别涉及一种播放视频的方法及装置。
背景技术
随着视频监控的大规模应用,摄像头变得很普及,摄像头的存储容量变得很大,越来越多的用户通过摄像头(如家用摄像头)来记录生活。
相关技术中,通常先将摄像头安装在预设位置上,再根据摄像头的类型(如模拟监控摄像头或数字监控摄像头)对摄像头进行配置,接着启动摄像头,摄像头便可以开始工作了。摄像头工作的时候通常是连续录制,比如从上午八点一直录制到晚上八点。当用户需要查看摄像头录制的视频时,播放设备获取该视频,并对该视频进行播放。
在实现本公开的过程中,发明人发现相关技术至少存在以下问题:
为查找到自己感兴趣的内容,用户每次需要在播放设备上对摄像头录制的视频进行回放,查找过程较繁琐,查找效率较低。
发明内容
为了解决相关技术中用户为查找到自己感兴趣的内容,每次需要对录制的视频进行回放,查找过程较繁琐,查找效率较低的问题,本公开提供了一种播放视频的方法及装置。所述技术方案如下:
根据本公开的第一方面,提供一种播放视频的方法,该方法包括:
获取关联信息,该关联信息指示第一人体行为与目标时刻之间的对应关系;
在播放视频过程中,接收用户输入的第二人体行为;
基于关联信息定位与第二人体行为对应的播放时刻;
按照播放时刻播放目标视频,该目标视频为通过录像获取的视频。
可选的,基于关联信息定位与第二人体行为对应的播放时刻,包括:
获取关联信息中与第二人体行为相匹配的第一人体行为;
从关联信息中获取第一人体行为对应的目标时刻;
将目标时刻作为第二人体行为对应的播放时刻。
可选的,在播放视频过程中,接收用户输入的第二人体行为,包括:
在播放视频过程中,接收用户输入的第三人体行为;
响应于接收到第三人体行为,获取预定行为集合;
当预定行为集合包括第三人体行为时,将第三人体行为确定为第二人体行为。
可选的,第一人体行为包括以下至少一项:面部表情、肢体动作、声音表达。
根据本公开的第二方面,提供一种播放视频的方法,该方法包括:
在录像过程中,检测第一人体行为;
响应于检测到第一人体行为,获取检测到第一人体行为的目标时刻,该目标时刻以开始录像的时刻为起始时刻;
获取关联信息,该关联信息指示第一人体行为与目标时刻之间的对应关系,以供在播放目标视频时,基于该关联信息定位与输入的第二人体行为对应的播放时刻,该目标视频为通过录像获取的视频。
可选的,在录像过程中,检测第一人体行为,包括:
在录像过程中,检测第四人体行为;
响应于检测到第四人体行为,获取预定行为集合;
当预定行为集合包括第四人体行为时,将第四人体行为确定为第一人体行为。
可选的,第一人体行为包括以下至少一项:面部表情、肢体动作、声音表达。
根据本公开的第三方面,提供一种播放视频的装置,该装置包括:
获取模块,被配置为获取关联信息,该关联信息指示第一人体行为与目标时刻之间的对应关系;
接收模块,被配置为在播放视频过程中,接收用户输入的第二人体行为;
定位模块,被配置为基于获取模块获取的关联信息定位与接收模块接收的第二人体行为对应的播放时刻;
播放模块,被配置为按照定位模块定位的播放时刻播放目标视频,该目标视频为通过录像获取的视频。
可选的,定位模块,被配置为:
获取关联信息中与第二人体行为相匹配的第一人体行为;
从关联信息中获取第一人体行为对应的目标时刻;
将目标时刻作为第二人体行为对应的播放时刻。
可选的,接收模块,被配置为:
在播放视频过程中,接收用户输入的第三人体行为;
响应于接收到第三人体行为,获取预定行为集合;
当预定行为集合包括第三人体行为时,将第三人体行为确定为第二人体行为。
可选的,第一人体行为包括以下至少一项:面部表情、肢体动作、声音表达。
根据本公开的第四方面,提供一种播放视频的装置,该装置包括:
检测模块,被配置为在录像过程中,检测第一人体行为;
第一获取模块,被配置为响应于检测模块检测到第一人体行为,获取检测到第一人体行为的目标时刻,该目标时刻以开始录像的时刻为起始时刻;
第二获取模块,被配置为获取关联信息,该关联信息指示检测模块检测的第一人体行为与第一获取模块获取的目标时刻之间的对应关系,以供在播放目标视频时,基于该关联信息定位与输入的第二人体行为对应的播放时刻,该目标视频为通过录像获取的视频。
可选的,检测模块,被配置为:
在录像过程中,检测第四人体行为;
响应于检测到第四人体行为,获取预定行为集合;
当预定行为集合包括第四人体行为时,将第四人体行为确定为第一人体行为。
可选的,第一人体行为包括以下至少一项:面部表情、肢体动作、声音表达。
根据本公开的第五方面,提供一种播放视频的装置,该装置包括:
处理器;
用于存储处理器的可执行指令的存储器;
其中,处理器被配置为:
获取关联信息,关联信息指示第一人体行为与目标时刻之间的对应关系;
在播放视频过程中,接收用户输入的第二人体行为;
基于关联信息定位与第二人体行为对应的播放时刻;
按照播放时刻播放目标视频,该目标视频为通过录像获取的视频。
根据本公开的第六方面,提供一种播放视频的装置,该装置包括:
处理器;
用于存储处理器的可执行指令的存储器;
其中,处理器被配置为:
在录像过程中,检测第一人体行为;
响应于检测到第一人体行为,获取检测到第一人体行为的目标时刻,该目标时刻以开始录像的时刻为起始时刻;
获取关联信息,该关联信息指示第一人体行为与目标时刻之间的对应关系,以供在播放目标视频时,基于该关联信息定位与输入的第二人体行为对应的播放时刻,该目标视频为通过录像获取的视频。
根据本公开的第七方面,提供一种存储介质,当存储介质中的指令由播放视频的装置的处理器执行时,使得该装置能够执行一种播放视频的方法,该方法包括:
获取关联信息,关联信息指示第一人体行为与目标时刻之间的对应关系;
在播放视频过程中,接收用户输入的第二人体行为;
基于关联信息定位与第二人体行为对应的播放时刻;
按照播放时刻播放目标视频,该目标视频为通过录像获取的视频。
根据本公开的第八方面,提供一种存储介质,当存储介质中的指令由播放视频的装置的处理器执行时,使得该装置能够执行一种播放视频的方法,该方法包括:
在录像过程中,检测第一人体行为;
响应于检测到第一人体行为,获取检测到第一人体行为的目标时刻,该目标时刻以开始录像的时刻为起始时刻;
获取关联信息,该关联信息指示第一人体行为与目标时刻之间的对应关系,以供在播放目标视频时,基于该关联信息定位与输入的第二人体行为对应的播放时刻,该目标视频为通过录像获取的视频。
本公开的实施例提供的技术方案可以包括以下有益效果:
本公开的实施例提供的播放视频的方法及装置,能够获取关联信息,在播放视频过程中,接收用户输入的第二人体行为,再基于该关联信息定位与第二人体行为对应的播放时刻,之后,按照播放时刻播放目标视频,该目标视频为通过录像获取的视频。其中,关联信息指示第一人体行为与目标时刻之间的对应关系。这样一来,用户在查找自己感兴趣的内容时,无需通过播放设备对录制的视频进行回放,所以简化了查找过程,提高了查找效率。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性的,并不能限制本公开。
附图说明
为了更清楚地说明本公开的实施例,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本公开部分实施例提供的播放视频的方法所涉及的实施环境示意图;
图2是根据一示例性实施例示出的一种播放视频的方法的流程图;
图3-1是根据一示例性实施例示出的另一种播放视频的方法的流程图;
图3-2是图3-1所示实施例中接收用户输入的第二人体行为的流程图;
图3-3是图3-1所示实施例中一种接收用户输入的第三人体行为的示意图;
图3-4是图3-1所示实施例中另一种接收用户输入的第三人体行为的示意图;
图3-5是图3-1所示实施例中再一种接收用户输入的第三人体行为的示意图;
图3-6是图3-1所示实施例中定位与第二人体行为对应的播放时刻的流程图;
图4是根据一示例性实施例示出的再一种播放视频的方法的流程图;
图5是根据一示例性实施例示出的又一种播放视频的方法的流程图;
图6是根据一示例性实施例示出的一种播放视频的装置的框图;
图7是根据一示例性实施例示出的另一种播放视频的装置的框图;
图8是根据一示例性实施例示出的又一种播放视频的装置的框图。
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。
具体实施方式
为了使本公开的目的、技术方案和优点更加清楚,下面将结合附图对本公开作进一步地详细描述,显然,所描述的实施例仅仅是本公开一部份实施例,而不是全部的实施例。基于本公开中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本公开保护的范围。
图1是本公开部分实施例提供的播放视频的方法所涉及的实施环境示意图。该实施环境可以为室内环境也可以为室外环境。示例的,室内环境可以为办公室、家庭客厅和酒店大厅等,室外环境可以为酒店门口。该实施环境可以包括:监控设备10、用户20和播放设备30。其中,监控设备10具有监控录像功能,示例的,监控设备可以为摄像头,摄像头可以是设置在办公室的摄像头,也可以是设置在家庭客厅的摄像头,还可以是设置在酒店门口的摄像头。播放设备30可以为手机、平板电脑或笔记本等。监控设备10和播放设备30之间可以通过无线网络或有线网络建立连接。在本公开实施例中,监控设备10在录像过程中,能够检测用户20的人体行为(比如面部表情),获取检测到人体行为的目标时刻,然后获取关联信息,该关联信息指示人体行为与目标时刻之间的对应关系。播放设备30在播放视频时,能够基于监控设备10获取的关联信息定位与输入的人体行为对应的播放时刻,进而按照该播放时刻播放目标视频。
图2是根据一示例性实施例示出的一种播放视频的方法的流程图,本实施例以该方法应用于图1所示实施环境中的播放设备30来举例说明,该方法可以包括如下几个步骤:
在步骤201中,获取关联信息,该关联信息指示第一人体行为与目标时刻之间的对应关系。
在步骤202中,在播放视频过程中,接收用户输入的第二人体行为。
在步骤203中,基于关联信息定位与第二人体行为对应的播放时刻。
在步骤204中,按照播放时刻播放目标视频,该目标视频为通过录像获取的视频。
综上所述,本公开实施例提供的播放视频的方法,能够获取关联信息,在播放视频过程中,接收用户输入的第二人体行为,再基于关联信息定位与该第二人体行为对应的播放时刻,之后,按照播放时刻播放目标视频,该目标视频为通过录像获取的视频。其中,关联信息指示第一人体行为与目标时刻之间的对应关系。这样一来,用户在查找自己感兴趣的内容时,无需通过播放设备对录制的视频进行回放,所以简化了查找过程,提高了查找效率。
图3-1是根据一示例性实施例示出的另一种播放视频的方法的流程图,本实施例以该方法应用于图1所示实施环境中的播放设备30来举例说明,该方法可以包括如下几个步骤:
在步骤301中,获取关联信息,该关联信息指示第一人体行为与目标时刻之间的对应关系。
第一人体行为可以包括以下至少一项:面部表情、肢体动作、声音表达。
播放设备获取关联信息,该关联信息用于指示第一人体行为与目标时刻之间的对应关系。该关联信息是监控设备在录像过程中获取的。
示例的,该关联信息可以如表1所示,第一人体行为可以为V字手势,V字手势对应的目标时刻为14:00。第一人体行为可以为竖大拇指手势,竖大拇指手势对应的目标时刻为15:30。第一人体行为可以为笑脸,笑脸对应的目标时刻为16:00。此外,第一人体行为也可以为声音表达,也可以为面部表情和肢体动作相结合的行为,比如V字手势与笑脸,本公开实施例对第一人体行为的形式不做限定。
表1
第一人体行为 | 目标时刻 |
V字手势 | 14:00 |
竖大拇指手势 | 15:30 |
笑脸 | 16:00 |
在步骤302中,在播放视频过程中,接收用户输入的第二人体行为。
可选的,如图3-2所示,步骤302可以包括如下几个子步骤:
在子步骤3021中,在播放视频过程中,接收用户输入的第三人体行为。
播放设备在播放视频过程中,当用户想查找自己感兴趣的内容时,可以通过播放设备输入第三人体行为。
示例的,如图3-3所示,用户可以向播放设备显示的文本输入框中输入第三人体行为名称。比如,用户输入“笑脸”、“V字手势”、“竖大拇指手势”、“点头”等。
示例的,如图3-4所示,播放设备也可以显示出多个人体行为名称,用户从多个人体行为名称中选择一个人体行为作为第三人体行为。此外,播放设备还可以显示出多个人体行为图标,如图3-5所示,用户从多个人体行为图标中选择一个人体行为作为第三人体行为。
示例的,播放设备还可以通过行为采集模块(比如摄像头)采集用户的第三人体行为。比如,用户可以对着摄像头做个手势或笑脸等。此外,采集模块也可以采集用户的语音信号。
本公开实施例对播放设备接收用户输入的第三人体行为的方式不做限定。
在子步骤3022中,响应于接收到第三人体行为,获取预定行为集合。
播放设备接收用户输入的第三人体行为后,响应于该第三人体行为,获取预定行为集合。该预定行为集合包括多个人体行为。通过该预定行为集合可以判断第三人体行为是否为第二人体行为。
在子步骤3023中,当预定行为集合包括第三人体行为时,将第三人体行为确定为第二人体行为。
示例的,预定行为集合包括人体行为A、人体行为B和人体行为C。假设第三人体行为为人体行为B,播放设备将该第三人体行为确定为第二人体行为。假设第三人体行为为人体行为F,播放设备则确定该第三人体行为不为第二人体行为。
在步骤303中,基于关联信息定位与第二人体行为对应的播放时刻。
可选的,如图3-6所示,步骤303可以包括如下几个子步骤:
在子步骤3031中,获取关联信息中与第二人体行为相匹配的第一人体行为。
示例的,当第二人体行为为V字手势时,播放设备可以从表1中获取与V字手势相匹配的第一人体行为:V字手势。当第二人体行为为笑脸时,播放设备可以从表1中获取与笑脸相匹配的第一人体行为:笑脸。
在子步骤3032中,从关联信息中获取第一人体行为对应的目标时刻。
示例的,播放设备从表1中获取与第二人体行为相匹配的第一人体行为后,再从表1中获取该第一人体行为对应的目标时刻。比如在子步骤3031中,播放设备从表1中获取的第一人体行为为V字手势,那么播放设备再从表1中获取该V字手势对应的目标时刻:14:00。
在子步骤3033中,将目标时刻作为第二人体行为对应的播放时刻。
示例的,播放设备将子步骤3032中得到的14:00作为第二人体行为对应的播放时刻。
在步骤304中,按照播放时刻播放目标视频,该目标视频为通过录像获取的视频。
以表1为例,假设用户想要查看以目标时刻14:00为起始时刻的目标视频,那么用户可以在图3-3所示的本文输入框中输入“V字手势”,播放设备确定“V字手势”为预定行为集合中的行为。播放设备从表1中获取与V字手势相匹配的第一人体行为:V字手势,然后从表1中获取该V字手势对应的目标时刻:14:00。之后,播放设备播放开始录制的时间为14:00的目标视频。
综上所述,本公开实施例提供的播放视频的方法,能够获取关联信息,在播放视频过程中,接收用户输入的第二人体行为,再基于关联信息定位与第二人体行为对应的播放时刻,之后,按照播放时刻播放目标视频,该目标视频为通过录像获取的视频。其中,关联信息指示第一人体行为与目标时刻之间的对应关系。这样一来,用户在查找自己感兴趣的内容时,无需通过播放设备对录制的视频进行回放,所以简化了查找过程,提高了查找效率。
图4是根据一示例性实施例示出的又一种播放视频的方法的流程图,本实施例以该方法应用于图1所示实施环境中的监控设备10来举例说明。该方法可以包括如下几个步骤:
在步骤401中,在录像过程中,检测第一人体行为。
在步骤402中,响应于检测到第一人体行为,获取检测到第一人体行为的目标时刻,该目标时刻以开始录像的时刻为起始时刻。
在步骤403中,获取关联信息,该关联信息指示第一人体行为与目标时刻之间的对应关系,以供在播放目标视频时,基于关联信息定位与输入的第二人体行为对应的播放时刻,该目标视频为通过录像获取的视频。
综上所述,本公开实施例提供的播放视频的方法,能够在录像过程中,检测第一人体行为,然后响应于检测到该第一人体行为,获取检测到该第一人体行为的目标时刻,之后获取关联信息。其中,该关联信息指示第一人体行为与目标时刻之间的对应关系。这样一来,播放设备在播放目标视频时,可以基于关联信息定位与输入的第二人体行为对应的播放时刻,使得用户在查找自己感兴趣的内容时,无需通过播放设备对录制的视频进行回放,简化了查找过程,提高了查找效率。
图5是根据一示例性实施例示出的再一种播放视频的方法的流程图,本实施例以该方法应用于图1所示实施环境中的监控设备10来举例说明。该方法可以包括如下几个步骤:
在步骤501中,在录像过程中,检测第四人体行为。
该第四人体行为可以包括以下至少一项:面部表情、肢体动作、声音表达。示例的,监控设备可以为摄像头。比如,用户可以对着摄像头做个手势或笑脸等。或者,监控设备检测用户的语音信号。
在步骤502中,响应于检测到第四人体行为,获取预定行为集合。
监控设备响应于检测到第四人体行为,获取包括多个人体行为的预定行为集合。通过该预定行为集合可以判断第四人体行为是否为第一人体行为。
在步骤503中,当预定行为集合包括第四人体行为时,将第四人体行为确定为第一人体行为。
第一人体行为可以包括以下至少一项:面部表情、肢体动作、声音表达。
示例的,预定行为集合包括人体行为L,人体行为M和人体行为N。假设第四人体行为为人体行为M,监控设备将第四人体行为确定为第一人体行为。假设第四人体行为为人体行为P,监控设备则确定该第四人体行为不为第一人体行为。
在本公开实施例中,当预定行为集合包括第四人体行为时,监控设备则获取检测到第一人体行为的目标时刻,以便于获取用于指示第一人体行为与目标时刻之间的对应关系的关联信息,使得播放设备在播放目标视频时,基于该关联定位与输入的第二人体行为对应的播放时刻。
在本公开实施例中,为了有效识别人体行为,进而获取关联信息,可选的,监控设备在录像过程中,可以判断检测到的人体行为是否为预定人体行为。示例的,可以基于行为特征来判断检测到的人体行为是否为预定人体行为。比如,第四人体行为为一个手势,监控设备可以对该手势的关键点进行提取,然后将提取结果与预定行为集合中的各个预定手势的关键点数据进行比较。当提取结果与预定行为集合中某一手势的关键点数据相同时,监控设备则确定该第四人体行为为预定手势,也即是,将该第四人体行为确定为第一人体行为。
此外,为了满足了用户个性化需求,给特殊人群提供帮助,监控设备也可以将检测到的人体行为作为第一人体行为,然后获取检测到该第一人体行为的目标时刻,并获取关联信息。比如长期卧床病人无法完成预定行为集合中的行为,在这种情况下,监控设备可以将病人的肢体动作(比如抬腿动作、摆手臂动作等)作为第一人体行为,帮助病人标记目标视频。监控设备也可以将检测到的一些异常行为作为第一人体行为,比如在监控设备的可监控区域内,用户突发疾病晕倒在地,此时,监控设备可以将检测到的人体行为作为第一人体行为,帮助用户标记目标视频。
在步骤504中,响应于检测到第一人体行为,获取检测到第一人体行为的目标时刻。
该目标时刻以开始录像的时刻为起始时刻。
可选的,当预定行为集合包括第四人体行为时,监控设备将第四人体行为确定为第一人体行为,然后响应于检测到第一人体行为,获取检测到第一人体行为的目标时刻。比如第一人体行为为V字手势,监控设备获取检测到该V字手势的目标时刻:14:00。又比如第一人体行为为竖大拇指手势,监控设备获取检测到该竖大拇指手势的目标时刻:15:30。
在步骤505中,获取关联信息,该关联信息指示第一人体行为与目标时刻之间的对应关系,以供在播放目标视频时,基于关联信息定位与输入的第二人体行为对应的播放时刻。
该目标视频为通过录像获取的视频。
示例的,监控设备获取的关联信息可以如表1所示。表1中,V字手势与14:00对应,竖大拇指手势与15:30对应,笑脸与16:00对应。这样一来,播放设备在播放目标视频时,能够基于表1定位与输入的第二人体行为(比如V字手势)对应的播放时刻,比如,定位与输入的V字手势对应的播放时刻:14:00,然后按照该播放时刻播放目标视频。
综上所述,本公开实施例提供的播放视频的方法,能够在录像过程中,检测第一人体行为,然后响应于检测到该第一人体行为,获取检测到该第一人体行为的目标时刻,之后获取关联信息。其中,该关联信息指示第一人体行为与目标时刻之间的对应关系。这样一来,播放设备在播放目标视频时,可以基于关联信息定位与输入的第二人体行为对应的播放时刻,使得用户在查找自己感兴趣的内容时,无需通过播放设备对录制的视频进行回放,简化了查找过程,提高了查找效率,且能够满足用户个性化需求。
下述为本公开装置实施例,可以用于执行本公开方法实施例。对于本公开装置实施例中未披露的细节,请参照本公开方法实施例。
图6是根据一示例性实施例示出的一种播放视频的装置的框图,该播放视频的装置可以通过软件、硬件或者两者的结合实现成为图1所示实施环境中监控设备30的部分或者全部,该装置600可以包括:
获取模块610,被配置为获取关联信息,该关联信息指示第一人体行为与目标时刻之间的对应关系。
接收模块620,被配置为在播放视频过程中,接收用户输入的第二人体行为。
定位模块630,被配置为基于获取模块获取的关联信息定位与接收模块接收的第二人体行为对应的播放时刻。
播放模块640,被配置为按照定位模块定位的播放时刻播放目标视频,该目标视频为通过录像获取的视频。
综上所述,本公开实施例提供的播放视频的装置,能够获取关联信息,在播放视频过程中,接收用户输入的第二人体行为,再基于关联信息定位与第二人体行为对应的播放时刻,之后,按照播放时刻播放目标视频,该目标视频为通过录像获取的视频。其中,关联信息指示第一人体行为与目标时刻之间的对应关系。这样一来,用户在查找自己感兴趣的内容时,无需通过播放设备对录制的视频进行回放,所以简化了查找过程,提高了查找效率。
可选的,定位模块630,被配置为:
获取关联信息中与第二人体行为相匹配的第一人体行为;
从关联信息中获取第一人体行为对应的目标时刻;
将目标时刻作为第二人体行为对应的播放时刻。
可选的,接收模块620,被配置为:
在播放视频过程中,接收用户输入的第三人体行为;
响应于接收到第三人体行为,获取预定行为集合;
当预定行为集合包括第三人体行为时,将第三人体行为确定为第二人体行为。
可选的,第一人体行为包括以下至少一项:面部表情、肢体动作、声音表达。
综上所述,本公开实施例提供的播放视频的装置,能够获取关联信息,在播放视频过程中,接收用户输入的第二人体行为,再基于关联信息定位与第二人体行为对应的播放时刻,之后,按照播放时刻播放目标视频,该目标视频为通过录像获取的视频。其中,关联信息指示第一人体行为与目标时刻之间的对应关系。这样一来,用户在查找自己感兴趣的内容时,无需通过播放设备对录制的视频进行回放,所以简化了查找过程,提高了查找效率。
图7是根据一示例性实施例示出的一种播放视频的装置的框图,该播放视频的装置可以通过软件、硬件或者两者的结合实现成为图1所示实施环境中监控设备10的部分或者全部。该装置700可以包括:
检测模块710,被配置为在录像过程中,检测第一人体行为。
第一获取模块720,被配置为响应于检测模块检测到第一人体行为,获取检测到第一人体行为的目标时刻,该目标时刻以开始录像的时刻为起始时刻。
第二获取模块730,被配置为获取关联信息,该关联信息指示检测模块检测的第一人体行为与第一获取模块获取的目标时刻之间的对应关系,以供在播放目标视频时,基于该关联信息定位与输入的第二人体行为对应的播放时刻,目标视频为通过录像获取的视频。
综上所述,本公开实施例提供的播放视频的装置,能够在录像过程中,检测第一人体行为,然后响应于检测到该第一人体行为,获取检测到该第一人体行为的目标时刻,之后获取关联信息。其中,该关联信息指示第一人体行为与目标时刻之间的对应关系。这样一来,播放设备在播放目标视频时,可以基于关联信息定位与输入的第二人体行为对应的播放时刻,使得用户在查找自己感兴趣的内容时,无需通过播放设备对录制的视频进行回放,简化了查找过程,提高了查找效率。
可选的,检测模块710,被配置为:
在录像过程中,检测第四人体行为;
响应于检测到第四人体行为,获取预定行为集合;
当预定行为集合包括第四人体行为时,将第四人体行为确定为第一人体行为。
可选的,第一人体行为包括以下至少一项:面部表情、肢体动作、声音表达。
综上所述,本公开实施例提供的播放视频的装置,能够在录像过程中,检测第一人体行为,然后响应于检测到该第一人体行为,获取检测到该第一人体行为的目标时刻,之后获取关联信息。其中,该关联信息指示第一人体行为与目标时刻之间的对应关系。这样一来,播放设备在播放目标视频时,可以基于关联信息定位与输入的第二人体行为对应的播放时刻,使得用户在查找自己感兴趣的内容时,无需通过播放设备对录制的视频进行回放,简化了查找过程,提高了查找效率。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
本公开实施例提供一种播放视频的装置,该装置可以包括:
处理器;
用于存储处理器的可执行指令的存储器;
其中,处理器被配置为:
获取关联信息,关联信息指示第一人体行为与目标时刻之间的对应关系;
在播放视频过程中,接收用户输入的第二人体行为;
基于关联信息定位与第二人体行为对应的播放时刻;
按照播放时刻播放目标视频,目标视频为通过录像获取的视频。
图8是根据一示例性实施例示出的一种播放视频的装置1000的框图。装置1000可以应用于图1所示实施环境中的播放设备30。
参照图8,装置1000可以包括以下一个或多个组件:处理组件1002,存储器1004,电源组件1006,多媒体组件1008,输入/输出(I/O)的接口1012,传感器组件1014和通信组件1016。
处理组件1002通常控制装置1000的整体操作,诸如数据通信,相机操作和记录操作相关联的操作。处理组件1002可以包括一个或多个处理器1020来执行指令,以完成图2或图3-1所示的方法的全部或部分步骤。此外,处理组件1002可以包括一个或多个模块,便于处理组件1002和其他组件之间的交互。例如,处理组件1002可以包括多媒体模块,以方便多媒体组件1008和处理组件1002之间的交互。
存储器1004被配置为存储各种类型的数据以支持在装置1000的操作。这些数据的示例包括用于在装置1000上操作的任何应用程序或方法的指令,消息,图片,视频等。存储器1004可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电源组件1006为装置1000的各种组件提供电力。电源组件1006可以包括电源管理系统,一个或多个电源,及其他与为装置1000生成、管理和分配电力相关联的组件。
多媒体组件1008包括在所述装置1000和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。
音频组件1010被配置为输出和/或输入音频信号。例如,音频组件1010包括一个麦克风(MIC),当装置1000处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器1004或经由通信组件1016发送。在一些实施例中,音频组件710还包括一个扬声器,用于输出音频信号。
I/O接口1012为处理组件1002和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件1014包括一个或多个传感器,用于为装置1000提供各个方面的状态评估。例如,传感器组件1014可以检测到装置1000的打开/关闭状态,组件的相对定位,例如所述组件为装置1000的显示器和小键盘,传感器组件1014还可以检测装置1000或装置1000一个组件的位置改变,用户与装置1000接触的存在或不存在,装置1000方位或加速/减速和装置1000的温度变化。传感器组件1014可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件1014还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件1014还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。
通信组件1016被配置为便于装置1000和其他设备之间有线或无线方式的通信。装置1000可以接入基于通信标准的无线网络,如WiFi,2G或3G,或它们的组合。在一个示例性实施例中,通信组件1016经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,所述通信组件1016还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,装置1000可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行图2或图3-1所示的播放视频的方法。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器1004,上述指令可由装置1000的处理器1020执行以完成上述图2或图3-1所示的播放视频的方法。例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
一种非临时性计算机可读存储介质,当所述存储介质中的指令由装置1000的处理器执行时,使得装置1000能够执行图2或图3-1所示的播放视频的方法。
综上所述,本公开实施例提供的播放视频的装置,能够获取关联信息,在播放视频过程中,接收用户输入的第二人体行为,再基于关联信息定位与第二人体行为对应的播放时刻,之后,按照播放时刻播放目标视频,该目标视频为通过录像获取的视频。其中,关联信息指示第一人体行为与目标时刻之间的对应关系。这样一来,用户在查找自己感兴趣的内容时,无需通过播放设备对录制的视频进行回放,所以简化了查找过程,提高了查找效率。
本公开实施例提供一种播放视频的装置,该装置可以包括:
处理器;
用于存储处理器的可执行指令的存储器;
其中,处理器被配置为:
在录像过程中,检测第一人体行为;
响应于检测到第一人体行为,获取检测到第一人体行为的目标时刻,该目标时刻以开始录像的时刻为起始时刻;
获取关联信息,该关联信息指示第一人体行为与目标时刻之间的对应关系,以供在播放目标视频时,基于关联信息定位与输入的第二人体行为对应的播放时刻,目标视频为通过录像获取的视频。
本公开实施例还提供一种播放视频的装置,该装置可以应用于图1所示实施环境中的监控设备10,参考图8,该装置可以包括处理组件、存储器,电源组件,多媒体组件,输入/输出(I/O)的接口,传感器组件和通信组件。
处理组件可以包括一个或多个处理器来执行指令,以完成图4或图5所示的播放视频的方法的全部或部分步骤。
在示例性实施例中,该装置可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行图4或图5所示的播放视频的方法。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器,上述指令可由装置的处理器执行以完成上述图4或图5所示的播放视频的方法。例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
一种非临时性计算机可读存储介质,当所述存储介质中的指令由装置的处理器执行时,使得该装置能够执行图4或图5所示的播放视频的方法。
综上所述,本公开实施例提供的播放视频的装置,能够在录像过程中,检测第一人体行为,然后响应于检测到该第一人体行为,获取检测到该第一人体行为的目标时刻,之后获取关联信息。其中,该关联信息指示第一人体行为与目标时刻之间的对应关系。这样一来,播放设备在播放目标视频时,可以基于关联信息定位与输入的第二人体行为对应的播放时刻,使得用户在查找自己感兴趣的内容时,无需通过播放设备对录制的视频进行回放,简化了查找过程,提高了查找效率。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。
Claims (14)
1.一种播放视频的方法,其特征在于,所述方法包括:
获取关联信息,所述关联信息指示第一人体行为与目标时刻之间的对应关系,所述关联信息是在录像过程中根据检测到的第一人体行为和检测到所述第一人体行为的时刻建立的,所述第一人体行为是基于第四人体行为的行为特征判断出的包括在预定行为集合内的人体行为,所述第四人体行为为录像过程中检测到的人体行为;
在播放视频过程中,接收用户输入的第三人体行为,响应于接收到所述第三人体行为,获取所述预定行为集合,基于所述第三人体行为的行为特征判断所述预定行为集合是否包括所述第三人体行为,当所述预定行为集合包括所述第三人体行为时,将所述第三人体行为确定为第二人体行为,所述第三人体行为为摄像头采集到的所述用户的人体行为,或者为所述用户在显示的文本输入框中输入的人体行为名称所对应的人体行为;
基于所述关联信息定位与所述第二人体行为对应的播放时刻;
按照所述播放时刻播放目标视频,所述目标视频为通过录像获取的视频;
其中,所述基于所述第三人体行为的行为特征判断所述预定行为集合是否包括所述第三人体行为,包括:
提取所述第三人体行为的关键点数据;判断所述关键点数据与所述预定行为集合内的人体行为的关键点数据是否相同;若所述关键点数据与所述预定行为集合内的人体行为的关键点数据相同,确定所述预定行为集合包括所述第三人体行为。
2.根据权利要求1所述的方法,其特征在于,所述基于所述关联信息定位与所述第二人体行为对应的播放时刻,包括:
获取所述关联信息中与所述第二人体行为相匹配的第一人体行为;
从所述关联信息中获取所述第一人体行为对应的目标时刻;
将所述目标时刻作为所述第二人体行为对应的播放时刻。
3.根据权利要求1所述的方法,其特征在于,所述第一人体行为包括以下至少一项:面部表情、肢体动作、声音表达。
4.一种播放视频的方法,其特征在于,所述方法包括:
在录像过程中,检测第四人体行为,响应于检测到所述第四人体行为,获取预定行为集合,基于所述第四人体行为的行为特征判断所述预定行为集合是否包括所述第四人体行为,当所述预定行为集合包括所述第四人体行为时,将所述第四人体行为确定为第一人体行为;
响应于检测到所述第一人体行为,获取检测到所述第一人体行为的目标时刻,所述目标时刻以开始录像的时刻为起始时刻;
获取关联信息,所述关联信息指示所述第一人体行为与所述目标时刻之间的对应关系,以供在播放目标视频时,基于所述关联信息定位与输入的第二人体行为对应的播放时刻,所述目标视频为通过录像获取的视频,所述第二人体行为是基于第三人体行为的行为特征判断出的包括在所述预定行为集合内的人体行为,所述第三人体行为为摄像头采集到的用户的人体行为,或者为所述用户在显示的文本输入框中输入的人体行为名称所对应的人体行为;
其中,基于所述第四人体行为的行为特征判断所述预定行为集合是否包括人体行为包括:
提取所述第四人体行为的关键点数据;判断所述关键点数据与所述预定行为集合内的人体行为的关键点数据是否相同;若所述关键点数据与所述预定行为集合内的人体行为的关键点数据相同,确定所述预定行为集合包括所述第四人体行为。
5.根据权利要求4所述的方法,其特征在于,所述第一人体行为包括以下至少一项:面部表情、肢体动作、声音表达。
6.一种播放视频的装置,其特征在于,所述装置包括:
获取模块,被配置为获取关联信息,所述关联信息指示第一人体行为与目标时刻之间的对应关系,所述关联信息是在录像过程中根据检测到的第一人体行为和检测到所述第一人体行为的时刻建立的,所述第一人体行为是基于第四人体行为的行为特征判断出的包括在预定行为集合内的人体行为,所述第四人体行为为录像过程中检测到的人体行为;
接收模块,被配置为在播放视频过程中,接收用户输入的第三人体行为,响应于接收到所述第三人体行为,获取所述预定行为集合,基于所述第三人体行为的行为特征判断所述预定行为集合是否包括所述第三人体行为,当所述预定行为集合包括所述第三人体行为时,将所述第三人体行为确定为第二人体行为,所述第三人体行为为摄像头采集到的所述用户的人体行为,或者为所述用户在显示的文本输入框中输入的人体行为名称所对应的人体行为;
定位模块,被配置为基于所述获取模块获取的所述关联信息定位与所述接收模块接收的所述第二人体行为对应的播放时刻;
播放模块,被配置为按照所述定位模块定位的所述播放时刻播放目标视频,所述目标视频为通过录像获取的视频;
所述装置还被配置为执行以下操作的模块:
提取所述第三人体行为的关键点数据;判断所述关键点数据与所述预定行为集合内的人体行为的关键点数据是否相同;若所述关键点数据与所述预定行为集合内的人体行为的关键点数据相同,确定所述预定行为集合包括所述第三人体行为。
7.根据权利要求6所述的装置,其特征在于,所述定位模块,被配置为:
获取所述关联信息中与所述第二人体行为相匹配的第一人体行为;
从所述关联信息中获取所述第一人体行为对应的目标时刻;
将所述目标时刻作为所述第二人体行为对应的播放时刻。
8.根据权利要求6所述的装置,其特征在于,所述第一人体行为包括以下至少一项:面部表情、肢体动作、声音表达。
9.一种播放视频的装置,其特征在于,所述装置包括:
检测模块,被配置为在录像过程中,检测第四人体行为,响应于检测到所述第四人体行为,获取预定行为集合,基于所述第四人体行为的行为特征判断所述预定行为集合是否包括所述第四人体行为,当所述预定行为集合包括所述第四人体行为时,将所述第四人体行为确定为第一人体行为;
第一获取模块,被配置为响应于所述检测模块检测到所述第一人体行为,获取检测到所述第一人体行为的目标时刻,所述目标时刻以开始录像的时刻为起始时刻;
第二获取模块,被配置为获取关联信息,所述关联信息指示所述检测模块检测的所述第一人体行为与所述第一获取模块获取的所述目标时刻之间的对应关系,以供在播放目标视频时,基于所述关联信息定位与输入的第二人体行为对应的播放时刻,所述目标视频为通过录像获取的视频,所述第二人体行为是基于第三人体行为的行为特征判断出的包括在所述预定行为集合内的人体行为,所述第三人体行为为摄像头采集到的用户的人体行为,或者为所述用户在显示的文本输入框中输入的人体行为名称所对应的人体行为;
所述装置还被配置为执行以下操作的模块:
提取所述第四人体行为的关键点数据;判断所述关键点数据与所述预定行为集合内的人体行为的关键点数据是否相同;若所述关键点数据与所述预定行为集合内的人体行为的关键点数据相同,确定所述预定行为集合包括所述第四人体行为。
10.根据权利要求9所述的装置,其特征在于,所述第一人体行为包括以下至少一项:面部表情、肢体动作、声音表达。
11.一种播放视频的装置,其特征在于,所述装置包括:
处理器;
用于存储所述处理器的可执行指令的存储器;
其中,所述处理器被配置为:
获取关联信息,所述关联信息指示第一人体行为与目标时刻之间的对应关系,所述关联信息是在录像过程中根据检测到的第一人体行为和检测到所述第一人体行为的时刻建立的,所述第一人体行为是基于第四人体行为的行为特征判断出的包括在预定行为集合内的人体行为,所述第四人体行为为录像过程中检测到的人体行为;
在播放视频过程中,接收用户输入的第三人体行为,响应于接收到所述第三人体行为,获取所述预定行为集合,基于所述第三人体行为的行为特征判断所述预定行为集合是否包括所述第三人体行为,当所述预定行为集合包括所述第三人体行为时,将所述第三人体行为确定为第二人体行为,所述第三人体行为为摄像头采集到的所述用户的人体行为,或者为所述用户在显示的文本输入框中输入的人体行为名称所对应的人体行为;
基于所述关联信息定位与所述第二人体行为对应的播放时刻;
按照所述播放时刻播放目标视频,所述目标视频为通过录像获取的视频;
所述处理器还被配置为:
提取所述第三人体行为的关键点数据;判断所述关键点数据与所述预定行为集合内的人体行为的关键点数据是否相同;若所述关键点数据与所述预定行为集合内的人体行为的关键点数据相同,确定所述预定行为集合包括所述第三人体行为。
12.一种播放视频的装置,其特征在于,所述装置包括:
处理器;
用于存储所述处理器的可执行指令的存储器;
其中,所述处理器被配置为:
在录像过程中,检测第四人体行为,响应于检测到所述第四人体行为,获取预定行为集合,基于所述第四人体行为的行为特征判断所述预定行为集合是否包括所述第四人体行为,当所述预定行为集合包括所述第四人体行为时,将所述第四人体行为确定为第一人体行为;
响应于检测到所述第一人体行为,获取检测到所述第一人体行为的目标时刻,所述目标时刻以开始录像的时刻为起始时刻;
获取关联信息,所述关联信息指示所述第一人体行为与所述目标时刻之间的对应关系,以供在播放目标视频时,基于所述关联信息定位与输入的第二人体行为对应的播放时刻,所述目标视频为通过录像获取的视频,所述第二人体行为是基于第三人体行为的行为特征判断出的包括在所述预定行为集合内的人体行为,所述第三人体行为为摄像头采集到的用户的人体行为,或者为所述用户在显示的文本输入框中输入的人体行为名称所对应的人体行为;
所述处理器还被配置为:
提取所述第四人体行为的关键点数据;判断所述关键点数据与所述预定行为集合内的人体行为的关键点数据是否相同;若所述关键点数据与所述预定行为集合内的人体行为的关键点数据相同,确定所述预定行为集合包括所述第四人体行为。
13.一种计算机可读存储介质,其特征在于,当所述存储介质中的指令由播放视频的装置的处理器执行时,使得所述装置能够执行一种播放视频的方法,所述方法包括:
获取关联信息,所述关联信息指示第一人体行为与目标时刻之间的对应关系,所述关联信息是在录像过程中根据检测到的第一人体行为和检测到所述第一人体行为的时刻建立的,所述第一人体行为是基于第四人体行为的行为特征判断出的包括在预定行为集合内的人体行为,所述第四人体行为为录像过程中检测到的人体行为;
在播放视频过程中,接收用户输入的第三人体行为,响应于接收到所述第三人体行为,获取所述预定行为集合,基于所述第三人体行为的行为特征判断所述预定行为集合是否包括所述第三人体行为,当所述预定行为集合包括所述第三人体行为时,将所述第三人体行为确定为第二人体行为,所述第三人体行为为摄像头采集到的所述用户的人体行为,或者为所述用户在显示的文本输入框中输入的人体行为名称所对应的人体行为;
基于所述关联信息定位与所述第二人体行为对应的播放时刻;
按照所述播放时刻播放目标视频,所述目标视频为通过录像获取的视频;
其中,所述基于所述第三人体行为的行为特征判断所述预定行为集合是否包括所述第三人体行为,包括:
提取所述第三人体行为的关键点数据;判断所述关键点数据与所述预定行为集合内的人体行为的关键点数据是否相同;若所述关键点数据与所述预定行为集合内的人体行为的关键点数据相同,确定所述预定行为集合包括所述第三人体行为。
14.一种计算机可读存储介质,其特征在于,当所述存储介质中的指令由播放视频的装置的处理器执行时,使得所述装置能够执行一种播放视频的方法,所述方法包括:
在录像过程中,检测第四人体行为,响应于检测到所述第四人体行为,获取预定行为集合,基于所述第四人体行为的行为特征判断所述预定行为集合是否包括所述第四人体行为,当所述预定行为集合包括所述第四人体行为时,将所述第四人体行为确定为第一人体行为;
响应于检测到所述第一人体行为,获取检测到所述第一人体行为的目标时刻,所述目标时刻以开始录像的时刻为起始时刻;
获取关联信息,所述关联信息指示所述第一人体行为与所述目标时刻之间的对应关系,以供在播放目标视频时,基于所述关联信息定位与输入的第二人体行为对应的播放时刻,所述目标视频为通过录像获取的视频,所述第二人体行为是基于第三人体行为的行为特征判断出的包括在所述预定行为集合内的人体行为,所述第三人体行为为摄像头采集到的用户的人体行为,或者为所述用户在显示的文本输入框中输入的人体行为名称所对应的人体行为;
其中,基于所述第四人体行为的行为特征判断所述预定行为集合是否包括人体行为包括:
提取所述第四人体行为的关键点数据;判断所述关键点数据与所述预定行为集合内的人体行为的关键点数据是否相同;若所述关键点数据与所述预定行为集合内的人体行为的关键点数据相同,确定所述预定行为集合包括所述第四人体行为。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710633215.0A CN107454359B (zh) | 2017-07-28 | 2017-07-28 | 播放视频的方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710633215.0A CN107454359B (zh) | 2017-07-28 | 2017-07-28 | 播放视频的方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107454359A CN107454359A (zh) | 2017-12-08 |
CN107454359B true CN107454359B (zh) | 2020-12-04 |
Family
ID=60490440
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710633215.0A Active CN107454359B (zh) | 2017-07-28 | 2017-07-28 | 播放视频的方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107454359B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109350084A (zh) * | 2018-12-04 | 2019-02-19 | 安徽阳光心健科技发展有限公司 | 一种心理测试装置及其测试方法 |
CN112019789B (zh) * | 2019-05-31 | 2022-05-31 | 杭州海康威视数字技术股份有限公司 | 录像回放方法及装置 |
CN114157914A (zh) * | 2021-11-30 | 2022-03-08 | 深圳Tcl数字技术有限公司 | 多媒体播放方法、装置、存储介质及电子设备 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102413321A (zh) * | 2011-12-26 | 2012-04-11 | 浙江省电力公司 | 一种自动录像的系统和方法 |
CN104580974A (zh) * | 2015-01-30 | 2015-04-29 | 成都华迈通信技术有限公司 | 一种智能监控录像回放的方法 |
CN104837059A (zh) * | 2014-04-15 | 2015-08-12 | 腾讯科技(北京)有限公司 | 视频处理方法、装置和系统 |
CN104980677A (zh) * | 2014-04-02 | 2015-10-14 | 联想(北京)有限公司 | 一种在视频中添加标签的方法及装置 |
US9465444B1 (en) * | 2014-06-30 | 2016-10-11 | Amazon Technologies, Inc. | Object recognition for gesture tracking |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106303331B (zh) * | 2016-08-18 | 2020-01-10 | 腾讯科技(深圳)有限公司 | 视频录制方法、终端、系统及存储介质 |
-
2017
- 2017-07-28 CN CN201710633215.0A patent/CN107454359B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102413321A (zh) * | 2011-12-26 | 2012-04-11 | 浙江省电力公司 | 一种自动录像的系统和方法 |
CN104980677A (zh) * | 2014-04-02 | 2015-10-14 | 联想(北京)有限公司 | 一种在视频中添加标签的方法及装置 |
CN104837059A (zh) * | 2014-04-15 | 2015-08-12 | 腾讯科技(北京)有限公司 | 视频处理方法、装置和系统 |
US9465444B1 (en) * | 2014-06-30 | 2016-10-11 | Amazon Technologies, Inc. | Object recognition for gesture tracking |
CN104580974A (zh) * | 2015-01-30 | 2015-04-29 | 成都华迈通信技术有限公司 | 一种智能监控录像回放的方法 |
Also Published As
Publication number | Publication date |
---|---|
CN107454359A (zh) | 2017-12-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105845124B (zh) | 音频处理方法及装置 | |
CN103885588B (zh) | 自动切换方法及装置 | |
CN105302315A (zh) | 图片处理方法及装置 | |
CN106331761A (zh) | 直播列表显示方法及装置 | |
CN106921791B (zh) | 一种多媒体文件的存储和查看方法、装置及移动终端 | |
CN106409317B (zh) | 梦话提取方法、装置及用于提取梦话的装置 | |
CN103944804A (zh) | 推荐联系人的方法及装置 | |
CN106101629A (zh) | 输出图像的方法及装置 | |
CN103955481A (zh) | 图片显示方法和装置 | |
CN107666536B (zh) | 一种寻找终端的方法和装置、一种用于寻找终端的装置 | |
CN111063354A (zh) | 人机交互方法及装置 | |
CN105550643A (zh) | 医学术语识别方法及装置 | |
CN106550252A (zh) | 信息的推送方法、装置及设备 | |
CN107454359B (zh) | 播放视频的方法及装置 | |
CN106331328B (zh) | 信息提示的方法及装置 | |
CN105100193A (zh) | 云名片推荐方法及装置 | |
CN106341712A (zh) | 多媒体数据的处理方法及装置 | |
CN106130873A (zh) | 信息处理方法及装置 | |
CN106406175A (zh) | 开门提醒方法及装置 | |
US10810439B2 (en) | Video identification method and device | |
CN104836721A (zh) | 群组会话消息提醒方法及装置 | |
CN105163141B (zh) | 视频推荐的方式及装置 | |
CN104166692A (zh) | 为照片添加标签的方法及装置 | |
US20170034347A1 (en) | Method and device for state notification and computer-readable storage medium | |
CN110673917A (zh) | 信息管理方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |