CN111586459B - 一种控制视频播放的方法、装置、电子设备及存储介质 - Google Patents
一种控制视频播放的方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN111586459B CN111586459B CN202010443500.8A CN202010443500A CN111586459B CN 111586459 B CN111586459 B CN 111586459B CN 202010443500 A CN202010443500 A CN 202010443500A CN 111586459 B CN111586459 B CN 111586459B
- Authority
- CN
- China
- Prior art keywords
- display screen
- video
- user
- playing
- visual focus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 103
- 230000000007 visual effect Effects 0.000 claims abstract description 101
- 230000003190 augmentative effect Effects 0.000 claims abstract description 34
- 230000015654 memory Effects 0.000 claims description 18
- 238000006243 chemical reaction Methods 0.000 claims description 14
- 210000001508 eye Anatomy 0.000 abstract description 150
- 230000004424 eye movement Effects 0.000 description 16
- 238000005516 engineering process Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 8
- 210000001747 pupil Anatomy 0.000 description 8
- 238000004590 computer program Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 210000000887 face Anatomy 0.000 description 5
- 238000005070 sampling Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000003993 interaction Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000005856 abnormality Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000004418 eye rotation Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42201—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] biosensors, e.g. heat sensor for presence detection, EEG sensors or any limb activity sensors worn by the user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/433—Content storage operation, e.g. storage operation in response to a pause request, caching operations
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/433—Content storage operation, e.g. storage operation in response to a pause request, caching operations
- H04N21/4333—Processing operations in response to a pause request
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Neurosurgery (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Analytical Chemistry (AREA)
- Chemical & Material Sciences (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本申请公开了一种控制视频播放的方法、装置、电子设备及存储介质,涉及增强现实技术领域。具体方案为:当至少一个视频在显示屏幕上正在播放或者暂停播放时,采集显示在屏幕前方的用户的当前人脸图像;基于增强现实的目光追踪方法对当前人脸图像进行解析,确定出用户在显示屏幕上的当前视觉焦点;根据当前视觉焦点控制至少一个视频在显示屏幕上继续播放或者暂停播放。本申请实施例可以通过眼睛更加精准地控制视频播放,更加方便用户操作,从而可以有效地提升用户的观看体验。
Description
技术领域
本申请涉及计算机技术领域,进一步涉及增强现实技术,尤其是一种控制视频播放的方法、装置、电子设备及存储介质。
背景技术
随着5G技术的快速推进落地以及短视频等富媒体的出现,让网民获取信息的方式变得更加多样化,同时网民对于如何更智能化地获取并且处理信息的诉求越来越强烈。例如,好看视频App自发布以来,用户在该App中的活动越来越多,对于观看视频体验的要求也会越来越高。
然而,在实践中发现,在移动手机、平板电脑等智能设备播放视频的过程中,当用户需要暂停智能设备当前播放的视频时,用户需要用手点击智能设备的屏幕上的暂停按键,而当用户需要智能设备继续播放视频时,用户又得用手指点击智能设备的屏幕上的播放按键。显然,这种以手指点击屏幕来控制视频播放的方式不仅会降低视频播放的便捷性,还会降低控制视频播放的效率。
在现有的控制视频播放的方法中,通过识别算法只能分析出眼睛动作,包括:眼睛的睁开、闭合、眼睛的转动方向等,因而无法通过上述眼睛动作对视频播放进行更加精准地控制。
发明内容
本申请提供了一种控制视频播放的方法、装置、设备以及存储介质,可以通过眼睛更加精准地控制视频播放,更加方便用户操作,从而可以有效地提升用户的观看体验。
第一方面,本申请提供了一种控制视频播放的方法,所述方法包括:
当至少一个视频在显示屏幕上正在播放或者暂停播放时,采集所述显示在屏幕前方的用户的当前人脸图像;
基于增强现实的目光追踪方法对所述当前人脸图像进行解析,确定出所述用户在所述显示屏幕上的当前视觉焦点;
根据所述当前视觉焦点控制所述至少一个视频在所述显示屏幕上继续播放或者暂停播放。
第二方面,本申请提供了一种控制视频播放的装置,所述装置包括:采集模块、解析模块和控制模块;其中,
所述采集模块,用于当至少一个视频在显示屏幕上正在播放或者暂停播放时,采集所述显示在屏幕前方的用户的当前人脸图像;
所述解析模块,用于基于增强现实的目光追踪方法对所述当前人脸图像进行解析,确定出所述用户在所述显示屏幕上的当前视觉焦点;
所述控制模块,用于根据所述当前视觉焦点控制所述至少一个视频在所述显示屏幕上继续播放或者暂停播放。
第三方面,本申请实施例提供了一种电子设备,包括:
一个或多个处理器;
存储器,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现本申请任意实施例所述的控制视频播放的方法。
第四方面,本申请实施例提供了一种存储介质,其上存储有计算机程序,该程序被处理器执行时实现本申请任意实施例所述的控制视频播放的方法。
根据本申请的技术解决了现有技术中通过眼睛动作无法精准地控制视频播放的技术问题,本申请可以通过眼睛更加精准地控制视频播放,更加方便用户操作,从而可以有效地提升用户的观看体验。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1是本申请实施例一提供的控制视频播放的方法的流程示意图;
图2是本申请实施例二提供的控制视频播放的方法的流程示意图
图3是本申请实施例二提供的目光追踪技术的实现原理图;
图4是本申请实施例三提供的控制视频播放的方法的流程示意图;
图5是本申请实施例三提供的眼球追踪控制视频播放技术的工作原理图;
图6是本申请实施例四提供的控制视频播放的方法的流程示意图;
图7是本申请实施例五提供的控制视频播放的装置的结构示意图;
图8是用来实现本申请实施例的控制视频播放的方法的电子设备的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
实施例一
图1是本申请实施例一提供的控制视频播放的方法的流程示意图,该方法可以由控制视频播放的装置或者电子设备来执行,该装置或者电子设备可以由软件和/或硬件的方式实现,该装置或者电子设备可以集成在任何具有网络通信功能的智能设备中。如图1所示,控制视频播放的方法可以包括以下步骤:
S101、当至少一个视频在显示屏幕上正在播放或者暂停播放时,采集显示在屏幕前方的用户的当前人脸图像。
在本申请的具体实施例中,当至少一个视频在显示屏幕上正在播放或者暂停播放时,电子设备可以采集显示在屏幕前方的用户的当前人脸图像。较佳地,电子设备可以按照预设周期采集显示在屏幕前方的用户的当前人脸图像。具体地,电子设备可以先获取前置摄像头权限,然后通过增强现实(Augmented Reality,AR)引擎自动地采集显示在屏幕前方的用户的人脸图像。AR技术是一种将虚拟信息与真实世界巧妙融合的技术,广泛运用了多媒体、三维建模、实时跟踪及注册、智能交互、传感等多种技术手段,将计算机生成的文字、图像、三维模型、音乐、视频等虚拟信息模拟仿真后,应用到真实世界中,两种信息互为补充,从而实现对真实世界的“增强”。
S102、基于增强现实的目光追踪方法对当前人脸图像进行解析,确定出用户在显示屏幕上的当前视觉焦点。
在本申请的具体实施例中,电子设备可以基于增强现实的目光追踪方法对当前人脸图像进行解析,确定出用户在显示屏幕上的当前视觉焦点。具体地,基于增强现实的目光追踪方法可以是ARkit目光追踪方法。
S103、根据当前视觉焦点控制至少一个视频在显示屏幕上继续播放或者暂停播放。
在本申请的具体实施例中,电子设备可以根据当前视觉焦点控制至少一个视频在显示屏幕上继续播放或者暂停播放。具体地,若在预设时间段内确定出用户连续眨眼N次,则电子设备可以根据用户在显示屏幕上的当前视觉焦点,确定出当前视觉焦点所在的视频;其中,N为大于1的自然数;当当前视觉焦点所在的视频在显示屏幕上正在播放时,则电子设备可以控制当前视觉焦点所在的视频在显示屏幕上暂停播放;或者,当当前视觉焦点所在的视频在显示屏幕上暂停播放时,则电子设备可以控制当前视觉焦点所在的视频在显示屏幕上继续播放。
需要说明的是,通过上述步骤S101-S103,可以实现多个视频的切换。例如,假设显示屏幕上有三个视频,分别为视频1、视频2和视频3,其中,视频1和视频2暂停播放,视频3正在播放,电子设备可以先采集显示在屏幕前方的用户的当前人脸图像;然后基于增强现实的目光追踪方法对当前人脸图像进行解析,确定出用户在显示屏幕上的当前视觉焦点,假设当前视觉焦点所在的视频为视频3,则电子设备可以控制视频3继续播放,控制视频1和视频2暂停播放。接着,电子设备还可以继续采集显示在屏幕前方的用户的当前人脸图像;然后基于增强现实的目光追踪方法对当前人脸图像进行解析,确定出用户在显示屏幕上的当前视觉焦点,假设当前视觉焦点所在的视频为视频2,则电子设备可以控制视频2继续播放,控制视频1和视频3暂停播放,从而实现了从视频3到视频2的切换。
本申请实施例提出的控制视频播放的方法,当至少一个视频在显示屏幕上正在播放或者暂停播放时,电子设备可以采集显示在屏幕前方的用户的当前人脸图像;然后基于增强现实的目光追踪方法对当前人脸图像进行解析,确定出用户在显示屏幕上的当前视觉焦点;再根据当前视觉焦点控制至少一个视频在显示屏幕上继续播放或者暂停播放。也就是说,本申请可以通过采集显示在屏幕前方的用户的当前人脸图像,即可通过眼睛精准地控制视频播放。而在现有的控制视频播放的方法中,通过识别算法只能分析出眼睛动作,包括:眼睛的睁开、闭合、眼睛的转动方向等,因而无法通过上述眼睛动作对视频播放进行更加精准地控制。因为本申请采用了基于增强现实的目光追踪方法对当前人脸图像进行解析,确定出用户在显示屏幕上的当前视觉焦点的技术手段,克服了现有技术中通过眼睛动作无法精准地控制视频播放的技术问题,本申请提供的技术方案,可以通过眼睛更加精准地控制视频播放,更加方便用户操作,从而可以有效地提升用户的观看体验;并且,本申请实施例的技术方案实现简单方便、便于普及,适用范围更广。
实施例二
图2是本申请实施例二提供的控制视频播放的方法的流程示意图。如图2所示,控制视频播放的方法可以包括以下步骤:
S201、当至少一个视频在显示屏幕上正在播放或者暂停播放时,采集显示屏幕前方的用户的当前人脸图像。
S202、基于增强现实的目光追踪方法对当前人脸图像进行解析,确定出用户的左眼目光对应与显示屏幕的交点以及用户的右眼目光与显示屏幕的交点。
在本申请的具体实施例中,电子设备可以基于增强现实的目光追踪方法对当前人脸图像进行解析,确定出用户的左眼目光与显示屏幕的交点以及用户的右眼目光与显示屏幕的交点。具体地,电子设备可以先通过用户对应的左眼转换模型(Left Transform)和右眼转换模型(Right Transform)确定出左眼目光的空间位置和右眼目光的空间位置;然后根据左眼目光的空间位置和右眼目光的空间位置以及预先确定的显示屏幕的空间位置,确定出左眼目光与显示屏幕的交点以及右眼目光与显示屏幕的交点。本申请先确定左眼目光与显示屏幕的交点以及右眼目光与显示屏幕的交点,然后根据左眼目光与显示屏幕的交点以及右眼目光与显示屏幕的交点,可以准确地确定出用户在显示屏幕上的当前视觉焦点,从而可以精准地控制视频继续播放或者暂停播放。
图3是本申请实施例二提供的目光追踪技术的实现原理图。如图3所示,电子设备可以先在三维空间中分别添加用户的左眼节点和右眼节点;以及左眼节点对应的左虚拟锚点和右眼节点对应的右虚拟锚点;然后根据左眼节点和左虚拟锚点的空间位置确定出左眼目光的空间位置;根据右眼节点和右虚拟锚点的空间位置确定出右眼目光的空间位置。用户的左眼目光是指用户的左眼节点与左虚拟锚点之间的连线;用户的右眼目光是指用户的右眼节点与右虚拟锚点之间的连线;其中,左眼节点的空间位置可以表示为(xl,yl,zl);左虚拟锚点的空间位置可以表示为(x’l,y’l,z’l);右眼节点的空间位置可以表示为(xr,yr,zr);右虚拟锚点的空间位置可以表示为(x’r,y’r,z’r)。较佳地,用户的左眼节点可以为用户的左眼瞳孔;用户的右眼节点可以为用户的右眼瞳孔。本申请先确定左眼节点和左虚拟锚点的空间位置,以及右眼节点和右虚拟锚点的空间位置,从而可以将左眼节点和左虚拟锚点进行连线,得到用户的左眼目光的空间位置;将右眼节点和右虚拟锚点进行连线,得到用户的右眼目光的空间位置,从而可以准确地确定出左眼目光与显示屏幕的交点以及右眼目光与显示屏幕的交点。
较佳地,在本申请的具体实施例中,用户人脸与虚拟面板之间的距离可以预先设置,例如,用户人脸与虚拟面板之间的距离可以设置为2米。
S203、根据左眼目光与显示屏幕的交点和右眼目光与显示屏幕的交点,确定用户在显示屏幕上的当前视觉焦点。
在本申请的具体实施例中,电子设备可以根据左眼目光与显示屏幕的交点和右眼目光与显示屏幕的交点,确定用户在显示屏幕上的当前视觉焦点。具体地,电子设备可以将左眼目光与显示屏幕的交点和右眼目光与显示屏幕的交点的中点,作为用户在显示屏幕上的当前视觉焦点。假设左眼目光与显示屏幕的交点的空间位置为(xlm,ylm,zlm);右眼目光与显示屏幕的交点的空间位置为(xrm,yrm,zrm);用户在显示屏幕上的当前视觉焦点的空间位置为
S204、根据用户在显示屏幕上的当前视觉焦点,控制至少一个视频在显示屏幕上继续播放或者暂停播放。
本申请实施例提出的控制视频播放的方法,当至少一个视频在显示屏幕上正在播放或者暂停播放时,电子设备可以采集显示在屏幕前方的用户的当前人脸图像;然后基于增强现实的目光追踪方法对当前人脸图像进行解析,确定出用户在显示屏幕上的当前视觉焦点;再根据当前视觉焦点控制至少一个视频在显示屏幕上继续播放或者暂停播放。也就是说,本申请可以通过采集显示在屏幕前方的用户的当前人脸图像,即可通过眼睛精准地控制视频播放。而在现有的控制视频播放的方法中,通过识别算法只能分析出眼睛动作,包括:眼睛的睁开、闭合、眼睛的转动方向等,因而无法通过上述眼睛动作对视频播放进行更加精准地控制。因为本申请采用了基于增强现实的目光追踪方法对当前人脸图像进行解析,确定出用户在显示屏幕上的当前视觉焦点的技术手段,克服了现有技术中通过眼睛动作无法精准地控制视频播放的技术问题,本申请提供的技术方案,可以通过眼睛更加精准地控制视频播放,更加方便用户操作,从而可以有效地提升用户的观看体验;并且,本申请实施例的技术方案实现简单方便、便于普及,适用范围更广。
实施例三
图4是本申请实施例三提供的控制视频播放的方法的流程示意图。如图4所示,控制视频播放的方法可以包括以下步骤:
S401、当至少一个视频在显示屏幕上正在播放或者暂停播放时,采集显示在屏幕前方的用户的当前人脸图像。
图5是本申请实施例三提供的眼球追踪控制视频播放技术的工作原理图。如图5所示,电子设备可以先获取前置摄像头权限,然后通过AR引擎自动地采集显示在屏幕前方的用户的当前人脸图像;针对采集到的当前人脸图像进行计算,得到用户在显示屏幕上的当前视觉焦点;然后根据当前视觉焦点在展示界面的相对位置来自动地控制展示界面向上滚动或者向下滚动。具体地,若用户在显示屏幕上的当前视觉焦点位于显示屏幕的上半区域,则电子设备可以控制显示屏幕上的展示界面向下滚动;若用户在显示屏幕上的当前视觉焦点位于显示屏幕的下半区域,则电子设备可以控制显示屏幕上的展示界面向上滚动。由此可见,本申请不仅可以通过眼睛控制视频播放,还可以通过眼睛控制展示页面的滚动,从而可以进一步提升用户的使用体验。
S402、通过用户对应的左眼转换模型和右眼转换模型确定出左眼目光的空间位置和右眼目光的空间位置。
在本申请的具体实施例中,电子设备可以通过用户对应的左眼转换模型和右眼转换模型确定出左眼目光的空间位置和右眼目光的空间位置。具体地,用户的左眼目光是指用户的左眼节点与左虚拟锚点之间的连线;用户的右眼目光是指用户的右眼节点与右虚拟锚点之间的连线;较佳地,用户的左眼节点可以为左眼瞳孔;用户的右眼节点可以为右眼瞳孔;左眼瞳孔的空间位置可以表示为(xl,yl,zl);左虚拟锚点的空间位置可以表示为(x’l,y’l,z’l);右眼瞳孔的空间位置可以表示为(xr,yr,zr);右虚拟锚点的空间位置可以表示为(x’r,y’r,z’r)。
较佳地,在本申请的具体实施例中,用户人脸与虚拟面板之间的距离可以预先设置,例如,用户人脸与虚拟面板之间的距离可以设置为2米。
S403、根据左眼目光的空间位置和右眼目光的空间位置以及预先确定的显示屏幕的空间位置,确定出左眼目光与显示屏幕的交点以及右眼目光与显示屏幕的交点。
在本申请的具体实施例中,电子设备可以根据左眼目光的空间位置和右眼目光的空间位置以及预先确定的显示屏幕的空间位置,确定出左眼目光与显示屏幕的交点以及右眼目光与显示屏幕的交点。具体地,显示屏幕的空间位置可以用显示屏幕所在的平面来表示;由于左眼目光以及右眼目光与显示屏幕所在的平面不相交,因此左眼目光和右眼目光分别与显示屏幕所在的平面存在一个交点。
S404、根据左眼目光与显示屏幕的交点和右眼目光与显示屏幕的交点,确定用户在显示屏幕上的当前视觉焦点。
S405、根据用户在显示屏幕上的当前视觉焦点,控制至少一个视频在显示屏幕上继续播放或者暂停播放。
在本申请的具体实施例中,电子设备采集到的当前人脸图像中可以包括一个用户的人脸,也可以包括多个用户的人脸;若当前人脸图像只包括一个用户的人脸,则电子设备可以将该用户确定为控制至少一个视频在显示屏幕上继续播放或者暂停播放的用户;若当前人脸图像中包括多个用户的人脸,则电子设备可以在多个用户中确定一个用户作为控制至少一个视频在显示屏幕上继续播放或者暂停播放的用户。例如,若当前人脸图像中包括多个用户的人脸,则电子设备可以将靠近显示屏幕的中心位置的用户确定为控制至少一个视频在显示屏幕上继续播放或者暂停播放的用户。由此可见,本申请不仅可以针对一个人脸的图像进行识别,还可以针对多个人脸的图像进行识别,在各种观看场景中均可以采用本申请提供的技术方案,从而可以扩大本申请的使用范围。
本申请实施例提出的控制视频播放的方法,当至少一个视频在显示屏幕上正在播放或者暂停播放时,电子设备可以采集显示在屏幕前方的用户的当前人脸图像;然后基于增强现实的目光追踪方法对当前人脸图像进行解析,确定出用户在显示屏幕上的当前视觉焦点;再根据当前视觉焦点控制至少一个视频在显示屏幕上继续播放或者暂停播放。也就是说,本申请可以通过采集显示在屏幕前方的用户的当前人脸图像,即可通过眼睛精准地控制视频播放。而在现有的控制视频播放的方法中,通过识别算法只能分析出眼睛动作,包括:眼睛的睁开、闭合、眼睛的转动方向等,因而无法通过上述眼睛动作对视频播放进行更加精准地控制。因为本申请采用了基于增强现实的目光追踪方法对当前人脸图像进行解析,确定出用户在显示屏幕上的当前视觉焦点的技术手段,克服了现有技术中通过眼睛动作无法精准地控制视频播放的技术问题,本申请提供的技术方案,可以通过眼睛更加精准地控制视频播放,更加方便用户操作,从而可以有效地提升用户的观看体验;并且,本申请实施例的技术方案实现简单方便、便于普及,适用范围更广。
实施例四
图6是本申请实施例四提供的控制视频播放的方法的流程示意图。如图6所示,控制视频播放的方法可以包括以下步骤:
S601、当至少一个视频在显示屏幕上正在播放或者暂停播放时,采集显示在屏幕前方的用户的当前人脸图像。
在本申请的具体实施例中,当至少一个视频在显示屏幕上正在播放或者暂停播放时,电子设备可以采集显示在屏幕前方的用户的当前人脸图像。具体地,电子设备可以通过采样率算法确定出人脸图像的采样率;然后按照该采样率采集显示在屏幕前方的用户的人脸图像,将每次采集到的人脸图像作为当前人脸图像。
S602、基于增强现实的目光追踪方法对当前人脸图像进行解析,确定出用户在显示屏幕上的当前视觉焦点。
在本申请的具体实施例中,电子设备还可以通过焦点位置纠偏算法对确定出的当前视觉焦点进行纠偏。由于每个人的人脸模型以及瞳孔在眼部转动幅度和位置的关系都是不一样的,本申请利用深度学习技术,可以对采集到的当前人脸图像进行模型训练,从而能够得到更准确的位置。虽然千人千面,但是本申请通过深度学习技术,也能做到每个人的焦点位置的相对准确。
较佳地,在本申请的具体实施例中,电子设备还可以通过焦点数据去噪算法对确定出的当前视觉焦点进行去噪。由于瞳孔位置的变化频率是非常高的,某个采样数据的异常可能导致整个焦点位置的抖动,通过去噪算法可以设置阈值,把不符合预期的采样数据丢弃掉。
S603、若在预设时间段内确定出用户连续眨眼N次,则根据当前视觉焦点确定其所在的视频;其中,N为大于1的自然数。
在本申请的具体实施例中,若在预设时间段内确定出用户连续眨眼N次,则电子设备根据用户在显示屏幕上的当前视觉焦点,确定出当前视觉焦点所在的视频;其中,N为大于1的自然数。当当前视觉焦点所在的视频在显示屏幕上正在播放时,则电子设备可以控制当前视觉焦点所在的视频在显示屏幕上暂停播放;或者,当当前视觉焦点所在的视频在显示屏幕上暂停播放时,则电子设备可以控制当前视觉焦点所在的视频在显示屏幕上继续播放。本申请中的预设时间段可以是预先设定一个比较短的时间段,例如,预设时间段可以为1秒,设置预设时间段的目的是确定用户是正常眨眼还是要发出控制指令,以防止电子设备将用户正常的眨眼与发出控制指令相混淆,从而影响用户正常观看。例如,当某个视频在显示屏幕上正在播放时,用户可以在1秒内眨眼两次,表示用户发出暂停播放的指令,当电子设备在检测出用户在1秒内眨眼两次时,视为接收到了用户发出的暂停播放的指令,此时控制该视频在显示屏幕上暂停播放;当某个视频在显示屏幕上暂停播放时,用户可以在1秒内眨眼两次,表示用户发出继续播放的指令,当电子设备在检测出用户在1秒内眨眼两次时,视为接收到了用户发出的继续播放的指令,此时控制该视频在显示屏幕上继续播放。
较佳地,在本申请的具体实施例中,若电子设备通过解析当前人脸图像无法确定当前视觉焦点,则电子设备可以将显示屏幕的亮度值降低预定数值。具体地,若电子设备在一个预设周期内,通过解析当前人脸图像无法确定出用户的当前视觉焦点,则电子设备可以将显示屏幕的亮度值降低一个单位值;若电子设备在多个预设周期内,通过解析当前人脸图像无法确定出用户的当前视觉焦点,则电子设备可以将显示屏幕的亮度值降低多个单位值,从而可以达到动态节电的目的。
S604、当当前视觉焦点所在的视频在显示屏幕上正在播放时,则控制当前视觉焦点所在的视频在显示屏幕上暂停播放;或者,当当前视觉焦点所在的视频在显示屏幕上暂停播放时,则控制当前视觉焦点所在的视频在显示屏幕上继续播放。
本申请实施例提出的控制视频播放的方法,当至少一个视频在显示屏幕上正在播放或者暂停播放时,电子设备可以采集显示在屏幕前方的用户的当前人脸图像;然后基于增强现实的目光追踪方法对当前人脸图像进行解析,确定出用户在显示屏幕上的当前视觉焦点;再根据当前视觉焦点控制至少一个视频在显示屏幕上继续播放或者暂停播放。也就是说,本申请可以通过采集显示在屏幕前方的用户的当前人脸图像,即可通过眼睛精准地控制视频播放。而在现有的控制视频播放的方法中,通过识别算法只能分析出眼睛动作,包括:眼睛的睁开、闭合、眼睛的转动方向等,因而无法通过上述眼睛动作对视频播放进行更加精准地控制。因为本申请采用了基于增强现实的目光追踪方法对当前人脸图像进行解析,确定出用户在显示屏幕上的当前视觉焦点的技术手段,克服了现有技术中通过眼睛动作无法精准地控制视频播放的技术问题,本申请提供的技术方案,可以通过眼睛更加精准地控制视频播放,更加方便用户操作,从而可以有效地提升用户的观看体验;并且,本申请实施例的技术方案实现简单方便、便于普及,适用范围更广。
实施例五
图7是本申请实施例五提供的控制视频播放的装置的结构示意图。如图7所示,所述装置700包括:采集模块701、解析模块702和控制模块703;其中,
所述采集模块701,用于当至少一个视频在显示屏幕上正在播放或者暂停播放时,采集所述显示在屏幕前方的用户的当前人脸图像;
所述解析模块702,用于基于增强现实的目光追踪方法对所述当前人脸图像进行解析,确定出所述用户在所述显示屏幕上的当前视觉焦点;
所述控制模块703,用于根据所述当前视觉焦点控制所述至少一个视频在所述显示屏幕上继续播放或者暂停播放。
进一步的,所述解析模块702,具体用于采用所述基于增强现实的目光追踪方法对所述当前人脸图像进行解析,确定出所述用户的左眼目光与显示屏幕的交点以及所述用户的右眼目光与所述显示屏幕的交点;根据所述左眼目光与所述显示屏幕的交点和所述右眼目光与所述显示屏幕的交点确定所述当前视觉焦点。
进一步的,所述解析模块702,具体用于通过所述用户对应的左眼转换模型和右眼转换模型确定出所述左眼目光的空间位置和所述右眼目光的空间位置;根据所述左眼目光的空间位置和所述右眼目光的空间位置以及预先确定的所述显示屏幕的空间位置,确定出所述左眼目光与所述显示屏幕的交点以及所述右眼目光与所述显示屏幕的交点。
进一步的,所述解析模块702,具体用于在三维空间中分别添加所述用户的左眼节点和右眼节点,以及所述左眼节点对应的左虚拟锚点和所述右眼节点对应的右虚拟锚点;根据所述左眼节点和所述左虚拟锚点的空间位置确定出所述左眼目光的空间位置;根据所述右眼节点和所述右虚拟锚点的空间位置确定出所述右眼目光的空间位置。
进一步的,所述控制模块703,还用于若所述当前人脸图像只包括一个用户的人脸,则将所述用户确定为控制所述至少一个视频在所述显示屏幕上继续播放或者暂停播放的用户;若所述当前人脸图像中包括多个用户的人脸,则在所述多个用户中确定一个用户作为控制所述至少一个视频在所述显示屏幕上继续播放或者暂停播放的用户。
进一步的,所述控制模块703,具体用于若在预设时间段内确定出所述用户连续眨眼N次,则根据所述当前视觉焦点确定其所在的视频;其中,N为大于1的自然数;当所述当前视觉焦点所在的视频在所述显示屏幕上正在播放时,则控制所述当前视觉焦点所在的视频在所述显示屏幕上暂停播放;或者,当所述当前视觉焦点所在的视频在所述显示屏幕上暂停播放时,则控制所述当前视觉焦点所在的视频在所述显示屏幕上继续播放。
进一步的,所述控制模块703,还用于若所述当前视觉焦点位于所述显示屏幕的上半区域,则控制所述显示屏幕上的展示界面向下滚动;若所述当前视觉焦点位于所述显示屏幕的下半区域,则控制所述显示屏幕上的展示界面向上滚动。
进一步的,所述控制模块703,还用于若通过解析所述当前人脸图像无法确定出所述当前视觉焦点,则将所述显示屏幕的亮度值降低预定数值。
上述控制视频播放的装置可执行本申请任意实施例所提供的方法,具备执行方法相应的功能模块和有益效果。未在本实施例中详尽描述的技术细节,可参见本申请任意实施例提供的控制视频播放的方法。
实施例六
根据本申请的实施例,本申请还提供了一种电子设备和一种可读存储介质。
如图8所示,是根据本申请实施例的控制视频播放的方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图8所示,该电子设备包括:一个或多个处理器801、存储器802,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图8中以一个处理器801为例。
存储器802即为本申请所提供的非瞬时计算机可读存储介质。其中,所述存储器存储有可由至少一个处理器执行的指令,以使所述至少一个处理器执行本申请所提供的控制视频播放的方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的控制视频播放的方法。
存储器802作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的控制视频播放的方法对应的程序指令/模块(例如,附图7所示的采集模块701、解析模块702和控制模块703)。处理器801通过运行存储在存储器802中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的控制视频播放的方法。
存储器802可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据控制视频播放的方法的电子设备的使用所创建的数据等。此外,存储器802可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器802可选包括相对于处理器801远程设置的存储器,这些远程存储器可以通过网络连接至控制视频播放的方法的电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
控制视频播放的方法的电子设备还可以包括:输入装置803和输出装置804。处理器801、存储器802、输入装置803和输出装置804可以通过总线或者其他方式连接,图8中以通过总线连接为例。
输入装置803可接收输入的数字或字符信息,以及产生与控制视频播放的方法的电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置804可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用ASIC(专用集成电路)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
根据本申请实施例的技术方案,当至少一个视频在显示屏幕上正在播放或者暂停播放时,电子设备可以采集显示在屏幕前方的用户的当前人脸图像;然后基于增强现实的目光追踪方法对当前人脸图像进行解析,确定出用户在显示屏幕上的当前视觉焦点;再根据当前视觉焦点控制至少一个视频在显示屏幕上继续播放或者暂停播放。也就是说,本申请可以通过采集显示在屏幕前方的用户的当前人脸图像,即可通过眼睛精准地控制视频播放。而在现有的控制视频播放的方法中,通过识别算法只能分析出眼睛动作,包括:眼睛的睁开、闭合、眼睛的转动方向等,因而无法通过上述眼睛动作对视频播放进行更加精准地控制。因为本申请采用了基于增强现实的目光追踪方法对当前人脸图像进行解析,确定出用户在显示屏幕上的当前视觉焦点的技术手段,克服了现有技术中通过眼睛动作无法精准地控制视频播放的技术问题,本申请提供的技术方案,可以通过眼睛更加精准地控制视频播放,更加方便用户操作,从而可以有效地提升用户的观看体验;并且,本申请实施例的技术方案实现简单方便、便于普及,适用范围更广。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。
Claims (16)
1.一种控制视频播放的方法,其特征在于,所述方法包括:
当至少一个视频在显示屏幕上正在播放或者暂停播放时,通过增强现实引擎采集所述显示在屏幕前方的用户的当前人脸图像;
基于增强现实的目光追踪方法对所述当前人脸图像进行解析,确定出所述用户在所述显示屏幕上的当前视觉焦点;
根据所述当前视觉焦点控制所述至少一个视频中正在播放的视频在所述显示屏幕上暂停播放,同时控制所述至少一个视频中除所述暂停播放的视频以外的视频在所述显示屏幕上继续播放;或者,控制所述至少一个视频中暂停播放的视频在所述显示屏幕上继续播放,同时控制所述至少一个视频中除所述继续播放的视频以外的视频在所述显示屏幕上暂停播放;
若所述当前人脸图像只包括一个用户的人脸,则将所述用户确定为控制所述至少一个视频在所述显示屏幕上继续播放或者暂停播放的用户;若所述当前人脸图像中包括多个用户的人脸,则在所述多个用户中确定一个用户作为控制所述至少一个视频在所述显示屏幕上继续播放或者暂停播放的用户。
2.根据权利要求1所述的方法,其特征在于,所述基于增强现实的目光追踪方法对所述当前人脸图像进行解析,确定出所述用户在所述显示屏幕上的当前视觉焦点,包括:
基于所述增强现实的目光追踪方法对所述当前人脸图像进行解析,确定出所述用户的左眼目光与显示屏幕的交点以及所述用户的右眼目光与所述显示屏幕的交点;
根据所述左眼目光与所述显示屏幕的交点和所述右眼目光与所述显示屏幕的交点确定出所述当前视觉焦点。
3.根据权利要求2所述的方法,其特征在于,所述基于所述增强现实的目光追踪方法对所述当前人脸图像进行解析,确定出所述用户的左眼目光与显示屏幕的交点以及所述用户的右眼目光与所述显示屏幕的交点,包括:
通过所述用户对应的左眼转换模型和右眼转换模型确定出所述左眼目光的空间位置和所述右眼目光的空间位置;
根据所述左眼目光的空间位置和所述右眼目光的空间位置以及预先确定的所述显示屏幕的空间位置,确定出所述左眼目光与所述显示屏幕的交点以及所述右眼目光与所述显示屏幕的交点。
4.根据权利要求3所述的方法,其特征在于,所述通过所述用户对应的左眼转换模型和右眼转换模型确定出所述左眼目光的空间位置和所述右眼目光的空间位置,包括:
在三维空间中分别添加所述用户的左眼节点和右眼节点,以及所述左眼节点对应的左虚拟锚点和所述右眼节点对应的右虚拟锚点;
根据所述左眼节点和所述左虚拟锚点的空间位置确定出所述左眼目光的空间位置;根据所述右眼节点和所述右虚拟锚点的空间位置确定出所述右眼目光的空间位置。
5.根据权利要求1所述的方法,其特征在于,所述根据所述当前视觉焦点控制所述至少一个视频在所述显示屏幕上继续播放或者暂停播放,包括:
若在预设时间段内检测出所述用户连续眨眼N次,则根据所述当前视觉焦点确定其所在的视频;其中,N为大于1的自然数;
当所述当前视觉焦点所在的视频在所述显示屏幕上正在播放时,则控制所述当前视觉焦点所在的视频在所述显示屏幕上暂停播放;或者,当所述当前视觉焦点所在的视频在所述显示屏幕上暂停播放时,则控制所述当前视觉焦点所在的视频在所述显示屏幕上继续播放。
6.根据权利要求5所述的方法,其特征在于,在所述控制所述当前视觉焦点所在的视频在所述显示屏幕上暂停播放之后,所述方法还包括:
若所述当前视觉焦点位于所述显示屏幕的上半区域,则控制所述显示屏幕上的展示界面向下滚动;若所述当前视觉焦点位于所述显示屏幕的下半区域,则控制所述显示屏幕上的展示界面向上滚动。
7.根据权利要求1所述的方法,其特征在于,所述方法还包括:
若通过解析所述当前人脸图像无法确定出所述当前视觉焦点,则将所述显示屏幕的亮度值降低预定数值。
8.一种视频播放控制装置,其特征在于,所述装置包括:采集模块、解析模块和控制模块;其中,
所述采集模块,用于当至少一个视频在显示屏幕上正在播放或者暂停播放时,通过增强现实引擎采集所述显示在屏幕前方的用户的当前人脸图像;
所述解析模块,用于基于增强现实的目光追踪方法对所述当前人脸图像进行解析,确定出所述用户在所述显示屏幕上的当前视觉焦点;
所述控制模块,用于根据所述当前视觉焦点控制所述至少一个视频中正在播放的视频在所述显示屏幕上暂停播放,同时控制所述至少一个视频中除所述暂停播放的视频以外的视频在所述显示屏幕上继续播放;或者,控制所述至少一个视频中暂停播放的视频在所述显示屏幕上继续播放,同时控制所述至少一个视频中除所述继续播放的视频以外的视频在所述显示屏幕上暂停播放;若所述当前人脸图像只包括一个用户的人脸,则将所述用户确定为控制所述至少一个视频在所述显示屏幕上继续播放或者暂停播放的用户;若所述当前人脸图像中包括多个用户的人脸,则在所述多个用户中确定一个用户作为控制所述至少一个视频在所述显示屏幕上继续播放或者暂停播放的用户。
9.根据权利要求8所述的装置,其特征在于:
所述解析模块,具体用于采用所述基于增强现实的目光追踪方法对所述当前人脸图像进行解析,确定出所述用户的左眼目光与显示屏幕的交点以及所述用户的右眼目光与所述显示屏幕的交点;根据所述左眼目光与所述显示屏幕的交点和所述右眼目光与所述显示屏幕的交点,确定所述用户在所述显示屏幕上的当前视觉焦点。
10.根据权利要求9所述的装置,其特征在于:
所述解析模块,具体用于通过所述用户对应的左眼转换模型和右眼转换模型确定出所述左眼目光的空间位置和所述右眼目光的空间位置;根据所述左眼目光的空间位置和所述右眼目光的空间位置以及预先确定的所述显示屏幕的空间位置,确定出所述左眼目光与所述显示屏幕的交点以及所述右眼目光与所述显示屏幕的交点。
11.根据权利要求10所述的装置,其特征在于:
所述解析模块,具体用于在三维空间中分别添加所述用户的左眼节点和右眼节点,以及所述左眼节点对应的左虚拟锚点和所述右眼节点对应的右虚拟锚点;根据所述左眼节点和所述左虚拟锚点的空间位置确定出所述左眼目光的空间位置;根据所述右眼节点和所述右虚拟锚点的空间位置确定出所述右眼目光的空间位置。
12.根据权利要求8所述的装置,其特征在于:
所述控制模块,具体用于若在预设时间段内确定出所述用户连续眨眼N次,则根据所述当前视觉焦点确定其所在的视频;其中,N为大于1的自然数;当所述当前视觉焦点所在的视频在所述显示屏幕上正在播放时,则控制所述视觉焦点所在的视频在所述显示屏幕上暂停播放;或者,当所述当前视觉焦点所在的视频在所述显示屏幕上暂停播放时,则控制所述当前视觉焦点所在的视频在所述显示屏幕上继续播放。
13.根据权利要求12所述的装置,其特征在于:
所述控制模块,还用于若所述当前视觉焦点位于所述显示屏幕的上半区域,则控制所述显示屏幕上的展示界面向下滚动;若所述当前视觉焦点位于所述显示屏幕的下半区域,则控制所述显示屏幕上的展示界面向上滚动。
14.根据权利要求8所述的装置,其特征在于:
所述控制模块,还用于若通过解析所述当前人脸图像无法确定出所述当前视觉焦点,则将所述显示屏幕的亮度值降低预定数值。
15.一种电子设备,其特征在于,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-7中任一项所述的方法。
16.一种存储有计算机指令的非瞬时计算机可读存储介质,其特征在于,所述计算机指令用于使所述计算机执行权利要求1-7中任一项所述的方法。
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010443500.8A CN111586459B (zh) | 2020-05-22 | 2020-05-22 | 一种控制视频播放的方法、装置、电子设备及存储介质 |
PCT/CN2021/070412 WO2021232827A1 (zh) | 2020-05-22 | 2021-01-06 | 一种控制视频播放的方法、装置、电子设备及存储介质 |
EP21751951.1A EP3941077A4 (en) | 2020-05-22 | 2021-01-06 | Method and apparatus for controlling video playing, and electronic device and storage medium |
JP2021549408A JP2022537236A (ja) | 2020-05-22 | 2021-01-06 | 動画再生の制御方法、装置、電子機器及び記憶媒体 |
KR1020217026694A KR20210111860A (ko) | 2020-05-22 | 2021-01-06 | 비디오 재생 제어 방법, 장치, 전자 설비 및 저장매체 |
US17/433,142 US20230336826A1 (en) | 2020-05-22 | 2021-01-06 | Method and apparatus for controlling video playing, electronic device and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010443500.8A CN111586459B (zh) | 2020-05-22 | 2020-05-22 | 一种控制视频播放的方法、装置、电子设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111586459A CN111586459A (zh) | 2020-08-25 |
CN111586459B true CN111586459B (zh) | 2022-10-14 |
Family
ID=72125290
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010443500.8A Active CN111586459B (zh) | 2020-05-22 | 2020-05-22 | 一种控制视频播放的方法、装置、电子设备及存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN111586459B (zh) |
WO (1) | WO2021232827A1 (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111586459B (zh) * | 2020-05-22 | 2022-10-14 | 北京百度网讯科技有限公司 | 一种控制视频播放的方法、装置、电子设备及存储介质 |
CN111970566A (zh) * | 2020-08-26 | 2020-11-20 | 北京达佳互联信息技术有限公司 | 视频播放方法、装置、电子设备及存储介质 |
CN112416126B (zh) * | 2020-11-18 | 2023-07-28 | 青岛海尔科技有限公司 | 页面滚动控制方法和装置、存储介质及电子设备 |
CN114567732A (zh) * | 2022-02-23 | 2022-05-31 | 咪咕数字传媒有限公司 | 数据展示方法、装置、电子设备及计算机存储介质 |
CN114779925A (zh) * | 2022-03-22 | 2022-07-22 | 天津理工大学 | 一种基于单目标的视线交互方法及装置 |
CN115933874B (zh) * | 2022-11-23 | 2023-08-29 | 深圳市江元智造科技有限公司 | 一种基于人脸控制的智能滑动控制方法、系统和存储介质 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019067901A2 (en) * | 2017-09-29 | 2019-04-04 | Apple Inc. | USER INTERACTIONS BASED ON THE LOOK |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10082863B2 (en) * | 2012-05-11 | 2018-09-25 | Umoove Services Ltd. | Gaze-based automatic scrolling |
CN103699210A (zh) * | 2012-09-27 | 2014-04-02 | 北京三星通信技术研究有限公司 | 移动终端及其操控方法 |
CN103324283A (zh) * | 2013-05-23 | 2013-09-25 | 广东欧珀移动通信有限公司 | 基于人脸识别控制视频播放的方法及其终端 |
CN105227982B (zh) * | 2015-08-27 | 2018-07-27 | 宇龙计算机通信科技(深圳)有限公司 | 一种终端控制方法及其装置 |
CN106095111A (zh) * | 2016-06-24 | 2016-11-09 | 北京奇思信息技术有限公司 | 根据用户眼部动作控制虚拟现实交互的方法 |
CN106325519A (zh) * | 2016-08-31 | 2017-01-11 | 周口师范学院 | 基于眼睛检测的终端屏幕控制装置和方法 |
US10110950B2 (en) * | 2016-09-14 | 2018-10-23 | International Business Machines Corporation | Attentiveness-based video presentation management |
CN106792036A (zh) * | 2016-11-18 | 2017-05-31 | 广东小天才科技有限公司 | 一种视频播放的控制方法及装置、智能设备 |
CN106604130A (zh) * | 2016-12-03 | 2017-04-26 | 西安科锐盛创新科技有限公司 | 一种基于视线追踪的视频播放方法 |
US10349135B2 (en) * | 2016-12-28 | 2019-07-09 | Patrick Vazquez | Method and program product for automatic human identification and censorship of submitted media |
CN108388339B (zh) * | 2018-01-31 | 2021-09-21 | 维沃移动通信有限公司 | 显示方法、装置及移动终端 |
CN109558008B (zh) * | 2018-11-30 | 2020-10-27 | 腾讯科技(深圳)有限公司 | 控制方法、装置、计算机设备和存储介质 |
CN111586459B (zh) * | 2020-05-22 | 2022-10-14 | 北京百度网讯科技有限公司 | 一种控制视频播放的方法、装置、电子设备及存储介质 |
-
2020
- 2020-05-22 CN CN202010443500.8A patent/CN111586459B/zh active Active
-
2021
- 2021-01-06 WO PCT/CN2021/070412 patent/WO2021232827A1/zh unknown
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019067901A2 (en) * | 2017-09-29 | 2019-04-04 | Apple Inc. | USER INTERACTIONS BASED ON THE LOOK |
Also Published As
Publication number | Publication date |
---|---|
WO2021232827A1 (zh) | 2021-11-25 |
CN111586459A (zh) | 2020-08-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111586459B (zh) | 一种控制视频播放的方法、装置、电子设备及存储介质 | |
US20220319139A1 (en) | Multi-endpoint mixed-reality meetings | |
CN111709362B (zh) | 用于确定重点学习内容的方法、装置、设备及存储介质 | |
CN111787387A (zh) | 内容显示方法、装置、设备以及存储介质 | |
Huynh et al. | In-situ labeling for augmented reality language learning | |
CN111507111A (zh) | 语义表示模型的预训练方法、装置、电子设备及存储介质 | |
CN113359995B (zh) | 人机交互方法、装置、设备以及存储介质 | |
CN111443852A (zh) | 一种数字人动作的控制方法、装置、电子设备及存储介质 | |
CN110568931A (zh) | 交互方法、设备、系统、电子设备及存储介质 | |
CN111443854B (zh) | 基于数字人的动作处理方法、装置、设备及存储介质 | |
WO2018000606A1 (zh) | 一种虚拟现实交互界面的切换方法和电子设备 | |
CN111770384A (zh) | 视频切换方法、装置、电子设备和存储介质 | |
Liu et al. | A survey of speech-hand gesture recognition for the development of multimodal interfaces in computer games | |
KR20210038278A (ko) | 음성 제어 방법, 장치, 전자 기기 및 판독 가능 저장 매체 | |
CN111669647B (zh) | 实时视频的处理方法、装置、设备及存储介质 | |
CN109426342B (zh) | 基于增强现实的文档阅读方法和装置 | |
CN111970560B (zh) | 视频获取方法、装置、电子设备及存储介质 | |
CN111638787A (zh) | 用于展示信息的方法和装置 | |
CN111309153A (zh) | 人机交互的控制方法和装置、电子设备和存储介质 | |
CN113495621A (zh) | 一种交互模式的切换方法、装置、电子设备及存储介质 | |
CN111367443A (zh) | 一种信息交互方法、装置、电子设备和介质 | |
US20230336826A1 (en) | Method and apparatus for controlling video playing, electronic device and storage medium | |
CN115079919A (zh) | 一种多窗口控制方法和装置、电子设备及存储介质 | |
CN113327309A (zh) | 视频播放方法和装置 | |
CN113784217A (zh) | 视频播放方法、装置、设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |