Nothing Special   »   [go: up one dir, main page]

CN108874141B - 一种体感浏览方法和装置 - Google Patents

一种体感浏览方法和装置 Download PDF

Info

Publication number
CN108874141B
CN108874141B CN201810661716.4A CN201810661716A CN108874141B CN 108874141 B CN108874141 B CN 108874141B CN 201810661716 A CN201810661716 A CN 201810661716A CN 108874141 B CN108874141 B CN 108874141B
Authority
CN
China
Prior art keywords
human body
display screen
hand
image
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810661716.4A
Other languages
English (en)
Other versions
CN108874141A (zh
Inventor
赵涛涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JD Digital Technology Holdings Co Ltd
Jingdong Technology Holding Co Ltd
Original Assignee
JD Digital Technology Holdings Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JD Digital Technology Holdings Co Ltd filed Critical JD Digital Technology Holdings Co Ltd
Priority to CN201810661716.4A priority Critical patent/CN108874141B/zh
Publication of CN108874141A publication Critical patent/CN108874141A/zh
Application granted granted Critical
Publication of CN108874141B publication Critical patent/CN108874141B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明公开了一种体感浏览方法和装置,涉及计算机技术领域。该方法的一具体实施方式包括:若在预设识别范围内检测到人体,则识别所述人体的手部特征;获取所述人体的手部特征的运动轨迹,并将所述运动轨迹映射到显示屏上;根据所述人体的手部特征的运动轨迹,确定在显示屏上的当前展示图像的移动方向,从而在显示屏上移动所述当前展示图像。该实施方式能够解决交互不流畅、体验真实感不强的问题。

Description

一种体感浏览方法和装置
技术领域
本发明涉及计算机技术领域,尤其涉及一种体感浏览方法和装置。
背景技术
目前,主要的浏览方式有以下三种:
1)基于移动端的全景浏览,依靠手指对屏幕的点触、拖动,实现对球形范围内场景各个方向的观看;
2)基于大型触摸屏的全景浏览,依靠手指对屏幕的点触、拖动,实现对球形范围内场景各个方向的观看;
3)非触摸屏web端的全景浏览,依靠鼠标拖拽或键盘操作,实现对球形范围内场景各个方向的观看。
在实现本发明过程中,发明人发现现有技术中至少存在如下问题:
1)基于移动端的全景浏览存在移动端屏幕较小、缺乏临场真实感、无法得到较好的体验、交互方式没有新鲜感的问题;2)基于大型触摸屏的全景浏览,存在显示屏成本较高、交互方式没有新鲜感的问题;3)非触摸屏web端的全景浏览存在交互方式不够便捷、交互不够流畅、缺乏临场真实感的问题。
发明内容
有鉴于此,本发明实施例提供一种体感浏览方法和装置,能够解决交互不流畅、体验真实感不强的问题。
为实现上述目的,根据本发明实施例的一个方面,提供了一种体感浏览方法,包括:
若在预设识别范围内检测到人体,则识别所述人体的手部特征;
获取所述人体的手部特征的运动轨迹,并将所述运动轨迹映射到显示屏上;
根据所述人体的手部特征的运动轨迹,确定在显示屏上的当前展示图像的移动方向,从而在显示屏上移动所述当前展示图像。
可选地,根据所述人体的手部特征的运动轨迹,确定显示屏上当前展示图像的移动方向,包括:
根据所述人体的手部特征的运动轨迹,确定所述人体的手部特征的运动距离和运动方向;
根据所述人体的手部特征的运动距离和运动方向,确定显示屏上当前展示图像的移动距离和移动方向。
可选地,所述方法还包括:
若检测到所述人体的手部特征映射在显示屏的预设区域上的时间超过时间阈值,则触发该预设区域对应的跳转指令;和/或,
若检测到映射在显示屏的预设区域上的所述人体的手部特征发生变化,则触发该预设区域对应的跳转指令。
可选地,所述方法还包括:
若未在预设识别范围内检测到人体,则在显示屏上展示图像,并以预设速度、预设方向移动所述图像。
可选地,所述手部特征包括握拳特征,所述图像包括全景图像。
另外,根据本发明实施例的另一个方面,提供了一种体感浏览装置,包括:
识别模块,用于若在预设识别范围内检测到人体,则识别所述人体的手部特征;
映射模块,用于获取所述人体的手部特征的运动轨迹,并将所述运动轨迹映射到显示屏上;
移动模块,用于根据所述人体的手部特征的运动轨迹,确定在显示屏上的当前展示图像的移动方向,从而在显示屏上移动所述当前展示图像。
可选地,根据所述人体的手部特征的运动轨迹,确定显示屏上当前展示图像的移动方向,包括:
根据所述人体的手部特征的运动轨迹,确定所述人体的手部特征的运动距离和运动方向;
根据所述人体的手部特征的运动距离和运动方向,确定显示屏上当前展示图像的移动距离和移动方向。
可选地,所述装置还包括触发模块,用于:
若检测到所述人体的手部特征映射在显示屏的预设区域上的时间超过时间阈值,则触发跳转指令;和/或,
若检测到映射在显示屏的预设区域上的所述人体的手部特征发生变化,则触发跳转指令。
可选地,所述识别模块还用于:
若未在预设识别范围内检测到人体,则在显示屏上展示图像,并以预设速度、预设方向移动所述图像。
可选地,所述手部特征包括握拳特征,所述图像包括全景图像。
根据本发明实施例的另一个方面,还提供了一种电子设备,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现上述任一实施例所述的方法。
根据本发明实施例的另一个方面,还提供了一种计算机可读介质,其上存储有计算机程序,所述程序被处理器执行时实现上述任一实施例所述的方法。
上述发明中的一个实施例具有如下优点或有益效果:因为采用根据人体的手部特征的运动轨迹,确定在显示屏上的当前展示图像的移动方向,从而在显示屏上移动当前展示图像的技术手段,所以克服了交互不流畅、体验真实感不强的技术问题;本发明通过体感装置进行交互,获取人体的手部特征的运动轨迹,并根据人体的手部特征的运动轨迹,确定在显示屏上的当前展示图像的移动方向,在显示屏上移动所述当前展示图像。因此,本发明实施例的交互方式新颖、交互流畅、易于学习,能够使用户获得较好的体验,增强体验真实感,还能够实现全景图的大屏展示,尽可能地节约了成本。
上述的非惯用的可选方式所具有的进一步效果将在下文中结合具体实施方式加以说明。
附图说明
附图用于更好地理解本发明,不构成对本发明的不当限定。其中:
图1是根据本发明实施例的体感浏览方法的主要流程的示意图;
图2是根据本发明实施例搭建的显示模块、体感模块和数据处理模块的示意图;
图3是根据本发明一个可参考实施例的体感浏览方法的主要流程的示意图;
图4是根据本发明实施例的体感浏览装置的主要模块的示意图;
图5是本发明实施例可以应用于其中的示例性系统架构图;
图6是适于用来实现本发明实施例的终端设备或服务器的计算机系统的结构示意图。
具体实施方式
以下结合附图对本发明的示范性实施例做出说明,其中包括本发明实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本发明的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
图1是根据本发明实施例的体感浏览方法的主要流程的示意图。如图1所示,作为本发明的一个实施例,所述体感浏览方法可以包括:
步骤101,若在预设识别范围内检测到人体,则识别所述人体的手部特征。
在该步骤中,可以通过体感装置获取体验数据,然后基于所述体验数据判断预设识别范围内是否有人体,如果是,则识别所述人体的手部特征,手部特征可以是握拳特征、手掌特征、手指特征等。
可选地,所述体感装置可以是Kinect,是微软在2010年6月14日对XBOX360体感周边外设正式发布的名字。Kinect是一种3D体感摄影机,同时导入了即时动态捕捉、影像辨识、麦克风输入、语音辨识、社群互动等功能。
为了实现本发明,需要显示模块、体感模块和数据处理模块。具体地,所述显示模块可以是显示屏,所述体验模块可以是体感装置,比如Kinect,所述数据处理模块可以是处理器,按照如图2所示进行搭建,搭建时确认Kinect的识别范围,可以经过多次试验调整布置在适合大多数人操作的位置并调整角度。
Kinect可以有两种模式:一个是半身模式,即近距离模式;另一个是缺省模式,为全身模式。近距离模式深度距离范围,物理限制:0.4米到3米;舒适区:0.8米到2.5米。缺省模式的深度距离范围,物理限制:0.8到4米(缺省)深度扩展(超过4米)也是可以被检测,但是骨骼和玩家跟踪的噪声会随着距离的越远变得越大,因此此时可能是不可靠的;舒适区:1.2米到3.5米。视角大小(深度和RGB),水平角度:57.5度;垂直角度:43.5度,可在正负27度范围内上下。
可选地,所述方法还包括:若未在预设识别范围内检测到人体,则在显示屏上展示图像,并以预设速度、预设方向移动所述图像。在本发明的一些实施例中,若在显示屏前的预设识别范围内检测到人体,则通过体感装置获取的体感数据识别所述人体的手部特征;若未在显示屏前的预设识别范围内检测到人体,则在显示屏上展示全景图像,并以预设速度、预设方向移动所述全景图像。需要指出的是,可以通过预先设置全景图像的移动速度、移动方向的方式,使得在未检测到人体的情况下,全景图像能够按照预设速度、预设方向进行移动,提高用户观看全景图像的体验。
在实施本发明的实施例之前,需要制作全景图像,全景图像的制作包括使用单反或专业全景摄像机进行图像采集,拼合图像成为全景图像。
步骤102,获取所述人体的手部特征的运动轨迹,并将所述运动轨迹映射到显示屏上。
在确定预设范围内有人体后,则识别并获取该人体的手部特征的运动轨迹,并通过计算显示屏的坐标,将所述运动轨迹映射到显示屏上,以便于用户直观地看到手部特征的运动轨迹,并及时地调整手部特征的运动轨迹。
可选地,还可以进一步模拟人体的手部特征,将所述运动轨迹以模拟手部特征的形式映射到显示屏上。举例来说,当所述手部特征为握拳特征时,则将运动轨迹以模拟握拳特征的形式映射到显示屏上,那么当人体的手部为握拳状态,并以握拳状态移动时,通过捕获的人体手部握拳的运动轨迹,将人体的握拳状态模拟为映射到屏幕上的握拳状态,保持人体的手部特征与屏幕上的手部特征一致,并且也保持两者的运动轨迹一致,以便于增强用户的体验真实感。
可选地,在步骤102之前,还可以包括:将使用方法展示在显示屏上。一般来说,使用方法可以是:用户通过何种方式触发图像的移动以及如何控制移动方向,如何触发下一场景,如何退出等,本发明实施例对此不做限制。
步骤103,根据所述人体的手部特征的运动轨迹,确定在显示屏上的当前展示图像的移动方向,从而在显示屏上移动所述当前展示图像。
可选地,在该步骤中,根据所述人体的手部特征的运动轨迹,实时计算在显示屏上当前展示的全景图像的移动方向,
在本发明的再一个实施例中,根据所述人体的手部特征的运动轨迹,确定显示屏上当前展示图像的移动方向,包括:根据所述人体的手部特征的运动轨迹,确定所述人体的手部特征的运动距离和运动方向;根据所述人体的手部特征的运动距离和运动方向,确定显示屏上当前展示图像的移动距离和移动方向。在该实施例中,通过实时获取的人体手部特征的运动轨迹,实时计算人体手部特征的运动距离和运动方向,然后根据所述手部特征的运动距离和运动方向,确定在显示屏上当前展示的图像的移动距离和移动方向,从而实现在显示屏上移动所述当前展示的图像。
在本发明的又一个实施例中,映射到显示屏上的模拟握拳特征与所述当前展示的全景图像一起移动,以使模拟握拳特征可拖动全景图像,用户能够对球形范围内场景各个方向进行观看。
可选地,所述方法还可以包括:若检测到所述人体的手部特征映射在显示屏的预设区域上的时间超过时间阈值,则触发该预设区域对应的跳转指令;和/或,若检测到映射在显示屏的预设区域上的所述人体的手部特征发生变化,则触发该预设区域对应的跳转指令。
具体地,在一个实施例中,如果检测到人体的握拳特征映射在显示屏的预设区域(比如特定图标——“下一场景”)上的时间超过时间阈值,则触发跳转指令,可跳转至下一场景。又或者是,如果检测到映射在显示屏的预设区域(比如特定图标——“下一场景”)上的所述人体的握拳特征发生变化,比如展开——握拳——展开——握拳的变化,则触发跳转指令,可跳转至下一场景。
实际上,在本发明的实施例中,可以将人体的手部特征模拟为鼠标的点击事件,从而提高人机交互的真实感,显著提高用户体验。
根据上面所述的各种实施例,可以看出本发明采用根据人体的手部特征的运动轨迹,确定在显示屏上的当前展示图像的移动方向,从而在显示屏上移动当前展示图像的技术方案,解决了交互不流畅、体验真实感不强的问题。也就是说,在现有技术中,存在缺乏临场真实感、无法得到较好的体验、交互不够流畅、交互方式没有新鲜感的问题。而本发明是通过体感装置进行交互,获取人体的手部特征的运动轨迹,并根据人体的手部特征的运动轨迹,确定在显示屏上的当前展示图像的移动方向,在显示屏上移动所述当前展示图像。因此,本发明实施例的交互方式新颖、交互流畅、易于学习,能够使用户获得较好的体验,增强体验真实感,还能够实现全景图的大屏展示,尽可能地节约了成本。
图3是根据本发明一个可参考实施例的体感浏览方法的主要流程的示意图,所述体感浏览方法可以包括:
步骤301,是否在预设识别范围内检测到人体;若是,则执行步骤302;若否,则执行步骤306;
步骤302,获取所述人体的手部特征的运动轨迹,并将所述运动轨迹映射到显示屏上;
步骤303,根据所述人体的手部特征的运动轨迹,确定所述人体的手部特征的运动距离和运动方向;
步骤304,根据所述人体的手部特征的运动距离和运动方向,确定显示屏上当前展示的全景图像的移动距离和移动方向;
步骤305,在显示屏上移动所述当前展示的全景图像;
步骤306,在显示屏上展示全景图像,并以预设速度、预设方向移动所述图像。
另外,在本发明一个可参考实施例中体感浏览方法的具体实施内容,在上面所述体感浏览方法中已经详细说明了,故在此重复内容不再说明。
图4是根据本发明实施例的体感浏览装置的主要模块的示意图。如图4所示,所述体感浏览装置400包括识别模块401、映射模块402和移动模块403。其中,所述识别模块401用于若在预设识别范围内检测到人体,则识别所述人体的手部特征;所述映射模块402用于获取所述人体的手部特征的运动轨迹,并将所述运动轨迹映射到显示屏上;所述移动模块403用于根据所述人体的手部特征的运动轨迹,确定在显示屏上的当前展示图像的移动方向,从而在显示屏上移动所述当前展示图像。
可选地,根据所述人体的手部特征的运动轨迹,确定显示屏上当前展示图像的移动方向,包括:
根据所述人体的手部特征的运动轨迹,确定所述人体的手部特征的运动距离和运动方向;
根据所述人体的手部特征的运动距离和运动方向,确定显示屏上当前展示图像的移动距离和移动方向。
可选地,所述装置还包括触发模块,用于:
若检测到所述人体的手部特征映射在显示屏的预设区域上的时间超过时间阈值,则触发跳转指令;和/或,
若检测到映射在显示屏的预设区域上的所述人体的手部特征发生变化,则触发跳转指令。
可选地,所述识别模块还用于:
若未在预设识别范围内检测到人体,则在显示屏上展示图像,并以预设速度、预设方向移动所述图像。
可选地,所述手部特征包括握拳特征,所述图像包括全景图像。
根据上面所述的各种实施例,可以看出本发明采用根据人体的手部特征的运动轨迹,确定在显示屏上的当前展示图像的移动方向,从而在显示屏上移动当前展示图像的技术方案,解决了交互不流畅、体验真实感不强的问题。也就是说,在现有技术中,存在缺乏临场真实感、无法得到较好的体验、交互不够流畅、交互方式没有新鲜感的问题。而本发明是通过体感装置进行交互,获取人体的手部特征的运动轨迹,并根据人体的手部特征的运动轨迹,确定在显示屏上的当前展示图像的移动方向,在显示屏上移动所述当前展示图像。因此,本发明实施例的交互方式新颖、交互流畅、易于学习,能够使用户获得较好的体验,增强体验真实感,还能够实现全景图的大屏展示,尽可能地节约了成本。
需要说明的是,在本发明所述体感浏览装置的具体实施内容,在上面所述体感浏览方法中已经详细说明了,故在此重复内容不再说明。
图5示出了可以应用本发明实施例的体感浏览方法或体感浏览方法的示例性系统架构500。
如图5所示,系统架构500可以包括终端设备501、502、503,网络504和服务器505。网络504用以在终端设备501、502、503和服务器505之间提供通信链路的介质。网络504可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备501、502、503通过网络504与服务器505交互,以接收或发送消息等。终端设备501、502、503上可以安装有各种通讯客户端应用,例如购物类应用、网页浏览器应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件等(仅为示例)。
终端设备501、502、503可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。
服务器505可以是提供各种服务的服务器,例如对用户利用终端设备501、502、503所浏览的购物类网站提供支持的后台管理服务器(仅为示例)。后台管理服务器可以对接收到的产品信息查询请求等数据进行分析等处理,并将处理结果(例如目标推送信息、产品信息——仅为示例)反馈给终端设备。
需要说明的是,本发明实施例所提供的体感浏览方法一般在终端设备501、502、503执行,相应地,所述体感浏览装置一般设置在终端设备501、502、503中。
应该理解,图5中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
下面参考图6,其示出了适于用来实现本发明实施例的终端设备的计算机系统600的结构示意图。图6示出的终端设备仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图6所示,计算机系统600包括中央处理单元(CPU)601,其可以根据存储在只读存储器(ROM)602中的程序或者从存储部分608加载到随机访问存储器(RAM)603中的程序而执行各种适当的动作和处理。在RAM 603中,还存储有系统600操作所需的各种程序和数据。CPU 601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
以下部件连接至I/O接口605:包括键盘、鼠标等的输入部分606;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分607;包括硬盘等的存储部分608;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分609。通信部分609经由诸如因特网的网络执行通信处理。驱动器610也根据需要连接至I/O接口605。可拆卸介质611,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器610上,以便于从其上读出的计算机程序根据需要被安装入存储部分608。
特别地,根据本发明公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本发明公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分609从网络上被下载和安装,和/或从可拆卸介质611被安装。在该计算机程序被中央处理单元(CPU)601执行时,执行本发明的系统中限定的上述功能。
需要说明的是,本发明所示的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本发明中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本发明中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本发明各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本发明实施例中所涉及到的模块可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的模块也可以设置在处理器中,例如,可以描述为:一种处理器包括识别模块、映射模块和移动模块,其中,这些模块的名称在某种情况下并不构成对该模块本身的限定。
作为另一方面,本发明还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的设备中所包含的;也可以是单独存在,而未装配入该设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被一个该设备执行时,使得该设备包括:若在预设识别范围内检测到人体,则识别所述人体的手部特征;获取所述人体的手部特征的运动轨迹,并将所述运动轨迹映射到显示屏上;根据所述人体的手部特征的运动轨迹,确定在显示屏上的当前展示图像的移动方向,从而在显示屏上移动所述当前展示图像。
根据本发明实施例的技术方案,因为采用根据人体的手部特征的运动轨迹,确定在显示屏上的当前展示图像的移动方向,从而在显示屏上移动当前展示图像的技术手段,所以克服了交互不流畅、体验真实感不强的技术问题;本发明通过体感装置进行交互,获取人体的手部特征的运动轨迹,并根据人体的手部特征的运动轨迹,确定在显示屏上的当前展示图像的移动方向,在显示屏上移动所述当前展示图像。因此,本发明实施例的交互方式新颖、交互流畅、易于学习,能够使用户获得较好的体验,增强体验真实感,还能够实现全景图的大屏展示,尽可能地节约了成本。
上述具体实施方式,并不构成对本发明保护范围的限制。本领域技术人员应该明白的是,取决于设计要求和其他因素,可以发生各种各样的修改、组合、子组合和替代。任何在本发明的精神和原则之内所作的修改、等同替换和改进等,均应包含在本发明保护范围之内。

Claims (6)

1.一种体感浏览方法,其特征在于,包括:
若在预设识别范围内检测到人体,则识别所述人体的手部特征,所述手部特征包括握拳特征;若未在预设识别范围内检测到人体,则在显示屏上展示图像,并以预设速度、预设方向移动所述图像;
获取所述人体的手部特征的运动轨迹,并将所述运动轨迹映射到显示屏上;
根据所述人体的手部特征的运动轨迹,确定在显示屏上的当前展示图像的移动方向,从而在显示屏上移动所述当前展示图像,所述图像包括全景图像;
若检测到所述人体的手部特征映射在显示屏的预设区域上的时间超过时间阈值,则触发该预设区域对应的跳转指令;和/或,若检测到映射在显示屏的预设区域上的所述人体的手部特征发生变化,则触发该预设区域对应的跳转指令。
2.根据权利要求1所述的方法,其特征在于,根据所述人体的手部特征的运动轨迹,确定显示屏上当前展示图像的移动方向,包括:
根据所述人体的手部特征的运动轨迹,确定所述人体的手部特征的运动距离和运动方向;
根据所述人体的手部特征的运动距离和运动方向,确定显示屏上当前展示图像的移动距离和移动方向。
3.一种体感浏览装置,其特征在于,包括:
识别模块,用于若在预设识别范围内检测到人体,则识别所述人体的手部特征,所述手部特征包括握拳特征;若未在预设识别范围内检测到人体,则在显示屏上展示图像,并以预设速度、预设方向移动所述图像;
映射模块,用于获取所述人体的手部特征的运动轨迹,并将所述运动轨迹映射到显示屏上,所述图像包括全景图像;
移动模块,用于根据所述人体的手部特征的运动轨迹,确定在显示屏上的当前展示图像的移动方向,从而在显示屏上移动所述当前展示图像;
触发模块,用于若检测到所述人体的手部特征映射在显示屏的预设区域上的时间超过时间阈值,则触发该预设区域对应的跳转指令;和/或,若检测到映射在显示屏的预设区域上的所述人体的手部特征发生变化,则触发该预设区域对应的跳转指令。
4.根据权利要求3所述的装置,其特征在于,根据所述人体的手部特征的运动轨迹,确定显示屏上当前展示图像的移动方向,包括:
根据所述人体的手部特征的运动轨迹,确定所述人体的手部特征的运动距离和运动方向;
根据所述人体的手部特征的运动距离和运动方向,确定显示屏上当前展示图像的移动距离和移动方向。
5.一种电子设备,其特征在于,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1或2所述的方法。
6.一种计算机可读介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现如权利要求1或2所述的方法。
CN201810661716.4A 2018-06-25 2018-06-25 一种体感浏览方法和装置 Active CN108874141B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810661716.4A CN108874141B (zh) 2018-06-25 2018-06-25 一种体感浏览方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810661716.4A CN108874141B (zh) 2018-06-25 2018-06-25 一种体感浏览方法和装置

Publications (2)

Publication Number Publication Date
CN108874141A CN108874141A (zh) 2018-11-23
CN108874141B true CN108874141B (zh) 2021-03-30

Family

ID=64295699

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810661716.4A Active CN108874141B (zh) 2018-06-25 2018-06-25 一种体感浏览方法和装置

Country Status (1)

Country Link
CN (1) CN108874141B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109828741A (zh) * 2019-01-29 2019-05-31 北京字节跳动网络技术有限公司 用于播放音频的方法和装置
CN112578908A (zh) * 2020-12-09 2021-03-30 京东数字科技控股股份有限公司 一种基于广告机的体感交互方法和装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102307309A (zh) * 2011-07-29 2012-01-04 杭州电子科技大学 一种基于自由视点的体感交互导播系统及方法
CN103309444A (zh) * 2013-03-14 2013-09-18 江南大学 基于Kinect的智能全景展示方法
CN103777748A (zh) * 2012-10-26 2014-05-07 华为技术有限公司 一种体感输入方法及装置
CN104636063A (zh) * 2015-01-22 2015-05-20 杭州电魂网络科技股份有限公司 电子屏幕虚拟摇杆的构建方法
CN105678693A (zh) * 2016-01-25 2016-06-15 成都易瞳科技有限公司 全景视频浏览播放方法
CN107544673A (zh) * 2017-08-25 2018-01-05 上海视智电子科技有限公司 基于深度图信息的体感交互方法和体感交互系统
CN107872561A (zh) * 2016-09-27 2018-04-03 中兴通讯股份有限公司 一种终端屏幕管理方法和装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102307309A (zh) * 2011-07-29 2012-01-04 杭州电子科技大学 一种基于自由视点的体感交互导播系统及方法
CN103777748A (zh) * 2012-10-26 2014-05-07 华为技术有限公司 一种体感输入方法及装置
CN103309444A (zh) * 2013-03-14 2013-09-18 江南大学 基于Kinect的智能全景展示方法
CN104636063A (zh) * 2015-01-22 2015-05-20 杭州电魂网络科技股份有限公司 电子屏幕虚拟摇杆的构建方法
CN105678693A (zh) * 2016-01-25 2016-06-15 成都易瞳科技有限公司 全景视频浏览播放方法
CN107872561A (zh) * 2016-09-27 2018-04-03 中兴通讯股份有限公司 一种终端屏幕管理方法和装置
CN107544673A (zh) * 2017-08-25 2018-01-05 上海视智电子科技有限公司 基于深度图信息的体感交互方法和体感交互系统

Also Published As

Publication number Publication date
CN108874141A (zh) 2018-11-23

Similar Documents

Publication Publication Date Title
US10652462B2 (en) Method and system for 360 degree video coverage visualization
JP6013583B2 (ja) 有効インターフェース要素の強調のための方式
CN109905754B (zh) 虚拟礼物收取方法、装置及存储设备
US9268410B2 (en) Image processing device, image processing method, and program
US9213436B2 (en) Fingertip location for gesture input
CN112051961A (zh) 虚拟交互方法、装置、电子设备及计算机可读存储介质
RU2667720C1 (ru) Способ имитационного моделирования и управления виртуальной сферой в мобильном устройстве
KR20220093091A (ko) 라벨링 방법 및 장치, 전자 기기 및 기억 매체
US9400575B1 (en) Finger detection for element selection
KR20220110493A (ko) 비디오의 객체 표시 방법 및 장치, 전자 장치 및 컴퓨터 판독 가능 저장 매체
CN108874141B (zh) 一种体感浏览方法和装置
CN114449162B (zh) 一种播放全景视频的方法、装置、计算机设备及存储介质
CN108829329B (zh) 一种操作对象展示方法、装置和可读介质
CN117271045A (zh) 基于数字孪生的设备信息展示方法、装置及电子设备
KR102462054B1 (ko) 라이브 경매의 사용자 인터페이스 구현 장치 및 방법
WO2019218684A1 (zh) 应用分区的处理方法、设备及计算机可读存储介质
JP7560207B2 (ja) オブジェクトの表示方法、装置、電子機器及びコンピュータ可読型記憶媒体
CN113112613B (zh) 模型显示方法、装置、电子设备和存储介质
CN118022307A (zh) 调整虚拟对象位置的方法、装置、设备、介质和程序产品
CN110263743B (zh) 用于识别图像的方法和装置
CN109472873B (zh) 三维模型的生成方法、装置、硬件装置
CN116880726B (zh) 3d空间的图标交互方法、装置、电子设备和介质
CN113763567B (zh) 一种基于虚拟现实技术的数据展示方法和装置
CN113722644B (zh) 基于外接设备在虚拟空间选取浏览点位的方法及其装置
CN110955787B (zh) 用户头像的设置方法、计算机设备及计算机可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information

Address after: 101111 Room 221, 2nd Floor, Block C, 18 Kechuang 11th Street, Beijing Economic and Technological Development Zone

Applicant after: JINGDONG DIGITAL TECHNOLOGY HOLDINGS Co.,Ltd.

Address before: 101111 Room 221, 2nd Floor, Block C, 18 Kechuang 11th Street, Beijing Economic and Technological Development Zone

Applicant before: BEIJING JINGDONG FINANCIAL TECHNOLOGY HOLDING Co.,Ltd.

CB02 Change of applicant information
GR01 Patent grant
GR01 Patent grant
CP01 Change in the name or title of a patent holder

Address after: 101111 Room 221, 2nd Floor, Block C, 18 Kechuang 11th Street, Beijing Economic and Technological Development Zone

Patentee after: Jingdong Technology Holding Co.,Ltd.

Address before: 101111 Room 221, 2nd Floor, Block C, 18 Kechuang 11th Street, Beijing Economic and Technological Development Zone

Patentee before: Jingdong Digital Technology Holding Co.,Ltd.

Address after: 101111 Room 221, 2nd Floor, Block C, 18 Kechuang 11th Street, Beijing Economic and Technological Development Zone

Patentee after: Jingdong Digital Technology Holding Co.,Ltd.

Address before: 101111 Room 221, 2nd Floor, Block C, 18 Kechuang 11th Street, Beijing Economic and Technological Development Zone

Patentee before: JINGDONG DIGITAL TECHNOLOGY HOLDINGS Co.,Ltd.

CP01 Change in the name or title of a patent holder