Nothing Special   »   [go: up one dir, main page]

CN108604096B - 显示图像的方法及其电子设备 - Google Patents

显示图像的方法及其电子设备 Download PDF

Info

Publication number
CN108604096B
CN108604096B CN201780008643.2A CN201780008643A CN108604096B CN 108604096 B CN108604096 B CN 108604096B CN 201780008643 A CN201780008643 A CN 201780008643A CN 108604096 B CN108604096 B CN 108604096B
Authority
CN
China
Prior art keywords
robot
time
display
electronic device
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201780008643.2A
Other languages
English (en)
Other versions
CN108604096A (zh
Inventor
金润常
罗在根
辛昊哲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of CN108604096A publication Critical patent/CN108604096A/zh
Application granted granted Critical
Publication of CN108604096B publication Critical patent/CN108604096B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/377Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1415Digital output to display device ; Cooperation and interconnection of the display device with other functional units with means for detecting differences between the image stored in the host and the images displayed on the displays
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C23/00Combined instruments indicating more than one navigational value, e.g. for aircraft; Combined measuring devices for measuring two or more variables of movement, e.g. distance, speed or acceleration
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/003Details of a display terminal, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • G09G5/006Details of the interface to the display terminal
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/38Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/10Special adaptations of display systems for operation with variable images
    • G09G2320/106Determination of movement vectors or equivalent parameters within the image
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Fuzzy Systems (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • User Interface Of Digital Computer (AREA)
  • Manipulator (AREA)
  • Toys (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

提供了用于显示由机器人发送的图像并远程控制机器人的移动的电子设备和方法。电子设备包括通信器、输入器、显示器和控制器。通信器从机器人接收由机器人拍摄的图像以及时间信息。输入器接收控制机器人的命令。显示器显示与图像对应的屏幕。控制器基于时间信息计算电子设备与机器人之间的时间延迟,控制显示器显示要覆盖在屏幕上的图形对象,并控制通信器向机器人发送命令。图形对象表示机器人当前时间的视场。可以基于时间延迟信息来估计机器人当前时间的视场。

Description

显示图像的方法及其电子设备
技术领域
符合示例性实施例的装置和方法涉及能够远程控制移动机器人的电子设备以及在电子设备的屏幕上显示由移动机器人拍摄的图像和与其相关的信息的方法。
背景技术
随着电子和机器人技术的进步,已经开发了这样的系统,其中在可移动机器人上安装有相机、由机器人拍摄图像、通过通信远程监视拍摄的图像、并且机器人被遥控。
在通过使用这种机器人执行远程监视的系统中,远程用户可以通过在移动终端上观看由移动机器人拍摄的图像来控制移动机器人。即,用户可以在移动终端上观看由移动机器人发送的一系列图像的同时在各个方向(例如,左、右、上、下)移动移动机器人。但是,在处理移动机器人拍摄的图像时,可能出现时间延迟。具体而言,由于连接移动机器人与远程用户的移动终端的通信网络中的传输延迟,在用户的移动终端上显示的图像与用户的远程控制信号之间可以发生时间延迟,并且因此,用户可能难以控制移动机器人。
发明内容
【技术问题】
示例性实施例可以克服上述缺点以及以上未描述的其它缺点。但是,可以理解的是,示例性实施例不需要克服上述缺点,并且可以不克服上述任何问题。
【技术解决方案】
一个或多个示例性实施例提供了一种电子设备和计算机器人与控制机器人的电子设备之间的时间延迟、在电子设备的屏幕上显示关于时间延迟的信息并且考虑时间延迟来控制机器人以平稳控制机器人的方法。
根据示例性实施例的一方面,提供了一种远程控制机器人的移动的电子设备。该电子装置可以包括:通信器,被配置为从机器人接收由机器人拍摄的图像和关于图像的时间信息;输入器,被配置为接收控制机器人的命令;显示器,被配置为显示与图像对应的屏幕;以及控制器,被配置为基于时间信息来计算电子设备与机器人之间的时间延迟、基于时间延迟信息控制显示器显示要覆盖在屏幕上的图形对象并且控制通信器向机器人发送通过输入器输入的命令。
通信器还可以被配置为从机器人接收机器人的移动速度。控制器还可以被配置为基于机器人的移动速度来确定显示在屏幕上的图形对象的位置。
图形对象可以是具有与屏幕相同的宽高比的四边形。
图像可以由包括在机器人中的相机拍摄。控制器还可以被配置为基于机器人在与时间延迟对应的时间期间行进的距离来确定图形对象的尺寸,以与相机的视场对应。
图形对象的尺寸可以随着时间的流逝而改变。
控制器还可以被配置为控制显示器以在屏幕的第一区域中显示图像和图形对象,并且基于时间延迟在屏幕的第二区域中显示时间条和的延迟条。
延迟条的长度可以随着时间的流逝而改变。
控制器还可以被配置为控制显示器在第二区域中显示与命令对应的第二图形对象。
通信器还可以被配置为从机器人接收关于机器人的方向改变的信息、基于关于方向改变的信息确定图形对象的显示位置,并且控制显示器显示要覆盖在屏幕上的显示位置处的图形对象。
控制器还可以被配置为控制显示器在屏幕上显示机器人绕其旋转的旋转轴。
根据示例性实施例的一方面,一种用于显示远程控制机器人的移动的电子设备的屏幕的方法包括:从机器人接收由机器人拍摄的图像和关于图像的时间信息,显示与图像对应的屏幕;基于时间信息计算电子设备与机器人之间的时间延迟;以及基于时间延迟信息显示覆盖在屏幕上的图形对象。
显示图形对象还可以包括基于机器人的移动速度来确定图形对象的位置。
图形对象可以是具有与屏幕相同的宽高比的四边形。
显示图形对象还可以包括基于机器人在与时间延迟对应的时间期间行进的距离来确定图形对象的位置和尺寸,以与机器人的相机的视场对应。
图形对象的尺寸可以随着时间的流逝而改变。
该方法还可以包括在屏幕的第一区域中显示图像和图形对象,并且基于时间延迟在屏幕的第二区域中显示时间条和的延迟条。
延迟条的长度可以随着时间的流逝而改变。
该方法还可以包括在第二区域中显示与命令对应的第二图形对象。
该方法还可以包括从机器人接收关于机器人的方向改变的信息、基于关于方向改变的信息确定图形对象的显示位置、并且显示要覆盖在屏幕上的显示位置处的图形对象。
该方法还可以包括在屏幕上显示机器人绕其旋转的旋转轴。
【有利效果】
为了克服上面提到的问题,示例性实施例提供了一种计算机器人与控制机器人的电子设备之间的时间延迟、在电子设备的屏幕上显示关于时间延迟的信息、考虑时间延迟来控制机器人以平稳控制机器人的方法。
附图说明
参考附图,通过详细描述示例性实施例,上述和/或其它方面将变得更加显然,其中:
图1是图示根据示例性实施例的系统的配置的视图;
图2是图示由机器人拍摄的图像与显示在电子设备的显示器上的图像之间的时间延迟的示例性时间线;
图3是根据示例性实施例的电子设备的框图;
图4是根据示例性实施例的机器人的框图;
图5图示了机器人的各种示例;
图6图示了根据示例性实施例的在电子设备的显示器上显示的屏幕的示例;
图7是根据示例性实施例的处理由电子设备从机器人接收的图像信号的方法的流程图;
图8A、8B、9A、9B、10A、10B和11是图示根据示例性实施例的在屏幕上显示由电子设备从机器人接收的图像信号和屏幕上的时间延迟信息的各种示例的视图;
图12图示了根据另一个示例性实施例的系统配置。
具体实施方式
在示例性实施例的以下描述中,即使在不同附图中描绘参考标号时,也可以使用相同的标号来表示类似或相同的元件。提供在描述中定义的内容(诸如详细构造和元件),以帮助全面理解示例性实施例。因此,显而易见的是,可以在没有那些具体定义的内容的情况下执行示例性实施例。而且,相关领域中已知的功能或元件可以不详细描述,因为它们可能以不必要的细节模糊示例性实施例。
在本公开中,诸如第一和第二等的关系术语可以被用于将一个实体与另一个实体区分开,而不一定暗示这些实体之间的任何实际关系或次序。
提供在本申请中使用的术语仅仅是为了解释具体的示例性实施例,而不旨在限制本发明性构思的范围。单数术语包括复数形式,反之亦然,除非另有明确定义。在本申请的描述中,术语“包括”和“被配置为”用于指示存在特征、数字、步骤、操作、元件、部分或其组合,并且它们不应当排除一个或多个特征、数字、步骤、操作、元件、部分或其组合的组合或添加的可能性。
在本文中使用词语“示例性”来表示“用作示例或说明”。本文中描述为“示例性”的任何方面或设计不一定被解释为比其它方面或设计优选或有利。而且,叙述集合中的“至少一个”的权利要求语言(claim language)指示该集合中的一个成员或该集合的多个成员满足该权利要求。
在示例性实施例中,“模块”或“单元”可以执行至少一个功能或操作,并且可以用硬件、软件或其组合来实现。此外,除了应当在特定硬件中实现的“模块”或“单元”之外,多个“模块”或“单元”可以被集成到至少一个模块中,并且可以用至少一个过程来实现。当一个元件被描述为“连接”到另一个元件时,这可以意味着这两个元件直接连接到彼此,或者可以意味着这两个元件通过中间的另一个元件间接连接。另一方面,当元件被描述为直接连接”到另一个元件时,应当理解的是,这两个元件连接到彼此而没有存在于其间的任何其它元件或部件。
在整个本公开中,表述“被配置为”可以与例如包括但不限于“适于”、“具有......的能力”、“被设计为......”、“适合......”、“使其……”或“能够”交替地使用。术语“被配置为”就硬件而言不一定意味着“专门被设计为”。相反,在一些情况下,“被配置为……的设备”可以指示这种设备可以与另一个设备或部件一起“做”或“执行”。例如,表述“被配置为执行A、B和C的处理器”可以指示通过执行存储在存储器设备中的一个或多个软件程序,专用处理器(例如,嵌入式处理器)可以执行对应操作,或者通用处理器(例如,中央处理单元(CPU)或应用处理器(AP))可以执行对应操作。
在下文中,根据各种示例性实施例的电子设备可以包括例如智能电话、平板计算机、移动电话、视频电话、电子书阅读器、台式个人计算机(PC)、膝上型PC、上网本计算机、可穿戴计算设备、电器、车辆、工作站、服务器、个人数字助理(PDA)和便携式多媒体播放器(PMP)中的至少一种。根据各种示例性实施例,可穿戴设备可以包括附件类型(例如,手表、戒指、手镯、项链、隐形眼镜或头戴式显示器(HMD)设备等等)、衣服织物安装类型(例如,电子衣服)、身体安装类型(例如,皮肤垫或纹身)以及植入类型(例如,可植入电路)中的至少一种。
“机器人”可以指配备有人工智能的任何自主或半自主机械或虚拟实体。机器人可以用硬件、软件或两者的组合来实现。在本公开中,“机器人的视野”可以指示可以由包括在机器人中的相机拍摄的区域。
“屏幕”可以指可以在其上显示图像的显示设备或显示设备上显示的图像数据。例如,屏幕可以是要显示在显示设备上的图形对象(诸如文本、图片、图标、菜单项)的集合。
在本公开中,“图像”可以被解释为图像信号。图像可以是单个图像或一系列图像(诸如电影)。
在下文中,描述根据各种示例性实施例的电子设备。在本文档中,术语“用户”可以指示使用电子设备的人。用户还可以指使用另一个电子设备的设备(例如,人工智能设备)。
图1是图示根据示例性实施例的系统的配置的视图。
如图1中所示,图示了电子设备100和机器人200。机器人200例如可以是诸如无人机(也称为无人驾驶飞行器)或四轴飞行器的飞行器,并且可以包括相机。稍后将参考图5描述机器人200的其它形式。机器人200可以将由相机拍摄的图像发送到电子设备100。
电子设备100可以包括显示器并且在显示器上显示从机器人200发送的图像(例如,实况视频馈送)。电子设备100可以与控制机器人200的远程控制器一起操作。例如,用户可以在观看从机器人200发送的图像的同时控制机器人200。机器人200可以无线地将拍摄的图像发送到电子设备100。在这种情况下,在由机器人200拍摄图像的时间与在电子设备100的显示器上显示发送的图像的时间之间,可以出现时间延迟(即,时延)。具体而言,在机器人200和电子设备100之间,由于协议、信息输送尺寸(例如,分组尺寸)和/或图像处理器的性能的差异而可以出现时间延迟。此外,无线通信环境的状况也可以造成时延。
图2是图示由机器人拍摄的图像与显示在电子设备的显示器上的图像之间的时间延迟的示例性时间线。
在图2中,图示了由机器人200拍摄的图像10和在电子设备100的显示器上显示的图像20。在由机器人200拍摄的图像10与显示在电子设备100的显示器上的图像20之间,可以出现时间延迟30。例如,时间延迟30可以是t1。即,用户可能仅能够在t1时间之后,在屏幕上看到由机器人200拍摄的图像10在电子设备的显示器上被显示为图像20。当用户在观看显示在电子设备100的屏幕上的第一屏幕的同时输入命令(诸如转向、加速或相机变焦)以控制机器人200时,机器人200可以在第三屏幕上接收用户命令,并且在t1时间之后,机器人200根据命令执行操作的结果可以被显示在电子设备100的显示器上。例如,当用户看到在显示器上显示的第一屏幕并输入停止命令以停止机器人200的移动时,机器人200可以停止,但是机器人200可以在机器人200最终发送在机器人200处于静止位置之后拍摄的图像之前对于接下来的t1时间仍然发送在机器人200处于运动时拍摄的图像。
即,在由机器人200拍摄图像的时间与在电子设备100的显示器上显示所发送的图像的时间之间,由于协议的差异、信息输送单元的差异、图像处理器的性能的差异(例如,包括在机器人200中的图像处理器可以比包括在电子设备100中的图像处理器更慢)和/或无线通信环境的状况,时间延迟30可以出现。
图3是根据示例性实施例的电子设备的框图。
如图3中所示,电子设备100可以包括控制器101、通信器103、显示器105和输入器107。
例如,控制器101可以通过操作操作系统或一个或多个应用程序来控制连接到控制器101的许多硬件或软件元件或部件,或者执行各种数据处理和计算。例如,控制器101可以用片上系统(SoC)来实现。根据示例性实施例的一方面,控制器101还可以包括图形处理单元(GPU)和/或图像信号处理器。控制器101可以将从一个或多个其它部件(例如,非易失性存储器)接收的命令或数据加载到易失性存储器(例如,随机存取存储器(RAM))中并且将各种数据存储在非易失性存储器中。
通过通信器103,控制器101可以基于从机器人200接收的时间信息来计算电子设备100与机器人200之间的时间延迟、基于时间延迟信息确定在显示器105的屏幕上显示的图形对象的位置或尺寸,并控制显示器105显示要覆盖在屏幕上的图形对象。控制器101可以控制通信器103向机器人200发送通过输入器107输入的命令。
具体而言,控制器101可以基于机器人200的移动速度来确定显示在屏幕上的图形对象的位置。在这种情况下,图形对象可以是具有与屏幕相同的宽高比的四边形(例如,矩形)。此外,在与时间延迟对应的时间期间,控制器101可以确定图形对象的尺寸,以与由机器人200的相机拍摄的视角对应,并且确定图形对象的反映机器人200在延迟的时间期间可能已行进的估计距离的位置。图形对象的尺寸可以随着时间的流逝而改变。
此外,控制器101可以控制显示器105在显示器105的第一区域中显示屏幕和图形对象,并且在显示器105的第二区域中显示由时间条和时间延迟指示器组成的延迟条。延迟条的长度可以随着时间的流逝而改变。控制器101可以控制显示器105在显示器105的第二区域中显示与由用户输入的命令对应的图形对象。
此外,控制器101可以控制显示器105从机器人200并通过通信器103接收关于机器人200的方向改变的信息、确定在屏幕上的与方向改变对应的图形对象的位置,并显示覆盖在屏幕上该位置处的图形对象。此外,当机器人200改变其方向时,控制器101可以控制显示器105在屏幕上显示机器人200沿其旋转的旋转轴。
通信器103可以从机器人200接收从机器人200拍摄的一个或多个图像(例如,视频馈送)、时间信息、机器人200的移动速度信息等等。时间信息可以是关于机器人200拍摄图像的时间的信息(诸如时间戳)。时间戳可以包括诸如年、月、日、小时、分钟、秒等等的时间元件。机器人200的移动速度信息可以包括移动的方向、移动的速度、移动的速率,和/或机器人200的朝向。
此外,通信器103可以对机器人200发送由用户输入的机器人控制命令。例如,通信器103可以向机器人200发送用于向前、向后、向左、向右、向上和向下加速;减速;倾斜(例如,滚动、俯仰、平摆(yawing));以及停止的命令。此外,通信器103可以从机器人200接收关于机器人200的方向改变的信息。
同时,通信器103可以包括一个或多个通信模块,诸如蜂窝模块、WiFi模块、蓝牙模块、近场通信(NFC)模块和射频(RF)模块。
蜂窝模块例如可以通过通信网络提供语音呼叫、视频呼叫、短消息服务(SMS)或互联网服务。根据示例性实施例的一方面,蜂窝模块通过使用订户识别模块(SIM)卡可以执行通信网络中电子设备100的识别和认证。根据示例性实施例的一方面,蜂窝模块可以包括通信处理器(CP)。
例如,WiFi模块、蓝牙模块或NFC模块可以包括用于处理通过对应模块接收和发送的数据的处理器。根据示例性实施例的一方面,蜂窝模块、WiFi模块、蓝牙模块和NFC模块中的至少一些(例如,两个或更多个)可以被包括在一个集成芯片(IC)或IC封装中。
例如,RF模块可以接收或发送通信信号(例如,RF信号)。例如,RF模块可以包括收发器、功率放大器模块(PAM)、频率滤波器、低噪声放大器(LNA)或天线。根据示例性实施例的一方面,蜂窝模块、WiFi模块、蓝牙模块、全球导航卫星系统(GNSS)模块和NFC模块中的至少一个可以通过分离的RF模块接收或发送RF信号。
显示器105可以包括例如液晶显示器(LCD)、发光二极管(LED)显示器、有机发光二极管(OLED)显示器、微机电系统(MEMS)显示器或电子纸(e-paper)显示器。例如,显示器105可以为用户显示各种类型的内容(例如,文本、图像、视频、图标、图形对象、符号等等)。显示器105可以包括能够接收例如电子触控笔、用户身体的一部分(例如,手指)、手势、接近度或悬停作为输入的触摸屏界面。
显示器105可以显示与从机器人200发送的图像对应的屏幕。具体而言,可以将由包括在机器人200中的相机拍摄的图像发送到电子设备100,并且电子设备100可以在显示器105上显示与所发送的图像对应的屏幕。此外,显示器105可以基于电子设备100与机器人200之间的时间延迟信息来显示要覆盖在屏幕上的图形对象。图形对象可以是具有与在显示器105上显示的屏幕的宽高比相同的比率的四边形(例如,矩形)。可替代地,图形对象可以具有不同的形状(诸如圆形、椭圆形、多边形等等)。显示器105可以包括第一区域和第二区域。在显示器105的第一区域中,可以显示与由机器人200的相机拍摄的图像对应的屏幕和基于时间延迟信息的图形对象。例如,在显示器105上,可以显示矩形形状的图形对象。在显示器105的第二区域中,可以显示时间条和延迟条。时间条的长度可以等于或小于显示器105上显示的屏幕的一侧的长度。在时间条上,可以显示时间信息,并且时间条的长度可以表示时间的持续时间。延迟条可以指示关于时间延迟的信息。延迟条的长度可以与时间延迟成比例。即,延迟条的长度可以随着时间的经过而改变。
在显示器105的第二区域中,可以显示与由用户输入的命令对应的图形对象。在显示器105中,基于机器人200的方向改变的图形对象可以作为覆盖图被显示在屏幕上。此外,在显示器105上,可以显示机器人200沿着其旋转的旋转轴。
输入器107可以包括例如触摸面板、笔传感器(例如,数字笔传感器)、按钮或超声输入设备。例如,触摸面板可以是电容、电阻、红外或超声类型的。此外,触摸面板还可以包括控制电路。触摸面板还可以包括用于向用户提供触感响应的触感层。
笔传感器例如可以是触摸面板的一部分或者包括分离的识别薄片(sheet)。例如,按钮可以包括物理按钮、光学按钮或小键盘。超声输入设备通过麦克风可以感测由输入装置(means)生成的超声波,并且识别与感测到的超声波对应的数据。
输入器107可以接收控制机器人200的命令。例如,用户可以通过输入器107输入使机器人200向前、向后、向左、向右、向上和向下移动的命令。
图3中所示的各种部件仅仅是示例性的,并且根据实现电子设备的其它实施例,可以添加其它部件、元件和设备(例如,存储器、相机、传感器等等),或者现有的部件可以被删除。
图4是根据示例性实施例的机器人200的框图。
如图4中所示,机器人200可以包括控制器201、通信器203、相机205和驱动器207。
控制器201可以控制机器人200的整体操作。特别地,控制器201可以控制通信器203向外部设备100发送由相机205拍摄的图像和由机器人200的一个或多个传感器获得的各种信息(例如,位置信息、速度信息、加速度信息、方向信息、时间信息等等)。
此外,控制器201可以控制驱动器207根据从电子设备100接收的用户命令来控制机器人200的移动或操作。虽然控制器101和控制器201有可能具有不同的处理力(power)、能力(capability)和功能,但是控制器201可以在结构和功能方面基本上类似于电子设备100的控制器101。
通信器203可以向电子设备100发送由机器人200拍摄的图像、时间信息和机器人200的移动速度信息。时间信息可以是关于机器人200拍摄图像的时间的信息。例如,时间信息可以是时间戳。机器人200的移动速度信息可以包括机器人200的移动方向、移动速度、移动速率、朝向和移动加速度信息。
此外,通信器203可以从电子设备100接收从用户输入的用于控制机器人200的命令。例如,通信器203可以从电子设备100接收用于机器人200向前、向后、向左、向右、向上或向下加速;减速;倾斜;或停止的命令。此外,通信器203可以向电子设备100发送关于机器人200的方向改变的信息。
同时,通信器203可以是一个或多个通信模块,诸如蜂窝模块、WiFi模块、蓝牙模块、NFC模块或RF模块。
相机205可以是能够拍摄静止或移动图像的设备。根据示例性实施例的一方面,相机205可以包括图像传感器(例如,前置传感器或后置传感器)、透镜、图像信号处理器(ISP)或闪光灯(例如,LED、氙灯等等)。
驱动器207可以包括移动机器人200的至少一个马达。如果机器人200是无人机,那么驱动器207可以推进机器人200向前、向后、向左、向右、向上、向下移动或悬停在恒定高度。可以根据从电子设备100发送的命令来控制驱动器207。
根据示例性实施例的一方面,机器人200还可以包括传感器。传感器例如可以包括一个或多个陀螺仪传感器、加速度传感器或全球定位系统(GPS)传感器。机器人200通过GPS模块可以获得关于机器人200的位置和移动的速率或速度的信息,并且通过加速度传感器可以获得关于机器人200的加速度的信息。机器人200可以向电子设备100发送机器人200的位置信息、速率信息、速度信息、加速度信息和/或方向信息,连同由相机拍摄的图像及关于其的时间信息。
图5图示了机器人的各种示例。
图5图示了包括无人机型机器人501、轮驱动机器人503、双足机器人505和卡特皮勒履带(caterpillar track)驱动机器人507的各种类型的机器人。机器人501、503、505和507可以包括相机并且可以向电子设备发送由相机拍摄的图像。
机器人可以被分类为或者独立型501、503、505或者组合型507。独立型机器人501、503、505可以独立地执行机器人的所有功能。另一方面,组合型机器人507可以与另一个功能上分离的电子设备组合,以形成一个机器人。例如,组合型机器人507可以配备有驱动器(例如,马达)和可以通过其连接第二设备(例如,移动电话)的对接站(docking station)或连接器。因此,第二设备可以安装在对接站上,并且驱动器可以将机器人507移动到期望的位置。
无人机型机器人501可以包括一个或多个推进器或转子。例如,无人机型机器人501可以是具有四个转子的四轴飞行器。推进器和/或转子可以操纵机器人501的主体,以向前、向后、向左、向右、向上或向下移动,或者悬停在特定高度。
轮驱动机器人503可以使用轮子作为运输装置。轮驱动机器人503例如可以在轮子上向前、向后、向左和向右移动。
双足机器人505可以具有腿并以类似于人类的方式走动。虽然图5示出了具有两条腿的双足机器人505,但机器人可以具有三条或更多条腿。
卡特皮勒履带驱动机器人507可以由两条连续的履带驱动,也称为卡特皮勒履带或坦克履带(tank tread)。
在下文中,将使用无人机型机器人501来描述各种示例性实施例,但是实施例在这方面不受限制。例如,本文公开的各种实施例可以用图5中所示的各种示例性机器人类型中的任何一种来实现。
图6图示了根据示例性实施例的在电子设备100的显示器上显示的屏幕的示例。
如图6中所示,电子设备100的显示器601可以包括第一区域602和第二区域606。在第一区域602中,可以显示由机器人200拍摄的图像603。在第二区域606中,可以显示时间条613、延迟条609和与由用户输入的命令对应的图标611、607。时间条613可以包括关于时间的信息并且在视觉上指示时间的经过。延迟条607可以包括关于电子设备100与机器人200之间的时间延迟的信息并且在视觉上描绘时间延迟。利用延迟条609,用户可以在视觉上识别电子设备100与机器人200之间的时间延迟。当延迟条609的长度变得更长时,这可以意味着机器人200与电子设备之间的时间延迟100在增加。
图标611可以是与由用户发出的停止命令对应的图形对象。图标607可以是与将机器人200转向的用户命令对应的图形对象,并且可以被显示为箭头。箭头的方向可以指示机器人200的转动方向。例如,当用户输入右转命令时,可以显示具有右箭头方向的图标,并且当用户输入左转命令时,可以显示具有左箭头方向的图标。箭头的长度可以与用户命令被接收的持续时间对应。例如,当用户输入左转命令0.5秒时,具有与0.5秒的时间对应的长度的左箭头方向图标607可以显示在第二区域606中。另一方面,如果用户输入左转命令0.3秒,那么可以在第二区域606中显示具有与0.3秒的时间对应的长度的左箭头方向图标(即,长度比与0.5秒的用户命令的箭头短)可以显示在第二区域606中。可替代地,箭头的长度可以与机器人200的移动的加速度对应。换句话说,越长的箭头可以指示机器人200的移动将以越大的速率加速。
延迟条609可以指示电子设备100与机器人200之间的时间延迟30。例如,延迟条609可以指示将由机器人200拍摄的图像显示在电子设备100的显示器601上所花费的时间。延迟条609的长度可以与时间延迟的量对应。例如,延迟条609的长度可以与时间延迟的量成比例。换句话说,如果时间延迟相对长,那么延迟条609的长度可以延长,并且如果时间延迟相对短,那么延迟条609的长度可以相应地缩短。时间延迟605也可以数字地指示,例如在显示器601的第一区域602的下端。
图标611和607可以基于用户输入命令的时间来显示。例如,当用户在时间延迟为1.2秒时输入左转命令时,具有左箭头方向的图标607可以显示在延迟条609上与1.2秒延迟对应的位置处。在另一个示例中,如果用户在时间延迟为1.8秒时输入停止命令,那么停止命令图标611可以显示在延迟条609上与1.8秒延迟对应的位置处。
已经参考图2描述了电子设备100与机器人200之间的时间延迟,并且因此将不描述更多细节。
虽然图6将时间信息和延迟信息图示为以条形图的形式被传达,但是根据示例性实施例,时间和延迟信息可以经由不同的手段来显示。例如,时间和延迟信息可以用饼图、时钟、速度计、指示器、数字等等来呈现。
图7是根据示例性实施例的处理由电子设备100从机器人200接收的图像信号的方法的流程图。
在步骤701,电子设备100可以接收由机器人200拍摄的图像、时间信息和机器人200的移动速度信息。机器人200可以向电子设备100发送由相机205拍摄的图像。在向电子设备100发送图像的同时,机器人200可以在图像信号中将与图像有关的时间信息与拍摄的图像一起发送。在这个时候,时间信息可以被包括在图像信号中并且被发送到电子设备100,或者使用与用于发送图像信号的通信信道不同的通信信道被发送到电子设备100。此外,机器人200可以向电子设备100发送关于机器人200的移动速度的信息。关于移动速度的信息也可以被包括在图像信号中并被发送到电子设备100,或者使用与用于发送图像信号的通信信道不同的单独的通信信道被发送到电子设备100。关于机器人200的移动速度的信息可以通过包括在机器人200中的一个或多个传感器来获得。例如,通过包括在机器人200中的陀螺仪传感器和/或加速度传感器,可以测量机器人200的速率、速度和/或加速度。机器人200的移动速度也可以通过包括在机器人200中的GPS获得。
在步骤702,电子设备100可以显示与从机器人200接收到的图像对应的屏幕。电子设备100可以在显示器105上显示从机器人200发送的图像。通过使用从机器人200接收到的图像信号,电子设备100可以创建屏幕并且在显示器105上显示屏幕。
在步骤703,电子设备100可以基于从机器人200接收到的时间信息来计算电子设备100与机器人200之间的时间延迟。电子设备100可以计算从机器人200接收到信息的时间与当前电子设备100的时间信息之间的差,并获得时间延迟信息。例如,当从机器人200接收到的图像的拍摄时间是t并且当前电子设备100的时间是t+a时,时间延迟可以是a。
在步骤704,电子设备100可以基于时间延迟信息来确定显示在屏幕上的图形对象的位置。例如,图形对象可以是具有与屏幕的宽高比相同的比率的四边形,特别是但不限于矩形。此外,在与时间延迟对应的时间期间,电子设备100可以确定图形对象的尺寸,以与处于反映机器人200的移动距离的位置处的机器人200的相机205的视角或视场(也称为视野)对应。图形对象的尺寸可以随着时间的流逝而改变。即,在与时间延迟对应的时间期间,电子设备100可以估计机器人200在那段时间期间的移动距离、确定屏幕上与该距离对应的位置,并且将图形对象绘制在该位置。因此,尽管有涉及图像馈送的传输的时延,但用户可以预测机器人200在屏幕上的可能当前位置。
电子设备100可以将屏幕和图形对象显示在显示器105的第一区域中,并且基于时间延迟在显示器105的第二区域中显示时间条和延迟条。延迟条的长度可以随时间而改变。时间条和延迟条可以被表示为条形图,并且其长度可以随着时间的流逝而改变。时间条和延迟条已经参考图6进行了详细解释,因此不再进一步详述。
在步骤705,电子设备100可以接收控制机器人200的命令并向机器人200发送命令。电子设备100可以从用户接收控制机器人200的命令。例如,电子设备100可以从用户接收向前、向后、向左、向右、向上、向下移动和停止机器人200的命令,并向机器人200发送该命令。在这个时候,电子设备100可以在显示器105的第二区域中显示与命令对应的图形对象。用户可以经由输入设备(诸如操纵杆、摇杆(yoke)(也称为控制列)、节流器(throttle)、旋钮、按钮、滑块、触摸屏、语音、手势等等)向电子设备100输入命令。
此外,电子设备100可以从机器人200接收信息关于机器人200的方向改变的信息、确定屏幕上与方向改变对应的图形对象的显示位置,并且显示要覆盖在屏幕上的图形对象。此外,电子设备100可以在屏幕上显示机器人200可以沿其旋转的旋转轴。
基于时间延迟信息,电子设备100可以显示要覆盖在屏幕上的图形对象。稍后将参考图8A至11来描述图形对象的显示类型。
图8A至11图示了根据示例性实施例的在屏幕上显示由电子设备从机器人200接收的图像的各种示例。
图8A图示了在机器人200直向前飞行时当用户输入停止命令时显示的示例屏幕。如图8A中所示,显示器105可以图示从机器人200发送的图像801、图示机器人200在当前时间点在屏幕上的位置的图形对象803、时间条809、延迟条805,以及停止命令图标807。当机器人200直向前移动时,从机器人200发送的图像可以显示在电子设备100的显示器105的第一区域中。例如,当机器人200与电子设备100之间的时间延迟是1.8秒时,在图8A中示为具有更暗阴影的条的延迟条805可以被显示为时间条809内具有与的1.8秒对应的长度。虽然时间延迟是1.8秒,但是,当用户输入停止命令时,停止命令图标807可以被显示为覆盖在延迟条805的右边缘处。图标807可以是图形对象。在这个时候,图标807可以位于时间条809内的1.8秒标记处。此外,电子设备100可以向机器人200发送停止命令。
图形对象803可以是指示机器人200在当前时间的预测位置、预测视角或预测视场的用户界面(UI)元件。图形对象803可以基于机器人200与电子设备100之间的时间延迟来显示,并且在屏幕上指示机器人200在当前时间的位置、视角或视场,如基于时间延迟和机器人200的当前速度所预测的。电子设备100可以将时间延迟信息转换成屏幕上的空间信息并且将其显示为图形对象803。即,电子设备100可以根据时间延迟信息改变图形对象803的尺寸和位置并将其显示。具体而言,图形对象803可以指示与从当前时间的机器人200的估计位置的机器人200的视点对应的信息。例如,屏幕上显示的图像可以是1.8秒前由机器人200拍摄的图像,但是机器人200的当前位置可以与屏幕801上显示的图形对象803的位置对应。
随着时间延迟增加,图形对象803的尺寸可以逐渐减小,因为机器人200可能在时间延迟期间已经覆盖更大的距离,并且随着时间延迟减小,图形对象803的尺寸可以逐渐增加,因为机器人200可能在时间延迟期间已覆盖更小的距离。即,时间延迟越短,图形对象的尺寸与整个屏幕的尺寸越相似,因此图形对象803的尺寸可以增加到与屏幕相似。
当用户输入停止命令时,机器人200可以停止向前移动,并且因此机器人200与电子设备100之间的时间延迟可以变得更小,并且相应地,停止命令图标807的位置可以向左移动。此外,图形对象813的尺寸可以逐渐增加,并且当时间延迟变为0时,图形对象813可以从屏幕消失。
在图8A的第二个绘图中,图示了与第一个绘图相比时间延迟已经变得更小,并且停止命令图标811已经向左移动。随着时间延迟变得更小,图形对象813的尺寸可以被显示为大于第一绘图。
图8A的第三个绘图描绘了当时间延迟变为0的时刻。与停止命令对应的图标815可以位于延迟条805的左端,并且图形对象813可以最终从屏幕817消失。
图8B图示了在机器人200旋转时在电子设备的屏幕100上显示的图形对象的示例。图8B图示了从机器人200发送的图像821、图形对象823、时间条829、延迟条825和旋转命令图标827。图形对象823可以是指导UI元素,其指示根据用户发出的旋转命令在当前时间机器人200的估计的视场。此外,图形对象823可以指示当机器人200旋转时可能已经从视角消失的区域。在这种情况下,如由图形对象823所指示的那样出现的区域可以与其余区域不同地显示。例如,消失的区域可以以黑白显示,而“活的(live)”区域保持彩色。在其它示例中,可以以不同的色彩、色调、亮度等等来显示消失的区域。此外,图形对象823可以显示机器人200在屏幕801上开始旋转的位置。
例如,旋转命令图标827可以被显示为箭头并且包括关于用户发出旋转命令的时间的信息。如果用户维持旋转命令越长时间段,那么箭头827的长度可以变得越长,而当用户在更短的时间段内发出旋转命令时,箭头827的长度可以类似地缩短。例如,当用户按下旋转命令按钮4秒时,箭头可以以对应于4秒的长度显示,但是当用户按下旋转命令按钮2秒时,箭头可以以对应于2秒的长度显示。此外,箭头827的方向可以指示转动方向。例如,当用户发出向左旋转命令时,可以显示左箭头827,而当用户发出向右旋转命令时,可以显示右箭头。
当机器人200停止转动时,旋转命令图标827的长度可以逐渐减小。例如,当用户在发出旋转命令5秒之后停止发出旋转命令时,旋转命令图标827可以首先增大然后减小然后最终从屏幕消失。
在机器人200向前移动时,当用户发出旋转命令时,可以在屏幕801上显示机器人200旋转的位置。即,可以在屏幕上显示指示机器人200的转动位置的线823。基于时间延迟、机器人200的旋转速度以及用户输入的命令,电子设备100可以确定屏幕801内机器人200的当前旋转位置和线823的位置,并且在屏幕801上显示线823。随着时间延迟、机器人200的旋转速度和/或用户输入改变,线823的位置可以向左或向右移动。线823的位置可以包括关于机器人200的当前位置的信息。
例如,如图8B的第一个绘图中所示,在机器人200向前移动时,当用户按下左旋转按钮时,机器人200可以停止向前移动并开始向左旋转。根据左旋转命令,机器人200可以停止向前移动,但是由于时间延迟,屏幕上的图像821可以仍然将机器人200描绘为向前移动,并且因此,随着机器人200开始向左旋转,屏幕右侧的部分可以消失,并且可以显示表示当前时刻机器人200的预测视角的线823。此外,在显示器105的第二区域中,可以显示与左旋转命令对应的左箭头827。
当用户保持按下左旋转按钮时,机器人200可以继续向左转。此外,与左旋转命令对应的左箭头827的长度可以进一步增加。如图8B的第二个绘图中所示,左箭头831的长度可以被显示为比第一个绘图中的箭头827更长。同时,由于时间延迟,机器人200可以已经进一步在(原始)向前方向移动,并且因此在屏幕上,机器人200的图像821可以仍然将机器人200描绘为继续在向前方向移动,并且同时,机器人200可以在现实中已经进一步向左旋转,因此线833的位置可以被显示为进一步向左移动。因此,线833可以向用户通知机器人200的转动角度(即,旋转位置)。
当用户保持发出左旋转命令时,线可以继续向左移动,并且当用户停止发出左旋转命令时,机器人200可以停止旋转,但是由于时间延迟,线可以继续在左方向上移动,然后从屏幕消失。此外,与左旋转命令对应的左箭头可以延伸到显示器105的第二区域的左边缘,并且当左旋转命令不再由用户输入时,左箭头可以逐渐减小并从显示器105的第二区域消失。
图8B的第三个绘图示出了左箭头图标835的箭头部分到达屏幕105的左边缘。随着时间的流逝,左箭头835的尺寸可以逐渐减小并从显示器105的第二区域消失。
虽然图8B示出了在机器人200向左旋转时线823从右向左移动,但线823也可以在其它方向移动。例如,如果机器人200在向右旋转(即,在顺时针方向平摆),那么线823可以从屏幕105的左边缘向屏幕105的右边缘移动。在另一个示例中,如果机器人200向上旋转(即,向上俯仰),那么线823可以是从屏幕105的底部边缘向屏幕105的顶部边缘移动的水平线。类似地,如果机器人200向下旋转(即,向下俯仰),那么线823可以是从屏幕105的顶部边缘向屏幕105的底部边缘移动的水平线。机器人200也可以向左或向右滚动,或者沿着两个或更多个轴旋转(例如,同时平摆和俯仰)。在这些情况下,类似于图8A中所示的矩形可以在屏幕105上移动,以估计机器人200的当前视角。例如,如果机器人200向左滚动,那么表示机器人200的视角的矩形可以在屏幕105上逆时针旋转,以模拟机器人200的当前视角。
图9A图示了当机器人200向前移动时根据用户的停止命令显示在电子设备100的屏幕上的图形对象的另一个示例。随着时间的流逝,图形对象的尺寸可以改变。图9A的第一个绘图指示用户未输入停止命令,第二个绘图指示用户已输入停止命令,而第三和第四个绘图图示在停止命令被输入后已经过去了一段时间。
电子设备100可以基于由用户输入的命令来改变图形对象902的颜色。此外,在接收到由用户输入的命令之后,电子设备100可以根据经过的时间量来改变图形对象902的尺寸。换句话说,电子设备100的图形对象902的尺寸可以根据时间延迟而改变。
在图9A的第一个绘图中,图示了从机器人200发送的图像901和图形对象902。图形对象902可以是具有与屏幕的宽高比相同的比率(即,宽度对高度比)的四边形,特别是但不限于矩形。图形对象902的尺寸可以根据机器人200与电子设备100之间的时间延迟而改变。图形对象902的颜色可以根据用户命令的输入而改变。例如,当用户命令未输入时,图形对象902可以被显示为红色,而当用户命令被输入时,图形对象902可以被显示为蓝色。
在显示器105的第二区域中,可以显示时间条905、延迟条903和命令条904。命令条904的长度可以指示对应的命令被输入的时间,即,命令被维持的持续时间。在命令条904内,可以显示与该命令对应的文本。例如,命令条904可以指示向前移动命令被输入3秒。在显示器105的第一区域中,可以显示与从机器人200发送的图像对应的屏幕901,并且可以用红色指示指示机器人200的当前位置的图形对象902。
在图9A的第二个绘图中,在显示器105的第一区域中,图形对象902可以以蓝色显示。图形对象907被显示的位置可以根据机器人200的位置来确定。图形对象907的颜色可以根据用户命令来确定。
在显示器105的第二区域中,可以显示与由用户输入的停止命令对应的图标909。例如,在用户输入向前移动命令3秒之后,并且在用户经过1.2秒后输入停止命令时,命令条908的长度可以减小到与1.8秒(即,3-1.2=1.8)对应的长度,并且与停止命令对应的图标909可以显示在命令条908的右边缘处,并且图形对象907的颜色可以从红色变为蓝色。
图9A的第三个绘图图示了,随着机器人200停止,机器人200与电子设备100之间的时间延迟可以减小,并且图形对象911被示为比第二个绘图的图形对象907相对更大。
即,表示机器人200的当前位置或视角的图形对象911的尺寸可以增加。随着时间延迟减小,命令条912的长度可以减小,并且与停止命令对应的图标913可以向左移动。
在图9A的第四个绘图中,当机器人200与电子设备100之间的时间延迟为0时,图形对象914的尺寸可以与屏幕105的尺寸相同,并且与停止命令对应的图标915可以到达时间条的左边缘。
图9B图示了根据旋转机器人200的用户命令在电子设备的屏幕上显示的图形对象的另一个示例。图形对象可以是指示关于机器人200在当前时间的估计视场的信息的指导UI。
图9B图示了与由机器人200拍摄的图像对应的屏幕931,图形对象932、936、938,时间条935,延迟条933和旋转命令图标934、937、939。
在机器人200向前移动的同时旋转的情况下,可以在屏幕上显示由机器人200拍摄的图像931和根据机器人200的旋转的图形对象932。图形对象932可以是指导UI元素。当机器人200开始旋转(即,平摆)时,电子设备100可以根据机器人200的旋转确定屏幕上不再可见的区域,并将图形对象932显示在屏幕的区域中。
例如,当机器人200在向左旋转的同时向前移动时,屏幕可以朝着左方向平移,并且右手侧的屏幕的一部分可以逐渐消失。但是,由于机器人200与电子设备100之间的时间延迟,即使机器人200实际上已经开始旋转,电子设备100的屏幕上可以仍然显示直向前飞行的机器人200的图像。因此,电子设备100可以在向前移动的机器人200的图像上显示由于机器人200的旋转而大概已经从屏幕消失的区域,作为覆盖图形对象。
具体而言,通过使用机器人200与电子设备100之间的时间延迟信息以及诸如机器人200的旋转速度的任何其它相关信息,电子设备100可以确定可能已从屏幕931被遮挡的区域,并显示在视觉上划分该区域的图形对象。随着时间的流逝,从屏幕消失的区域可以逐渐增长,然后,随着机器人200与电子设备100之间的时间延迟减小,偏离视野(off-view)区域也可以逐渐减小。
在图9B的第一个绘图中,当机器人200直向前移动时,机器人200与电子设备100之间可以发生时间延迟,并且根据用户输入的旋转命令,与旋转命令对应的图标934可以显示在显示器105的第二区域中。旋转命令图标934的长度可以响应于旋转方向和发出旋转命令的时间量而改变。在屏幕的右侧,可以例如通过改变区域932的色调、色彩、亮度或绘制与区域932接壤的线来划分根据机器人200的旋转而从屏幕消失的偏离视野区域932。
如图9B的第二绘图中所示,随着继续输入使机器人200向左旋转的命令,电子设备100可以基于旋转命令和旋转命令的持续时间延长图标937并且将图标937朝着时间条的边缘向左移向。此外,随着机器人200在左方向上的旋转角度增加,电子设备100可以增加从屏幕消失的屏幕右手侧上的区域936的尺寸。
如图9C的第三绘图中所示,随着机器人200继续向左旋转,屏幕可以向左平移,并且相应地,从屏幕消失的偏离视野区域938可以减小尺寸。通过使用机器人200的方向改变信息和时间延迟信息,电子设备100可以确定从屏幕消失的偏离视野区域938的尺寸并相应地显示图形对象。
虽然图9B将屏幕931示为显示与向左旋转命令(即,向左平摆)对应的旋转命令条934、937、939,但是上述相同原理可以应用于具有不同方向的其它类型的命令。例如,屏幕931可以显示与诸如滚动、俯仰、平摆、加速、减速及其任意组合的各种方向和移动对应的用户命令。
图10A图示了在机器人200向前移动的同时向右旋转时显示在电子设备100的屏幕上的图形对象的另一个示例。
在图10A的第一绘图中,在显示器105的第一区域中,可以显示从机器人200发送的图像1001和与机器人200的移动方向对应的图形对象1006。在显示器105的第二区域中,可以显示时间条1005、延迟条1002、向前移动命令条1003和旋转命令条1004。
在机器人200直向前移动时,当用户输入右旋转命令时,电子设备100可以参考机器人200与电子设备100之间的时间延迟确定机器人200在屏幕1001上右旋转的位置,并且显示覆盖在屏幕上的对应图形对象1006。例如,当机器人200与电子设备100之间的时间延迟是1.8秒,并且如果用户输入右旋转命令,那么电子设备100可以显示图形对象1006,使得机器人200在屏幕上向前移动1.8秒然后右转。即,在屏幕1001上,可以显示朝右弯曲的箭头1006,并且箭头的向前移动部分的长度(即,在弯曲之前)可以与对应于1.8秒的长度对应。
在显示器105的第二区域上显示的向前移动命令条1003可以指示机器人200可以在接下来的1.8秒向前移动。旋转命令条1004的箭头的方向可以指示旋转的方向,并且旋转命令条1004的长度可以包括旋转角度,即,关于旋转量的信息。
例如,当用户在机器人200直向前移动的同时输入旋转命令时,电子设备100可以通过参考关于机器人200与电子设备100之间的时间延迟的信息来显示与1.8秒对应的向前移动命令条1003,并且在向前移动命令条1003的右边缘处显示右箭头1004。
如图10A的第二绘图中所示,在显示器105的第一区域中,可以显示朝右弯曲的箭头1013。随着机器人200向右转,电子设备100可以显示箭头,其中该箭头的笔直部分的长度缩短,并且其中箭头的弯曲部分的长度加长。在显示器105的第二区域中,可以显示向前移动命令条1011和旋转命令条1012。当用户持续发出右旋转命令一段持续时间时,电子设备100可以基于该命令的时间缩短向前移动命令条1011的长度。
如图10A的第三绘图中所示,在显示器105的第一区域中,显示箭头1016。在发出旋转命令之后,随着与机器人200与电子设备100之间的时间延迟对应的时间的流逝,箭头的笔直部分不再显示,并且仅箭头的弯曲部分(指向右)可以显示在屏幕上。电子设备100可以检查旋转命令的持续时间,并且基于这个持续时间,可以显示箭头1016。在显示器105的第二区域中,可以显示旋转命令条1015。随着时间的流逝,向前移动命令条可以完全消失,并且只有旋转命令条1015可以显示在屏幕上。
虽然图10A将屏幕1001示为显示图形对象和与向右旋转命令(即,向右平摆)对应的命令条,但是上述相同原理可以应用于具有不同方向的其它类型的命令。例如,屏幕1001可以显示与诸如滚动、俯仰、平摆、加速、减速及其任意组合的各种方向和移动对应的用户命令。
图10B图示了响应于由用户输入的旋转命令而在电子设备100的屏幕上显示机器人200的旋转轴的示例。
如图10B的第一绘图中所示,在显示器的第一区域中,可以显示从机器人200发送的图像1021和与机器人200的旋转轴对应的图形对象1024。在显示器105的第二区域中,可以显示时间条1022和延迟条1023。图形对象1024可以指示机器人200的旋转轴和移动方向。随着机器人200在向前方向移动,图形对象1024可以被显示为指示机器人200的四个方向(向前、向后、向左、向右)的箭头。
图10B的第二绘图图示了用户已经输入左旋转命令的状态。随着用户输入左旋转命令,图形对象1025可以被旋转,使得图形对象1025的旋转角度可以与发出左旋转命令的时间量对应。在显示器105的第二区域中,可以显示旋转命令条1026。
如图10B的第三绘图中所示,在用户发出左旋转命令之后,随着时间的流逝并且当屏幕已经向左平移时,可以显示图形对象1027。在显示器105的第二区域中,旋转命令条1028可以朝着时间条的边缘向左移动。
虽然图10B将屏幕1021示为显示图形对象和与向左旋转命令(即,向左平摆)对应的命令条,但是上述相同原理可以应用于具有不同方向的其它类型的命令。例如,屏幕1021可以显示与诸如滚动、俯仰、平摆、加速、减速及其任意组合的各种方向和移动对应的用户命令。
图11图示了当机器人200在旋转的同时向前移动时显示在电子设备100的屏幕上的图形对象的另一个示例。
图11的第一绘图图示了屏幕1101,图形对象1102a、1102b,延迟条1105,向前移动命令条1104,向前移动命令图标1103,旋转命令条1107和旋转命令图标1106。
向前移动命令条1104的长度可以基于发出向前移动命令的持续时间而改变。旋转命令条1107的长度可以基于发出旋转命令的持续时间而改变。例如,向前移动命令条1104可以指示向前移动命令持续了0.8秒。此外,旋转命令条1107可以指示旋转命令持续了0.5秒。即,在机器人200与电子设备100之间的时间延迟为0.8秒,并且在机器人200向前移动的同时,如果用户发出旋转命令0.5秒,那么机器人200可以向前移动0.8秒然后向右旋转0.5秒。向前移动命令图标1103和旋转命令图标1106可以指示机器人200的移动方向。
图形对象1102a、1102b可以作为朝着旋转方向(例如,右)弯曲的箭头一起显示在屏幕1101上。即,箭头可以包括与向前移动对应的部分1102a和与向右旋转对应的部分1102b。因而,显示在屏幕上的图形对象1102a、1102b可以通知用户机器人200将直向前移动一段有限的时间,然后向右转。在这个时候,在屏幕1101上,可以基于机器人200与电子设备100之间的时间延迟以及由用户输入的任何命令来确定图形对象1102a、1102b的位置和形状。箭头的每个部分1102a、1102b的长度可以和与由用户输入的对应命令相关联的持续时间成比例。
在图11的第二绘图中,图示了图形对象1111a、1111b和向前移动命令条1115。在箭头图形对象的直线部分1111a的情况下,随着机器人200继续在向前的方向移动,直线部分1111a的长度可以减小。在箭头图形对象的弯曲部分1111b的情况下,弯曲部分1111b的长度可以随着左旋转命令时间增加而减小。即,电子设备100可以基于由用户输入的命令来确定图形对象1111a、1111b的位置和形状。
此外,与第一绘图相比,向前移动命令条1115的长度可以缩短。在输入旋转命令之后并且随着时间的流逝,向前移动命令条1115的长度可以减小。即,电子设备100可以基于由用户输入的命令和命令的持续时间来确定命令条的类型和长度。
在图11的第三绘图中,图示了图形对象1121a、1121b和旋转命令条1124。在用户发出旋转命令之后并且当与时间延迟相当的时间流逝时,机器人200可以开始旋转,并且根据机器人200的旋转,箭头图形对象的直线部分1121a可以消失并且仅仅箭头的弯曲部分1121b可以保留在屏幕上。此外,当机器人200完成向前移动并开始旋转时,向前移动命令条1115可以从显示器105消失,并且旋转命令条1124的长度可以逐渐减小。
图12图示了根据另一个示例性实施例的系统配置。
图12图示了电子设备1205、服务器1203和机器人1201。机器人1201可以是例如无人机类型的航空交通工具并且可以包括相机。机器人1201可以将由相机拍摄的图像发送到服务器1203。服务器1203可以位于远程位置,并且机器人1201可以无线地与服务器1203通信。服务器1203可以计算关于由机器人1203生成的接收到的图像的时间延迟、创建由图像和与时间延迟对应的图形对象组成的屏幕,并且向电子设备1205发送该屏幕。机器人1203可以经由服务器1203向电子设备1205发送屏幕。
电子设备1205可以包括显示器,并且将从服务器接收到的图像显示在显示器上。电子设备1205可以配备有用于控制机器人1201的远程控制器。例如,用户可以在观看经由服务器1203从机器人1201发送的图像的同时控制机器人1201。
非瞬态计算机可读介质是被配置为永久或半永久性存储数据的机器可读存储介质。具体而言,上述各种应用或程序可以存储在非瞬态计算机可读介质中,诸如光盘(CD)、数字多功能盘(DVD)、硬盘、蓝光盘、通用串行总线(USB)设备、存储卡或只读存储器(ROM),然后提供给用户终端设备。非瞬态计算机可读介质本身不包括瞬态介质,诸如寄存器、高速缓存、随机存取存储器(RAM)、导线和信号等。
前述示例性实施例仅仅是示例性的,并且不应当被解释为限制。示例性实施例可以容易地应用于其它类型的设备或装置。而且,示例性实施例的描述旨在是说明性的,而不是限制本发明性构思的范围,并且对于本领域技术人员来说,许多替代、修改和变化将是显而易见的,并且可以在不背离如所附权利要求及其等同物定义的本公开的精神和范围内进行。

Claims (15)

1.一种远程控制机器人的移动的电子设备,该电子设备包括:
通信器;
输入器;
显示器;以及
控制器,被配置为:
控制通信器从机器人接收由机器人在第一时间拍摄的图像和机器人的移动速度,
计算第一时间信息和第二时间信息之间的时间延迟,第二时间是第一时间之后的电子设备的当前时间,
基于时间延迟和接收的机器人的移动速度信息获得机器人在第二时间的位置,
控制显示器显示图像和要覆盖在图像上的图形对象,所述图形对象指示对应于在获得的在第二时间的位置的机器人的视角的信息,以及
控制通信器向机器人发送通过输入器接收的控制机器人的命令。
2.如权利要求1所述的电子设备,其中控制器还被配置为基于机器人的移动速度来确定在图像上覆盖的图形对象的位置。
3.如权利要求1所述的电子设备,其中图形对象是具有与屏幕相同的宽高比的四边形。
4.如权利要求1所述的电子设备,其中图像由包括在机器人中的相机拍摄,以及
控制器还被配置为基于机器人在与时间延迟对应的时间期间行进的距离来确定图形对象的位置和尺寸以与相机的视场对应。
5.如权利要求1所述的电子设备,其中图形对象的尺寸随着时间的流逝而改变。
6.如权利要求1所述的电子设备,其中控制器还被配置为控制显示器在显示器的第一区域中显示图像和图形对象,并且在显示器的第二区域中基于时间延迟显示时间条和延迟条。
7.如权利要求6所述的电子设备,其中延迟条的长度随着时间的流逝而改变。
8.如权利要求7所述的电子设备,其中控制器还被配置为控制显示器在第二区域中显示与命令对应的第二图形对象。
9.如权利要求6所述的电子设备,其中通信器还被配置为从机器人接收关于机器人的方向改变的信息,以及
控制器还被配置为基于关于方向改变的信息确定图形对象的显示位置,并且控制显示器显示要覆盖在显示器上的显示位置处的图形对象。
10.如权利要求9所述的电子设备,其中控制器还被配置为控制显示器显示机器人正绕其旋转的旋转轴。
11.一种用于显示远程控制机器人的移动的电子设备的屏幕的方法,该方法包括:
从机器人接收由机器人在第一时间拍摄的图像和机器人的移动速度;
计算第一时间信息和第二时间信息之间的时间延迟,第二时间是第一时间之后的电子设备的当前时间;
基于时间延迟和接收的机器人的移动速度信息获得机器人在第二时间的位置;
显示图像和要覆盖在图像上的图形对象,所述图形对象指示对应于在获得的在第二时间的位置的机器人的视角的信息;
向机器人发送控制机器人的命令。
12.如权利要求11所述的方法,其中显示图形对象包括基于机器人的移动速度来确定图形对象的位置。
13.如权利要求11所述的方法,其中图形对象是具有与屏幕相同的宽高比的四边形。
14.如权利要求11所述的方法,其中显示图形对象包括基于机器人在与时间延迟对应的时间期间行进的距离来确定图形对象的位置和尺寸,以与机器人的相机的视场对应。
15.如权利要求13所述的方法,其中图形对象的尺寸随着时间的流逝而改变。
CN201780008643.2A 2016-01-28 2017-01-25 显示图像的方法及其电子设备 Active CN108604096B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020160010709A KR102441328B1 (ko) 2016-01-28 2016-01-28 이동 로봇이 전송한 화면을 표시하는 방법 및 그 전자장치
KR10-2016-0010709 2016-01-28
PCT/KR2017/000866 WO2017131427A1 (en) 2016-01-28 2017-01-25 Method for displaying image and electronic device thereof

Publications (2)

Publication Number Publication Date
CN108604096A CN108604096A (zh) 2018-09-28
CN108604096B true CN108604096B (zh) 2021-11-05

Family

ID=59385632

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201780008643.2A Active CN108604096B (zh) 2016-01-28 2017-01-25 显示图像的方法及其电子设备

Country Status (5)

Country Link
US (2) US10217443B2 (zh)
EP (1) EP3360022B1 (zh)
KR (1) KR102441328B1 (zh)
CN (1) CN108604096B (zh)
WO (1) WO2017131427A1 (zh)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2749580C (en) 2009-02-11 2014-09-23 M-I L.L.C. Autochoke system
EP2791462B1 (en) 2011-12-14 2018-02-14 Schlumberger Holdings Limited Connection maker
BR112014014690A2 (pt) 2011-12-15 2017-07-04 Mi Llc controle fino de pressão de tubagem
EP3403146A4 (en) * 2016-01-15 2019-08-21 iRobot Corporation AUTONOMOUS MONITORING ROBOT SYSTEMS
EP4404183A3 (en) 2016-12-23 2024-09-25 Gecko Robotics, Inc. Inspection robot
US11307063B2 (en) 2016-12-23 2022-04-19 Gtc Law Group Pc & Affiliates Inspection robot for horizontal tube inspection having vertically positionable sensor carriage
KR101979276B1 (ko) * 2017-08-09 2019-05-16 엘지전자 주식회사 차량용 사용자 인터페이스 장치 및 차량
WO2019082924A1 (ja) 2017-10-27 2019-05-02 株式会社Nttドコモ 情報処理装置
CN108762150A (zh) * 2018-06-04 2018-11-06 深圳市沃特沃德股份有限公司 头盖控制组件及头盖控制方法
CA3126283A1 (en) 2019-03-08 2020-09-17 Gecko Robotics, Inc. Inspection robot
CN110502035A (zh) * 2019-09-10 2019-11-26 深圳市道通智能航空技术有限公司 航拍相机的远程控制方法及无人机
JP7015337B2 (ja) * 2020-03-06 2022-02-02 任天堂株式会社 情報処理システム、情報処理装置、情報処理プログラム、および情報処理方法
US20220113720A1 (en) * 2020-10-08 2022-04-14 Xtend Reality Expansion Ltd. System and method to facilitate remote and accurate maneuvering of unmanned aerial vehicle under communication latency
US11865698B2 (en) 2021-04-20 2024-01-09 Gecko Robotics, Inc. Inspection robot with removeable interface plates and method for configuring payload interfaces
EP4327047A1 (en) 2021-04-22 2024-02-28 Gecko Robotics, Inc. Systems, methods, and apparatus for ultra-sonic inspection of a surface
CN113900431B (zh) * 2021-09-30 2024-06-18 北京百度网讯科技有限公司 远程控制信息处理方法、装置、电子设备及自动驾驶车辆
CN113848952A (zh) * 2021-10-22 2021-12-28 福建汉特云智能科技有限公司 一种远程控制的延迟判断及障碍预先判断方法和机器人系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8718822B1 (en) * 2011-05-06 2014-05-06 Ryan Hickman Overlaying sensor data in a user interface
WO2014126303A1 (ko) * 2013-02-18 2014-08-21 주식회사 케이티 이동 로봇에 대한 제어 명령과 이동 로봇이 전송한 영상 간 매칭 방법 및 이를 위한 제어 장치
CN104331168A (zh) * 2014-11-28 2015-02-04 广东欧珀移动通信有限公司 显示调整方法和电子设备
CN104427245A (zh) * 2013-08-20 2015-03-18 三星泰科威株式会社 图像融合系统和方法
CN105224203A (zh) * 2014-10-15 2016-01-06 三星电子株式会社 远程控制器装置及其控制方法
CN105224582A (zh) * 2014-07-03 2016-01-06 联想(北京)有限公司 信息处理方法和设备

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8375838B2 (en) 2001-12-14 2013-02-19 Irobot Corporation Remote digital firing system
US20040267129A1 (en) * 2003-05-30 2004-12-30 Angelsen Bjorn A.J. Ultrasonic contrast agent detection and imaging by low frequency manipulation of high frequency scattering properties
JP2005161498A (ja) 2003-12-05 2005-06-23 National Institute Of Advanced Industrial & Technology ロボット遠隔操作制御装置
WO2008097252A2 (en) 2006-06-22 2008-08-14 Roy Sandberg Method and apparatus for robotic path planning, selection, and visualization
US7668626B2 (en) 2006-08-16 2010-02-23 National Institute Of Information And Communications Technology, Incorporated Administrative Agency Image displaying method with fluctuation correction and remote control system for moving unit using the method
US7739596B2 (en) * 2007-04-06 2010-06-15 Yahoo! Inc. Method and system for displaying contextual advertisements with media
WO2012164148A1 (en) * 2011-05-31 2012-12-06 Nokia Corporation Methods, apparatuses and computer program products for generating panoramic images using depth map data
US9256977B2 (en) * 2012-02-01 2016-02-09 Siemens Medical Solutions Usa, Inc. System for reconstruction of virtual frequency selective inversion MR images
JP6134478B2 (ja) * 2012-03-28 2017-05-24 ソニー株式会社 情報処理装置、表示制御方法、プログラムおよび記憶媒体
US9441985B2 (en) 2012-07-25 2016-09-13 Rockwell Collins, Inc. Future scene generating system, device, and method for a remotely-operated vehicle
US8954853B2 (en) 2012-09-06 2015-02-10 Robotic Research, Llc Method and system for visualization enhancement for situational awareness
US9623561B2 (en) 2012-10-10 2017-04-18 Kenneth Dean Stephens, Jr. Real time approximation for robotic space exploration
US20150347827A1 (en) * 2012-12-19 2015-12-03 Fanpics, Llc Image capture, processing and delivery at group events
US10113280B2 (en) 2012-12-21 2018-10-30 Michael Todd Letsky Autonomous robot apparatus and method for controlling the same
NO336219B1 (no) 2013-04-19 2015-06-15 Electric Friends As Anordning og fremgangsmåte for kamerastyring
JP2015047666A (ja) 2013-09-02 2015-03-16 トヨタ自動車株式会社 遠隔操作装置、及び操作画像表示方法
WO2015045578A1 (ja) * 2013-09-27 2015-04-02 日産自動車株式会社 情報提示システム
US9851870B2 (en) * 2015-03-17 2017-12-26 Raytheon Company Multi-dimensional video navigation system and method using interactive map paths
US9818228B2 (en) * 2015-08-07 2017-11-14 Microsoft Technology Licensing, Llc Mixed reality social interaction

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8718822B1 (en) * 2011-05-06 2014-05-06 Ryan Hickman Overlaying sensor data in a user interface
WO2014126303A1 (ko) * 2013-02-18 2014-08-21 주식회사 케이티 이동 로봇에 대한 제어 명령과 이동 로봇이 전송한 영상 간 매칭 방법 및 이를 위한 제어 장치
CN104427245A (zh) * 2013-08-20 2015-03-18 三星泰科威株式会社 图像融合系统和方法
CN105224582A (zh) * 2014-07-03 2016-01-06 联想(北京)有限公司 信息处理方法和设备
CN105224203A (zh) * 2014-10-15 2016-01-06 三星电子株式会社 远程控制器装置及其控制方法
CN104331168A (zh) * 2014-11-28 2015-02-04 广东欧珀移动通信有限公司 显示调整方法和电子设备

Also Published As

Publication number Publication date
EP3360022A4 (en) 2018-11-14
KR102441328B1 (ko) 2022-09-08
EP3360022A1 (en) 2018-08-15
US20170221454A1 (en) 2017-08-03
CN108604096A (zh) 2018-09-28
KR20170090170A (ko) 2017-08-07
US10217443B2 (en) 2019-02-26
US10410608B2 (en) 2019-09-10
WO2017131427A1 (en) 2017-08-03
EP3360022B1 (en) 2022-07-06
US20190122640A1 (en) 2019-04-25

Similar Documents

Publication Publication Date Title
CN108604096B (zh) 显示图像的方法及其电子设备
US11632497B2 (en) Systems and methods for controlling an image captured by an imaging device
US10551834B2 (en) Method and electronic device for controlling unmanned aerial vehicle
US11262835B2 (en) Human-body-gesture-based region and volume selection for HMD
EP3598274B1 (en) System and method for hybrid eye tracker
EP3566210B1 (en) System and method for augmented reality control
CN110058759B (zh) 显示装置及图像显示方法
US10978019B2 (en) Head mounted display system switchable between a first-person perspective mode and a third-person perspective mode, related method and related non-transitory computer readable storage medium
KR20180010884A (ko) 무인 이동체를 제어하는 전자 장치, 그 제어 방법 및 저장 매체
JP6685742B2 (ja) 操作装置、移動装置、およびその制御システム
JP6855616B2 (ja) 操作装置、移動装置、およびその制御システム
US20200327867A1 (en) Head mounted display system capable of displaying a virtual scene and a map of a real environment in a picture-in-picture mode, related method and related non-transitory computer readable storage medium
EP3591514A1 (en) Electronic device and screen image display method for electronic device
US10992926B2 (en) Head mounted display system capable of displaying a virtual scene and a real scene in a picture-in-picture mode, related method and related non-transitory computer readable storage medium
EP3734418A1 (en) Head mounted display system capable of displaying a virtual scene and a map of a real environment in a picture-in-picture mode, related method and related non-transitory computer readable storage medium
KR20170019777A (ko) 플라잉 봇의 촬영 제어 장치 및 그 제어방법
KR20230124363A (ko) 전자 장치 및 전자 장치의 제어 방법
CN112913227A (zh) 使用移动设备注释共享显示器的系统和方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant