Nothing Special   »   [go: up one dir, main page]

JP7091880B2 - Information processing equipment, mobiles, remote control systems, information processing methods and programs - Google Patents

Information processing equipment, mobiles, remote control systems, information processing methods and programs Download PDF

Info

Publication number
JP7091880B2
JP7091880B2 JP2018123662A JP2018123662A JP7091880B2 JP 7091880 B2 JP7091880 B2 JP 7091880B2 JP 2018123662 A JP2018123662 A JP 2018123662A JP 2018123662 A JP2018123662 A JP 2018123662A JP 7091880 B2 JP7091880 B2 JP 7091880B2
Authority
JP
Japan
Prior art keywords
robot
unit
target point
image data
display terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018123662A
Other languages
Japanese (ja)
Other versions
JP2020005147A (en
Inventor
篤 伊藤
哲也 余平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2018123662A priority Critical patent/JP7091880B2/en
Publication of JP2020005147A publication Critical patent/JP2020005147A/en
Priority to JP2022096746A priority patent/JP7400882B2/en
Application granted granted Critical
Publication of JP7091880B2 publication Critical patent/JP7091880B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Accessories Of Cameras (AREA)

Description

本発明は、情報処理装置、移動体、遠隔制御システム、情報処理方法およびプログラムに関する。 The present invention relates to an information processing device, a mobile body, a remote control system, an information processing method and a program.

遠隔拠点に位置するテレプレゼンス・ロボット(以下、ロボットと称する)を、通信ネットワークを経由して他拠点に位置する表示端末を用いて遠隔操作する遠隔制御システムが知られている。この遠隔制御システムは、ロボットに備えられた撮影装置によって撮影された画像を、表示端末に表示させることで、ロボットが位置する拠点の情報を遠隔地から確認することができる。 A remote control system is known in which a telepresence robot (hereinafter referred to as a robot) located at a remote base is remotely controlled by using a display terminal located at another base via a communication network. This remote control system can confirm the information of the base where the robot is located from a remote place by displaying the image taken by the photographing device provided in the robot on the display terminal.

また、ロボットを用いてコミュニケーションを活性化させる方法も知られている。特許文献1には、人とロボットの配置情報(位置、体の向きおよび視線方向)を検出し、検出された配置情報に基づいて、ロボットの動作を制御する技術が開示されている。 In addition, a method of activating communication using a robot is also known. Patent Document 1 discloses a technique for detecting placement information (position, body orientation, and line-of-sight direction) between a person and a robot, and controlling the movement of the robot based on the detected placement information.

しかしながら、従来の方法では、遠隔地からロボット(例えば、移動体)を用いて複数の人とコミュニケーションを行う場合、複数の人の位置関係に基づく適切な位置に移動体を移動させることができないため、移動体を用いた円滑なコミュニケーションの妨げとなるという課題があった。 However, in the conventional method, when communicating with a plurality of people from a remote place using a robot (for example, a moving body), the moving body cannot be moved to an appropriate position based on the positional relationship of the plurality of people. There was a problem that it hindered smooth communication using moving objects.

請求項1に係る情報処理装置は、被写体を撮影して画像データを取得する撮影装置を備える移動体の位置を調整する情報処理装置であって、前記撮影装置によって取得された前記画像データを取得する取得手段と、前記取得された画像データに含まれる複数の人物の位置および向きに基づいて前記複数の人物が注目する注目点を特定する注目点特定手段と、前記特定された注目点に基づいて前記移動体の移動先を示す目標点を特定する目標点特定手段と、を備え、前記移動体を特定された前記目標点へ移動させる。 The information processing device according to claim 1 is an information processing device that adjusts the position of a moving body including a photographing device for photographing a subject and acquiring image data, and acquires the image data acquired by the photographing device. Based on the acquisition means for specifying the attention point specifying means for specifying the attention point to be focused on by the plurality of persons based on the positions and orientations of the plurality of persons included in the acquired image data, and the attention point specifying means for specifying the attention point. The moving body is provided with a target point specifying means for specifying a target point indicating a destination of the moving body, and the moving body is moved to the specified target point.

本発明によれば、移動体を用いた円滑なコミュニケーションを実現することができる。 According to the present invention, smooth communication using a mobile body can be realized.

実施形態に係る遠隔制御システムのシステム構成の一例を示す図である。It is a figure which shows an example of the system configuration of the remote control system which concerns on embodiment. 実施形態に係るロボットの構成の概略の一例を示す図である。It is a figure which shows an example of the outline of the structure of the robot which concerns on embodiment. 実施形態の変形例1に係るロボットの構成の概略を示す図である。It is a figure which shows the outline of the structure of the robot which concerns on the modification 1 of embodiment. 実施形態の変形例2に係るロボットの構成の概略を示す図である。It is a figure which shows the outline of the structure of the robot which concerns on the modification 2 of embodiment. 実施形態に係るロボットのハードウエア構成の一例を示す図である。It is a figure which shows an example of the hardware composition of the robot which concerns on embodiment. 実施形態に係る表示端末のハードウエア構成の一例を示す図である。It is a figure which shows an example of the hardware composition of the display terminal which concerns on embodiment. 実施形態に係る管理サーバのハードウエア構成の一例を示す図である。It is a figure which shows an example of the hardware configuration of the management server which concerns on embodiment. 第1の実施形態に係る遠隔制御システムの機能構成の一例を示す図である。It is a figure which shows an example of the functional structure of the remote control system which concerns on 1st Embodiment. 第1の実施形態に係るコマンドテーブルの一例を示す図である。It is a figure which shows an example of the command table which concerns on 1st Embodiment. 第1の実施形態に係る条件テーブルの一例を示す図である。It is a figure which shows an example of the condition table which concerns on 1st Embodiment. 第1の実施形態に係るユーザコマンドテーブルの一例を示す図である。It is a figure which shows an example of the user command table which concerns on 1st Embodiment. (a)は認証管理DBの一例を示す概念図、(b)は端末管理DBの一例を示す概念図である。(A) is a conceptual diagram showing an example of an authentication management DB, and (b) is a conceptual diagram showing an example of a terminal management DB. (a)は宛先リスト管理DBの一例を示す概念図、(b)はセッション管理DBの一例を示す概念図である。(A) is a conceptual diagram showing an example of a destination list management DB, and (b) is a conceptual diagram showing an example of a session management DB. ロボットと表示端末との間でデータの送受信を開始する準備段階の処理の一例を示すシーケンス図である。It is a sequence diagram which shows an example of the process of the preparatory stage which starts the transmission / reception of data between a robot and a display terminal. 第1の実施形態に係る表示端末に表示される宛先リスト画面の一例を示す図である。It is a figure which shows an example of the destination list screen displayed on the display terminal which concerns on 1st Embodiment. 宛先候補の選択からデータの送受信を開始するまでの処理の一例を示すシーケンス図である。It is a sequence diagram which shows an example of the process from the selection of a destination candidate to the start of transmission / reception of data. 第1の実施形態に係る遠隔制御システムにおいて、表示端末からの要求コマンドに基づくロボットの制御処理の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of the control process of a robot based on the request command from a display terminal in the remote control system which concerns on 1st Embodiment. (a)は第1の実施形態に係るロボットに表示される表示画面の画面例、(b)は第1の実施形態に係る表示端末に表示される表示画面の画面例を示す図である。(A) is a screen example of a display screen displayed on the robot according to the first embodiment, and (b) is a diagram showing a screen example of a display screen displayed on the display terminal according to the first embodiment. 第1の実施形態に係るロボットにおける目標点算出処理の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of the target point calculation process in the robot which concerns on 1st Embodiment. (a)は、画像処理部によって抽出された人物の頭の画像を概略的に示した処理データ、(b)は、注目点算出部によって算出された人物の頭の画像(a1~a4)の位置および大きさの値である。(A) is processing data schematically showing an image of a person's head extracted by an image processing unit, and (b) is an image of a person's head calculated by an attention point calculation unit (a1 to a4). Position and size values. (a)は、注目点算出部によって特定された相対位置を示す座標情報、(b)は、注目点算出部によって特定された人物の相対位置を概略的に示した処理データである。(A) is coordinate information indicating the relative position specified by the attention point calculation unit, and (b) is processing data schematically showing the relative position of the person specified by the attention point calculation unit. (a)は、画像処理部によって抽出された人物の目と鼻の画像を概略的に示した処理データ、(b)は、注目点算出部によって特定された人物の向きである(A) is the processing data schematically showing the images of the eyes and nose of the person extracted by the image processing unit, and (b) is the orientation of the person specified by the attention point calculation unit. (a)は、注目点算出部によって特定された相対位置および向きの情報、(b)注目点算出部によって特定された人物の相対位置と向きを概略的に示した処理データである。(A) is information on the relative position and orientation specified by the attention point calculation unit, and (b) is processing data schematically showing the relative position and orientation of the person specified by the attention point calculation unit. (a)は、ビーコンが拠点内に設置された場合における、ロボット10の周囲に位置する人の位置および向きを推定する処理の一例を説明するための図である。(b)は、(a)に示した方法によって特定された、人物(h1~h4)の相対位置および向きの情報である。(A) is a diagram for explaining an example of a process of estimating the position and direction of a person located around the robot 10 when the beacon is installed in the base. (B) is information on the relative position and orientation of the person (h1 to h4) specified by the method shown in (a). 注目点算出部によって特定された人物(h1~h4)の相対位置から、注目点算出部によって特定された人物の向きの方向に伸ばした直線の交点を算出した算出結果である。This is a calculation result obtained by calculating the intersection of straight lines extending in the direction of the person specified by the attention point calculation unit from the relative position of the person (h1 to h4) specified by the attention point calculation unit. (a)は、注目点算出部の処理によってまとめられた交点の位置を示す座標情報、(b)は、注目点算出部の処理によってまとめられた交点の位置を概略的に示した処理データである。(A) is coordinate information indicating the positions of the intersections collected by the processing of the attention point calculation unit, and (b) is processing data schematically showing the positions of the intersections collected by the processing of the attention point calculation unit. be. (a)は、目標点算出部によって特定された目標点の情報、(b)は、目標点算出部によって特定された目標点の位置を概略的に示した処理データである。(A) is information on the target point specified by the target point calculation unit, and (b) is processing data schematically showing the position of the target point specified by the target point calculation unit. 第1の実施形態に係るロボットにおける移動処理の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of the movement processing in the robot which concerns on 1st Embodiment. 第1の実施形態に係るロボットにおける存在通知処理の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of existence notification processing in the robot which concerns on 1st Embodiment. (a)(b)第1の実施形態に係るロボットの移動経路の一例を説明するための図である。(A) (b) It is a figure for demonstrating an example of the movement path of the robot which concerns on 1st Embodiment. (a)(b)(c)第1の実施形態に係るロボットにおいて目標点算出処理を開始するまでの処理の一例を説明するためのフローチャートである。(A) (b) (c) It is a flowchart for demonstrating an example of the process until the target point calculation process is started in the robot which concerns on 1st Embodiment. 第2の実施形態に係る遠隔制御システムの機能構成の一例を示す図である。It is a figure which shows an example of the functional structure of the remote control system which concerns on 2nd Embodiment. 第2の実施形態に係る遠隔制御システムにおけるロボットの制御処理の一例を説明するためのシーケンス図である。It is a sequence diagram for demonstrating an example of the control processing of a robot in the remote control system which concerns on 2nd Embodiment. 第3の実施形態に係る遠隔制御システムのシステム構成の一例を示す図である。It is a figure which shows an example of the system configuration of the remote control system which concerns on 3rd Embodiment. 第3の実施形態に係る遠隔制御システムの機能構成の一例を示す図である。It is a figure which shows an example of the functional structure of the remote control system which concerns on 3rd Embodiment. 第3の実施形態に係る遠隔制御システムにおけるロボットの制御処理の一例を説明するためのシーケンス図である。It is a sequence diagram for demonstrating an example of the control processing of a robot in the remote control system which concerns on 3rd Embodiment.

以下、図面を参照しながら、発明を実施するための形態を説明する。なお、図面の説明において同一要素には同一符号を付し、重複する説明は省略する。 Hereinafter, embodiments for carrying out the invention will be described with reference to the drawings. In the description of the drawings, the same elements are designated by the same reference numerals, and duplicate description will be omitted.

●実施形態●
●システム構成
図1は、実施形態に係る遠隔制御システムのシステム構成の一例を示す図である。図1に示す遠隔制御システムは、表示端末50を用いて、遠隔拠点に位置するロボット10を遠隔操作することによって、拠点内の装置の管理や保守作業等、または拠点内に位置する人の位置や動線の確認等を行うことができるシステムである。また、遠隔制御システム1aは、ロボット10側の拠点で撮影された画像(映像)と表示端末50側の拠点で撮影された画像(映像)とを双方向に送受信することによって、遠隔会議を実現することができるシステムである。
● Embodiment ●
● System Configuration FIG. 1 is a diagram showing an example of a system configuration of a remote control system according to an embodiment. In the remote control system shown in FIG. 1, the display terminal 50 is used to remotely control the robot 10 located at the remote base to manage and maintain the equipment in the base, or the position of a person located in the base. It is a system that can check the flow line and so on. Further, the remote control system 1a realizes a remote conference by bidirectionally transmitting and receiving an image (video) taken at the base on the robot 10 side and an image (video) taken at the base on the display terminal 50 side. It is a system that can be done.

遠隔制御システム1aは、複数の拠点(拠点A,拠点B、拠点C)のそれぞれに位置するロボット10(10A、10B、10C、以下、区別する必要のないときは、ロボット10とする。)、表示端末50および管理サーバ90によって構成される。ロボット10、表示端末50および管理サーバ90は、通信ネットワーク9を介して通信可能に接続されている。通信ネットワーク9は、例えば、LAN(Local Area Network)、専用線およびインターネット等によって構築される。通信ネットワーク9は、有線だけでなく、Wi-Fi(登録商標)等の無線による通信が行われる箇所があってもよい。 The remote control system 1a is a robot 10 located at each of a plurality of bases (base A, base B, base C) (10A, 10B, 10C, hereinafter referred to as a robot 10 when it is not necessary to distinguish them). It is composed of a display terminal 50 and a management server 90. The robot 10, the display terminal 50, and the management server 90 are communicably connected via the communication network 9. The communication network 9 is constructed by, for example, a LAN (Local Area Network), a dedicated line, the Internet, or the like. The communication network 9 may have a place where wireless communication such as Wi-Fi (registered trademark) is performed as well as wired communication.

ロボット10は、各拠点(拠点A,拠点B、拠点C)に設置され、表示端末50からの遠隔操作によって自律走行する移動体である。ロボット10は、後述する撮影装置21によってロボット10の周囲の被写体を撮像しながら拠点内を移動し、撮影装置21によって取得された画像を表示端末50へ送信することで、表示端末50を用いてロボット10を操作する操作者に、拠点内の情報(画像)を提供する。ロボット10は、移動体の一例である。 The robot 10 is a mobile body that is installed at each base (base A, base B, base C) and autonomously travels by remote control from the display terminal 50. The robot 10 moves in the base while taking an image of a subject around the robot 10 by the photographing device 21 described later, and transmits the image acquired by the photographing device 21 to the display terminal 50, thereby using the display terminal 50. Information (image) in the base is provided to the operator who operates the robot 10. The robot 10 is an example of a moving body.

表示端末50は、各拠点(拠点A,拠点B、拠点C)に設置されたロボット10の遠隔操作を行うPC(Personal Computer)等の端末装置である。表示端末50は、ロボット10から送信されてきた画像を表示する。操作者は、表示端末50に表示された画像を見ながら、ロボット10の遠隔操作を行うことができる。 The display terminal 50 is a terminal device such as a PC (Personal Computer) that remotely controls the robot 10 installed at each base (base A, base B, base C). The display terminal 50 displays an image transmitted from the robot 10. The operator can remotely control the robot 10 while looking at the image displayed on the display terminal 50.

なお、表示端末50は、ロボット10から送信されてきた画像を表示する表示手段を備えたものであればよく、例えば、タブレット端末、携帯電話、スマートフォン、ヘッドマウウントディスプレイ(HMD)等のウェアラブル端末、広角スクリーン(円筒、全天球、半天球スクリーン等)を備えた通信端末、PDA(Personal Digital Assistant)等であってもよい。 The display terminal 50 may be any one provided with a display means for displaying an image transmitted from the robot 10, and is, for example, a wearable terminal such as a tablet terminal, a mobile phone, a smartphone, or a head-mounted display (HMD). , A communication terminal provided with a wide-angle screen (cylindrical, all-sky, hemisphere screen, etc.), PDA (Personal Digital Assistant), or the like.

管理サーバ90は、各拠点に位置するロボット10と表示端末50との間の通信を管理するためのサーバコンピュータである。管理サーバ90は、通信ネットワーク9を介してロボット10および表示端末50と接続される。なお、管理サーバ90は、複数台のサーバコンピュータにより構成されてもよく、どのサーバコンピュータに機能を備えさせてもよい。 The management server 90 is a server computer for managing communication between the robot 10 located at each base and the display terminal 50. The management server 90 is connected to the robot 10 and the display terminal 50 via the communication network 9. The management server 90 may be configured by a plurality of server computers, and any server computer may be provided with a function.

ロボット10が設置される拠点は、例えば、オフィス、倉庫、工場、学校等である。表示端末50を用いてロボット10を操作する操作者は、ロボット10から送信された拠点内の画像を確認することによって、拠点内の人の位置や動線の確認、拠点内に設置された装置の管理や保守等を行うことができる。また、ロボット10と表示端末50は、双方によって撮影された画像を送受信することで双方向のコミュニケーション(遠隔会議)を行うこともできる。 The base where the robot 10 is installed is, for example, an office, a warehouse, a factory, a school, or the like. The operator who operates the robot 10 using the display terminal 50 confirms the position and flow line of a person in the base by confirming the image in the base transmitted from the robot 10, and the device installed in the base. Can be managed and maintained. Further, the robot 10 and the display terminal 50 can also perform two-way communication (remote conference) by transmitting and receiving images taken by both of them.

なお、図1において、各拠点内に一台のロボット10が設置されている構成を説明したが、ロボット10は、一つの拠点に複数台設置されていてもよい。また、表示端末50は、複数の拠点に配置されたロボット10のそれぞれと通信する構成であってもよいし、一つの拠点に配置されたロボット10のみと通信する構成であってもよい。 Although the configuration in which one robot 10 is installed in each base is described in FIG. 1, a plurality of robots 10 may be installed in one base. Further, the display terminal 50 may be configured to communicate with each of the robots 10 arranged at a plurality of bases, or may be configured to communicate only with the robots 10 arranged at one base.

●ロボット10の構成
ここで、図2乃至図4を用いて、図1で示したロボット10の具体的な構成を説明する。図2は、実施形態に係るロボットの構成の概略の一例を示す図である。
● Configuration of Robot 10 Here, a specific configuration of the robot 10 shown in FIG. 1 will be described with reference to FIGS. 2 to 4. FIG. 2 is a diagram showing an outline example of the configuration of the robot according to the embodiment.

図2に示すロボット10は、ロボット10を移動させる移動機構17、ロボットの処理または動作を制御する制御装置30を備えた筐体15、表示端末50から送信された画像を表示させるディスプレイ306a、ディスプレイ306aを支持する支持部材13、支持部材13を回転させる回転軸12、ロボット10の周囲の被写体を撮影する撮影装置21、ロボット周囲の音を集音するためのマイク308aおよびスピーカ308bを備える。 The robot 10 shown in FIG. 2 includes a moving mechanism 17 for moving the robot 10, a housing 15 having a control device 30 for controlling the processing or operation of the robot, a display 306a for displaying an image transmitted from the display terminal 50, and a display. It includes a support member 13 that supports the 306a, a rotating shaft 12 that rotates the support member 13, a photographing device 21 that photographs a subject around the robot 10, a microphone 308a for collecting sounds around the robot, and a speaker 308b.

移動機構17は、ロボット10を移動させるユニットであり、車輪、走行モータ、走行エンコーダ、ステアリングモータ、ステアリングエンコーダ等で構成される。ロボット10の移動制御については、既存の技術であるため、詳細な説明は省略するが、ロボット10は、操作者(表示端末50)からの走行指示を受信し、移動機構17は、受信した走行指示に基づいてロボット10を移動させる。 The moving mechanism 17 is a unit for moving the robot 10, and is composed of wheels, a traveling motor, a traveling encoder, a steering motor, a steering encoder, and the like. Since the movement control of the robot 10 is an existing technique, detailed description thereof will be omitted, but the robot 10 receives a running instruction from the operator (display terminal 50), and the moving mechanism 17 receives the received running. The robot 10 is moved based on the instruction.

以下、移動機構17は、2つの車輪によって構成される例を説明するが、移動機構17は、二足歩行の足型や単輪のものであってもよい。また、ロボット10の形状は、図2に示すような車両型に限られず、例えば、二足歩行の人型、生物を模写した形態、特定のキャラクターを模写した形態等であってもよい。 Hereinafter, an example in which the moving mechanism 17 is composed of two wheels will be described, but the moving mechanism 17 may be a bipedal foot type or a single wheel. Further, the shape of the robot 10 is not limited to the vehicle type as shown in FIG. 2, and may be, for example, a humanoid walking on two legs, a form imitating a living thing, a form imitating a specific character, or the like.

筐体15は、ロボット10の胴体部分に位置し、ロボット10の全体に必要な電源を供給する電源供給ユニットおよびロボット10の処理もしくは動作を制御する制御装置30等が内蔵されている。 The housing 15 is located in the body portion of the robot 10, and includes a power supply unit that supplies necessary power to the entire robot 10 and a control device 30 that controls the processing or operation of the robot 10.

撮影装置21は、ロボット10の正面に配置され、ロボット10の周囲の被写体を撮影して画像データ200を取得するためのカメラである。撮影装置21は、ロボット10の周囲の一部を撮影して平面画像を取得する撮影装置であってもよいし、ロボット10の周囲を撮影して全天球(360°)パノラマ画像を取得する特殊撮影装置であってもよい。また、画像データ200の画像は、動画であっても静止画であってもよく、動画と静止画の両方であってもよい。さらに、画像データ200の画像は、画像とともに音データを含んだ映像であってもよい。 The photographing device 21 is a camera arranged in front of the robot 10 for photographing a subject around the robot 10 and acquiring image data 200. The photographing device 21 may be an photographing device that photographs a part of the periphery of the robot 10 to acquire a plane image, or photographs the periphery of the robot 10 to acquire a spherical (360 °) panoramic image. It may be a special photographing device. Further, the image of the image data 200 may be a moving image or a still image, and may be both a moving image and a still image. Further, the image of the image data 200 may be an image including sound data together with the image.

支持部材13は、筐体15に固定され、ディスプレイ306aを支持している。支持部材13は、回転軸12によって回転することで、ディスプレイ306aの向きを変更する。支持部材13は、筐体15に固定されたポール等であってもよいし、筐体15に固定された台座であってもよい。また、ディスプレイ306aは、例えば、遠隔会議を行う相手先の表示端末50で撮影されて取得された画像が表示される。 The support member 13 is fixed to the housing 15 and supports the display 306a. The support member 13 changes the direction of the display 306a by being rotated by the rotation shaft 12. The support member 13 may be a pole or the like fixed to the housing 15, or may be a pedestal fixed to the housing 15. Further, the display 306a displays, for example, an image taken and acquired by the display terminal 50 of the other party having a remote conference.

なお、ロボット10は、上記構成のほかに、ロボット10の移動以外の付加的動作を可能とする操作手段が設置される構成であってもよい。操作手段は、例えば、物をつかむハンド等である。 In addition to the above configuration, the robot 10 may be configured to have an operating means that enables additional operations other than the movement of the robot 10. The operating means is, for example, a hand that grabs an object.

〇ロボット10の構成の変形例〇
〇変形例1
ここで、図3を用いて、ロボット10の構成の変形例1について説明する。図3に示すロボット10aは、ディスプレイ306aを、支持部材13を変えて可動アーム11上に配置している。可動アーム11は、ディスプレイ306aを特定の方向へ向けるために変形可能な可動部材である。これにより、ロボット10aは、回転軸12によってディスプレイ306aの向きを変えるほか、可動アーム11を変形させることによって、ディスプレイ306aの向きを変更することができる。
〇 Modification example of the configuration of the robot 10 〇 〇 Modification example 1
Here, a modification 1 of the configuration of the robot 10 will be described with reference to FIG. In the robot 10a shown in FIG. 3, the display 306a is arranged on the movable arm 11 by changing the support member 13. The movable arm 11 is a movable member that can be deformed to direct the display 306a in a specific direction. As a result, the robot 10a can change the direction of the display 306a by the rotating shaft 12 and can change the direction of the display 306a by deforming the movable arm 11.

〇変形例2
次に、図4を用いて、ロボット10の構成の変形例2について説明する。図4に示すロボット10bは、図2に示した構成から移動機構17を取り除いた構成である。図4に示すロボット10bは、机の上等に置いて固定して利用される。ロボット10bは、伝送端末の一例である。
〇 Modification example 2
Next, a modification 2 of the configuration of the robot 10 will be described with reference to FIG. The robot 10b shown in FIG. 4 has a configuration in which the moving mechanism 17 is removed from the configuration shown in FIG. The robot 10b shown in FIG. 4 is used by placing it on a desk or the like and fixing it. The robot 10b is an example of a transmission terminal.

●ハードウエア構成
次に、図5乃至図7を用いて、実施形態におけるロボット10、表示端末50および管理サーバ90のハードウエア構成を説明する。なお、図5乃至図7に示すハードウエア構成は、各実施形態において同様の構成を備えていてもよく、必要に応じて構成要素が追加または削除されてもよい。
● Hardware Configuration Next, the hardware configurations of the robot 10, the display terminal 50, and the management server 90 in the embodiment will be described with reference to FIGS. 5 to 7. The hardware configurations shown in FIGS. 5 to 7 may have the same configuration in each embodiment, and components may be added or deleted as needed.

〇ロボット10のハードウエア構成〇
まず、図5を用いて、ロボット10のハードウエア構成を説明する。図5は、実施形態に係るロボットのハードウエア構成の一例を示す図である。なお、図5に示すハードウエア構成は、必要に応じて構成要素が追加または削除されてもよい。ロボット10は、ロボット10の処理または動作を制御する制御装置30を備える。制御装置30は、上述のように、ロボット10の筐体15の内部に備えられている。なお、制御装置30は、ロボット10の筐体15の外部に設けられてもよく、またはロボット10とは別の装置として設けられていてもよい。制御装置30は、情報処理装置の一例である。
〇Hardware configuration of the robot 10 〇First, the hardware configuration of the robot 10 will be described with reference to FIG. FIG. 5 is a diagram showing an example of the hardware configuration of the robot according to the embodiment. In the hardware configuration shown in FIG. 5, components may be added or deleted as needed. The robot 10 includes a control device 30 that controls the processing or operation of the robot 10. As described above, the control device 30 is provided inside the housing 15 of the robot 10. The control device 30 may be provided outside the housing 15 of the robot 10, or may be provided as a device separate from the robot 10. The control device 30 is an example of an information processing device.

制御装置30は、CPU(Central Processing Unit)301、ROM(Read Only Memory)302、RAM(Random Access Memory)303、HDD(Hard Disk Drive)304、ネットワークインターフェース(I/F)305、入出力I/F306、メディアI/F307、音入出力I/F308、外部I/F309およびバスライン310を備える。 The control device 30 includes a CPU (Central Processing Unit) 301, a ROM (Read Only Memory) 302, a RAM (Random Access Memory) 303, an HDD (Hard Disk Drive) 304, a network interface (I / F) 305, and an input / output I / O. It includes an F306, a media I / F307, a sound input / output I / F308, an external I / F309, and a bus line 310.

CPU301は、ロボット10全体の制御を行う。CPU301は、ROM302またはHD(Hard Disk)304a等に格納された、プログラムもしくはデータをRAM303上に読み出し、処理を実行することで、ロボット10の各機能を実現する演算装置である。遠隔制御システム1aは、例えば、本発明に係るプログラムの一部または全てをCPU301で実行することによって、本発明に係る情報処理方法を実現する。 The CPU 301 controls the entire robot 10. The CPU 301 is an arithmetic unit that realizes each function of the robot 10 by reading a program or data stored in a ROM 302 or an HD (Hard Disk) 304a or the like onto the RAM 303 and executing processing. The remote control system 1a realizes the information processing method according to the present invention by, for example, executing a part or all of the program according to the present invention on the CPU 301.

RAM303は、CPU301のワークエリア等として用いられる揮発性のメモリである。ROM302は、電源を切ってもプログラムまたはデータを保持することができる不揮発性のメモリである。HDD304は、CPU301の制御にしたがってHD304aに対する各種データの読み出し、または書き込みを制御する。HD304aは、プログラム等の各種データを記憶する。 The RAM 303 is a volatile memory used as a work area or the like of the CPU 301. The ROM 302 is a non-volatile memory that can hold a program or data even when the power is turned off. The HDD 304 controls reading or writing of various data to the HD304a according to the control of the CPU 301. The HD304a stores various data such as programs.

ネットワークI/F305は、通信ネットワーク9を経由して表示端末50と通信(接続)を行う通信インターフェースである。ネットワークI/F305は、例えば、有線または無線LAN(Local Area Network)等の通信インターフェースである。また、ネットワークI/F305は、3G(3rd Generation)、LTE(Long Term Evolution)、4G(4rd Generation)、5G(5rd Generation)、Zigbee(登録商標)、BLE(Bluetooth(登録商標)Low Energy)、ミリ波無線通信の通信インターフェースを備えてもよい。 The network I / F 305 is a communication interface that communicates (connects) with the display terminal 50 via the communication network 9. The network I / F305 is, for example, a communication interface such as a wired or wireless LAN (Local Area Network). The network I / F305 includes 3G (3rd Generation), LTE (Long Term Evolution), 4G (4rd Generation), 5G (5rd Generation), Zigbee (registered trademark), BLE (Bluetooth (registered trademark) Low Energy), A communication interface for millimeter-wave wireless communication may be provided.

入出力I/F306は、文字、数値、各種指示等を各種外部機器等との間で入出力するためのインターフェースである。入出力I/F306は、LCD(Liquid Crystal Display)等のディスプレイ306aに対するカーソル、メニュー、ウィンドウ、文字または画像等の各種情報の表示を制御する。ディスプレイ306aは、入力手段を備えたタッチパネルディスプレイであってもよい。また、入出力I/F306は、ディスプレイ306aのほかに、例えば、マウス、キーボード等の入力手段が接続されていてもよい。 The input / output I / F 306 is an interface for inputting / outputting characters, numerical values, various instructions, etc. to / from various external devices. The input / output I / F 306 controls the display of various information such as a cursor, a menu, a window, characters, or an image on a display 306a such as an LCD (Liquid Crystal Display). The display 306a may be a touch panel display provided with input means. Further, the input / output I / F 306 may be connected to an input means such as a mouse or a keyboard in addition to the display 306a.

メディアI/F307は、USB(Universal Serial Bus)メモリ、メモリカード、光学ディスクまたはフラッシュメモリ等の記録メディア307aに対するデータの読み出しまたは書き込み(記憶)を制御する。音入出力I/F308は、CPU301の制御に従ってマイク308aおよびスピーカ308bとの間で音信号の入出力を処理する回路である。外部I/F309は、制御装置30に他の装置を接続するためのインターフェースである。 The media I / F 307 controls reading or writing (storage) of data to a recording medium 307a such as a USB (Universal Serial Bus) memory, a memory card, an optical disk, or a flash memory. The sound input / output I / F 308 is a circuit that processes sound signal input / output between the microphone 308a and the speaker 308b under the control of the CPU 301. The external I / F 309 is an interface for connecting another device to the control device 30.

バスライン310は、上記各構成要素を電気的に接続するためのアドレスバスやデータバス等であり、アドレス信号、データ信号、および各種制御信号等を伝送する。CPU301、ROM302、RAM303、HDD304、ネットワークI/F305、入出力I/F306、メディアI/F307、音入出力I/F308および外部I/F309は、バスライン310を介して相互に接続されている。 The bus line 310 is an address bus, a data bus, or the like for electrically connecting each of the above components, and transmits an address signal, a data signal, various control signals, and the like. The CPU 301, ROM 302, RAM 303, HDD 304, network I / F 305, input / output I / F 306, media I / F 307, sound input / output I / F 308, and external I / F 309 are connected to each other via a bus line 310.

さらに、制御装置30には、外部I/F309を介して、移動モータ101、アクチュエータ102、加速度・方位センサ103、GPS受信部104、電源供給ユニット105、各種センサ106、タイマ107、および上述した撮影装置21が接続されている。 Further, the control device 30 has a mobile motor 101, an actuator 102, an acceleration / direction sensor 103, a GPS receiving unit 104, a power supply unit 105, various sensors 106, a timer 107, and the above-mentioned photographing, via an external I / F 309. The device 21 is connected.

移動モータ101は、CPU301からの命令に基づき、移動機構17を回転駆動させてロボット10を地面に沿って移動させる。アクチュエータ102は、CPU301からの命令に基づき、可動アーム11を変形させる。加速度・方位センサ103は、地磁気を検知する電子磁気コンパス、ジャイロコンパスおよび加速度センサ等のセンサである。GPS(Global Positioning System)受信部104は、GPS衛星からGPS信号を受信する。電源供給ユニット105は、ロボット10の全体に必要な電源を供給するユニットである。各種センサ106は、ロボット10の周囲の情報を検知可能なセンサデバイスである。各種センサ106は、例えば、気圧計、温度計、光度計、人感センサ、または照度計等である。タイマ107は、時間計測機能を有する計測装置である。タイマ107は、コンピュータによるソフトタイマであってもよい。 The mobile motor 101 rotationally drives the moving mechanism 17 to move the robot 10 along the ground based on a command from the CPU 301. The actuator 102 deforms the movable arm 11 based on a command from the CPU 301. The acceleration / orientation sensor 103 is a sensor such as an electronic magnetic compass, a gyro compass, and an acceleration sensor that detects geomagnetism. The GPS (Global Positioning System) receiving unit 104 receives GPS signals from GPS satellites. The power supply unit 105 is a unit that supplies necessary power to the entire robot 10. The various sensors 106 are sensor devices capable of detecting information around the robot 10. The various sensors 106 are, for example, a barometer, a thermometer, a photometer, a motion sensor, an illuminance meter, or the like. The timer 107 is a measuring device having a time measuring function. The timer 107 may be a soft timer by a computer.

〇表示端末50のハードウエア構成〇
続いて、図6を用いて、表示端末50のハードウエア構成について説明する。図6は、実施形態に係る表示端末のハードウエア構成の一例を示す図である。表示端末50は、CPU501、ROM502、RAM503、EEPROM(Electrically Erasable Programmable Read-Only Memory)504、撮像素子I/F505、CMOS(Complementary Metal Oxide Semiconductor)センサ505a、加速度・方位センサ506、メディアI/F507およびGPS受信部508を備えている。
〇 Hardware configuration of the display terminal 50 〇 Next, the hardware configuration of the display terminal 50 will be described with reference to FIG. FIG. 6 is a diagram showing an example of the hardware configuration of the display terminal according to the embodiment. The display terminal 50 includes a CPU 501, a ROM 502, a RAM 503, an EEPROM (Electrically Erasable Programmable Read-Only Memory) 504, an image pickup element I / F505, a CMOS (Complementary Metal Oxide Semiconductor) sensor 505a, an acceleration / orientation sensor 506, a media I / F507, and the like. It is equipped with a GPS receiving unit 508.

CPU501は、表示端末50全体の動作を制御する。CPU501は、ROM502等に格納されたプログラムまたはデータをRAM503上に読み出し、処理を実行することで、表示端末50の各機能を実現する演算装置である。遠隔制御システム1aは、例えば、本発明に係るプログラムの一部または全てをCPU501で実行することによって、本発明に係る情報処理方法を実現する。 The CPU 501 controls the operation of the entire display terminal 50. The CPU 501 is an arithmetic unit that realizes each function of the display terminal 50 by reading a program or data stored in the ROM 502 or the like onto the RAM 503 and executing processing. The remote control system 1a realizes the information processing method according to the present invention by, for example, executing a part or all of the program according to the present invention on the CPU 501.

ROM502は、IPL(Initial Program Loader)等のCPU501の駆動に用いられるプログラムを記憶する。RAM503は、CPU501のワークエリアとして使用される。EEPROM504は、CPU501の制御にしたがって、表示端末用プログラム等の各種データの読み出しまたは書き込みを行う。 The ROM 502 stores a program used for driving the CPU 501 such as an IPL (Initial Program Loader). The RAM 503 is used as a work area of the CPU 501. The EEPROM 504 reads or writes various data such as a display terminal program according to the control of the CPU 501.

CMOSセンサ505aは、CPU501の制御に従って被写体(主に自画像)を撮像し画像データを得る。撮像素子I/F505は、CMOSセンサ505aの駆動を制御する回路である。加速度・方位センサ506は、地磁気を検知する電子磁気コンパス、ジャイロコンパスおよび加速度センサ等の各種センサである。メディアI/F507は、フラッシュメモリ等の記録メディア507aに対するデータの読み出しまたは書き込み(記憶)を制御する。GPS受信部508は、GPS衛星からGPS信号を受信する。 The CMOS sensor 505a captures a subject (mainly a self-image) and obtains image data according to the control of the CPU 501. The image sensor I / F 505 is a circuit that controls the drive of the CMOS sensor 505a. The acceleration / orientation sensor 506 is a variety of sensors such as an electronic magnetic compass, a gyro compass, and an acceleration sensor that detect the geomagnetism. The media I / F 507 controls reading or writing (storage) of data to the recording medium 507a such as a flash memory. The GPS receiving unit 508 receives a GPS signal from a GPS satellite.

また、表示端末50は、遠距離通信回路510、遠距離通信回路510のアンテナ510a、音入出力I/F511、マイク511a、スピーカ511b、ディスプレイ512、外部機器接続I/F513、近距離通信回路514、近距離通信回路514のアンテナ514a、タッチパネル515、タイマ516および視線検出装置517を備えている。 Further, the display terminal 50 includes a long-distance communication circuit 510, an antenna 510a of the long-distance communication circuit 510, a sound input / output I / F511, a microphone 511a, a speaker 511b, a display 512, an external device connection I / F513, and a short-distance communication circuit 514. , The antenna 514a of the short-range communication circuit 514, the touch panel 515, the timer 516, and the line-of-sight detection device 517.

遠距離通信回路510は、通信ネットワーク9を介して、他の機器と通信する回路である。マイク511aは、音声を入力する内蔵型の集音手段の一種である。音入出力I/F511は、CPU501の制御に従ってマイク511aおよびスピーカ511bとの間で音信号の入出力を処理する回路である。 The telecommunications circuit 510 is a circuit that communicates with other devices via the communication network 9. The microphone 511a is a kind of built-in sound collecting means for inputting voice. The sound input / output I / F 511 is a circuit that processes sound signal input / output between the microphone 511a and the speaker 511b under the control of the CPU 501.

ディスプレイ512は、被写体の画像や各種アイコン等を表示する液晶や有機EL等の表示手段の一種である。外部機器接続I/F513は、各種の外部機器を接続するためのインターフェースである。近距離通信回路514は、Wi-Fi、NFC、またはBluetooth等の通信回路である。タッチパネル515は、利用者がディスプレイ512を押下することで、表示端末50を操作する入力手段の一種である。タイマ516は、時間計測機能を有する計測装置である。タイマ516は、コンピュータによるソフトタイマであってもよい。視線検出装置517は、ユーザの視線の位置を視線情報として連続的に検知する。視線検出装置517は、例えば、CMOSセンサ505aで撮像した画像を分析する画像処理装置を含む。視線検出装置517は、例えば、基準点を目頭とし、目頭と虹彩との位置関係から視線の方向を検知する。 The display 512 is a kind of display means such as a liquid crystal display or an organic EL for displaying an image of a subject, various icons, and the like. The external device connection I / F 513 is an interface for connecting various external devices. The short-range communication circuit 514 is a communication circuit such as Wi-Fi, NFC, or Bluetooth. The touch panel 515 is a kind of input means for operating the display terminal 50 by the user pressing the display 512. The timer 516 is a measuring device having a time measuring function. The timer 516 may be a soft timer by a computer. The line-of-sight detection device 517 continuously detects the position of the user's line of sight as line-of-sight information. The line-of-sight detection device 517 includes, for example, an image processing device that analyzes an image captured by the CMOS sensor 505a. The line-of-sight detection device 517 detects the direction of the line of sight from the positional relationship between the inner corner of the eye and the iris, for example, with the reference point as the inner corner of the eye.

また、表示端末50は、バスライン509を備えている。バスライン509は、CPU501等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。 Further, the display terminal 50 includes a bus line 509. The bus line 509 is an address bus, a data bus, or the like for electrically connecting each component such as the CPU 501.

〇管理サーバ90のハードウエア構成〇
続いて、図7を用いて、管理サーバ90のハードウエア構成について説明する。図7は、実施形態に係る管理サーバのハードウエア構成の一例を示す図である。管理サーバ90は、一般的なコンピュータによって構築されている。管理サーバ90は、CPU901、ROM902、RAM903、HDD905、メディアI/F907、ディスプレイ908、ネットワークI/F909、キーボード911、マウス912、CD-RW(Compact Disc-ReWritable)ドライブ914、タイマ915およびバスライン910を備えている。なお、管理サーバ90は、サーバとして機能するため、キーボード911やマウス912等の入力装置や、ディスプレイ908等の出力装置を備えていなくてもよい。
〇 Hardware configuration of the management server 90 〇 Next, the hardware configuration of the management server 90 will be described with reference to FIG. 7. FIG. 7 is a diagram showing an example of the hardware configuration of the management server according to the embodiment. The management server 90 is constructed by a general computer. The management server 90 includes CPU901, ROM902, RAM903, HDD905, media I / F907, display 908, network I / F909, keyboard 911, mouse 912, CD-RW (Compact Disc-ReWritable) drive 914, timer 915, and bus line 910. It is equipped with. Since the management server 90 functions as a server, it does not have to be provided with an input device such as a keyboard 911 or a mouse 912, or an output device such as a display 908.

CPU901は、管理サーバ90全体の動作を制御する。ROM902は、CPU901の駆動に用いられるプログラムを記憶する。RAM903は、CPU901のワークエリアとして使用される。HDD905は、CPU901の制御にしたがってHD904に対する各種データの読み出し、または書き込みを制御する。HD904は、プログラム等の各種データを記憶する。メディアI/F907は、フラッシュメモリ等の記録メディア906に対するデータの読み出し、または書き込み(記憶)を制御する。 The CPU 901 controls the operation of the entire management server 90. The ROM 902 stores the program used to drive the CPU 901. The RAM 903 is used as a work area for the CPU 901. The HDD 905 controls reading or writing of various data to the HD 904 according to the control of the CPU 901. The HD904 stores various data such as programs. The media I / F 907 controls reading or writing (storage) of data to a recording medium 906 such as a flash memory.

ディスプレイ908は、カーソル、メニュー、ウィンドウ、文字、または画像等の各種情報を表示する。ネットワークI/F909は、通信ネットワーク9を利用してデータ通信をするためのインターフェースである。キーボード911は、文字、数値、各種指示等の入力のための複数のキーを備えた入力手段の一種である。マウス912は、各種指示の選択や実行、処理対象の選択、カーソルの移動等を行う入力手段の一種である。CD-RWドライブ914は、着脱可能な記録媒体の一例としてのCD-RW913に対する各種データの読み出し等を制御する。タイマ915は、時間計測機能を有する計測装置である。タイマ915は、コンピュータによるソフトタイマであってもよい。 The display 908 displays various information such as cursors, menus, windows, characters, or images. The network I / F909 is an interface for performing data communication using the communication network 9. The keyboard 911 is a kind of input means including a plurality of keys for inputting characters, numerical values, various instructions, and the like. The mouse 912 is a kind of input means for selecting and executing various instructions, selecting a processing target, moving a cursor, and the like. The CD-RW drive 914 controls reading of various data to the CD-RW 913 as an example of a detachable recording medium. The timer 915 is a measuring device having a time measuring function. The timer 915 may be a soft timer by a computer.

また、管理サーバ90は、バスライン910を備えている。バスライン910は、図7に示すCPU901等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。 Further, the management server 90 includes a bus line 910. The bus line 910 is an address bus, a data bus, or the like for electrically connecting each component such as the CPU 901 shown in FIG. 7.

●第1の実施形態●
続いて、図8乃至図30を用いて、第1の実施形態に係る遠隔制御システムの構成について説明する。
● First embodiment ●
Subsequently, the configuration of the remote control system according to the first embodiment will be described with reference to FIGS. 8 to 30.

●機能構成
まず、図8を用いて、第1の実施形態に係る遠隔制御システムの機能構成について説明する。図8は、第1の実施形態に係る遠隔制御システムの機能構成の一例を示す図である。
● Functional configuration First, the functional configuration of the remote control system according to the first embodiment will be described with reference to FIG. FIG. 8 is a diagram showing an example of the functional configuration of the remote control system according to the first embodiment.

〇制御装置30の機能構成〇
まず、図8を用いて、ロボット10の処理または動作を制御する制御装置30の機能構成について説明する。制御装置30によって実現される機能は、送受信部31、操作入力受付部32、表示制御部33、判断部34、撮影指示部35、画像取得部36、移動制御部37、向き調整部38、位置特定部39、画像処理部41、注目点算出部42、目標点算出部43、周辺情報検出部44、存在通知部45、記憶・読出部46および記憶部3000を含む。
〇 Functional configuration of the control device 30 〇 First, the functional configuration of the control device 30 that controls the processing or operation of the robot 10 will be described with reference to FIG. The functions realized by the control device 30 are the transmission / reception unit 31, the operation input reception unit 32, the display control unit 33, the judgment unit 34, the shooting instruction unit 35, the image acquisition unit 36, the movement control unit 37, the orientation adjustment unit 38, and the position. It includes a specific unit 39, an image processing unit 41, an attention point calculation unit 42, a target point calculation unit 43, a peripheral information detection unit 44, an existence notification unit 45, a storage / reading unit 46, and a storage unit 3000.

送受信部31は、通信ネットワーク9を介して、他の装置との間で各種データまたは情報の送受信を行う機能である。送受信部31は、例えば、画像取得部36によって取得された画像データ200を、通信ネットワーク9を介して、表示端末50へ送信する。また、送受信部31は、例えば、通信ネットワーク9を介して、表示端末50から送信されてきた要求コマンド(要求情報)を受信する。さらに、送受信部31は、例えば、表示端末50によって取得された画像である画像データ250を、通信ネットワーク9を介して、表示端末50から受信する。また、送受信部31は、目標点算出部43によって算出された目標点において撮影装置21によって取得された画像データ200を、通信ネットワーク9を介して、表示端末50へ送信する。送受信部31は、主に、図5に示したCPU301の処理、およびネットワークI/F305によって実現される。送受信部31は、第1の送信手段の一例である。 The transmission / reception unit 31 is a function for transmitting / receiving various data or information to / from other devices via the communication network 9. The transmission / reception unit 31 transmits, for example, the image data 200 acquired by the image acquisition unit 36 to the display terminal 50 via the communication network 9. Further, the transmission / reception unit 31 receives, for example, a request command (request information) transmitted from the display terminal 50 via the communication network 9. Further, the transmission / reception unit 31 receives, for example, image data 250, which is an image acquired by the display terminal 50, from the display terminal 50 via the communication network 9. Further, the transmission / reception unit 31 transmits the image data 200 acquired by the photographing device 21 at the target point calculated by the target point calculation unit 43 to the display terminal 50 via the communication network 9. The transmission / reception unit 31 is mainly realized by the processing of the CPU 301 shown in FIG. 5 and the network I / F 305. The transmission / reception unit 31 is an example of the first transmission means.

操作入力受付部32は、ディスプレイ306a等の入力手段に対する操作入力を受け付ける機能である。操作入力受付部32は、主に、図5に示したCPU301の処理、および入出力I/F306によって実現される。表示制御部33は、ディスプレイ306aに各種画面を表示させる機能である。表示制御部33は、主に、図5に示したCPU301の処理、および入出力I/F306によって実現される。 The operation input receiving unit 32 is a function of receiving an operation input to an input means such as a display 306a. The operation input receiving unit 32 is mainly realized by the processing of the CPU 301 shown in FIG. 5 and the input / output I / F 306. The display control unit 33 is a function of displaying various screens on the display 306a. The display control unit 33 is mainly realized by the processing of the CPU 301 shown in FIG. 5 and the input / output I / F 306.

判断部34は、表示端末50から送信されてきた要求コマンドに応じてロボット10が実行する処理または動作を判断する機能である。判断部34は、主に、図5に示したCPU301の処理によって実現される。 The determination unit 34 is a function of determining a process or an operation executed by the robot 10 in response to a request command transmitted from the display terminal 50. The determination unit 34 is mainly realized by the processing of the CPU 301 shown in FIG.

撮影指示部35は、撮影装置21に対する撮影処理を指示する機能である。撮影指示部35は、例えば、撮影装置21による撮影を指示するための指示情報を、撮影装置21へ送信する。撮影指示部35は、主に、図5に示したCPU301の処理、および外部I/F309によって実現される。 The shooting instruction unit 35 is a function of instructing the shooting device 21 to perform shooting processing. The shooting instruction unit 35 transmits, for example, instruction information for instructing shooting by the shooting device 21 to the shooting device 21. The shooting instruction unit 35 is mainly realized by the processing of the CPU 301 shown in FIG. 5 and the external I / F 309.

画像取得部36は、撮影装置21によって取得された画像を取得する機能である。画像取得部36は、例えば、撮影装置21が被写体を撮影して取得した画像である画像データ200を、撮影装置21から取得する。画像取得部36は、主に、図5に示したCPU301の処理、および外部I/F309によって実現される。画像取得部36は、取得手段の一例である。 The image acquisition unit 36 is a function of acquiring an image acquired by the photographing device 21. The image acquisition unit 36 acquires, for example, image data 200, which is an image acquired by photographing a subject by the photographing apparatus 21, from the photographing apparatus 21. The image acquisition unit 36 is mainly realized by the processing of the CPU 301 shown in FIG. 5 and the external I / F 309. The image acquisition unit 36 is an example of acquisition means.

移動制御部37は、移動機構17を駆動させることによって、ロボット10の移動を制御する機能である。移動制御部37は、例えば、表示端末50から送信されてきた要求コマンドに応じて移動機構17の駆動を制御することで、ロボット10を移動させる。また、移動制御部37は、例えば、目標点算出部43によって算出された目標点へロボット10を移動させるように、移動機構17の駆動を制御する。移動制御部37は、主に、図5に示したCPU301の処理、および外部I/F309によって実現される。移動制御部37は、移動制御手段の一例である。 The movement control unit 37 is a function of controlling the movement of the robot 10 by driving the movement mechanism 17. The movement control unit 37 moves the robot 10 by controlling the drive of the movement mechanism 17 in response to a request command transmitted from the display terminal 50, for example. Further, the movement control unit 37 controls the drive of the movement mechanism 17 so as to move the robot 10 to the target point calculated by the target point calculation unit 43, for example. The movement control unit 37 is mainly realized by the processing of the CPU 301 shown in FIG. 5 and the external I / F 309. The movement control unit 37 is an example of the movement control means.

向き調整部38は、ロボット10の向きを変更する機能である。向き調整部38は、例えば、目標点算出部43によって算出されたロボット10の移動先のロボット10の向きに応じて、移動機構17または回転軸12の駆動を制御することで、ロボット10の向きを変更する。向き調整部38は、主に、図5に示したCPU301の処理、および外部I/F309によって実現される。 The orientation adjusting unit 38 is a function of changing the orientation of the robot 10. The orientation adjusting unit 38 controls the driving of the moving mechanism 17 or the rotating shaft 12 according to the orientation of the robot 10 to which the robot 10 is moved, which is calculated by the target point calculation unit 43, so that the orientation of the robot 10 is oriented. To change. The orientation adjusting unit 38 is mainly realized by the processing of the CPU 301 shown in FIG. 5 and the external I / F 309.

位置特定部39は、ロボット10の現在位置を特定する機能である。位置特定部39は、例えば、加速度・方位センサ103またはGPS受信部104によって検出される各方位(方位角、磁北)の方向等の検出結果に基づいて、ロボット10の現在位置を特定する。各方位の方向等の検出結果は、ロボット10の所定時点における位置および向きを示す位置情報である。位置特定部39は、主に、図5に示したCPU301の処理、および外部I/F309によって実現される。位置特定部39は、位置検出手段の一例である。 The position specifying unit 39 is a function of specifying the current position of the robot 10. The position specifying unit 39 identifies the current position of the robot 10 based on the detection results such as the direction of each direction (azimuth, magnetic north) detected by the acceleration / direction sensor 103 or the GPS receiving unit 104, for example. The detection result such as the direction of each direction is the position information indicating the position and direction of the robot 10 at a predetermined time point. The position specifying unit 39 is mainly realized by the processing of the CPU 301 shown in FIG. 5 and the external I / F 309. The position specifying unit 39 is an example of the position detecting means.

画像処理部41は、画像取得部36によって取得された画像データ200に対する処理を行う機能である。画像処理部41は、例えば、画像取得部36によって取得された画像データ200に含まれる人物の頭の画像を抽出する。また、画像処理部41は、例えば、画像取得部36によって取得された人物の目と鼻の画像を抽出する。画像処理部41は、主に、図5に示したCPU301の処理によって実現される。 The image processing unit 41 is a function of processing the image data 200 acquired by the image acquisition unit 36. The image processing unit 41 extracts, for example, an image of a person's head included in the image data 200 acquired by the image acquisition unit 36. Further, the image processing unit 41 extracts, for example, an image of the eyes and nose of a person acquired by the image acquisition unit 36. The image processing unit 41 is mainly realized by the processing of the CPU 301 shown in FIG.

注目点算出部42は、画像処理部41によって処理された画像データに含まれる複数の人物の位置および向きに基づいて、複数の人が注目する注目点を特定する機能である。注目点は、ロボット10が設置された拠点において複数の人が注目している位置であり、例えば、ロボット10の周囲の複数の人が向いている方向の交点である。注目点は、例えば、遠隔会議において、ロボット10側の拠点での複数の参加者が向いている方向、すなわち、ある時点における話題の中心位置である。注目点算出部42は、主に、図5に示したCPU301の処理によって実現される。注目点算出部42は、算出手段の一例である。また、注目点算出部42は、推定手段の一例である。さらに、注目点算出部42は、注目点特定手段の一例である。 The attention point calculation unit 42 is a function of specifying the attention points attracted by a plurality of people based on the positions and orientations of the plurality of persons included in the image data processed by the image processing unit 41. The point of interest is a position where a plurality of people are paying attention at the base where the robot 10 is installed, for example, an intersection in a direction in which a plurality of people around the robot 10 are facing. The point of interest is, for example, in a remote conference, the direction in which a plurality of participants at the base on the robot 10 side are facing, that is, the central position of the topic at a certain point in time. The attention point calculation unit 42 is mainly realized by the processing of the CPU 301 shown in FIG. The attention point calculation unit 42 is an example of the calculation means. Further, the attention point calculation unit 42 is an example of the estimation means. Further, the attention point calculation unit 42 is an example of the attention point specifying means.

目標点算出部43は、注目点算出部42によって算出された注目点に基づいて、ロボット10の移動先となる目標点を特定する機能である。目標点算出部43によって特定される目標点は、ロボット10の移動先の目標位置Gを示す位置情報(座標情報)と、ロボット10の移動先のロボット10の向きを示す方向情報を含む。目標点算出部43は、主に、図5に示したCPU301の処理によって実現される。目標点算出部43は、算出手段の一例である。また、目標点算出部43は、目標点特定手段の一例である。 The target point calculation unit 43 is a function of specifying a target point to be moved to the robot 10 based on the attention point calculated by the attention point calculation unit 42. The target point specified by the target point calculation unit 43 includes position information (coordinate information) indicating the target position G of the destination of the robot 10 and direction information indicating the direction of the robot 10 to which the robot 10 is moved. The target point calculation unit 43 is mainly realized by the processing of the CPU 301 shown in FIG. The target point calculation unit 43 is an example of the calculation means. Further, the target point calculation unit 43 is an example of the target point specifying means.

周辺情報検出部44は、撮影装置21によって取得された画像データ200または各種センサ106によって検出された検出結果等を用いて、ロボット10の周囲の情報を検出する機能である。周辺情報検出部44は、主に、図5に示したCPU301の処理、および外部I/F309によって実現される。 The peripheral information detection unit 44 is a function of detecting information around the robot 10 by using the image data 200 acquired by the photographing device 21 or the detection result detected by various sensors 106. The peripheral information detection unit 44 is mainly realized by the processing of the CPU 301 shown in FIG. 5 and the external I / F 309.

存在通知部45は、予め定められた条件に基づいて、ロボット10の存在を通知する機能である。存在通知部45は、例えば、位置特定部39によって検出された現在位置と、目標点算出部43によって算出された目標点との距離が閾値以上または閾値より長い場合、ロボット10の存在を通知する通知情報を出力する。通知情報は、例えば、音信号であり、存在通知部45は、スピーカ308bから音信号を出力する。また、通知情報は、例えば、ロボット10の所定のジェスチャーであり、存在通知部45は、移動機構17、もしくは可動アーム11または回転軸12を駆動させる。なお、閾値は、予め記憶部3000に記憶されている。存在通知部45は、主に、図5に示したCPU301の処理、および外部I/F309によって実現される。存在通知部45は、存在通知手段の一例である。 The existence notification unit 45 is a function of notifying the existence of the robot 10 based on predetermined conditions. The existence notification unit 45 notifies the existence of the robot 10 when, for example, the distance between the current position detected by the position specifying unit 39 and the target point calculated by the target point calculation unit 43 is equal to or greater than the threshold value or longer than the threshold value. Output notification information. The notification information is, for example, a sound signal, and the presence notification unit 45 outputs a sound signal from the speaker 308b. Further, the notification information is, for example, a predetermined gesture of the robot 10, and the presence notification unit 45 drives the moving mechanism 17, the movable arm 11, or the rotating shaft 12. The threshold value is stored in the storage unit 3000 in advance. The existence notification unit 45 is mainly realized by the processing of the CPU 301 shown in FIG. 5 and the external I / F 309. The existence notification unit 45 is an example of the existence notification means.

記憶・読出部46は、記憶部3000に各種データを記憶させ、または記憶部3000から各種データを読み出す機能である。記憶・読出部46は、主に、図5に示したCPU301の処理によって実現される。記憶部3000は、主に、図5に示したROM302、HD304aおよび記録メディア307aによって実現される。 The storage / reading unit 46 is a function of storing various data in the storage unit 3000 or reading various data from the storage unit 3000. The storage / reading unit 46 is mainly realized by the processing of the CPU 301 shown in FIG. The storage unit 3000 is mainly realized by the ROM 302, HD304a and the recording medium 307a shown in FIG.

また、記憶部3000は、画像取得部36によって撮影された画像データ200、および表示端末50から送信されてきた画像データ250を記憶している。さらに、記憶部3000は、コマンドテーブル3001および条件テーブル3002を記憶している。なお、記憶部3000に記憶されている画像データ200は、画像取得部36によって取得されてから所定の時間経過した場合に削除される構成であってもよいし、表示端末50へ送信されたデータが削除される構成であってもよい。同様に、記憶部3000に記憶されている画像データ250は、表示端末50から送信されてから所定の時間経過した場合に削除される構成であってもよい。 Further, the storage unit 3000 stores the image data 200 taken by the image acquisition unit 36 and the image data 250 transmitted from the display terminal 50. Further, the storage unit 3000 stores the command table 3001 and the condition table 3002. The image data 200 stored in the storage unit 3000 may be configured to be deleted when a predetermined time has elapsed since the image data 200 was acquired by the image acquisition unit 36, or the data transmitted to the display terminal 50. May be deleted. Similarly, the image data 250 stored in the storage unit 3000 may be deleted when a predetermined time has elapsed since it was transmitted from the display terminal 50.

〇コマンドテーブル3001
ここで、記憶部3000に記憶されたデータの詳細について説明する。図9は、第1の実施形態に係るコマンドテーブルの一例を示す図である。図9に示すコマンドテーブル3001は、表示端末50から送信されてきた要求コマンドに基づいてロボット10に実行される処理または動作を特定するためのものである。コマンドテーブル3001は、要求コマンドごとに、それぞれの要求コマンドに対応する処理内容を関連づけて記憶している。制御装置30の判断部34は、コマンドテーブル3001を用いて、表示端末50から送信されてきた要求コマンドに対応する処理を特定する。
〇 Command table 3001
Here, the details of the data stored in the storage unit 3000 will be described. FIG. 9 is a diagram showing an example of a command table according to the first embodiment. The command table 3001 shown in FIG. 9 is for specifying a process or an operation executed by the robot 10 based on a request command transmitted from the display terminal 50. The command table 3001 stores the processing contents corresponding to each request command in association with each request command. The determination unit 34 of the control device 30 uses the command table 3001 to specify the process corresponding to the request command transmitted from the display terminal 50.

例えば、コマンドテーブル3001において、要求コマンド「FORWARD」に対応する処理は、ロボット10を一定量前進させる処理である。なお、それぞれのコマンドに対応する処理の内容は、これに限られず、表示端末50を用いてロボット10を操作する操作者またはロボット10の管理者等によって適宜修正・変更可能である。 For example, in the command table 3001, the process corresponding to the request command "FORWARD" is a process of advancing the robot 10 by a certain amount. The content of the process corresponding to each command is not limited to this, and can be appropriately modified or changed by an operator who operates the robot 10 using the display terminal 50, an administrator of the robot 10, or the like.

〇条件テーブル3002
図10は、第1の実施形態に係る撮影パラメータの一例を示す図である。図10に示す条件テーブル3002は、注目点に対する位置調整処理を開始するための条件を示したものである。条件テーブル3002は、拠点名で示される拠点ごとに、条件情報を関連づけて記憶している。条件情報は、一つ前の位置調整処理を行ってからの経過時間、人との距離、および位置調整処理の調整周期が含まれる。なお、条件情報に含まれる項目は、これに限られず、拠点ごとに一つの項目の条件が含まれていてもよいし、拠点ごとに複数の項目の条件が含まれていてもよい。
〇 Condition table 3002
FIG. 10 is a diagram showing an example of imaging parameters according to the first embodiment. The condition table 3002 shown in FIG. 10 shows the conditions for starting the position adjustment process for the point of interest. The condition table 3002 stores the condition information in association with each base indicated by the base name. The condition information includes the elapsed time from the previous position adjustment process, the distance to a person, and the adjustment cycle of the position adjustment process. The items included in the condition information are not limited to this, and the conditions of one item may be included for each base, or the conditions of a plurality of items may be included for each base.

条件テーブル3002は、拠点ごとに条件情報を記憶することで、ロボット10が位置する拠点ごとに位置調整処理を行う頻度や条件を異ならせることができる。なお、条件テーブル3002は、拠点ごとに条件情報がそれぞれ関連づけられている例を説明したが、ロボット10ごとに条件情報を関連づけて記憶していてもよい。 By storing the condition information for each base, the condition table 3002 can make the frequency and conditions for performing the position adjustment process different for each base where the robot 10 is located. Although the condition table 3002 has described an example in which the condition information is associated with each base, the condition information may be associated and stored for each robot 10.

〇表示端末50の機能構成〇
次に、図8を用いて、表示端末50の機能構成について説明する。表示端末50により実現される機能は、送受信部51、操作入力受付部52、表示制御部53、判断部54、要求コマンド生成部55、視線検出部56、記憶・読出部57および記憶部5000を含む。表示端末50は、ロボット10を遠隔操作するための専用のアプリケーションプログラムをインストールしている。表示端末50は、例えば、インストールされたアプリケーションプログラムをCPU501が実行することによって各機能を実現する。
〇 Functional configuration of the display terminal 50 〇 Next, the functional configuration of the display terminal 50 will be described with reference to FIG. The functions realized by the display terminal 50 include a transmission / reception unit 51, an operation input reception unit 52, a display control unit 53, a judgment unit 54, a request command generation unit 55, a line-of-sight detection unit 56, a storage / reading unit 57, and a storage unit 5000. include. The display terminal 50 has a dedicated application program for remotely controlling the robot 10 installed. The display terminal 50 realizes each function by, for example, the CPU 501 executing the installed application program.

送受信部51は、通信ネットワーク9を介して、他の装置との間で各種データまたは情報の送受信を行う機能である。送受信部51は、例えば、ロボット10が備える撮影装置21によって取得された画像データ200を、通信ネットワーク9を介して、ロボット10から受信する。また、送受信部51は、例えば、CMOSセンサ505aによって撮影されて取得された画像である画像データ250を、通信ネットワーク9を介して、ロボット10へ送信する。送受信部51は、主に、図6に示したCPU501の処理、および遠距離通信回路510によって実現される。送受信部51は、受信手段の一例である。 The transmission / reception unit 51 is a function for transmitting / receiving various data or information to / from other devices via the communication network 9. The transmission / reception unit 51 receives, for example, the image data 200 acquired by the photographing device 21 included in the robot 10 from the robot 10 via the communication network 9. Further, the transmission / reception unit 51 transmits, for example, image data 250, which is an image captured and acquired by the CMOS sensor 505a, to the robot 10 via the communication network 9. The transmission / reception unit 51 is mainly realized by the processing of the CPU 501 shown in FIG. 6 and the telecommunications circuit 510. The transmission / reception unit 51 is an example of a reception means.

操作入力受付部52は、表示端末50への各種選択または操作入力を受け付ける機能である。操作入力受付部52は、主に、図6に示したCPU501の処理、およびタッチパネル515によって実現される。なお、タッチパネル515は、ディスプレイ512と共用であってもよい。また、操作入力受付部52は、タッチパネル以外の入力手段によって実現されてもよい。 The operation input receiving unit 52 is a function of receiving various selections or operation inputs to the display terminal 50. The operation input receiving unit 52 is mainly realized by the processing of the CPU 501 shown in FIG. 6 and the touch panel 515. The touch panel 515 may be shared with the display 512. Further, the operation input receiving unit 52 may be realized by an input means other than the touch panel.

表示制御部53は、表示端末50のディスプレイ512に各種画像を表示させる機能である。表示制御部53は、例えば、送受信部51によって受信された画像データ200を、表示手段の一例であるディスプレイ512に表示させる。表示制御部53は、主に、図6に示したCPU501の処理、およびディスプレイ512によって実現される。表示制御部53は、表示制御手段の一例である。 The display control unit 53 is a function of displaying various images on the display 512 of the display terminal 50. The display control unit 53 displays, for example, the image data 200 received by the transmission / reception unit 51 on the display 512, which is an example of the display means. The display control unit 53 is mainly realized by the processing of the CPU 501 shown in FIG. 6 and the display 512. The display control unit 53 is an example of the display control means.

判断部54は、ロボット10へ要求する特定の処理を判断する機能である。判断部54は、例えば、操作入力受付部52によって受け付けられた操作入力に基づいて、ロボット10へ要求する特定の処理を判断する。判断部54は、主に、図6に示したCPU301の処理によって実現される。 The determination unit 54 is a function of determining a specific process requested to the robot 10. The determination unit 54 determines, for example, a specific process requested to the robot 10 based on the operation input received by the operation input reception unit 52. The determination unit 54 is mainly realized by the processing of the CPU 301 shown in FIG.

要求コマンド生成部55は、ロボット10に特定の処理を実行されるための実行要求である要求コマンドを生成する機能である。要求コマンド生成部55は、主に、図6に示したCPU501の処理によって実現される。 The request command generation unit 55 is a function of generating a request command, which is an execution request for the robot 10 to execute a specific process. The request command generation unit 55 is mainly realized by the processing of the CPU 501 shown in FIG.

視線検出部56は、表示端末50を用いてロボット10を操作する操作者の視線を検出する機能である。視線検出部56は、主に、図6に示したCPU501の処理、および視線検出装置517によって実現される。 The line-of-sight detection unit 56 is a function of detecting the line of sight of an operator who operates the robot 10 by using the display terminal 50. The line-of-sight detection unit 56 is mainly realized by the processing of the CPU 501 shown in FIG. 6 and the line-of-sight detection device 517.

記憶・読出部57は、記憶部5000に各種データを記憶させ、または記憶部5000から各種データを読み出す機能である。記憶・読出部57は、主に、図6に示したCPU501の処理によって実現される。記憶部5000は、主に、図6に示したROM502、EEPROM504および記録メディア507によって実現される。 The storage / reading unit 57 is a function of storing various data in the storage unit 5000 or reading various data from the storage unit 5000. The storage / reading unit 57 is mainly realized by the processing of the CPU 501 shown in FIG. The storage unit 5000 is mainly realized by the ROM 502, the EEPROM 504 and the recording medium 507 shown in FIG.

また、記憶部5000は、送受信部51によって受信された画像データ200、およびCMOSセンサ505aによって撮影されて取得された画像データ250を記憶している。さらに、記憶部5000は、ユーザコマンドテーブル5001を記憶している。なお、記憶部5000に記憶されている画像データ200は、送受信部51によって受信されてから所定の時間経過した場合に削除される構成であってもよいし、操作入力受付部52によって受け付けられた、ユーザからの削除命令に基づいて削除される構成であってもよい。同様に、記憶部5000に記憶されている画像データ250は、CMOSセンサ505aによって取得されてから所定の時間経過した場合に削除される構成であってもよいし、操作入力受付部52によって受け付けられた、ユーザからの削除命令に基づいて削除される構成であってもよい。 Further, the storage unit 5000 stores the image data 200 received by the transmission / reception unit 51 and the image data 250 captured and acquired by the CMOS sensor 505a. Further, the storage unit 5000 stores the user command table 5001. The image data 200 stored in the storage unit 5000 may be deleted when a predetermined time has elapsed after being received by the transmission / reception unit 51, or may be received by the operation input reception unit 52. , May be configured to be deleted based on a deletion command from the user. Similarly, the image data 250 stored in the storage unit 5000 may be deleted when a predetermined time has elapsed since it was acquired by the CMOS sensor 505a, or may be received by the operation input reception unit 52. In addition, it may be configured to be deleted based on a deletion command from the user.

〇ユーザコマンドテーブル5001
図11は、第1の実施形態に係るユーザコマンドテーブルの一例を示す図である。図11に示すユーザコマンドテーブル5001は、操作入力受付部52によって受け付けられた操作入力に基づいて、ロボット10に対して要求する処理または動作の内容を特定するために用いられるものである。ユーザコマンドテーブル5001は、操作入力受付部52によって受け付けられた操作入力に対応する入力コマンドに、対応するコマンドの内容を関連づけて記憶している。
〇 User command table 5001
FIG. 11 is a diagram showing an example of a user command table according to the first embodiment. The user command table 5001 shown in FIG. 11 is used to specify the content of the process or operation requested from the robot 10 based on the operation input received by the operation input receiving unit 52. The user command table 5001 stores the contents of the corresponding command in association with the input command corresponding to the operation input received by the operation input receiving unit 52.

〇管理サーバ90の機能構成〇
次に、図8を用いて、管理サーバ90の機能構成について説明する。管理サーバ90によって実現される機能は、送受信部91、認証部92、判断部93、作成部94、記憶・読出部95および記憶部9000を含む。
〇 Functional configuration of the management server 90 〇 Next, the functional configuration of the management server 90 will be described with reference to FIG. The functions realized by the management server 90 include a transmission / reception unit 91, an authentication unit 92, a judgment unit 93, a creation unit 94, a storage / reading unit 95, and a storage unit 9000.

送受信部91は、通信ネットワーク9を介して、他の装置との間で各種データまたは情報の送受信を行う機能である。送受信部91は、主に、図7に示したCPU901の処理、およびネットワークI/F909によって実現される。 The transmission / reception unit 91 is a function for transmitting / receiving various data or information to / from other devices via the communication network 9. The transmission / reception unit 91 is mainly realized by the processing of the CPU 901 shown in FIG. 7 and the network I / F 909.

認証部92は、送受信部91によって受信されたログイン要求に基づいて、ログイン要求元の認証を行う機能である。認証部92は、例えば、送受信部91によって受信されたログイン要求に含まれている端末IDおよびパスワードを検索キーとし、記憶部9000の認証管理DB9001を検索する。そして、認証部92は、認証管理DB9001に同一の組の端末IDおよびパスワードが管理されているかを判断することによって端末認証を行う。認証部92は、主に、図7に示したCPU901の処理によって実現される。 The authentication unit 92 is a function for authenticating the login request source based on the login request received by the transmission / reception unit 91. For example, the authentication unit 92 uses the terminal ID and password included in the login request received by the transmission / reception unit 91 as a search key to search the authentication management DB 9001 of the storage unit 9000. Then, the authentication unit 92 performs terminal authentication by determining whether the same set of terminal IDs and passwords are managed in the authentication management DB 9001. The authentication unit 92 is mainly realized by the processing of the CPU 901 shown in FIG. 7.

判断部93は、後述するセッション管理テーブルに、表示端末50の端末IDが管理されているかを判断する機能である。判断部93は、主に、図7に示したCPU901の処理によって実現される。 The determination unit 93 is a function of determining whether or not the terminal ID of the display terminal 50 is managed in the session management table described later. The determination unit 93 is mainly realized by the processing of the CPU 901 shown in FIG. 7.

作成部94は、通信に使用されるセッションIDを作成する機能である。作成部94は、主に、図7に示したCPU901の処理によって実現される。 The creation unit 94 is a function for creating a session ID used for communication. The creating unit 94 is mainly realized by the processing of the CPU 901 shown in FIG. 7.

記憶・読出部95は、記憶部9000に各種データを記憶させ、または記憶部9000から各種データを読み出す機能である。記憶・読出部95は、主に、図7に示したCPU901の処理によって実現される。記憶部9000は、主に、図7に示したROM902、HD904または記録メディア906によって実現される。また、この記憶部9000には、後述する図15に示す宛先リスト画面500における宛先リスト枠データ(図15に示すアイコン、「rA01」、「ロボット10A-1」等の宛先リスト内容情報は含まれない)が記憶されている。 The storage / reading unit 95 is a function of storing various data in the storage unit 9000 or reading various data from the storage unit 9000. The storage / reading unit 95 is mainly realized by the processing of the CPU 901 shown in FIG. 7. The storage unit 9000 is mainly realized by the ROM 902, HD904 or recording medium 906 shown in FIG. 7. Further, the storage unit 9000 includes destination list frame data (icon shown in FIG. 15, "rA01", "robot 10A-1", and the like in the destination list screen 500 shown in FIG. 15, which will be described later. Not) is remembered.

〇認証管理テーブル
記憶部9000には、図12(a)に示すような認証管理テーブルによって構成されている認証管理DB9001が構築されている。この認証管理テーブルには、管理サーバ90によって管理される全ての表示端末50の各端末IDに対して、各パスワードが関連づけられた関連情報が管理されている。例えば、図12(a)に示されている認証管理テーブルでは、表示端末50Aの端末IDは「o01」で、パスワードは「aaaa」であることが表されている。
〇Authentication management table In the storage unit 9000, an authentication management DB 9001 configured by an authentication management table as shown in FIG. 12A is constructed. In this authentication management table, related information associated with each password is managed for each terminal ID of all the display terminals 50 managed by the management server 90. For example, in the authentication management table shown in FIG. 12A, it is shown that the terminal ID of the display terminal 50A is "o01" and the password is "aaaa".

〇端末管理テーブル
また、記憶部9000には、図12(b)に示すような端末管理テーブルによって構成されている端末管理DB9002が構築されている。この端末管理テーブルには、各端末(ロボット10および表示端末50)の端末IDごとに、各端末の端末名、端末のIPアドレス、各端末の現在の稼動状態を示す稼動状態情報、および端末がロボット10である場合のロボット10が位置する拠点を示す拠点名が関連づけられた関連情報が管理されている。
〇 Terminal management table Further, in the storage unit 9000, a terminal management DB 9002 composed of a terminal management table as shown in FIG. 12B is constructed. In this terminal management table, for each terminal ID of each terminal (robot 10 and display terminal 50), the terminal name of each terminal, the IP address of the terminal, the operation status information indicating the current operating status of each terminal, and the terminal are displayed. Related information associated with the base name indicating the base where the robot 10 is located in the case of the robot 10 is managed.

例えば、図12(b)に示す端末管理テーブルにおいて、端末IDが「o01」の表示端末50は、端末名が「表示端末50A」で、この表示端末50のIPアドレスが「1.2.1.3」で、稼動状態が「オンライン(通話可能)」であることが示されている。また、端末IDが「rA01」のロボット10は、端末名が「ロボット10A-1」で、このロボット10のIPアドレスが「1.3.2.3」で、稼動状態が「オンライン(通話可能)」で、拠点名が「拠点A」であることが示されている。 For example, in the terminal management table shown in FIG. 12B, the display terminal 50 having the terminal ID "o01" has the terminal name "display terminal 50A" and the IP address of the display terminal 50 is "1.2.1". ".3" indicates that the operating status is "online (call is possible)". Further, the robot 10 having the terminal ID "rA01" has the terminal name "robot 10A-1", the IP address of the robot 10 is "1.3.2.3", and the operating state is "online (call is possible)". ) ”Indicates that the base name is“ base A ”.

〇宛先リスト管理テーブル
さらに、記憶部9000には、図13(a)に示すような宛先リスト管理テーブルによって構成されている宛先リスト管理DB9003が構築されている。この宛先リスト管理テーブルには、ロボット10の遠隔制御を行うための通信の開始を要求する開始端末としての表示端末50の端末IDごとに、宛先となるロボット10の候補として登録されている宛先候補のロボット10の端末IDが関連づけられた関連情報が管理されている。
〇 Destination list management table Further, in the storage unit 9000, a destination list management DB 9003 configured by a destination list management table as shown in FIG. 13A is constructed. In this destination list management table, destination candidates registered as candidates for the destination robot 10 for each terminal ID of the display terminal 50 as a start terminal requesting the start of communication for remote control of the robot 10. Related information associated with the terminal ID of the robot 10 of the robot 10 is managed.

例えば、図13(a)に示す宛先リスト管理テーブルにおいて、端末IDが「o01a」である開始端末(表示端末50A)から通信の開始を要求することができる宛先候補は、端末IDが「rA01」のロボット10A-1、端末IDが「rA02」のロボット10A-2、端末IDが「rC01」のロボット10C-1等であることが示されている。なお、宛先候補のロボット10の端末IDは、任意の開始端末(表示端末50)から管理サーバ90に対する追加または削除の要請により、追加または削除されることで更新される。 For example, in the destination list management table shown in FIG. 13A, a destination candidate that can request the start of communication from a start terminal (display terminal 50A) having a terminal ID of "o01a" has a terminal ID of "rA01". It is shown that the robot 10A-1 of the above, the robot 10A-2 having a terminal ID of "rA02", the robot 10C-1 having a terminal ID of "rC01", and the like. The terminal ID of the destination candidate robot 10 is updated by being added or deleted by a request from an arbitrary start terminal (display terminal 50) to the management server 90 for addition or deletion.

〇セッション管理テーブル
さらに、記憶部9000には、図13(b)に示すようなセッション管理テーブルによって構成されているセッション管理DB9004が構築されている。このセッション管理テーブルには、ロボット10と表示端末50との間で通信する際に利用されるセッションを識別するためのセッションIDごとに、このセッションIDによって特定されるセッションを使用中のロボット10および表示端末50の端末IDが関連づけられた関連情報が管理されている。例えば、図13(b)に示すセッション管理テーブルにおいて、セッションID「se1」を用いて実行されたセッションを使用中の端末は、端末IDが「o01」の表示端末50A、端末IDが「rA01」のロボット10A-1、および端末IDが「rC01」のロボット10C-1であることが示されている。
* Session management table Further, in the storage unit 9000, a session management DB 9004 composed of a session management table as shown in FIG. 13B is constructed. In this session management table, for each session ID for identifying the session used when communicating between the robot 10 and the display terminal 50, the robot 10 using the session specified by this session ID and the robot 10 Related information associated with the terminal ID of the display terminal 50 is managed. For example, in the session management table shown in FIG. 13 (b), the terminal using the session executed using the session ID "se1" is a display terminal 50A having a terminal ID of "o01" and a terminal ID of "rA01". The robot 10A-1 and the robot 10C-1 having a terminal ID of "rC01" are shown.

●第1の実施形態の処理または動作
〇セッション確立処理〇
続いて、図14乃至図30を用いて、第1の実施形態に係る遠隔制御システムの動作または処理について説明する。なお、以降の説明において、ロボット10が備える制御装置30によって実行される処理は、ロボット10によって実行される処理として説明する。
● Processing or operation of the first embodiment 〇 Session establishment processing 〇 Next, the operation or processing of the remote control system according to the first embodiment will be described with reference to FIGS. 14 to 30. In the following description, the process executed by the control device 30 included in the robot 10 will be described as the process executed by the robot 10.

まず、図14乃至図16を用いて、ロボット10と表示端末50との間における通信セッションの確立処理について説明する。図14は、ロボットと表示端末との間でデータの送受信を開始する準備段階の処理の一例を示すシーケンス図である。ここでは、開始端末としての表示端末50Aと、宛先端末としてのロボット10A-1との間で、データの送受信を開始する前の準備段階における各管理情報の送受信処理について説明する。 First, the process of establishing a communication session between the robot 10 and the display terminal 50 will be described with reference to FIGS. 14 to 16. FIG. 14 is a sequence diagram showing an example of processing in the preparatory stage for starting transmission / reception of data between the robot and the display terminal. Here, the transmission / reception processing of each management information in the preparatory stage before starting the transmission / reception of data between the display terminal 50A as the start terminal and the robot 10A-1 as the destination terminal will be described.

まず、ステップS11において、表示端末50Aの送受信部51は、通信ネットワーク9を介して、管理サーバ90へログイン要求を送信する。具体的には、表示端末50Aのユーザは、表示端末50Aにおける電源スイッチをONにすると、電源がONになる。そして、表示端末50Aの送受信部51は、上記電源ONを契機とし、送受信部51から通信ネットワーク9を介して、管理サーバ90へ、ログイン要求を送信する。これにより、管理サーバ90の送受信部91は、表示端末50Aから送信されたログイン要求を受信する。 First, in step S11, the transmission / reception unit 51 of the display terminal 50A transmits a login request to the management server 90 via the communication network 9. Specifically, when the user of the display terminal 50A turns on the power switch in the display terminal 50A, the power is turned on. Then, the transmission / reception unit 51 of the display terminal 50A transmits a login request from the transmission / reception unit 51 to the management server 90 via the communication network 9 when the power is turned on. As a result, the transmission / reception unit 91 of the management server 90 receives the login request transmitted from the display terminal 50A.

このログイン要求には、表示端末50Aとしての開始端末を識別するための端末ID、およびパスワードが含まれている。これら端末IDおよびパスワードは、記憶・読出部57によって記憶部5000から読み出されて、送受信部51に送られたデータである。なお、これら端末IDおよびパスワードは、これに限るものではなく、ユーザがタッチパネル515等の入力手段によって入力した端末IDやパスワードが送信されてもよい。また、表示端末50Aに接続されたSIM(Subscriber Identity Module Card)カードやSDカード等の記憶媒体から読み出された端末IDやパスワードが送信されてもよい。 This login request includes a terminal ID for identifying the starting terminal as the display terminal 50A, and a password. These terminal IDs and passwords are data read from the storage unit 5000 by the storage / reading unit 57 and sent to the transmission / reception unit 51. The terminal ID and password are not limited to this, and the terminal ID and password input by the user by an input means such as a touch panel 515 may be transmitted. Further, a terminal ID or password read from a storage medium such as a SIM (Subscriber Identity Module Card) card or SD card connected to the display terminal 50A may be transmitted.

また、表示端末50Aから管理サーバ90へログイン要求が送信される際は、受信側である管理サーバ90は、送信側である表示端末50AのIPアドレスを取得することができる。また、ログイン要求の開始は、必ずしも電源スイッチをONにすることを契機とする必要はなく、ユーザによるタッチパネル515等の入力手段への入力に応じて送信してもよい。 Further, when the login request is transmitted from the display terminal 50A to the management server 90, the management server 90 on the receiving side can acquire the IP address of the display terminal 50A on the transmitting side. Further, the start of the login request does not necessarily have to be triggered by turning on the power switch, and may be transmitted according to the input to the input means such as the touch panel 515 by the user.

次に、ステップS12において、管理サーバ90の認証部92は、送受信部91を介して受信したログイン要求に含まれている端末IDおよびパスワードを検索キーとして、記憶部9000の認証管理テーブル(図12(a)参照)を検索し、認証管理DB9001に同一の端末IDおよび同一のパスワードが管理されているかを判断することによって認証を行う。以下、表示端末50Aが認証部92によって正当な利用権限を有する端末であると判断された場合について説明する。 Next, in step S12, the authentication unit 92 of the management server 90 uses the terminal ID and password included in the login request received via the transmission / reception unit 91 as search keys, and the authentication management table of the storage unit 9000 (FIG. 12). (See) is searched, and authentication is performed by determining whether the same terminal ID and the same password are managed in the authentication management DB 9001. Hereinafter, a case where the display terminal 50A is determined by the authentication unit 92 to be a terminal having a legitimate usage authority will be described.

ステップS13において、記憶・読出部95は、認証部92によって同一の端末ID及び同一のパスワードが管理されていることにより、正当な利用権限を有する開始端末からのログイン要求であると判断された場合、記憶部9000から宛先リスト枠データを読み出す。 In step S13, when the storage / reading unit 95 is determined to be a login request from a starting terminal having a legitimate usage authority because the same terminal ID and the same password are managed by the authentication unit 92. , Read the destination list frame data from the storage unit 9000.

ステップS14において、送受信部91は、認証部92によって得られた認証結果が示された認証結果情報を、通信ネットワーク9を介して、上記ログイン要求してきた表示端末50へ送信する。これにより、表示端末50Aの送受信部51は、認証結果情報を受信する。この認証結果情報には、上記ステップS13によって読み出された宛先リスト枠データが含まれている。そして、ステップS15において、表示端末50Aの記憶・読出部57は、上記ステップS14によって受信された宛先リスト枠データを、記憶部5000に記憶させる。 In step S14, the transmission / reception unit 91 transmits the authentication result information showing the authentication result obtained by the authentication unit 92 to the display terminal 50 that has requested the login via the communication network 9. As a result, the transmission / reception unit 51 of the display terminal 50A receives the authentication result information. The authentication result information includes the destination list frame data read by step S13. Then, in step S15, the storage / reading unit 57 of the display terminal 50A stores the destination list frame data received in step S14 in the storage unit 5000.

次に、ステップS16において、表示端末50Aの送受信部51は、正当な利用権限を有する端末であると判断された認証結果が示された認証結果情報を受信した場合、通信ネットワーク9を介して管理サーバ90へ、宛先リストの内容を要求する。これにより、管理サーバ90の送受信部91は、宛先リストの内容の要求を受信する。この要求には、表示端末50Aの端末IDが含まれている。 Next, in step S16, when the transmission / reception unit 51 of the display terminal 50A receives the authentication result information indicating the authentication result determined to be a terminal having a legitimate usage authority, the transmission / reception unit 51 manages the display terminal 50A via the communication network 9. Request the contents of the destination list from the server 90. As a result, the transmission / reception unit 91 of the management server 90 receives the request for the contents of the destination list. This request includes the terminal ID of the display terminal 50A.

次に、ステップS17において、管理サーバ90の記憶・読出部95は、上記ステップS16によって受信された表示端末50Aの端末ID「o01」を検索キーとして、宛先リスト管理テーブル(図13(a))参照を検索し、対応する全ての宛先候補の端末IDを読み出す。さらに、ステップS18において、記憶・読出部95は、ステップS17によって読み出した各端末IDを検索キーとして、端末管理テーブル(図12(b)参照)を検索し、対応する宛先候補の端末名、稼動状態情報および拠点名を読み出す。 Next, in step S17, the storage / reading unit 95 of the management server 90 uses the terminal ID “o01” of the display terminal 50A received in step S16 as a search key, and the destination list management table (FIG. 13A). The reference is searched and the terminal IDs of all the corresponding destination candidates are read out. Further, in step S18, the storage / reading unit 95 searches the terminal management table (see FIG. 12B) using each terminal ID read in step S17 as a search key, and the terminal name and operation of the corresponding destination candidate. Read the status information and base name.

次に、ステップS19において、管理サーバ90の送受信部91は、通信ネットワーク9を介して表示端末50Aへ、宛先リスト内容情報を送信する。これにより、表示端末50Aの送受信部51は、宛先リスト内容情報を受信する。この宛先リスト内容情報には、上記ステップS17,S18によって読み出された、宛先候補の端末ID、宛先候補の端末名、稼動状態情報および拠点名が含まれている。 Next, in step S19, the transmission / reception unit 91 of the management server 90 transmits the destination list content information to the display terminal 50A via the communication network 9. As a result, the transmission / reception unit 51 of the display terminal 50A receives the destination list content information. The destination list content information includes the terminal ID of the destination candidate, the terminal name of the destination candidate, the operation status information, and the base name read out in steps S17 and S18.

次に、ステップS20において、表示端末50Aの表示制御部53は、上記ステップS15によって記憶部5000に記憶された宛先リスト枠データ、および上記ステップS19によって受信された宛先リスト内容情報を用いて作成された宛先リスト画面500を、ディスプレイ512に表示させる。 Next, in step S20, the display control unit 53 of the display terminal 50A is created using the destination list frame data stored in the storage unit 5000 in step S15 and the destination list content information received in step S19. The destination list screen 500 is displayed on the display 512.

ディスプレイ512には、図15に示すような宛先リスト画面500が表示される。この宛先リスト画面500には、宛先候補ごとに、宛先候補の端末(ロボット10)の稼動状態を示したアイコン、宛先候補の端末の端末ID、宛先候補の宛先名、および宛先候補の端末が位置する拠点名が表されている。なお、上記ステップS19によって、管理サーバ9から送られてきた「端末名」は、図15に示す宛先リスト画面500では、「宛先名」として表示される。 The destination list screen 500 as shown in FIG. 15 is displayed on the display 512. On the destination list screen 500, an icon showing the operating status of the destination candidate terminal (robot 10), the terminal ID of the destination candidate terminal, the destination name of the destination candidate, and the destination candidate terminal are located for each destination candidate. The name of the base to be used is shown. The "terminal name" sent from the management server 9 in step S19 is displayed as the "destination name" on the destination list screen 500 shown in FIG.

続いて、図16を用いて、表示端末50における宛先候補の選択から画像データの送受信を開始するまでの処理を説明する。図16は、宛先候補の選択から画像データの送受信を開始するまでの処理を示したシーケンス図である。 Subsequently, with reference to FIG. 16, the process from the selection of the destination candidate in the display terminal 50 to the start of transmission / reception of image data will be described. FIG. 16 is a sequence diagram showing a process from selection of a destination candidate to start of transmission / reception of image data.

まず、ステップS31において、表示端末50Aの操作入力受付部52は、ユーザから図15に示した宛先リスト画面の宛先候補(ここでは、ロボット10A-1)の選択を受け付ける。そして、ステップS32において、表示端末50Aの送受信部51は、管理サーバ90に対して、画像データ等の送受信を開始したい旨を示す開始要求を送信する。これにより、管理サーバ90の送受信部91は、開始要求を受信する。また、開始要求には、表示端末50Aの端末ID、および宛先候補の端末の端末IDが含まれている。 First, in step S31, the operation input receiving unit 52 of the display terminal 50A accepts the selection of the destination candidate (here, the robot 10A-1) on the destination list screen shown in FIG. 15 from the user. Then, in step S32, the transmission / reception unit 51 of the display terminal 50A transmits a start request indicating that the transmission / reception of image data or the like is to be started to the management server 90. As a result, the transmission / reception unit 91 of the management server 90 receives the start request. Further, the start request includes the terminal ID of the display terminal 50A and the terminal ID of the destination candidate terminal.

次に、ステップS33において、管理サーバ90の判断部93は、上記ステップS32によって受信された表示端末50Aの端末IDがセッション管理テーブル(図13(b)参照)で管理されているか否かを判断する。ここでは、宛先端末(ロボット10A-1)の端末IDが管理されていない場合について、以下説明を続ける。 Next, in step S33, the determination unit 93 of the management server 90 determines whether or not the terminal ID of the display terminal 50A received in step S32 is managed by the session management table (see FIG. 13B). do. Here, the case where the terminal ID of the destination terminal (robot 10A-1) is not managed will be described below.

ステップS34において、宛先候補の端末の端末IDが管理されていない場合、管理サーバ90の作成部94は、新たにセッションIDを作成する。そして、ステップS35において、記憶・読出部95は、セッション管理テーブル(図13(b)参照)に、上記ステップS34によって作成されたセッションID、並びに上記ステップS32によって受信された表示端末50Aの端末IDおよび宛先候補の端末の端末IDを関連づけた新たなレコードを追加記憶する。ここでは、図12(b)に示したように、新たなレコードが追加されることで、セッションID「se3」、および端末ID「o01」,「rA01」が関連づけて管理される。 In step S34, if the terminal ID of the destination candidate terminal is not managed, the creation unit 94 of the management server 90 newly creates a session ID. Then, in step S35, the storage / reading unit 95 displays the session ID created in step S34 and the terminal ID of the display terminal 50A received in step S32 in the session management table (see FIG. 13B). And a new record associated with the terminal ID of the destination candidate terminal is additionally stored. Here, as shown in FIG. 12B, by adding a new record, the session ID “se3” and the terminal IDs “o01” and “rA01” are managed in association with each other.

次に、ステップS36において、管理サーバ90の送受信部91は、表示端末50Aに対して、上記ステップS34によって作成されたセッションIDが含まれたセッション開始指示を送信する。これにより、表示端末50Aの送受信部51は、セッション開始指示を受信する。 Next, in step S36, the transmission / reception unit 91 of the management server 90 transmits a session start instruction including the session ID created in step S34 to the display terminal 50A. As a result, the transmission / reception unit 51 of the display terminal 50A receives the session start instruction.

次に、ステップS37において、管理サーバ90の記憶・読出部95は、上記ステップS32によって送られてきた宛先候補の端末(ロボット10A-1)の端末IDを検索キーとして端末管理テーブル(図12(b)参照)を検索することにより、対応するIPアドレスを読み出す。そして、ステップS38において、管理サーバ90の送受信部91は、上記ステップS37によって読み出されたIPアドレスに対して、上記ステップS33によって作成されたセッションIDが含まれたセッション開始指示を送信する。これにより、宛先端末(ロボット10A-1)の送受信部31は、セッション開始指示を受信する。 Next, in step S37, the storage / reading unit 95 of the management server 90 uses the terminal ID of the destination candidate terminal (robot 10A-1) sent in step S32 as a search key in the terminal management table (FIG. 12 (FIG. 12). b) Read the corresponding IP address by searching (see). Then, in step S38, the transmission / reception unit 91 of the management server 90 transmits a session start instruction including the session ID created in step S33 to the IP address read in step S37. As a result, the transmission / reception unit 31 of the destination terminal (robot 10A-1) receives the session start instruction.

以上により、開始端末(表示端末50A)および宛先端末(ロボット10A-1)は、それぞれ管理サーバ90と通信セッションを確立する(ステップS39-1,S39-2)。 As described above, the start terminal (display terminal 50A) and the destination terminal (robot 10A-1) establish a communication session with the management server 90, respectively (steps S39-1 and S39-2).

〇画像データの送信および表示〇
続いて、管理サーバ90との間で確立されたセッションを用いて、ロボット10から表示端末50へ送信されるデータ、および表示端末50によってロボット10の処理もしくは動作を制御する処理について説明する。図17は、第1の実施形態に係る遠隔制御システムにおいて、表示端末からの要求コマンドに基づくロボットの制御処理の一例を説明するためのフローチャートである。
〇 Transmission and display of image data 〇 Next, using the session established with the management server 90, the data transmitted from the robot 10 to the display terminal 50, and the processing or operation of the robot 10 by the display terminal 50. The process to be controlled will be described. FIG. 17 is a flowchart for explaining an example of a robot control process based on a request command from a display terminal in the remote control system according to the first embodiment.

ステップS51において、ロボット10の画像取得部36は、撮影装置21によって取得された画像データ200を取得する。ここで、ロボット10は、撮影指示部35から撮影装置21への撮影指示をトリガーとして、撮影装置21による撮影を開始する。ロボット10の画像取得部36は、撮影装置21によって取得された画像である画像データ200を、撮影装置21から取得する。 In step S51, the image acquisition unit 36 of the robot 10 acquires the image data 200 acquired by the photographing device 21. Here, the robot 10 starts shooting by the shooting device 21 with a shooting instruction from the shooting instruction unit 35 to the shooting device 21 as a trigger. The image acquisition unit 36 of the robot 10 acquires image data 200, which is an image acquired by the imaging device 21, from the imaging device 21.

ステップS52-1,52-2において、ロボット10の送受信部31は、確立された管理サーバ90との通信セッションを用いて、画像取得部36によって取得された画像データ200を、表示端末50へ送信する。これにより、表示端末50の送受信部51は、画像データ200を受信する。 In steps S52-1 and 52-2, the transmission / reception unit 31 of the robot 10 transmits the image data 200 acquired by the image acquisition unit 36 to the display terminal 50 using the communication session with the established management server 90. do. As a result, the transmission / reception unit 51 of the display terminal 50 receives the image data 200.

ステップS53において、表示端末50の表示制御部53は、送受信部51によって受信された画像データ200を、ディスプレイ512の表示画面600に表示させる。これによって、表示端末50を用いてロボット10を遠隔操作する操作者は、ロボット10が位置する拠点の状況を、画像データ200が表示された表示画面600を見ながら確認することができる。なお、同様に、表示端末50は、表示端末50側の拠点が撮影された画像である画像データ250を、ロボット10へ送信する。そして、ロボット10の送受信部31は、画像データ250を受信し、表示制御部33は、受信された画像データ250を、ディスプレイ306aの表示画面400に表示させる。 In step S53, the display control unit 53 of the display terminal 50 displays the image data 200 received by the transmission / reception unit 51 on the display screen 600 of the display 512. As a result, the operator who remotely controls the robot 10 using the display terminal 50 can confirm the situation of the base where the robot 10 is located while looking at the display screen 600 on which the image data 200 is displayed. Similarly, the display terminal 50 transmits the image data 250, which is an image taken by the base on the display terminal 50 side, to the robot 10. Then, the transmission / reception unit 31 of the robot 10 receives the image data 250, and the display control unit 33 displays the received image data 250 on the display screen 400 of the display 306a.

ここで、ロボット10および表示端末50に表示される表示画面について説明する。図18(a)は、第1の実施形態に係るロボットに表示される表示画面の画面例の一例を示す図である。ロボット10は、表示制御部33がディスプレイ306aに、図18(a)に示すような表示画面400を表示させる。この表示画面400には、表示端末50から送信された画像データ250を表示される。図18(a)に示すように、表示画面400には、例えば、表示端末50を用いてロボット10を操作する操作者の顔が表示され、表示画面400を見たロボット10の周囲の人は、誰がロボット10を操作しているのかを確認することができる。 Here, the display screen displayed on the robot 10 and the display terminal 50 will be described. FIG. 18A is a diagram showing an example of a screen example of a display screen displayed on the robot according to the first embodiment. In the robot 10, the display control unit 33 causes the display 306a to display the display screen 400 as shown in FIG. 18A. The image data 250 transmitted from the display terminal 50 is displayed on the display screen 400. As shown in FIG. 18A, for example, the face of an operator who operates the robot 10 using the display terminal 50 is displayed on the display screen 400, and the people around the robot 10 who see the display screen 400 are displayed. , Who is operating the robot 10 can be confirmed.

図18(b)は、第1の実施形態に係る表示端末に表示される表示画面の画面例の一例を示す図である。表示端末50は、表示制御部53がディスプレイ512に、図18(b)に示すような表示画面600を表示させる。この表示画面600には、ロボット10から送信されてきた画像データ200を表示される。図18(b)に示すように、表示画面600には、例えば、ロボット10の周りにいる人々が表示されている。また、表示画面600は、画像データ200の画像の横に、ロボット10の水平方向(前進、後退、右回転、左回転)の移動を要求する場合に押下される移動指示キー601、入力領域603aに入力された位置へのロボット10の移動を要求する場合に押下される「移動」ボタン603b、入力領域605aに入力された向きへロボット10の向きを変更する場合に押下される「回転」ボタン605b、ロボット10を停止させる場合に押下される「停止」ボタン607、ロボット10のスピーカ308bから音を発する場合に押下される「♪」ボタン609を含む。表示端末50を用いてロボット10を操作する操作者は、表示画面600に表示された画像データ200を見て、移動指示キー601等への入力操作を行うことで、ロボット10の移動を制御する。 FIG. 18B is a diagram showing an example of a screen example of a display screen displayed on the display terminal according to the first embodiment. In the display terminal 50, the display control unit 53 causes the display 512 to display the display screen 600 as shown in FIG. 18B. The image data 200 transmitted from the robot 10 is displayed on the display screen 600. As shown in FIG. 18B, the display screen 600 displays, for example, people around the robot 10. Further, the display screen 600 has a movement instruction key 601 and an input area 603a that are pressed when the robot 10 is requested to move in the horizontal direction (forward, backward, clockwise rotation, left rotation) next to the image of the image data 200. "Move" button 603b pressed when requesting the movement of the robot 10 to the position input to, and "Rotate" button pressed when changing the direction of the robot 10 to the direction input in the input area 605a. 605b includes a "stop" button 607 pressed when the robot 10 is stopped, and a "♪" button 609 pressed when a sound is emitted from the speaker 308b of the robot 10. An operator who operates the robot 10 using the display terminal 50 controls the movement of the robot 10 by looking at the image data 200 displayed on the display screen 600 and performing an input operation to the movement instruction key 601 or the like. ..

なお、図18(b)において、表示画面600に表示された移動指示キー601によってロボット10の移動を操作する例を説明したが、ロボット10の移動操作は、キーボード、またはジョイスティクを備えたゲームパッド等の専用コントローラ等で行われる構成であってもよい。 Although an example of operating the movement of the robot 10 by the movement instruction key 601 displayed on the display screen 600 has been described in FIG. 18B, the movement operation of the robot 10 is a game including a keyboard or a joystick. The configuration may be performed by a dedicated controller such as a pad.

図17に戻り、ステップS54において、表示端末50の操作入力受付部52は、ディスプレイ512に表示された表示画面600に対する特定の操作入力を受け付ける。例えば、操作入力受付部52は、例えば、表示画面600に含まれる移動指示キー601のいずれかのキーに対する操作入力を受け付ける Returning to FIG. 17, in step S54, the operation input receiving unit 52 of the display terminal 50 receives a specific operation input for the display screen 600 displayed on the display 512. For example, the operation input receiving unit 52 receives an operation input for any key of the movement instruction key 601 included in the display screen 600, for example.

ステップS55において、表示端末50の要求コマンド生成部55は、操作入力受付部52によって受け付けられた特定の操作入力に対応する要求コマンドを生成する。具体的には、操作入力受付部52によって特定の操作入力が受け付けられた場合、表示端末50の記憶・読出部57は、記憶部5000に記憶されたユーザコマンドテーブル5001(図11参照)を読み出す。表示端末50の判断部54は、記憶・読出部57によって読み出されたユーザコマンドテーブル5001を検索し、操作入力受付部52によって受け付けられた操作入力に対応する入力コマンドを特定する。そして、判断部54は、ユーザコマンドテーブル5001を検索し、特定した入力コマンドに対応するコマンドを抽出する。そして、要求コマンド生成部55は、抽出されたコマンドを含む要求コマンドを生成する。例えば、操作入力受付部52によって移動指示キー601の「↑(前進)」キーに対する入力が受け付けられた場合、判断部54は、入力コマンドとして「「↑(前進)」キーの押下」を特定する。そして、判断部54は、特定した入力コマンドに対応するコマンドとして、「FORWARD」を抽出する。そして、要求コマンド生成部55は、抽出されたコマンド「FORWARD」を含む要求コマンドを生成する。 In step S55, the request command generation unit 55 of the display terminal 50 generates a request command corresponding to the specific operation input received by the operation input reception unit 52. Specifically, when a specific operation input is received by the operation input receiving unit 52, the storage / reading unit 57 of the display terminal 50 reads out the user command table 5001 (see FIG. 11) stored in the storage unit 5000. .. The determination unit 54 of the display terminal 50 searches the user command table 5001 read by the storage / reading unit 57, and identifies the input command corresponding to the operation input received by the operation input receiving unit 52. Then, the determination unit 54 searches the user command table 5001 and extracts the command corresponding to the specified input command. Then, the request command generation unit 55 generates a request command including the extracted command. For example, when the operation input receiving unit 52 accepts the input to the "↑ (forward)" key of the movement instruction key 601, the determination unit 54 specifies "pressing the" ↑ (forward) "key" as an input command. .. Then, the determination unit 54 extracts "FORWARD" as a command corresponding to the specified input command. Then, the request command generation unit 55 generates a request command including the extracted command "FORWARD".

なお、ステップS55において、判断部54がユーザコマンドテーブル5001を用いて処理を抽出する例を説明したが、表示端末50は、移動指示キー605等の入力キーに付与されたイベントに基づいて、所定の処理を抽出または実行する構成であってもよい。 In step S55, an example in which the determination unit 54 extracts the process using the user command table 5001 has been described, but the display terminal 50 is predetermined based on the event given to the input key such as the movement instruction key 605. It may be configured to extract or execute the process of.

ステップS56-1,56-2において、表示端末50の送受信部51は、確立された管理サーバ90との通信セッションを用いて、要求コマンド生成部55によって生成された要求コマンドを、ロボット10へ送信する。これにより、ロボット10の送受信部31は、要求コマンドを受信する。 In steps S56-1 and 56-2, the transmission / reception unit 51 of the display terminal 50 transmits the request command generated by the request command generation unit 55 to the robot 10 using the communication session with the established management server 90. do. As a result, the transmission / reception unit 31 of the robot 10 receives the request command.

ステップS57において、ロボット10の記憶・読出部46は、記憶部3000に記憶されたコマンドテーブル3001(図9参照)を読み出す。ステップS58において、ロボット10の判断部34は、記憶・読出部46によって読み出されたコマンドテーブル3001を検索し、送受信部31によって受信された要求コマンドに対応する処理を抽出する。ステップS59において、ロボット10は、上記ステップS58によって抽出された処理を実行する。 In step S57, the storage / reading unit 46 of the robot 10 reads out the command table 3001 (see FIG. 9) stored in the storage unit 3000. In step S58, the determination unit 34 of the robot 10 searches the command table 3001 read by the storage / reading unit 46, and extracts the process corresponding to the request command received by the transmission / reception unit 31. In step S59, the robot 10 executes the process extracted by step S58.

例えば、送受信部31によって受信された要求コマンドが「FORWARDMOVE」である場合、判断部34は、コマンドテーブル3001を検索して、要求コマンド「FORWARD」に対応する処理を抽出する。この場合、抽出される処理は、「ロボット10を一定量前進させる」である。判断部34は、抽出した処理の実行要求を、移動制御部37へ通知する。そして、移動制御部37は、判断部34によって抽出された処理に基づいて、ロボット10の移動機構17を駆動させる。なお、判断部34によって抽出された処理によって実行要求の通知先は異なる。例えば、送受信部31によって受信された要求コマンドが「SOUND」の場合、実行要求の通知先は、存在通知部45である。 For example, when the request command received by the transmission / reception unit 31 is "FORWARDMOVE", the determination unit 34 searches the command table 3001 and extracts the process corresponding to the request command "FORWARD". In this case, the extracted process is "advancing the robot 10 by a certain amount". The determination unit 34 notifies the movement control unit 37 of the execution request of the extracted process. Then, the movement control unit 37 drives the movement mechanism 17 of the robot 10 based on the process extracted by the determination unit 34. The notification destination of the execution request differs depending on the process extracted by the determination unit 34. For example, when the request command received by the transmission / reception unit 31 is "SOUND", the notification destination of the execution request is the existence notification unit 45.

これにより、遠隔制御システム1aは、ロボット10が備える撮影装置21によって取得された画像データ200を表示端末50に表示させることによって、表示端末50を用いてロボット10の遠隔操作を行う操作者に対して、ロボット10の周囲の情報をより正確に把握させることができる。また、遠隔制御システム1aは、画像データ200が表示された表示端末50に対する操作者による操作入力が行われることで、ロボット10の周囲の状況を確認しながらロボット10を移動させることができるため、表示端末50を用いてロボット10を操作する操作者にとっての操作性を向上させることができる。 As a result, the remote control system 1a causes the display terminal 50 to display the image data 200 acquired by the photographing device 21 included in the robot 10 so that the operator who remotely controls the robot 10 using the display terminal 50 can operate the remote control system 1a. Therefore, the information around the robot 10 can be grasped more accurately. Further, since the remote control system 1a can move the robot 10 while checking the surrounding situation of the robot 10 by performing an operation input by the operator to the display terminal 50 on which the image data 200 is displayed. It is possible to improve the operability for the operator who operates the robot 10 by using the display terminal 50.

〇ロボット10の位置調整処理〇
〇目標点算出処理
続いて、図19乃至図29を用いて、ロボット10の位置調整処理について説明する。ここで、ロボット10が設置された拠点と表示端末50が設置された拠点との間で遠隔会議が行われているものとする。ロボット10が設置された拠点において、複数の人が会議に参加している場合、会議中に参加者が移動したり話題が切り替わったりすると、複数の人(参加者)が注目する注目点が変わることがある。この場合、遠隔地に位置する表示端末50のユーザは、注目点が変わったとしても、注目点が変わる前の位置を撮影し続けた画像を見ることになるため、遠隔地のユーザが会議から取り残されてしまい、円滑なコミュニケーションの妨げとなる。そこで、遠隔制御システム1aは、ロボット10の周囲に位置する複数の人の注目点に基づいてロボット10を移動させることによって、遠隔地に位置する表示端末50のユーザとの円滑なコミュニケーションを図ることができる。
〇 Position adjustment process of the robot 10 〇 〇 Target point calculation process Next, the position adjustment process of the robot 10 will be described with reference to FIGS. 19 to 29. Here, it is assumed that a remote conference is being held between the base where the robot 10 is installed and the base where the display terminal 50 is installed. When multiple people are participating in a conference at a base where the robot 10 is installed, if the participants move or the topic changes during the conference, the points of interest that the multiple people (participants) pay attention to change. Sometimes. In this case, even if the attention point changes, the user of the display terminal 50 located at the remote location will see the image that continues to capture the position before the attention point changes, so that the user at the remote location can see the image from the conference. It will be left behind and hinder smooth communication. Therefore, the remote control system 1a aims at smooth communication with the user of the display terminal 50 located at a remote location by moving the robot 10 based on the points of interest of a plurality of people located around the robot 10. Can be done.

図19は、第1の実施形態に係るロボットにおける目標点算出処理の一例を説明するためのフローチャートである。ステップS71において、ロボット10の画像取得部36は、撮影装置21によって取得された画像である画像データ200を取得する(取得ステップの一例)。ステップS72において、ロボット10の画像処理部41は、画像取得部36によって取得された画像データ200に含まれる人物の頭の画像を抽出する。具体的には、画像処理部41は、画像取得部36によって取得された画像データ200と、予め記憶された人物の頭の画像パターンとを照合し、類似する画像領域を、図20(a)に示すような人物の頭の画像として抽出する。図20(a)に示す処理データ800aには、a1~a4の四つの人物の頭の画像が含まれる。 FIG. 19 is a flowchart for explaining an example of the target point calculation process in the robot according to the first embodiment. In step S71, the image acquisition unit 36 of the robot 10 acquires image data 200, which is an image acquired by the photographing device 21 (an example of the acquisition step). In step S72, the image processing unit 41 of the robot 10 extracts an image of the head of a person included in the image data 200 acquired by the image acquisition unit 36. Specifically, the image processing unit 41 collates the image data 200 acquired by the image acquisition unit 36 with the image pattern of the head of a person stored in advance, and obtains a similar image region in FIG. 20 (a). It is extracted as an image of the head of a person as shown in. The processed data 800a shown in FIG. 20A includes images of the heads of the four persons a1 to a4.

ステップS73において、ロボット10の注目点算出部42は、画像処理部41によって抽出された頭の画像の大きさ、および画像データ200内における人物の頭の画像の位置を算出する。具体的には、注目点算出部42は、画像処理部41によって処理された処理データ800aに基づいて、人物の頭の画像の大きさと、人物の頭の画像の位置を算出する。人物の頭の画像の位置は、例えば、画像データ200の中心の座標を(0,0)とし、右上の座標を(100,100)とし、左下の座標を(-100,-100)として算出される。例えば、図20(a)に示した処理データ800aにおける、注目点算出部42によって算出された人物の頭の画像(a1~a4)の位置および大きさは、図20(b)示す値となる。 In step S73, the attention point calculation unit 42 of the robot 10 calculates the size of the head image extracted by the image processing unit 41 and the position of the person's head image in the image data 200. Specifically, the attention point calculation unit 42 calculates the size of the image of the head of the person and the position of the image of the head of the person based on the processing data 800a processed by the image processing unit 41. The position of the image of the head of a person is calculated, for example, with the coordinates of the center of the image data 200 as (0,0), the coordinates of the upper right as (100,100), and the coordinates of the lower left as (-100, -100). Will be done. For example, in the processing data 800a shown in FIG. 20A, the position and size of the images (a1 to a4) of the head of the person calculated by the attention point calculation unit 42 are the values shown in FIG. 20B. ..

ステップS74において、ロボット10の注目点算出部42は、画像データ200に含まれる人物の頭の画像の空間上の相対位置を特定する。例えば、注目点算出部42は、上記ステップS73において算出された画像データ200内の座標(X,Y)と頭の大きさrとを用いて、画像データ200内の人物の頭の画像の位置を、空間上の相対位置(x,y)に変換する。空間上の相対位置(x,y)への変換方法は、一例として、以下(1)および(2)のヒューリスティックスを用いる。 In step S74, the attention point calculation unit 42 of the robot 10 specifies the relative position in space of the image of the head of the person included in the image data 200. For example, the attention point calculation unit 42 uses the coordinates (X, Y) in the image data 200 calculated in step S73 and the head size r to position the image of the head of the person in the image data 200. Is converted into a relative position (x, y) in space. As an example of the conversion method to the relative position (x, y) in space, the heuristics of (1) and (2) below are used.

(1)頭の大きさrが小さいほど遠くにあるものとする(人による頭の大きさの差異は無視する)。
(2)遠近法を無視して、X座標の値がプラスであればロボット10の右側(マイナスであればロボット10の左側)、Y座標が大きければ奥にあるものとする。
(1) The smaller the head size r, the farther it is (ignoring the difference in head size between people).
(2) Ignoring perspective, if the X coordinate value is positive, it is on the right side of the robot 10 (if it is negative, it is on the left side of the robot 10), and if the Y coordinate is large, it is in the back.

上記(1)と(2)の条件に基づく算出式は、以下の(式1)のようになる。なお、k1,k2は所定の係数である。ここでは、k1=0.2,k2=1000とする。 The calculation formula based on the above conditions (1) and (2) is as follows (formula 1). In addition, k1 and k2 are predetermined coefficients. Here, k1 = 0.2 and k2 = 1000.

Figure 0007091880000001
Figure 0007091880000001

注目点算出部42は、上記の(式1)を用いて、人物の頭の画像の空間上の相対位置(x,y)を特定する。特定された相対位置を示す座標情報(x,y)を、図21(a)に示す。また、図21(b)は、特定された相対位置を概略的に示した処理データ810である。図21(b)に示す処理データ810は、画像データ200の中心位置S(0,0)を基準とした、人物の頭の画像a1~a4とロボットRとの相対位置を視覚化したものである。 The attention point calculation unit 42 specifies the relative position (x, y) in the space of the image of the head of the person by using the above (Equation 1). The coordinate information (x, y) indicating the specified relative position is shown in FIG. 21 (a). Further, FIG. 21B is processing data 810 schematically showing the specified relative position. The processing data 810 shown in FIG. 21B visualizes the relative positions of the images a1 to a4 of the head of a person and the robot R with reference to the center position S (0,0) of the image data 200. be.

ステップS75において、ロボット10の画像処理部41は、上記ステップ71によって取得された画像データ200に含まれる人物の目を鼻の画像を抽出する。具体的には、画像処理部41は、画像取得部36によって取得された画像データ200と、予め記憶された人物の目と鼻の画像パターンとを照合し、類似する画像領域を、図22(a)に示すような人物の目と鼻の画像として抽出する。図22(a)に示す処理データ800bには、ステップS72によって抽出された四つの人物の頭の画像(a1~a4)に対する目と鼻の画像が含まれる。 In step S75, the image processing unit 41 of the robot 10 extracts an image of the eyes and nose of a person included in the image data 200 acquired in step 71. Specifically, the image processing unit 41 collates the image data 200 acquired by the image acquisition unit 36 with the pre-stored image patterns of the eyes and nose of the person, and obtains a similar image region in FIG. 22 (FIG. 22). It is extracted as an image of the eyes and nose of a person as shown in a). The processed data 800b shown in FIG. 22A includes an image of the eyes and nose with respect to the images of the heads (a1 to a4) of the four persons extracted by step S72.

ステップS76において、ロボット10の注目点算出部42は、画像処理部41によって抽出された目と鼻の位置から、それぞれの人物の向きを特定する。人物の向きの特定は、一例として、以下(1)および(2)のヒューリスティックスを用いる。 In step S76, the attention point calculation unit 42 of the robot 10 identifies the orientation of each person from the positions of the eyes and nose extracted by the image processing unit 41. As an example, the heuristics of (1) and (2) below are used to specify the orientation of the person.

(1)目が二つであれば正面(ロボット10の向きと逆方向)を、一つなら左右どちらかを、ゼロなら後ろ(ロボット10の向きと同じ方向)を向いているものとする。
(2)目が一つで鼻があれば、鼻のある方向を向いているものとする(向きは、正面を0°とし、時計回りに360°まで)。
(1) If there are two eyes, it is facing the front (the direction opposite to the direction of the robot 10), if it is one, it is facing either the left or right, and if it is zero, it is facing the back (the same direction as the direction of the robot 10).
(2) If there is one eye and nose, it is assumed that the nose is facing in a certain direction (the direction is 0 ° in the front and up to 360 ° clockwise).

上記(1)と(2)の条件に基づいて、図22(b)に示すような人の向きの特定が行われる。例えば、a1は、目の数が一つで鼻が右方向に向いているため、a1の向き(θ)は、90°となる。 Based on the above conditions (1) and (2), the orientation of the person is specified as shown in FIG. 22 (b). For example, since a1 has one eye and the nose points to the right, the direction (θ) of a1 is 90 °.

これによって、ロボット10の注目点算出部42は、画像データ200に対応する人物の相対位置と向きを近似的に求めることができる。図23(a)は、注目点算出部42によって特定された相対位置および向きの情報である。図23(b)は、それぞれの人物の相対位置(x,y)と向き(θ)を、概略的に示した処理データ820である。図23(a)に示すように、a1の相対位置(x,y)は、(0,60)であり、向き(θ)は、90°である。b1の相対位置(x,y)は、(90,76.7)であり、向き(θ)は、180°である。c1の相対位置(x,y)は、(-20,42)であり、向き(θ)は、0°である。d1の相対位置(x,y)は、(70,51)であり、向き(θ)は、0°である。 As a result, the attention point calculation unit 42 of the robot 10 can approximately obtain the relative position and orientation of the person corresponding to the image data 200. FIG. 23A is information on the relative position and orientation specified by the attention point calculation unit 42. FIG. 23B is processing data 820 schematically showing the relative positions (x, y) and orientations (θ) of each person. As shown in FIG. 23 (a), the relative position (x, y) of a1 is (0,60), and the orientation (θ) is 90 °. The relative position (x, y) of b1 is (90,76.7) and the orientation (θ) is 180 °. The relative position (x, y) of c1 is (-20,42), and the orientation (θ) is 0 °. The relative position (x, y) of d1 is (70,51), and the orientation (θ) is 0 °.

これにより、ロボット10は、ロボット10の周囲に位置する人の位置および向きを、簡易的に推定することができる。なお、ロボット10の周囲に位置する人の位置および向きの推定方法は、これに限られず、遠近法を取り入れたり、ステレオカメラによって撮影されたステレオ画像を用いたりする等の方法であってもよい。また、レーザ等の光線を用いて距離を測る方法や、拠点内にカメラを複数配置して複数の画像から人の位置および向き算出する等の方法であってもよい。 As a result, the robot 10 can easily estimate the position and orientation of a person located around the robot 10. The method for estimating the position and orientation of a person located around the robot 10 is not limited to this, and may be a method such as adopting a perspective method or using a stereo image taken by a stereo camera. .. Further, a method of measuring the distance using a light beam such as a laser, or a method of arranging a plurality of cameras in the base and calculating the position and orientation of a person from a plurality of images may be used.

ここで、ロボット10の周囲に位置する人の位置および向きの推定方法の別の例について説明する。ロボット10は、ロボット10が位置する拠点に設置されたビーコン等を用いて、ロボット10の周囲に位置する人の位置および向きを推定(算出)してもよい。図24(a)は、ビーコンが拠点内に設置された場合における、ロボット10の周囲に位置する人の位置および向きを推定する処理の一例を説明するための図である。 Here, another example of a method of estimating the position and orientation of a person located around the robot 10 will be described. The robot 10 may estimate (calculate) the position and orientation of a person located around the robot 10 by using a beacon or the like installed at a base where the robot 10 is located. FIG. 24A is a diagram for explaining an example of processing for estimating the position and orientation of a person located around the robot 10 when the beacon is installed in the base.

図24に示す例において、拠点(例えば、閉じられた部屋等の空間)1100には、各所に、所定の電波を発信するビーコンが設置されている。拠点1100内に位置する会議等の参加者(h1~h4)は、ビーコンから発信される電波の受信機能とジャイロセンサを有するスマートフォン等の通信端末を保持している。また、会議等の参加者(h1~h4)は、胸ポケットや腰のベルト等の特定の位置に通信端末を身に着けるで、体の向きと通信端末の向きが連動するようにする。 In the example shown in FIG. 24, beacons for transmitting predetermined radio waves are installed in various places in the base (for example, a space such as a closed room) 1100. Participants (h1 to h4) of a conference or the like located in the base 1100 have a communication terminal such as a smartphone having a function of receiving radio waves transmitted from a beacon and a gyro sensor. In addition, participants (h1 to h4) of the conference or the like wear the communication terminal at a specific position such as a chest pocket or a waist belt so that the orientation of the body and the orientation of the communication terminal are linked.

これにより、会議等の参加者(h1~h4)が保持する通信端末は、複数のビーコンから発信される電波の強度から通信端末(参加者)の位置を取得することができる。また、会議等の参加者(h1~h4)が保持する通信端末は、ジャイロセンサかの情報から通信端末(参加者)の向きを取得することができる。そして、拠点1100内に位置するロボット10は、各参加者(h1~h4)が保持する通信端末のそれぞれから送信される、参加者(h1~h4)の位置と向きの情報を受信(取得)することができる。 As a result, the communication terminal held by the participants (h1 to h4) of the conference or the like can acquire the position of the communication terminal (participant) from the strength of the radio waves transmitted from the plurality of beacons. Further, the communication terminal held by the participants (h1 to h4) of the conference or the like can acquire the orientation of the communication terminal (participant) from the information of the gyro sensor. Then, the robot 10 located in the base 1100 receives (acquires) information on the position and orientation of the participants (h1 to h4) transmitted from each of the communication terminals held by each participant (h1 to h4). can do.

図24(b)は、図24(a)に示した方法によって特定された、それぞれの人物(h1~h4)の相対位置(x,y)および向き(θ)の情報である。図24(b)に示すように、h1の相対位置(x,y)は、(5,17)であり、向き(θ)は、45°である。h2の相対位置(x,y)は、(18,18)であり、向き(θ)は、240°である。h3の相対位置(x,y)は、(5,12)であり、向き(θ)は、60°である。h4の相対位置(x,y)は、(15,12)であり、向き(θ)は、330°である。 FIG. 24 (b) is information on the relative position (x, y) and orientation (θ) of each person (h1 to h4) specified by the method shown in FIG. 24 (a). As shown in FIG. 24 (b), the relative position (x, y) of h1 is (5,17), and the orientation (θ) is 45 °. The relative position (x, y) of h2 is (18,18) and the orientation (θ) is 240 °. The relative position (x, y) of h3 is (5,12) and the orientation (θ) is 60 °. The relative position (x, y) of h4 is (15,12) and the orientation (θ) is 330 °.

なお、以下の説明において、注目点算出部42によって算出された相対位置を示す座標情報(x,y)および向き(θ)の値は、図24(b)に示した値を用いる。 In the following description, the values shown in FIG. 24B are used as the values of the coordinate information (x, y) and the direction (θ) indicating the relative positions calculated by the attention point calculation unit 42.

図19に戻り、ロボット10による目標点算出処理の説明を続ける。ステップS77以降の処理において、ロボット10は、ロボット10の周囲の複数の人の注目点を算出する。注目点は、ロボット10が設置された拠点において複数の人が注目している位置であり、例えば、ロボット10の周囲の複数の人が向いている方向である。注目点は、例えば、遠隔会議において、ロボット10側の拠点での複数の参加者が向いている方向、すなわち、ある時点における話題の中心位置である。 Returning to FIG. 19, the explanation of the target point calculation process by the robot 10 will be continued. In the processing after step S77, the robot 10 calculates the points of interest of a plurality of people around the robot 10. The point of interest is a position where a plurality of people are paying attention at the base where the robot 10 is installed, for example, a direction in which a plurality of people around the robot 10 are facing. The point of interest is, for example, in a remote conference, the direction in which a plurality of participants at the base on the robot 10 side are facing, that is, the central position of the topic at a certain point in time.

ステップS77において、ロボット10の画像処理部41は、注目点算出部42によって特定されたそれぞれの人物(h1~h4)の相対位置から、注目点算出部42によって特定されたそれぞれの人物(h1~h4)の向き(θ)の方向に伸ばした直線の交点を算出する。算出された結果は、図25に示される。図25には、点の組合せと、交点の座標(x,y)が記載されている。なお、人物の向きの方向は、一方向なので、h1とh2、h2とh3の組合せのように、交点が無い場合もある。 In step S77, the image processing unit 41 of the robot 10 has each person (h1 to h1) specified by the attention point calculation unit 42 from the relative position of each person (h1 to h4) specified by the attention point calculation unit 42. The intersection of straight lines extended in the direction (θ) of h4) is calculated. The calculated result is shown in FIG. In FIG. 25, the combination of points and the coordinates (x, y) of the intersections are shown. Since the direction of the person is one direction, there may be no intersection like the combination of h1 and h2 and h2 and h3.

ステップS78において、ロボット10の注目点算出部42は、算出した交点のうち、最も多くの方向から得られた交点が複数存在する場合、処理をステップS79へ移行させる。一方で、注目点算出部42は、算出した交点のうち、最も多くの方向から得られた交点が一つの場合、処理をステップS80へ移行させる。 In step S78, the attention point calculation unit 42 of the robot 10 shifts the process to step S79 when there are a plurality of intersections obtained from the most directions among the calculated intersections. On the other hand, the point of interest calculation unit 42 shifts the process to step S80 when there is only one intersection obtained from the most directions among the calculated intersections.

具体的には、まず、注目点算出部42は、上記ステップS77によって算出された交点のうち距離が近い座標をまとめる。まとめられた結果の座標は、例えば、それぞれの交点の座標の平均値である。図26(a)は、上記処理によってまとめられた交点の位置を示す座標情報である。図26(b)は、上記処理によって、まとめられた交点の位置を、概略的に示した処理データ830である。図26(a)に示すように、h1とh3とh4から伸ばした直線の交点は、A(10.5,18)であり、h2とh4から伸ばした直線の交点は、B(14,12)である。 Specifically, first, the attention point calculation unit 42 puts together the coordinates of the intersections calculated in step S77 that are close to each other. The coordinate of the combined result is, for example, the average value of the coordinates of each intersection. FIG. 26A is coordinate information indicating the positions of the intersections summarized by the above processing. FIG. 26B is the processing data 830 which schematically shows the positions of the intersections collected by the above processing. As shown in FIG. 26 (a), the intersection of the straight lines extending from h1, h3 and h4 is A (10.5,18), and the intersection of the straight lines extending from h2 and h4 is B (14,12). ).

そして、注目点算出部42は、距離の近い交点をまとめた点(交点)のうち、最も多くの方向から得られた交点を抽出する。図26(a)の場合、交点Aは、三つの方向(h1,h2,h3)から得られた交点であり、交点Bは、二つの方向(h2,h4)から得られた交点である。そのため、注目点算出部42は、最も多くの方向から得られた交点は、一つ(交点A)であるため、処理をステップS80へ移行させる。 Then, the attention point calculation unit 42 extracts the intersections obtained from the most directions among the points (intersections) in which the intersections having a short distance are put together. In the case of FIG. 26A, the intersection A is an intersection obtained from three directions (h1, h2, h3), and the intersection B is an intersection obtained from two directions (h2, h4). Therefore, the point of interest calculation unit 42 shifts the process to step S80 because the number of intersections obtained from the most directions is one (intersection point A).

ステップS80において、注目点算出部42は、最も多くの方向から得られた交点である交点Aを、注目点として特定する。一方で、ステップS79において、注目点算出部42は、最も多くの方向から得られた複数の交点の間の中心位置の座標を、注目点として特定する。 In step S80, the point of interest calculation unit 42 identifies the intersection point A, which is the intersection point obtained from the most directions, as the point of interest. On the other hand, in step S79, the attention point calculation unit 42 specifies the coordinates of the center position between the plurality of intersections obtained from the most directions as the attention points.

なお、ステップ77において、注目点算出部42は、算出した交点のうち距離が近い交点の座標をまとめる処理を行ったが、算出した交点をそのまま用いて最も多くの方向から得られた交点を注目点として特定してもよい。 In step 77, the attention point calculation unit 42 performed a process of collecting the coordinates of the calculated intersections having a short distance, but the calculated intersections were used as they were to pay attention to the intersections obtained from the most directions. It may be specified as a point.

これにより、遠隔制御システム1aは、ロボット10が備える撮影装置21によって取得された画像データ200を用いて、ロボット10の周囲に位置する複数の人が注目する注目点を算出することができる。そのため、遠隔制御システム1aは、例えば、ロボット10と表示端末50を用いた遠隔会議等において、ロボット10が設置された拠点側における複数の参加者が注目している箇所を把握することができる。 As a result, the remote control system 1a can calculate the points of interest that a plurality of people located around the robot 10 pay attention to by using the image data 200 acquired by the photographing device 21 included in the robot 10. Therefore, the remote control system 1a can grasp the points of interest of a plurality of participants on the base side where the robot 10 is installed, for example, in a remote conference using the robot 10 and the display terminal 50.

続いて、注目点算出部42によって算出された注目点を用いて、ロボット10の移動先を特定する処理を説明する。ステップS81において、ロボット10の目標点算出部43は、注目点算出部42によって算出された注目点の位置に基づいて、ロボット10の移動先となる目標点を特定する。目標点は、例えば、ロボット10の移動先の目標位置G(X,Y)を示す位置情報と、ロボット10の移動先におけるロボット10の向き(θ)を示す方向情報を含む。具体的には、目標点算出部43は、図27(b)に示すように、注目点Aとロボット10の位置を結ぶ線上において、注目点Aからの距離pだけ離れた位置を目標位置G(X,Y)として算出する。ここで、距離pは、例えば、それぞれの人物(h1~h4)の位置と注目点Aとの距離の平均値である。人物(h1~h4)の位置は、注目点算出部42によって算出された相対位置(x,y)を用いる。また、目標点算出部43は、ロボット10の現在位置から見た注目点Aの方向を、ロボット10の向き(θ)として算出する。目標点算出部43によって特定された目標点(目標位置Gおよび向き)は、例えば、図27(a)に示す値になる。この場合、目標位置G(X,Y)は、(6,11)であり、ロボット10の向き(θ)は、35°である。 Subsequently, a process of specifying the moving destination of the robot 10 will be described using the attention points calculated by the attention point calculation unit 42. In step S81, the target point calculation unit 43 of the robot 10 identifies a target point to be moved by the robot 10 based on the position of the attention point calculated by the attention point calculation unit 42. The target point includes, for example, position information indicating the target position G (X, Y) of the destination of the robot 10 and direction information indicating the direction (θ) of the robot 10 at the destination of the robot 10. Specifically, as shown in FIG. 27B, the target point calculation unit 43 sets the target position G at a position separated by the distance p from the attention point A on the line connecting the positions of the attention point A and the robot 10. Calculated as (X, Y). Here, the distance p is, for example, the average value of the distances between the positions of the respective persons (h1 to h4) and the points of interest A. As the position of the person (h1 to h4), the relative position (x, y) calculated by the attention point calculation unit 42 is used. Further, the target point calculation unit 43 calculates the direction of the attention point A as seen from the current position of the robot 10 as the direction (θ) of the robot 10. The target points (target position G and orientation) specified by the target point calculation unit 43 are, for example, the values shown in FIG. 27 (a). In this case, the target position G (X, Y) is (6,11), and the orientation (θ) of the robot 10 is 35 °.

なお、目標点算出部43によって算出されるロボット10の向きは、注目点Aの方向に限られず、注目点算出部42によって算出された複数の人物の向きの平均方向としてもよい。 The orientation of the robot 10 calculated by the target point calculation unit 43 is not limited to the direction of the attention point A, and may be the average direction of the orientations of a plurality of persons calculated by the attention point calculation unit 42.

これにより、遠隔制御システム1aは、ロボット10の周囲に位置する複数の人が注目する注目点に基づいて、ロボット10の移動先である目標点を算出することができる。そのため、遠隔制御システム1aは、例えば、ロボット10と表示端末50を用いた遠隔会議等において、ロボット10が設置された拠点側における複数の参加者が注目している箇所に基づいて、ロボット10の移動先を特定することができる。 As a result, the remote control system 1a can calculate the target point to which the robot 10 is moved based on the points of interest that a plurality of people located around the robot 10 pay attention to. Therefore, the remote control system 1a is based on a location where a plurality of participants on the base side where the robot 10 is installed are paying attention, for example, in a remote conference using the robot 10 and the display terminal 50. You can specify the destination.

〇目標点への移動処理
続いて、目標点算出部43によって特定された目標点へ向けてロボット10を移動させる処理について説明する。図28は、第1の実施形態に係るロボットにおける移動処理の一例を説明するためのフローチャートである。
〇Movement process to the target point Next, a process of moving the robot 10 toward the target point specified by the target point calculation unit 43 will be described. FIG. 28 is a flowchart for explaining an example of the movement process in the robot according to the first embodiment.

ステップS101において、ロボット10の目標点算出部43は、算出した目標位置G(X,Y)に向けての移動経路を算出する。 In step S101, the target point calculation unit 43 of the robot 10 calculates a movement route toward the calculated target position G (X, Y).

ステップS102において、ロボット10は、算出した移動経路に基づいて移動する。まず、ロボット10の向き調整部38は、目標点算出部43によって算出された移動経路に対する進行方向に対して、移動機構17の回転等を行うことによって、ロボット10の向きを変更する。そして、ロボット10の移動制御部37は、向き調整部38による進行方向への向きの変更が完了した場合、移動機構17を駆動させることによって、ロボット10を移動させる。移動制御部37は、目標点算出部43によって算出された移動経路に対応する移動コマンドを、移動機構17に対して随時発行(送信)することで、算出された移動経路に沿ってロボット10を移動させる。 In step S102, the robot 10 moves based on the calculated movement path. First, the orientation adjusting unit 38 of the robot 10 changes the orientation of the robot 10 by rotating the movement mechanism 17 or the like with respect to the traveling direction with respect to the movement path calculated by the target point calculation unit 43. Then, the movement control unit 37 of the robot 10 moves the robot 10 by driving the movement mechanism 17 when the direction change in the traveling direction by the orientation adjustment unit 38 is completed. The movement control unit 37 issues (transmits) a movement command corresponding to the movement route calculated by the target point calculation unit 43 to the movement mechanism 17 at any time, so that the robot 10 can be moved along the calculated movement route. Move it.

ステップS103において、ロボット10の周辺情報検出部44は、ロボット10の移動中において、障害物を検出した場合、処理をステップS104へ移行させる。具体的には、周辺情報検出部44は、撮影装置21によって取得された画像データ200や各種センサ106によって検出された検出結果を用いて、ロボット10の移動経路に存在する障害物を検出する。障害物は、例えば、拠点内に設置された装置もしくは物体等、または拠点内に位置する人等である。ステップS104において、ロボット10の移動制御部37は、周辺情報検出部44によって障害物が検出された場合、ロボット10を停止させる。 In step S103, when the peripheral information detection unit 44 of the robot 10 detects an obstacle while the robot 10 is moving, the process shifts to step S104. Specifically, the peripheral information detection unit 44 detects an obstacle existing in the moving path of the robot 10 by using the image data 200 acquired by the photographing device 21 and the detection results detected by various sensors 106. The obstacle is, for example, a device or an object installed in the base, or a person located in the base. In step S104, the movement control unit 37 of the robot 10 stops the robot 10 when an obstacle is detected by the peripheral information detection unit 44.

これにより、ロボット10は、目標位置Gへ向けて移動している途中において、障害物を検出した場合、検出した障害物の手前で停止するため、障害物との接触を避けることができる。この場合、ロボット10は、一旦停止した後、周辺情報検出部44によって障害物がなくなったことが検出された場合、再び目標位置Gへ向けての移動を再開してもよい。また、ロボット10は、一旦停止した後、周辺情報検出部44によって検出された障害物が、所定の時間経過してもなくならない場合、目標点算出部43によって算出された移動経路を変更する構成であってもよい。 As a result, when the robot 10 detects an obstacle while moving toward the target position G, the robot 10 stops in front of the detected obstacle, so that contact with the obstacle can be avoided. In this case, the robot 10 may resume the movement toward the target position G again when it is detected by the peripheral information detection unit 44 that the obstacle has disappeared after the robot 10 has stopped once. Further, the robot 10 is configured to change the movement route calculated by the target point calculation unit 43 when the obstacle detected by the peripheral information detection unit 44 does not disappear even after a predetermined time has elapsed after the robot 10 has stopped once. May be.

一方で、ステップS103において、周辺情報検出部44は、ロボット10の移動中において、障害物を検出しない場合、処理をステップS105へ移行させる。この場合、ロボット10の移動制御部37は、目標位置Gに向けてのロボット10の移動制御を継続する。 On the other hand, in step S103, if the peripheral information detection unit 44 does not detect an obstacle while the robot 10 is moving, the process shifts to step S105. In this case, the movement control unit 37 of the robot 10 continues the movement control of the robot 10 toward the target position G.

ステップS105において、ロボット10の移動制御部37は、ロボット10が目標位置Gに到達した場合、処理をステップS106へ移行させる。一方で、移動制御部37は、ロボット10が目標位置Gに到達していない場合、ステップS103からの処理を繰り返し、目標位置Gに向けてのロボット10の移動制御を継続する。 In step S105, the movement control unit 37 of the robot 10 shifts the process to step S106 when the robot 10 reaches the target position G. On the other hand, when the robot 10 has not reached the target position G, the movement control unit 37 repeats the process from step S103 and continues the movement control of the robot 10 toward the target position G.

ステップS106において、ロボット10の移動制御部37は、ロボット10が目標位置Gに到達した場合、ロボット10を停止させる。ステップS107において、ロボット10の向き調整部38は、目標点算出部43によって算出された向き(図27(a)参照)に、ロボット10の向きを変更する。具体的には、向き調整部38は、移動機構17の回転等を行うことによって、目標点算出部43によって算出された向き(θ)を示す方向情報に基づいて、ロボット10の向きを変更する。そして、ロボット10の送受信部31は、移動した目標点において撮影装置21によって撮影されて取得された画像データ200を、通信ネットワーク9を介して、表示端末50へ送信する。これによって、表示端末50は、ロボット10の移動先である目標点において、ロボット10の周囲を撮影して取得された画像データ200を表示することができる。 In step S106, the movement control unit 37 of the robot 10 stops the robot 10 when the robot 10 reaches the target position G. In step S107, the orientation adjusting unit 38 of the robot 10 changes the orientation of the robot 10 to the orientation calculated by the target point calculation unit 43 (see FIG. 27A). Specifically, the orientation adjusting unit 38 changes the orientation of the robot 10 based on the direction information indicating the orientation (θ) calculated by the target point calculation unit 43 by rotating the moving mechanism 17 or the like. .. Then, the transmission / reception unit 31 of the robot 10 transmits the image data 200 photographed and acquired by the photographing device 21 at the moved target point to the display terminal 50 via the communication network 9. As a result, the display terminal 50 can display the image data 200 acquired by photographing the surroundings of the robot 10 at the target point where the robot 10 is moved.

したがって、遠隔制御システム1aは、目標点算出部43によって算出された目標点へロボット10を移動させることができる。そのため、遠隔制御システム1aは、ロボット10が位置する拠点における複数の参加者の注目点に基づいて、ロボット10を移動させることができるとともに、遠隔地の表示端末50に注目点およびその近傍を撮影した画像を表示させることができるので、遠隔拠点間の円滑なコミュニケーションを実現することができる。 Therefore, the remote control system 1a can move the robot 10 to the target point calculated by the target point calculation unit 43. Therefore, the remote control system 1a can move the robot 10 based on the points of interest of a plurality of participants at the base where the robot 10 is located, and at the same time, the display terminal 50 at a remote location captures the points of interest and their vicinity. Since the image can be displayed, smooth communication between remote bases can be realized.

なお、図4に示したロボット10bのように移動機構17を有さない場合、ロボット10b(伝送端末)は、目標点算出部43によって算出された目標点のうち、人物の向き(θ)を示す方向情報のみを用いて、ロボット10bの向きを方向情報が示す変更先の向きに変更する構成であってもよい。 When the robot 10b does not have the moving mechanism 17 like the robot 10b shown in FIG. 4, the robot 10b (transmission terminal) determines the direction (θ) of a person among the target points calculated by the target point calculation unit 43. The robot 10b may be configured to change the direction of the robot 10b to the direction of the change destination indicated by the direction information by using only the indicated direction information.

〇存在通知処理
続いて、ロボット10が目標点への移動している場合において、ロボット10から自らの存在を周囲に通知する処理を説明する。図29は、第1の実施形態に係るロボットにおける存在通知処理の一例を説明するためのフローチャートである。
〇Existence notification processing Next, when the robot 10 is moving to the target point, the processing for notifying the surroundings of its existence from the robot 10 will be described. FIG. 29 is a flowchart for explaining an example of existence notification processing in the robot according to the first embodiment.

ステップS121において、ロボット10の位置特定部39は、ロボット10の現在位置を特定する。具体的には、位置特定部39は、加速度・方位センサ103またはGPS受信部104によって検出される各方位(方位角、磁北)の方向等の検出結果に基づいて、ロボット10の現在位置を特定する。ステップS122において、ロボット10の位置特定部39は、特定したロボット10の現在位置と、注目点算出部42によって算出された注目点Aとの距離を算出する。 In step S121, the position specifying unit 39 of the robot 10 specifies the current position of the robot 10. Specifically, the position specifying unit 39 identifies the current position of the robot 10 based on the detection results such as the direction of each direction (azimuth, magnetic north) detected by the acceleration / direction sensor 103 or the GPS receiving unit 104. do. In step S122, the position specifying unit 39 of the robot 10 calculates the distance between the current position of the specified robot 10 and the point of interest A calculated by the point of interest calculating unit 42.

ステップS123において、ロボット10は、位置特定部39によって算出された距離が、所定の閾値以上または所定の閾値より長い場合、処理をステップS124に移行させる。一方で、ロボット10は、位置特定部39によって算出された距離が、所定の閾値より短いまたは所定の閾値以下の場合、ステップS121からの処理を繰り返す。 In step S123, when the distance calculated by the position specifying unit 39 is longer than or equal to a predetermined threshold value or longer than a predetermined threshold value, the robot 10 shifts the process to step S124. On the other hand, when the distance calculated by the position specifying unit 39 is shorter than the predetermined threshold value or equal to or less than the predetermined threshold value, the robot 10 repeats the process from step S121.

ステップS124において、ロボット10の存在通知部45は、ロボット10の存在を通知する通知情報を出力する。具体的には、存在通知部45は、通知情報として、スピーカ308bから音信号を出力する。また、存在通知部45は、通知情報として、移動機構17、もしくは可動アーム11または回転軸12を駆動させることにより、所定のジェスチャーを行う。なお、存在通知部45による通知情報の出力方法は、これに限られない。 In step S124, the existence notification unit 45 of the robot 10 outputs notification information for notifying the existence of the robot 10. Specifically, the existence notification unit 45 outputs a sound signal from the speaker 308b as notification information. Further, the existence notification unit 45 performs a predetermined gesture by driving the movement mechanism 17, the movable arm 11, or the rotation shaft 12 as notification information. The method of outputting the notification information by the existence notification unit 45 is not limited to this.

これにより、ロボット10は、注目点から大きく離れている場合、ロボット10の存在を周囲の人に知らせながら注目点に近づくことで、ロボット10が急に現れたりすることによって周囲の人を驚かすことを防止することができる。また、ロボット10は、注目点に近づくことによる、会議等の進行を妨げることを予防することができる。 As a result, when the robot 10 is far away from the attention point, the robot 10 approaches the attention point while notifying the surrounding people of the existence of the robot 10, and the robot 10 suddenly appears to surprise the surrounding people. Can be prevented. In addition, the robot 10 can prevent the progress of the conference or the like from being hindered by approaching the point of interest.

なお、ロボット10の存在通知部45は、ロボット10の現在位置と注目点までの距離が、所定の閾値以下または所定の閾値より短くなった場合に、ロボットの存在を通知する構成にしてもよい。 The existence notification unit 45 of the robot 10 may be configured to notify the existence of the robot when the distance between the current position of the robot 10 and the point of interest is equal to or less than a predetermined threshold value or shorter than a predetermined threshold value. ..

以上説明したように、遠隔制御システム1aは、ロボット10の周囲に位置する複数の人(参加者)が注目する注目点に基づいて、ロボット10が自動的に適した位置に移動するため、ロボット10を用いて行われる遠隔コミュニケーションにおいて、参加者に感じさせる違和感や煩わしさを低減させることができるとともに、自然な形でロボット10を介した遠隔コミュニケーションを実現することができる。 As described above, in the remote control system 1a, the robot 10 automatically moves to a suitable position based on the points of interest that a plurality of people (participants) located around the robot 10 pay attention to. In the remote communication performed using the robot 10, it is possible to reduce the discomfort and annoyance felt by the participants, and it is possible to realize the remote communication via the robot 10 in a natural manner.

従来の位置固定型のビデオ会議システムは、最初に置いた位置から動かされないため、例えば、話題の中心位置(注目点)が変わった場合、遠隔地から参加している人は、会話から取り残されたような印象を受ける。また、例えば、ロボット10の周囲にいる参加者は、遠隔地から参加している人が話題に関心がないと感じてしまい、遠隔地から参加している人を会話の対象から外してしまうおそれがある。結果として、遠隔コミュニケーションによる一体感が損なわれ、疎外感を生む原因となる。 Traditional fixed-position video conferencing systems do not move from the initial position, so for example, if the center of the topic (point of interest) changes, those who participate from a remote location will be left out of the conversation. I get the impression that Further, for example, a participant who is around the robot 10 may feel that the person who participates from a remote place is not interested in the topic, and may exclude the person who participates from the remote place from the conversation target. There is. As a result, the sense of unity caused by remote communication is impaired, which causes a sense of alienation.

一方で、ロボット10は、話題の中心位置(注目点)に追従して、ロボット10の位置および向きを変更するため、遠隔地から参加している人(例えば、表示端末50を用いてロボット10を操作する操作者)は、ロボット10を通じて常にその話題に加わっている印象を得られる。一方で、ロボット10の周囲に位置する複数の参加者も、遠隔地にいる参加者が会議に参加して話を聞いている印象が得られる。これにより、遠隔制御システム1aは、ロボット10を用いて遠隔会議による円滑なコミュニケーションを実現することができる。 On the other hand, in order to change the position and orientation of the robot 10 in accordance with the central position (point of interest) of the topic, the robot 10 is a person participating from a remote location (for example, the robot 10 using the display terminal 50). The operator who operates the robot 10 can get the impression that he / she is always participating in the topic through the robot 10. On the other hand, a plurality of participants located around the robot 10 also have the impression that the participants in a remote place participate in the conference and listen to the story. As a result, the remote control system 1a can realize smooth communication by a remote conference using the robot 10.

〇ロボット10の移動経路の例〇
ここで、目標点算出部43によって算出されるロボット10の移動経路について説明する。図30(a)に示す例は、ロボット10(R)が目標位置Gにまっすぐ向かうのではなく、人と人との間を見つけてそこに割り込む方法である。この方法は、ロボット10(R)が人に近づきすぎることによって、身体距離(プライベートな空間)が侵されないようにするために有効である。この場合、ロボット10(R)の目標点算出部43は、各参加者(h1~h4)の位置のすべての組み合わせから、一定以上の距離が空いている位置を特定し、その中間距離にロボット10(R)を移動させるように移動経路を算出する。
〇 Example of the movement path of the robot 10 〇 Here, the movement path of the robot 10 calculated by the target point calculation unit 43 will be described. The example shown in FIG. 30 (a) is a method in which the robot 10 (R) does not go straight to the target position G, but finds a space between people and interrupts there. This method is effective for preventing the body distance (private space) from being invaded by the robot 10 (R) getting too close to a person. In this case, the target point calculation unit 43 of the robot 10 (R) identifies a position where a certain distance or more is vacant from all combinations of positions of each participant (h1 to h4), and the robot is set at an intermediate distance. The movement route is calculated so as to move 10 (R).

図30(b)に示す例は、ロボット10(R)が目標位置Gにまっすぐ向かうのではなく、ロボット10(R)の現在位置から最も近い人の傍を通過する方法である。ロボット10(R)の目標点算出部43は、位置特定部39によって特定されたロボット10(R)の現在位置に最も近い参加者(例えば、h3)を特定し、特定した参加者の位置から一定距離離れた位置にロボット10(R)を移動させるように移動経路を算出する。なお、ロボット10(R)は、例えば、h3の位置から一定距離離れた位置を通過して目標位置Gへ移動してもよいし、h3の位置から一定距離は離れた位置で停止してもよい。この場合、ロボット10(R)は、図30(b)に示すように、注目点Aの方向を向くのではなく、h3と同じ方向を向くように、向き調整部38によってロボット10(R)の向きを変更してもよい。 The example shown in FIG. 30B is a method in which the robot 10 (R) does not go straight to the target position G, but passes by the person closest to the current position of the robot 10 (R). The target point calculation unit 43 of the robot 10 (R) identifies a participant (for example, h3) closest to the current position of the robot 10 (R) specified by the position specifying unit 39, and from the position of the specified participant. The movement route is calculated so as to move the robot 10 (R) to a position separated by a certain distance. The robot 10 (R) may, for example, pass through a position separated from the position of h3 by a certain distance and move to the target position G, or may stop at a position separated by a certain distance from the position of h3. good. In this case, the robot 10 (R) is not oriented in the direction of the point of interest A as shown in FIG. 30 (b), but is oriented in the same direction as h3 by the orientation adjusting unit 38. You may change the direction of.

〇目標点算出処理を開始するまでの処理〇
ここで、図19に示した目標点算出処理を行う頻度またはタイミングについて説明する。会議等において、ロボット10の周囲の参加者の位置が頻繁に変わるような場合、その都度ロボット10が移動すると、参加者にとって逆に会議の妨げとなる場合がある。そこで、遠隔制御システム1aは、所定の条件を満たした場合に、ロボット10において図19に示した目標点算出処理を行う。
〇Processing until the target point calculation process is started 〇Here, the frequency or timing of performing the target point calculation process shown in FIG. 19 will be described. In a meeting or the like, when the positions of the participants around the robot 10 change frequently, if the robot 10 moves each time, the participants may be hindered from the meeting. Therefore, the remote control system 1a performs the target point calculation process shown in FIG. 19 on the robot 10 when a predetermined condition is satisfied.

図31(a)に示すフローチャートは、前回の目標点算出時からの経過時間に基づいて、目標点算出処理を行う例である。ステップS151aにおいて、ロボット10の判断部34は、タイマ107を用いて、前回の目標点算出時からの経過時間を測定する。ステップS152aにおいて、判断部34は、前回の目標点算出時からの経過時間が、設定された経過時間の条件を超過した場合、処理をステップS153aへ移行させる。具体的には、ロボット10の記憶・読出部46は、記憶部3000に記憶された条件テーブル3002(図10参照)を読み出す。判断部34は、記憶・読出部46によって読み出された条件テーブル3002を検索し、ロボット10が位置する拠点に対応する経過時間の条件を抽出する。例えば、ロボット10が拠点Aに位置する場合、判断部34は、拠点Aに対応する経過時間の条件として、「3min」を抽出する。そして、判断部34は、前回の目標点算出時からの経過時間が、抽出した条件を超過している場合、処理をステップS153aへ移行させる。一方で、ステップS152aにおいて、判断部34は、前回の目標点算出時からの経過時間が、設定された経過時間の条件を超過していない(設定された経過時間内である)場合、ステップS151aからの処理を繰り返す。 The flowchart shown in FIG. 31A is an example of performing the target point calculation process based on the elapsed time from the previous target point calculation. In step S151a, the determination unit 34 of the robot 10 measures the elapsed time from the time of the previous calculation of the target point by using the timer 107. In step S152a, when the elapsed time from the time of the previous target point calculation exceeds the condition of the set elapsed time, the determination unit 34 shifts the process to step S153a. Specifically, the storage / reading unit 46 of the robot 10 reads out the condition table 3002 (see FIG. 10) stored in the storage unit 3000. The determination unit 34 searches the condition table 3002 read by the storage / reading unit 46, and extracts the condition of the elapsed time corresponding to the base where the robot 10 is located. For example, when the robot 10 is located at the base A, the determination unit 34 extracts "3 min" as a condition of the elapsed time corresponding to the base A. Then, when the elapsed time from the time of the previous target point calculation exceeds the extracted condition, the determination unit 34 shifts the process to step S153a. On the other hand, in step S152a, if the elapsed time from the time of the previous target point calculation does not exceed the set elapsed time condition (within the set elapsed time), the determination unit 34 has step S151a. Repeat the process from.

ステップS153aにおいて、ロボット10は、前回の目標点算出時から所定の時間経過した場合、図19に示した目標点算出処理を行う。これによって、ロボット10は、前回目標点算出処理を行ってからの経過時間に基づいて、ロボット10の移動先を示す目標点の算出処理を行うとともに、算出した目標点へロボット10を移動させるため、頻繁にロボット10が移動することによって、円滑なコミュニケーションが妨げられることを防止することができる。 In step S153a, when a predetermined time has elapsed from the time of the previous target point calculation, the robot 10 performs the target point calculation process shown in FIG. As a result, the robot 10 performs the calculation process of the target point indicating the movement destination of the robot 10 based on the elapsed time since the previous target point calculation process, and moves the robot 10 to the calculated target point. It is possible to prevent the smooth communication from being hindered by the frequent movement of the robot 10.

図31(b)に示すフローチャートは、ロボット10の周囲に位置する人(参加者)との距離に基づいて、目標点算出処理を行う例である。ステップS151bにおいて、ロボット10は、ロボット10の周囲に位置する人(参加者)との距離を測定する。具体的には、ロボット10の位置特定部39は、加速度・方位センサ103またはGPS受信部104によって検出される各方位(方位角、磁北)の方向等の検出結果に基づいて、ロボット10の現在位置を特定する。そして、位置特定部39は、特定したロボット10の現在位置と、注目点算出部42によって算出された人(参加者)との距離を算出する。 The flowchart shown in FIG. 31B is an example of performing target point calculation processing based on the distance to a person (participant) located around the robot 10. In step S151b, the robot 10 measures the distance to a person (participant) located around the robot 10. Specifically, the position specifying unit 39 of the robot 10 is based on the detection result such as the direction of each direction (azimuth, magnetic north) detected by the acceleration / direction sensor 103 or the GPS receiving unit 104. Identify the position. Then, the position specifying unit 39 calculates the distance between the current position of the specified robot 10 and the person (participant) calculated by the attention point calculation unit 42.

ステップS152bにおいて、判断部34は、算出された人(参加者)との距離が設定された人との距離の条件を超過した場合、処理をステップS153bへ移行させる。具体的には、ロボット10の記憶・読出部46は、記憶部3000に記憶された条件テーブル3002(図10参照)を読み出す。判断部34は、記憶・読出部46によって読み出された条件テーブル3002を検索し、ロボット10が位置する拠点に対応する人との距離の条件を抽出する。例えば、ロボット10が拠点Aに位置する場合、判断部34は、拠点Aに対応する人との距離の条件として、「8m」を抽出する。そして、判断部34は、位置特定部39によって算出されたロボット10と人との距離の少なくとも一つが、抽出した条件を超過している場合、処理をステップS153bへ移行させる。一方で、ステップS152bにおいて、判断部34は、算出された人(参加者)との距離が設定された人との距離の条件を超過していない(ロボット10と全ての参加者とが所定の距離以内に存在する)場合、ステップS151bからの処理を繰り返す。 In step S152b, when the calculated distance to the person (participant) exceeds the condition of the distance to the set person, the determination unit 34 shifts the process to step S153b. Specifically, the storage / reading unit 46 of the robot 10 reads out the condition table 3002 (see FIG. 10) stored in the storage unit 3000. The determination unit 34 searches the condition table 3002 read by the storage / reading unit 46, and extracts the condition of the distance to the person corresponding to the base where the robot 10 is located. For example, when the robot 10 is located at the base A, the determination unit 34 extracts "8 m" as a condition of the distance from the person corresponding to the base A. Then, when at least one of the distances between the robot 10 and the person calculated by the position specifying unit 39 exceeds the extracted condition, the determination unit 34 shifts the process to step S153b. On the other hand, in step S152b, the determination unit 34 does not exceed the condition of the calculated distance to the person (participant) from the set person (the robot 10 and all the participants are predetermined). If it exists within a distance), the process from step S151b is repeated.

ステップS153bにおいて、ロボット10は、人(参加者)との距離が所定の距離以上離れた場合、図19に示した目標点算出処理を行う。これによって、ロボット10は、ロボット10の周囲に位置する人(参加者)との距離が所定の距離以上離れた場合にのみ、ロボット10の移動先を示す目標点の算出処理を行うとともに、算出した目標点へロボット10を移動させるため、頻繁にロボット10が移動することによって、円滑なコミュニケーションが妨げられることを防止することができる。 In step S153b, when the distance to the person (participant) is more than a predetermined distance, the robot 10 performs the target point calculation process shown in FIG. As a result, the robot 10 performs the calculation processing of the target point indicating the movement destination of the robot 10 and calculates it only when the distance from the person (participant) located around the robot 10 is more than a predetermined distance. Since the robot 10 is moved to the target point, it is possible to prevent the smooth communication from being hindered by the frequent movement of the robot 10.

図31(c)に示すフローチャートは、設定された調整周期に基づいて、目標点算出処理を行う例である。ステップS151cにおいて、ロボット10の判断部34は、タイマ107を用いて、前回の目標点算出時からの経過時間を測定する。ステップS152cにおいて、判断部34は、前回の目標点算出時からの経過時間が、設定された調整周期の条件を超過した場合、処理をステップS153cへ移行させる。具体的には、ロボット10の記憶・読出部46は、記憶部3000に記憶された条件テーブル3002(図10参照)を読み出す。判断部34は、記憶・読出部46によって読み出された条件テーブル3002を検索し、ロボット10が位置する拠点に対応する調整周期の条件を抽出する。例えば、ロボット10が拠点Aに位置する場合、判断部34は、拠点Aに対応する調整周期の条件として、「5min」を抽出する。そして、判断部34は、前回の目標点算出時からの経過時間が、抽出した条件を超過している場合、処理をステップS153cへ移行させる。一方で、ステップS152cにおいて、判断部34は、前回の目標点算出時からの経過時間が、設定された調整周期の条件を超過していない(設定された調整周期の範囲内である)場合、ステップS151cからの処理を繰り返す。 The flowchart shown in FIG. 31 (c) is an example of performing the target point calculation process based on the set adjustment cycle. In step S151c, the determination unit 34 of the robot 10 measures the elapsed time from the time of the previous calculation of the target point by using the timer 107. In step S152c, when the elapsed time from the time of the previous target point calculation exceeds the condition of the set adjustment cycle, the determination unit 34 shifts the process to step S153c. Specifically, the storage / reading unit 46 of the robot 10 reads out the condition table 3002 (see FIG. 10) stored in the storage unit 3000. The determination unit 34 searches the condition table 3002 read by the storage / reading unit 46, and extracts the conditions of the adjustment cycle corresponding to the base where the robot 10 is located. For example, when the robot 10 is located at the base A, the determination unit 34 extracts "5 min" as a condition of the adjustment cycle corresponding to the base A. Then, when the elapsed time from the time of the previous target point calculation exceeds the extracted condition, the determination unit 34 shifts the process to step S153c. On the other hand, in step S152c, when the elapsed time from the time of the previous target point calculation does not exceed the condition of the set adjustment cycle (within the range of the set adjustment cycle), the determination unit 34 The process from step S151c is repeated.

ステップS153cにおいて、ロボット10は、前回の目標点算出時から所定の調整周期を経過した場合、図19に示した目標点算出処理を行う。これによって、ロボット10は、設定された目標点の調整周期に基づいて、ロボット10の移動先を示す目標点の算出処理を行うとともに、算出した目標点へロボット10を移動させるため、頻繁にロボット10が移動することによって、円滑なコミュニケーションが妨げられることを防止することができる。 In step S153c, the robot 10 performs the target point calculation process shown in FIG. 19 when a predetermined adjustment cycle has elapsed since the previous target point calculation. As a result, the robot 10 frequently calculates the target point indicating the movement destination of the robot 10 based on the adjustment cycle of the set target point, and moves the robot 10 to the calculated target point. It is possible to prevent smooth communication from being hindered by the movement of 10.

したがって、遠隔制御システム1aは、図31(a)~(c)のように、所定の条件に基づいて目標点算出処理を開始する頻度またはタイミングを決定するため、ロボット10が頻繁に移動することによって円滑なコミュニケーションが妨げられることを防止することができる。なお、図31(a)~(c)に示した処理および図10に示した条件テーブル3002に含まれる条件は、一例であり、これに限られず、ロボット10の管理者または表示端末50を用いてロボット10を操作する操作者等によって適宜修正・変更可能である。 Therefore, in the remote control system 1a, as shown in FIGS. 31A to 31C, the robot 10 frequently moves in order to determine the frequency or timing at which the target point calculation process is started based on predetermined conditions. It is possible to prevent smooth communication from being hindered by this. The processes shown in FIGS. 31 (a) to 31 (c) and the conditions included in the condition table 3002 shown in FIG. 10 are merely examples, and the present invention is not limited to this, and the administrator of the robot 10 or the display terminal 50 is used. It can be modified or changed as appropriate by an operator or the like who operates the robot 10.

また、遠隔制御システム1aは、ロボット10の周囲の人(参加者)の少なくとも一人が移動した場合に、目標点算出処理を行う構成であってもよい。この場合、ロボット10は注目点算出部42および目標点算出部43は、例えば、画像取得部36によって取得された画像データ200に含まれる複数の人物のうち少なくとも一つの人物の位置または向きが変化した場合、変化した人物の位置または向きに基づいて目標点を算出する。具体的には、ロボット10は注目点算出部42および目標点算出部43は、画像データ200に含まれる複数の人物のうち変化していない人物の位置または向きを固定値とし、変化した人物の位置または向きの変化量に基づいて目標点を算出する。 Further, the remote control system 1a may be configured to perform a target point calculation process when at least one person (participant) around the robot 10 moves. In this case, the robot 10 changes the position or orientation of at least one of the plurality of persons included in the image data 200 acquired by the image acquisition unit 36, for example, in the attention point calculation unit 42 and the target point calculation unit 43. If so, the target point is calculated based on the position or orientation of the changed person. Specifically, in the robot 10, the attention point calculation unit 42 and the target point calculation unit 43 set the position or orientation of the unchanged person among the plurality of persons included in the image data 200 as a fixed value, and the changed person. The target point is calculated based on the amount of change in position or orientation.

●第1の実施形態の効果
以上説明したように、第1の実施形態に係る遠隔制御システム1aは、被写体を撮影して画像データ200を取得する撮影装置21を備えるロボット10(移動体の一例)と、ロボット10と通信ネットワーク9を介して通信可能であり、ロボット10を遠隔操作する表示端末50を備え、ロボット10と表示端末50との間において送受信される画像データを用いて遠隔コミュニケーションを実現する。
● Effects of the First Embodiment As described above, the remote control system 1a according to the first embodiment is a robot 10 (an example of a moving body) provided with a photographing device 21 for photographing a subject and acquiring image data 200. ) And a display terminal 50 capable of communicating with the robot 10 via the communication network 9 and remotely controlling the robot 10, and performing remote communication using image data transmitted and received between the robot 10 and the display terminal 50. Realize.

ここで、第1の実施形態に係る遠隔制御システム1aにおいて、ロボット10(移動体の一例)が備える制御装置30は、本発明に係る情報処理装置の一例である。情報処理装置としての制御装置30は、撮影装置21によって取得された画像データ200を取得する画像取得部36(取得手段の一例)と、取得された画像データ200に含まれる複数の人物の位置および向きに基づいて、ロボット10の移動先を示す目標点を算出する注目点算出部42および目標点算出部43(算出手段の一例)とを備え、算出された目標点へロボット10を移動させる。そのため、第1の実施形態に係る情報処理装置としての制御装置30は、一方の拠点にいる複数の参加者の位置と向きに応じて、ロボット10を移動させることで、他方の拠点にいる参加者との遠隔コミュニケーションを活性化させることができる。 Here, in the remote control system 1a according to the first embodiment, the control device 30 included in the robot 10 (an example of a mobile body) is an example of the information processing device according to the present invention. The control device 30 as an information processing device includes an image acquisition unit 36 (an example of acquisition means) for acquiring image data 200 acquired by the photographing device 21, positions of a plurality of persons included in the acquired image data 200, and positions of a plurality of persons. A point of interest calculation unit 42 for calculating a target point indicating a destination of the robot 10 based on the orientation and a target point calculation unit 43 (an example of a calculation means) are provided, and the robot 10 is moved to the calculated target point. Therefore, the control device 30 as the information processing device according to the first embodiment moves the robot 10 according to the positions and orientations of the plurality of participants at one base, thereby participating in the other base. It is possible to activate remote communication with a person.

さらに、第1の実施形態に係るロボット10(移動体の一例)が備える制御装置30は、取得された画像データ200に含まれる複数の人物の位置および向きを推定し(推定手段の一例、推定された位置および向きに基づいて、画像データ200に含まれる複数の人物が注目する注目点を特定する(注目点特定手段の一例)注目点算出部42と、特定された注目点に基づいて、ロボット10の移動先を示す目標点を特定する目標点算出部43(目標点特定手段の一例)と、有する。そのため、第1の実施形態に係る情報処理装置としての制御装置30は、ロボット10の周囲に位置する複数の参加者が注目する注目点に基づいて、ロボット10を移動させることで、他方の拠点にいる参加者との遠隔コミュニケーションを活性化させることができる。 Further, the control device 30 included in the robot 10 (an example of a moving body) according to the first embodiment estimates the positions and orientations of a plurality of persons included in the acquired image data 200 (an example of an estimation means, estimation). Based on the designated position and orientation, the attention point calculation unit 42 for specifying the attention point to be noticed by a plurality of people included in the image data 200 (an example of the attention point specifying means) and the identified attention point are used. It has a target point calculation unit 43 (an example of a target point specifying means) for specifying a target point indicating a destination of the robot 10, and therefore, the control device 30 as an information processing device according to the first embodiment is the robot 10. By moving the robot 10 based on the points of interest paid by a plurality of participants located around the robot 10, it is possible to activate remote communication with the participants at the other base.

●第2の実施形態●
次に、第2の実施形態に係る遠隔制御システムついて説明する。なお、第1の実施形態と同一構成および同一機能は、同一の符号を付して、その説明を省略する。第2の実施形態に係る遠隔制御システム1bは、ロボット10の位置調整処理を、ロボット10から送信されてきた画像データを表示する表示端末50が行う構成である。
● Second embodiment ●
Next, the remote control system according to the second embodiment will be described. The same configurations and the same functions as those of the first embodiment are designated by the same reference numerals, and the description thereof will be omitted. The remote control system 1b according to the second embodiment is configured such that the display terminal 50 that displays the image data transmitted from the robot 10 performs the position adjustment process of the robot 10.

なお、第2の実施形態に係る遠隔制御システム1bを構成する装置または端末(ロボット10、表示端末50および管理サーバ90)のハードウエア構成は、第1の実施形態に係る遠隔制御システム1aを構成する装置または端末(ロボット10、表示端末50および管理サーバ90)と同様であるため、説明を省略する。 The hardware configuration of the device or terminal (robot 10, display terminal 50, and management server 90) constituting the remote control system 1b according to the second embodiment constitutes the remote control system 1a according to the first embodiment. Since it is the same as the device or terminal (robot 10, display terminal 50, and management server 90), the description thereof will be omitted.

●機能構成
まず、図32を用いて、第2の実施形態に係る遠隔制御システムの機能構成について説明する。図32は、第2の実施形態に係る遠隔制御システムの機能構成の一例を示す図である。なお、第2の実施形態に係る管理サーバ90によって実現される機能は、第1の実施形態に係る管理サーバ90によって実現される機能(図8参照)と同様であるため、説明を省略する。
● Functional configuration First, the functional configuration of the remote control system according to the second embodiment will be described with reference to FIG. 32. FIG. 32 is a diagram showing an example of the functional configuration of the remote control system according to the second embodiment. Since the functions realized by the management server 90 according to the second embodiment are the same as the functions realized by the management server 90 according to the first embodiment (see FIG. 8), the description thereof will be omitted.

〇制御装置30の機能構成〇
まず、図32を用いて、第2の実施形態に係るロボット10の処理または動作を制御する制御装置30の機能構成について説明する。第2の実施形態に係る制御装置30は、第1の実施形態に係る制御装置30によって実現される機能(図8参照)から画像処理部41、注目点算出部42および目標点算出部43を除いた機能を実現する。具体的には、第2の実施形態に係る制御装置30によって実現される機能は、送受信部31、操作入力受付部32、表示制御部33、判断部34、撮影指示部35、画像取得部36、移動制御部37、向き調整部38、位置特定部39、周辺情報検出部44、存在通知部45、記憶・読出部46および記憶部3000を含む。第2の実施形態に係る制御装置30によって実現されるそれぞれの機能は、図8に示した内容と同様であるため、説明を省略する。
〇 Functional configuration of the control device 30 〇 First, the functional configuration of the control device 30 for controlling the processing or operation of the robot 10 according to the second embodiment will be described with reference to FIG. 32. The control device 30 according to the second embodiment includes an image processing unit 41, an attention point calculation unit 42, and a target point calculation unit 43 from the functions (see FIG. 8) realized by the control device 30 according to the first embodiment. Realize the excluded functions. Specifically, the functions realized by the control device 30 according to the second embodiment are the transmission / reception unit 31, the operation input reception unit 32, the display control unit 33, the determination unit 34, the shooting instruction unit 35, and the image acquisition unit 36. , The movement control unit 37, the orientation adjustment unit 38, the position identification unit 39, the peripheral information detection unit 44, the existence notification unit 45, the storage / reading unit 46, and the storage unit 3000. Since each function realized by the control device 30 according to the second embodiment is the same as the content shown in FIG. 8, the description thereof will be omitted.

〇表示端末50の機能構成〇
次に、図32を用いて、表示端末50の機能構成について説明する。第2の実施形態に係る表示端末50によって実現される機能は、第1の実施形態に係る表示端末50によって実現される機能(図8参照)に加えて、画像処理部61、注目点算出部62および目標点算出部63を含む。具体的には、表示端末50により実現される機能は、送受信部51、操作入力受付部52、表示制御部53、判断部54、要求コマンド生成部55、視線検出部56、記憶・読出部57、画像処理部61、注目点算出部62、目標点算出部63および記憶部5000を含む。また、送受信部51は、撮影装置21によって取得された画像である画像データ200を受信(取得)する取得手段の一例である。さらに、送受信部51は、後述する目標点算出部63によって算出された目標点へロボット10を移動させるための要求コマンド(要求情報)を、ロボット10へ送信する第2の送信手段の一例である。
〇 Functional configuration of the display terminal 50 〇 Next, the functional configuration of the display terminal 50 will be described with reference to FIG. 32. The functions realized by the display terminal 50 according to the second embodiment include the image processing unit 61 and the attention point calculation unit in addition to the functions realized by the display terminal 50 according to the first embodiment (see FIG. 8). 62 and the target point calculation unit 63 are included. Specifically, the functions realized by the display terminal 50 include a transmission / reception unit 51, an operation input reception unit 52, a display control unit 53, a judgment unit 54, a request command generation unit 55, a line-of-sight detection unit 56, and a storage / reading unit 57. , Image processing unit 61, attention point calculation unit 62, target point calculation unit 63, and storage unit 5000. Further, the transmission / reception unit 51 is an example of acquisition means for receiving (acquiring) image data 200, which is an image acquired by the photographing apparatus 21. Further, the transmission / reception unit 51 is an example of a second transmission means for transmitting a request command (request information) for moving the robot 10 to the target point calculated by the target point calculation unit 63, which will be described later, to the robot 10. ..

画像処理部61は、送受信部51によって受信(取得)された画像に対する処理を行う機能である。画像処理部61は、例えば、送受信部51によって取得された画像データ200に含まれる人物の頭の画像を抽出する。また、画像処理部61は、例えば、送受信部51によって取得された人物の目と鼻の画像を抽出する。画像処理部61は、主に、図6に示したCPU501の処理によって実現される。 The image processing unit 61 is a function of processing an image received (acquired) by the transmission / reception unit 51. The image processing unit 61 extracts, for example, an image of a person's head included in the image data 200 acquired by the transmission / reception unit 51. Further, the image processing unit 61 extracts, for example, an image of the eyes and nose of a person acquired by the transmission / reception unit 51. The image processing unit 61 is mainly realized by the processing of the CPU 501 shown in FIG.

注目点算出部62は、画像処理部61によって処理された画像データに含まれる複数の人物の位置および向きに基づいて、複数の人が注目する注目点を特定する機能である。注目点算出部62が実現する機能は、図8に示した注目点算出部42と同様であるため、説明を省略する。注目点算出部62は、主に、図6に示したCPU501の処理によって実現される。注目点算出部62は、算出手段の一例である。また、注目点算出部62は、推定手段の一例である。さらに、注目点算出部62は、注目点特定手段の一例である。 The attention point calculation unit 62 is a function of specifying the attention points attracted by a plurality of people based on the positions and orientations of the plurality of persons included in the image data processed by the image processing unit 61. Since the function realized by the attention point calculation unit 62 is the same as that of the attention point calculation unit 42 shown in FIG. 8, the description thereof will be omitted. The attention point calculation unit 62 is mainly realized by the processing of the CPU 501 shown in FIG. The attention point calculation unit 62 is an example of the calculation means. Further, the attention point calculation unit 62 is an example of the estimation means. Further, the attention point calculation unit 62 is an example of the attention point specifying means.

目標点算出部63は、注目点算出部62によって算出された注目点に基づいて、ロボット10の移動先となる目標点を特定する機能である。目標点算出部63が実現する機能は、図8に示した目標点算出部43と同様であるため、説明を省略する。目標点算出部63は、主に、図6に示したCPU501の処理によって実現される。目標点算出部63は、算出手段の一例である。また、目標点算出部63は、目標点特定手段の一例である。 The target point calculation unit 63 is a function of specifying a target point to be moved to the robot 10 based on the attention point calculated by the attention point calculation unit 62. Since the function realized by the target point calculation unit 63 is the same as that of the target point calculation unit 43 shown in FIG. 8, the description thereof will be omitted. The target point calculation unit 63 is mainly realized by the processing of the CPU 501 shown in FIG. The target point calculation unit 63 is an example of the calculation means. Further, the target point calculation unit 63 is an example of the target point specifying means.

●第2の実施形態の処理または動作
続いて、図33を用いて、第2の実施形態に係る遠隔制御システムにおけるロボットの処理または動作について説明する。なお、図33において、ロボット10が備える制御装置30によって実行される処理は、ロボット10によって実行される処理として説明する。図33は、第2の実施形態に係る遠隔制御システムにおけるロボットの制御処理の一例を説明するためのシーケンス図である。
● Processing or operation of the second embodiment Next, the processing or operation of the robot in the remote control system according to the second embodiment will be described with reference to FIG. 33. In FIG. 33, the process executed by the control device 30 included in the robot 10 will be described as the process executed by the robot 10. FIG. 33 is a sequence diagram for explaining an example of robot control processing in the remote control system according to the second embodiment.

ステップS201において、ロボット10の画像取得部36は、撮影装置21によって撮影された画像である画像データ200を取得する。 In step S201, the image acquisition unit 36 of the robot 10 acquires image data 200, which is an image captured by the imaging device 21.

ステップS202-1,S202-2において、ロボット10の送受信部31は、確立された管理サーバ90との通信セッションを用いて、画像取得部36によって取得された画像データ200を、表示端末50へ送信する。これにより、表示端末50の送受信部51は、撮影装置21によって取得された画像である画像データ200を受信(取得)する(取得ステップの一例)。 In steps S202-1 and S202-2, the transmission / reception unit 31 of the robot 10 transmits the image data 200 acquired by the image acquisition unit 36 to the display terminal 50 using the communication session with the established management server 90. do. As a result, the transmission / reception unit 51 of the display terminal 50 receives (acquires) the image data 200, which is an image acquired by the photographing device 21 (an example of the acquisition step).

ステップS203において、表示端末50の表示制御部53は、送受信部51によって受信された画像データ200を、ディスプレイ512の表示画面600(図18(b)参照)に表示させる。これによって、表示端末50を用いてロボット10を操作する操作者は、ロボット10が位置する拠点の状況を、画像データ200が表示された表示画面600を見ながら確認することができる。 In step S203, the display control unit 53 of the display terminal 50 displays the image data 200 received by the transmission / reception unit 51 on the display screen 600 (see FIG. 18B) of the display 512. As a result, the operator who operates the robot 10 using the display terminal 50 can confirm the situation of the base where the robot 10 is located while looking at the display screen 600 on which the image data 200 is displayed.

ステップS204において、表示端末50は、ロボット10の移動先となる目標点の算出処理を実行する(算出ステップの一例)。表示端末50の画像処理部61、注目点算出部62および目標点算出部63による目標点算出処理は、図19に示した処理と同様であるため、説明を省略する。 In step S204, the display terminal 50 executes a calculation process of a target point to which the robot 10 is moved (an example of the calculation step). Since the target point calculation process by the image processing unit 61, the attention point calculation unit 62, and the target point calculation unit 63 of the display terminal 50 is the same as the process shown in FIG. 19, the description thereof will be omitted.

ステップS205において、表示端末50の要求コマンド生成部55は、目標点算出部63によって算出された目標点に基づいて、ロボット10へ送信する要求コマンドを生成する。この場合、要求コマンド生成部55によって生成される要求コマンドは、目標点算出部63によって算出された目標位置Gの座標情報(X,Y)を変数とする「GO(X,Y)」コマンドを含む。また、要求コマンド生成部55によって生成される要求コマンドは、目標点算出部63によって算出されたロボット10の向き(θ)を変数とする「TURN(θ)」コマンドを含む。要求コマンド生成部55によって生成される要求コマンドは、目標点算出部63によって算出された目標点へロボット10を移動させるための要求情報の一例である。 In step S205, the request command generation unit 55 of the display terminal 50 generates a request command to be transmitted to the robot 10 based on the target point calculated by the target point calculation unit 63. In this case, the request command generated by the request command generation unit 55 is a "GO (X, Y)" command whose variable is the coordinate information (X, Y) of the target position G calculated by the target point calculation unit 63. include. Further, the request command generated by the request command generation unit 55 includes a "TURN (θ)" command whose variable is the direction (θ) of the robot 10 calculated by the target point calculation unit 63. The request command generated by the request command generation unit 55 is an example of request information for moving the robot 10 to the target point calculated by the target point calculation unit 63.

ステップS206-1,S206-2において、表示端末50の送受信部31は、確立された管理サーバ90との通信セッションを用いて、要求コマンド生成部55によって生成された要求コマンド(「GO(X,Y)」,「TURN(θ)」)を、ロボット10へ送信する。これにより、ロボット10の送受信部31は、要求コマンド(「GO(X,Y)」,「TURN(θ)」)を受信する。 In steps S206-1 and S206-2, the transmission / reception unit 31 of the display terminal 50 uses the communication session with the established management server 90 to generate the request command (“GO (X,”. Y) ”,“ TURN (θ) ”) is transmitted to the robot 10. As a result, the transmission / reception unit 31 of the robot 10 receives the request command (“GO (X, Y)”, “TURN (θ)”).

ステップS207において、ロボット10の記憶・読出部46は、記憶部5000に記憶されたコマンドテーブル5001を読み出す。ステップS208において、ロボット10の判断部34は、記憶・読出部46によって読み出されたコマンドテーブル3001を検索し、送受信部31によって受信された要求コマンドに対応する処理を抽出する。この場合、送受信部31によって受信された要求コマンドが「GO(X,Y)」および「TURN(θ)」であるため、判断部34は、コマンドテーブル3001を検索して、要求コマンド「GO(X,Y)」および「TURN(θ)」に対応する処理を抽出する。抽出される処理は、「ロボット10を(X,Y)の位置まで移動させる」および「ロボット10を右のθ°回転させる」である。 In step S207, the storage / reading unit 46 of the robot 10 reads out the command table 5001 stored in the storage unit 5000. In step S208, the determination unit 34 of the robot 10 searches the command table 3001 read by the storage / reading unit 46, and extracts the process corresponding to the request command received by the transmission / reception unit 31. In this case, since the request commands received by the transmission / reception unit 31 are “GO (X, Y)” and “TURN (θ)”, the determination unit 34 searches the command table 3001 and requests the request command “GO (GO (). X, Y) ”and“ TURN (θ) ”are extracted. The extracted processes are "move the robot 10 to the position (X, Y)" and "rotate the robot 10 by θ ° to the right".

ステップS209において、ロボット10は、上記ステップS208によって抽出された処理を実行する。具体的には、ロボット10の判断部34は、抽出した処理の実行要求を、移動制御部37へ通知する。そして、移動制御部37は、判断部34によって抽出された処理に基づいて、ロボット10を移動させる。ロボット10の移動処理は、図28で示した処理と同様であるため、説明を省略する。 In step S209, the robot 10 executes the process extracted by step S208. Specifically, the determination unit 34 of the robot 10 notifies the movement control unit 37 of the execution request of the extracted process. Then, the movement control unit 37 moves the robot 10 based on the process extracted by the determination unit 34. Since the movement process of the robot 10 is the same as the process shown in FIG. 28, the description thereof will be omitted.

そして、ロボット10の送受信部31は、表示端末50から送信されてきた要求コマンドに含まれる目標点において撮影装置21によって撮影された画像データ200を、表示端末50へ送信する。表示端末50は、ロボット10から送信されてきた画像データ200を受信する。これによって、表示端末50は、要求コマンドに含まれる目標点において、ロボット10の周囲を撮影して取得された画像データ200を表示することができる。 Then, the transmission / reception unit 31 of the robot 10 transmits the image data 200 captured by the photographing device 21 at the target point included in the request command transmitted from the display terminal 50 to the display terminal 50. The display terminal 50 receives the image data 200 transmitted from the robot 10. As a result, the display terminal 50 can display the image data 200 acquired by photographing the surroundings of the robot 10 at the target point included in the request command.

●第2の実施形態の効果
以上説明したように、第2の実施形態に係る遠隔制御システム1bは、ロボット10(移動体の一例)の目標点算出処理を、通信ネットワーク9を介してロボット10を遠隔操作する表示端末50が行う。そのため、第2の実施形態に係る遠隔制御システム1bは、ロボット10の処理負担を低減させることができるとともに、ロボット10が位置する拠点と表示端末50との間における、ロボット10を用いた遠隔コミュニケーションを活性化させることができる。
● Effects of the Second Embodiment As described above, the remote control system 1b according to the second embodiment performs the target point calculation process of the robot 10 (an example of a mobile body) via the communication network 9. Is performed by the display terminal 50 that remotely controls. Therefore, the remote control system 1b according to the second embodiment can reduce the processing load of the robot 10 and can remotely communicate using the robot 10 between the base where the robot 10 is located and the display terminal 50. Can be activated.

ここで、第2の実施形態に係る遠隔制御システム1bにおいて、表示端末50は、本発明に係る情報処理装置の一例である。情報処理装置としての表示端末50は、撮影装置21によって取得された画像データ200を取得する送受信部51(取得手段の一例)と、取得された画像データ200に含まれる複数の人物の位置および向きに基づいて、ロボット10の移動先を示す目標点を算出する注目点算出部62および目標点算出部63(算出手段の一例)とを備え、算出された目標点へロボット10を移動させる。そのため、第2の実施形態に係る情報処理装置としての表示端末50は、一方の拠点の複数の参加者の位置と向きに基づいてロボット10の移動先を算出し、算出した移動先へロボット10を移動させることで、他方の拠点にいる参加者との遠隔コミュニケーションを活性化させることができる。 Here, in the remote control system 1b according to the second embodiment, the display terminal 50 is an example of the information processing apparatus according to the present invention. The display terminal 50 as an information processing device includes a transmission / reception unit 51 (an example of acquisition means) for acquiring image data 200 acquired by the photographing apparatus 21, and positions and orientations of a plurality of persons included in the acquired image data 200. A point of interest calculation unit 62 for calculating a target point indicating a destination of the robot 10 and a target point calculation unit 63 (an example of a calculation means) are provided, and the robot 10 is moved to the calculated target point. Therefore, the display terminal 50 as the information processing device according to the second embodiment calculates the destination of the robot 10 based on the positions and orientations of the plurality of participants at one of the bases, and the robot 10 to the calculated destination. By moving, it is possible to activate remote communication with participants at the other base.

●第3の実施形態●
次に、第3の実施形態に係る遠隔制御システムついて説明する。なお、第1の実施形態または第2の実施形態と同一構成および同一機能は、同一の符号を付して、その説明を省略する。第3の実施形態に係る遠隔制御システム1cは、ロボット10の位置調整処理を、ロボット10および表示端末50と通信ネットワーク9を介して通信可能な画像処理サーバ70が行う構成である。
● Third embodiment ●
Next, the remote control system according to the third embodiment will be described. The same configurations and the same functions as those of the first embodiment or the second embodiment are designated by the same reference numerals, and the description thereof will be omitted. The remote control system 1c according to the third embodiment is configured such that the position adjustment process of the robot 10 is performed by the image processing server 70 capable of communicating with the robot 10 and the display terminal 50 via the communication network 9.

●システム構成
まずは、図34を用いて、第3の実施形態の遠隔制御システムの構成の概略について説明する。図34は、第3の実施形態に係る遠隔制御システムのシステム構成の一例を示す図である。図34に示すように、第3の実施形態の遠隔制御システム1cは、図1に示した構成に、画像処理サーバ70が追加されている。画像処理サーバ70は、通信ネットワーク9を介して、ロボット10、表示端末50および管理サーバ90と通信可能に接続されている。画像処理サーバ70は、管理サーバ90によって確立された通信セッションを用いて、ロボット10または表示端末50との間で、画像データの送受信を行う。
● System Configuration First, the outline of the configuration of the remote control system of the third embodiment will be described with reference to FIG. 34. FIG. 34 is a diagram showing an example of the system configuration of the remote control system according to the third embodiment. As shown in FIG. 34, in the remote control system 1c of the third embodiment, the image processing server 70 is added to the configuration shown in FIG. The image processing server 70 is communicably connected to the robot 10, the display terminal 50, and the management server 90 via the communication network 9. The image processing server 70 uses the communication session established by the management server 90 to send and receive image data to and from the robot 10 or the display terminal 50.

画像処理サーバ70は、サーバコンピュータであり、複数台のサーバコンピュータで分散して画像処理を行なう場合も含まれる。画像処理サーバ70は、ロボット10の移動状態に応じて、ロボット10から送信されてきた画像データ200の画像処理を行い、処理データを表示端末50へ送信する。なお、画像処理サーバ70は、複数台のサーバコンピュータにより構成されてもよく、どのサーバコンピュータに機能を備えさせてもよい。画像処理サーバ70は、情報処理装置の一例である。 The image processing server 70 is a server computer, and includes a case where image processing is performed in a distributed manner among a plurality of server computers. The image processing server 70 performs image processing of the image data 200 transmitted from the robot 10 according to the moving state of the robot 10, and transmits the processed data to the display terminal 50. The image processing server 70 may be configured by a plurality of server computers, and any server computer may be provided with a function. The image processing server 70 is an example of an information processing device.

ここで、画像処理サーバ70と管理サーバ90は、サーバシステム7を構成する。画像処理サーバ70と管理サーバ90は、一台のサーバコンピュータにより構成されてもよい。また、表示端末50と画像処理サーバ70は、表示システム5を構成する。さらに、ロボット10(10A,10B,10C)と画像処理サーバ70は、移動体制御システム(伝送制御システム)3を構成する。 Here, the image processing server 70 and the management server 90 constitute the server system 7. The image processing server 70 and the management server 90 may be configured by one server computer. Further, the display terminal 50 and the image processing server 70 constitute a display system 5. Further, the robot 10 (10A, 10B, 10C) and the image processing server 70 constitute a mobile control system (transmission control system) 3.

なお、画像処理サーバ70のハードウエア構成は、図7に示した管理サーバ90のハードウエア構成と同様であるため、説明を省略する。以下、画像処理サーバ70は、図7に示したハードウエア構成を有するものとして説明する。 Since the hardware configuration of the image processing server 70 is the same as the hardware configuration of the management server 90 shown in FIG. 7, the description thereof will be omitted. Hereinafter, the image processing server 70 will be described as having the hardware configuration shown in FIG. 7.

●機能構成
図35は、第3の実施形態に係る遠隔制御システムの機能構成の一例を示す図である。画像処理サーバ70によって実現される機能は、送受信部71、判断部72、データ処理部73、画像処理部74、注目点算出部75、目標点算出部76、記憶・読出部77および記憶部7000を含む。
● Functional configuration FIG. 35 is a diagram showing an example of the functional configuration of the remote control system according to the third embodiment. The functions realized by the image processing server 70 are the transmission / reception unit 71, the judgment unit 72, the data processing unit 73, the image processing unit 74, the attention point calculation unit 75, the target point calculation unit 76, the storage / reading unit 77, and the storage unit 7000. including.

送受信部71は、通信ネットワーク9を介して、他の装置(例えば、管理サーバ90、表示端末50またはロボット10)との間で各種データまたは情報の送受信を行う機能である。送受信部71は、例えば、撮影装置21によって取得された画像である画像データ200を受信(取得)する。また、送受信部71は、データ処理部73によって生成された要求データ(要求情報)を、通信ネットワーク9を介して、ロボット10へ送信する。送受信部71は、主に、図7に示したCPU901の処理、およびネットワークI/F909によって実現される。送受信部71は、取得手段の一例である。また、送受信部71は、第3の送信手段の一例である。 The transmission / reception unit 71 is a function for transmitting / receiving various data or information to / from another device (for example, a management server 90, a display terminal 50, or a robot 10) via a communication network 9. The transmission / reception unit 71 receives (acquires) image data 200, which is an image acquired by the photographing device 21, for example. Further, the transmission / reception unit 71 transmits the request data (request information) generated by the data processing unit 73 to the robot 10 via the communication network 9. The transmission / reception unit 71 is mainly realized by the processing of the CPU 901 shown in FIG. 7 and the network I / F 909. The transmission / reception unit 71 is an example of acquisition means. Further, the transmission / reception unit 71 is an example of a third transmission means.

判断部72は、送受信部71によって送受信される各種データに対する処理の内容を判断する機能である。判断部72は、主に、図7に示したCPU901の処理によって実現される。 The determination unit 72 is a function of determining the content of processing for various data transmitted / received by the transmission / reception unit 71. The determination unit 72 is mainly realized by the processing of the CPU 901 shown in FIG. 7.

データ処理部73は、送受信部71によって送受信される各種データの処理を行う機能である。データ処理部73は、目標点算出部76によって算出された目標点へロボット10を移動させるための要求データ(要求情報)を生成する。データ処理部73は、主に、図15に示したCPU901の処理によって実現される。 The data processing unit 73 is a function of processing various data transmitted / received by the transmission / reception unit 71. The data processing unit 73 generates request data (request information) for moving the robot 10 to the target point calculated by the target point calculation unit 76. The data processing unit 73 is mainly realized by the processing of the CPU 901 shown in FIG.

画像処理部74は、送受信部71によって受信(取得)された画像に対する処理を行う機能である。画像処理部74は、例えば、送受信部71によって取得された画像データ200に含まれる人物の頭の画像を抽出する。また、画像処理部74は、例えば、送受信部71によって取得された人物の目と鼻の画像を抽出する。画像処理部74は、主に、図7に示したCPU901の処理によって実現される。 The image processing unit 74 is a function of processing an image received (acquired) by the transmission / reception unit 71. The image processing unit 74 extracts, for example, an image of a person's head included in the image data 200 acquired by the transmission / reception unit 71. Further, the image processing unit 74 extracts, for example, an image of the eyes and nose of a person acquired by the transmission / reception unit 71. The image processing unit 74 is mainly realized by the processing of the CPU 901 shown in FIG. 7.

注目点算出部75は、画像処理部74によって処理された画像データに含まれる複数の人物の位置および向きに基づいて、複数の人が注目する注目点を特定する機能である。注目点算出部75が実現する機能は、図8に示した注目点算出部42と同様であるため、説明を省略する。注目点算出部75は、主に、図7に示したCPU901の処理によって実現される。注目点算出部75は、算出手段の一例である。また、注目点算出部75は、推定手段の一例である。さらに、注目点算出部75は、注目点特定手段の一例である。 The attention point calculation unit 75 is a function of specifying the attention points attracted by a plurality of people based on the positions and orientations of the plurality of persons included in the image data processed by the image processing unit 74. Since the function realized by the attention point calculation unit 75 is the same as that of the attention point calculation unit 42 shown in FIG. 8, the description thereof will be omitted. The attention point calculation unit 75 is mainly realized by the processing of the CPU 901 shown in FIG. 7. The attention point calculation unit 75 is an example of the calculation means. Further, the attention point calculation unit 75 is an example of the estimation means. Further, the attention point calculation unit 75 is an example of the attention point specifying means.

目標点算出部76は、注目点算出部75によって算出された注目点に基づいて、ロボット10の移動先となる目標点を特定する機能である。目標点算出部76が実現する機能は、図8に示した目標点算出部43と同様であるため、説明を省略する。目標点算出部76は、主に、図7に示したCPU901の処理によって実現される。目標点算出部76は、算出手段の一例である。また、目標点算出部76は、目標点特定手段の一例である。 The target point calculation unit 76 is a function of specifying a target point to be moved to by the robot 10 based on the attention points calculated by the attention point calculation unit 75. Since the function realized by the target point calculation unit 76 is the same as that of the target point calculation unit 43 shown in FIG. 8, the description thereof will be omitted. The target point calculation unit 76 is mainly realized by the processing of the CPU 901 shown in FIG. 7. The target point calculation unit 76 is an example of the calculation means. Further, the target point calculation unit 76 is an example of the target point specifying means.

記憶・読出部77は、記憶部7000に各種データを記憶させ、または記憶部7000から各種データを読み出す機能である。記憶・読出部77は、主に、図7に示したCPU901の処理によって実現される。また、記憶部7000は、主に、図7に示したROM902、HD904または記録メディア906によって実現される。 The storage / reading unit 77 is a function of storing various data in the storage unit 7000 or reading various data from the storage unit 7000. The storage / reading unit 77 is mainly realized by the processing of the CPU 901 shown in FIG. 7. Further, the storage unit 7000 is mainly realized by the ROM 902, HD904 or recording medium 906 shown in FIG. 7.

また、記憶部7000は、送受信部71によって受信された画像データ200、および画像データ250を記憶している。さらに、記憶部7000は、条件テーブル7001を記憶している。なお、条件テーブル7001は、図11に示した条件テーブル3002と同様であるため、説明を省略する。また、記憶部7000に記憶されている画像データ200および画像データ250は、送受信部71によって受信されてから所定の時間経過した場合に削除される構成であってもよいし、操作入力受付部52によって受け付けられた、ユーザからの削除命令に基づいて削除される構成であってもよい。同様に、記憶部5000に記憶されている画像データ250は、CMOSセンサ505aによって取得されてから所定の時間経過した場合に削除される構成であってもよいし、ロボット10または表示端末50へ送信されたデータが削除される構成であってもよい。 Further, the storage unit 7000 stores the image data 200 and the image data 250 received by the transmission / reception unit 71. Further, the storage unit 7000 stores the condition table 7001. Since the condition table 7001 is the same as the condition table 3002 shown in FIG. 11, the description thereof will be omitted. Further, the image data 200 and the image data 250 stored in the storage unit 7000 may be deleted when a predetermined time has elapsed since they were received by the transmission / reception unit 71, or the operation input reception unit 52 may be deleted. It may be configured to be deleted based on the deletion command from the user received by. Similarly, the image data 250 stored in the storage unit 5000 may be deleted when a predetermined time has elapsed since it was acquired by the CMOS sensor 505a, or may be transmitted to the robot 10 or the display terminal 50. The data may be deleted.

●第3の実施形態の処理または動作
続いて、図36を用いて、第3の実施形態に係る遠隔制御システムにおけるロボットの処理または動作について説明する。なお、図36において、ロボット10が備える制御装置30によって実行される処理は、ロボット10によって実行される処理として説明する。図36は、第3の実施形態に係る遠隔制御システムにおけるロボットの制御処理の一例を説明するためのシーケンス図である。
● Processing or operation of the third embodiment Next, the processing or operation of the robot in the remote control system according to the third embodiment will be described with reference to FIG. 36. In FIG. 36, the process executed by the control device 30 included in the robot 10 will be described as the process executed by the robot 10. FIG. 36 is a sequence diagram for explaining an example of robot control processing in the remote control system according to the third embodiment.

ステップS301において、ロボット10の画像取得部36は、撮影装置21によって取得された画像である画像データ200を取得する。 In step S301, the image acquisition unit 36 of the robot 10 acquires image data 200, which is an image acquired by the photographing device 21.

ステップS302-1,S302-2,S302-3において、ロボット10の送受信部31は、確立された管理サーバ90との通信セッションを用いて、画像取得部36によって取得された画像データ200を、表示端末50へ送信する。このうち、画像処理サーバ70の送受信部71は、ロボット10から送信されてきた、撮影装置21によって取得された画像である画像データ200を受信(取得)する(取得ステップの一例)。これにより、表示端末50の送受信部51は、画像データ200を受信する。 In steps S302-1, S302-2, and S302-3, the transmission / reception unit 31 of the robot 10 displays the image data 200 acquired by the image acquisition unit 36 using the communication session with the established management server 90. Send to terminal 50. Of these, the transmission / reception unit 71 of the image processing server 70 receives (acquires) image data 200, which is an image acquired by the photographing device 21 transmitted from the robot 10 (an example of an acquisition step). As a result, the transmission / reception unit 51 of the display terminal 50 receives the image data 200.

ステップS303において、表示端末50の表示制御部53は、送受信部51によって受信された画像データ200を、ディスプレイ512の表示画面600(図18(b)参照)に表示させる。これによって、表示端末50を用いてロボット10を操作する操作者は、ロボット10が位置する拠点の状況を、画像データ200が表示された表示画面600を見ながら確認することができる。 In step S303, the display control unit 53 of the display terminal 50 displays the image data 200 received by the transmission / reception unit 51 on the display screen 600 (see FIG. 18B) of the display 512. As a result, the operator who operates the robot 10 using the display terminal 50 can confirm the situation of the base where the robot 10 is located while looking at the display screen 600 on which the image data 200 is displayed.

ステップS304において、画像処理サーバ70は、ロボット10の移動先となる目標点の算出処理を実行する(算出ステップの一例)。画像処理サーバ70の画像処理部74、注目点算出部75および目標点算出部76による目標点算出処理は、図19に示した処理と同様であるため、説明を省略する。 In step S304, the image processing server 70 executes a calculation process of a target point to which the robot 10 is moved (an example of the calculation step). Since the target point calculation process by the image processing unit 74, the attention point calculation unit 75, and the target point calculation unit 76 of the image processing server 70 is the same as the process shown in FIG. 19, the description thereof will be omitted.

ステップS305において、画像処理サーバ70のデータ処理部73は、目標点算出部76によって算出された目標点へロボット10を移動させるために、ロボット10へ送信する要求データ(要求情報)を生成する。この場合、データ処理部73によって生成される要求データは、目標点算出部63によって算出された目標位置G(X,Y)を示す位置情報、ロボット10の移動先におけるロボット10の向き(θ)を示す方向情報を含む。データ処理部73によって生成される要求データは、表示端末50の要求コマンド生成部55によって生成される要求コマンドに対応する。 In step S305, the data processing unit 73 of the image processing server 70 generates request data (request information) to be transmitted to the robot 10 in order to move the robot 10 to the target point calculated by the target point calculation unit 76. In this case, the request data generated by the data processing unit 73 is the position information indicating the target position G (X, Y) calculated by the target point calculation unit 63, and the orientation (θ) of the robot 10 at the destination of the robot 10. Includes directional information indicating. The request data generated by the data processing unit 73 corresponds to the request command generated by the request command generation unit 55 of the display terminal 50.

ステップS306-1,S306-2において、画像処理サーバ70の送受信部71は、データ処理部73によって生成された要求データ(要求情報)を、ロボット10へ送信する。これにより、ロボット10の送受信部31は、要求データ(要求情報)を受信する。 In steps S306-1 and S306-2, the transmission / reception unit 71 of the image processing server 70 transmits the request data (request information) generated by the data processing unit 73 to the robot 10. As a result, the transmission / reception unit 31 of the robot 10 receives the request data (request information).

ステップS307において、ロボット10の記憶・読出部46は、記憶部5000に記憶されたコマンドテーブル5001を読み出す。ステップS308において、ロボット10の判断部34は、記憶・読出部46によって読み出されたコマンドテーブル3001を検索し、送受信部31によって受信された要求データ(要求データに対応する要求コマンド)に対応する処理を抽出する。この場合、送受信部31によって受信された要求データに対応する要求コマンドが「GO(X,Y)」および「TURN(θ)」であるため、判断部34は、コマンドテーブル3001を検索して、要求コマンド「GO(X,Y)」および「TURN(θ)」に対応する処理を抽出する。抽出される処理は、「ロボット10を(X,Y)の位置まで移動させる」および「ロボット10を右のθ°回転させる」である。 In step S307, the storage / reading unit 46 of the robot 10 reads out the command table 5001 stored in the storage unit 5000. In step S308, the determination unit 34 of the robot 10 searches the command table 3001 read by the storage / reading unit 46, and corresponds to the request data (request command corresponding to the request data) received by the transmission / reception unit 31. Extract the process. In this case, since the request commands corresponding to the request data received by the transmission / reception unit 31 are “GO (X, Y)” and “TURN (θ)”, the determination unit 34 searches the command table 3001 and searches for the command table 3001. Extract the processes corresponding to the request commands "GO (X, Y)" and "TURN (θ)". The extracted processes are "move the robot 10 to the position (X, Y)" and "rotate the robot 10 by θ ° to the right".

ステップS309において、ロボット10は、上記ステップS308によって抽出された処理を実行する。具体的には、ロボット10の判断部34は、抽出した処理の実行要求を、移動制御部37へ通知する。そして、移動制御部37は、判断部34によって抽出された処理に基づいて、ロボット10を移動させる。ロボット10の移動処理は、図28で示した処理と同様であるため、説明を省略する。 In step S309, the robot 10 executes the process extracted by step S308. Specifically, the determination unit 34 of the robot 10 notifies the movement control unit 37 of the execution request of the extracted process. Then, the movement control unit 37 moves the robot 10 based on the process extracted by the determination unit 34. Since the movement process of the robot 10 is the same as the process shown in FIG. 28, the description thereof will be omitted.

そして、ロボット10の送受信部31は、画像処理サーバ70から送信されてきた要求データに含まれる目標点において撮影装置21によって撮影された画像データ200を、表示端末50へ送信する。表示端末50は、ロボット10から送信されてきた画像データ200を受信する。これによって、表示端末50は、画像処理サーバ70によって生成された要求データに含まれる目標点において、ロボット10の周囲を撮影して取得された画像データ200を表示することができる。 Then, the transmission / reception unit 31 of the robot 10 transmits the image data 200 captured by the imaging device 21 at the target point included in the request data transmitted from the image processing server 70 to the display terminal 50. The display terminal 50 receives the image data 200 transmitted from the robot 10. As a result, the display terminal 50 can display the image data 200 acquired by photographing the surroundings of the robot 10 at the target point included in the request data generated by the image processing server 70.

●第3の実施形態の効果
以上説明したように、第3の実施形態に係る遠隔制御システム1cは、ロボット10(移動体の一例)の目標点算出処理を、通信ネットワーク9を介してロボット10および表示端末50と通信可能な画像処理サーバ70が行う構成である。そのため、第3の実施形態に係る遠隔制御システム1cは、ロボット10および表示端末50の処理負担を低減させることができるとともに、ロボット10が位置する拠点と表示端末50との間における、ロボット10を用いた遠隔コミュニケーションを活性化させることができる。
● Effects of the Third Embodiment As described above, the remote control system 1c according to the third embodiment performs the target point calculation process of the robot 10 (an example of a mobile body) via the communication network 9. The configuration is performed by the image processing server 70 capable of communicating with the display terminal 50. Therefore, the remote control system 1c according to the third embodiment can reduce the processing load of the robot 10 and the display terminal 50, and can reduce the processing load of the robot 10 and the display terminal 50 between the base where the robot 10 is located and the display terminal 50. The remote communication used can be activated.

ここで、第3の実施形態に係る遠隔制御システム1cにおいて、画像処理サーバ70は、本発明に係る情報処理装置の一例である。情報処理装置としての画像処理サーバ70は、撮影装置21によって取得された画像データ200を取得する送受信部71(取得手段の一例)と、取得された画像データ200に含まれる複数の人物の位置および向きに基づいて、ロボット10(移動体の一例)の移動先を示す目標点を算出する注目点算出部75および目標点算出部76(算出手段の一例)とを備え、算出された目標点へロボット10を移動させる。そのため、第3の実施形態に係る情報処理装置としての画像処理サーバ70は、一方の拠点の複数の参加者の位置と向きに基づいてロボット10の移動先を算出し、算出した移動先へロボット10を移動させることで、他方の拠点にいる参加者との遠隔コミュニケーションを活性化させることができる。 Here, in the remote control system 1c according to the third embodiment, the image processing server 70 is an example of the information processing apparatus according to the present invention. The image processing server 70 as an information processing device includes a transmission / reception unit 71 (an example of acquisition means) for acquiring image data 200 acquired by the photographing apparatus 21, positions of a plurality of persons included in the acquired image data 200, and positions of a plurality of persons. A point of interest calculation unit 75 for calculating a target point indicating a destination of the robot 10 (an example of a moving body) and a target point calculation unit 76 (an example of a calculation means) for calculating a target point based on the orientation are provided, and the calculated target point is reached. Move the robot 10. Therefore, the image processing server 70 as the information processing device according to the third embodiment calculates the destination of the robot 10 based on the positions and orientations of a plurality of participants at one of the bases, and the robot goes to the calculated destination. By moving 10, it is possible to activate remote communication with the participants at the other base.

●まとめ●
以上説明したように、本発明の一実施形態に係る情報処理装置は、被写体を撮影して画像データ200を取得する撮影装置21を備えるロボット10(移動体の一例)の位置を調整する情報処理装置であって、撮影装置21によって取得された画像データ200を取得する取得し、画像データ200に含まれる複数の人物の位置および向きに基づいて、ロボット10の移動先を示す目標点を算出する。そして、本発明の一実施形態に係る情報処理装置は、目標点を算出することで、ロボット10を目標点へ移動させる。そのため、本発明の一実施形態に係る情報処理装置は、ロボット10を用いた円滑なコミュニケーションを実現させることができる。
● Summary ●
As described above, the information processing device according to the embodiment of the present invention is information processing that adjusts the position of a robot 10 (an example of a moving body) including a photographing device 21 that photographs a subject and acquires image data 200. The device acquires the image data 200 acquired by the photographing device 21, and calculates a target point indicating the destination of the robot 10 based on the positions and orientations of a plurality of persons included in the image data 200. .. Then, the information processing apparatus according to the embodiment of the present invention moves the robot 10 to the target point by calculating the target point. Therefore, the information processing device according to the embodiment of the present invention can realize smooth communication using the robot 10.

また、本発明の一実施形態に係る遠隔制御システム1aは、被写体を撮影して画像データ200を取得する撮影装置21を備えるロボット10(移動体の一例)と、ロボット10と通信ネットワーク9を介して通信可能であり、ロボット10を遠隔操作する表示端末50と、を備える。そして、ロボット10は、撮影装置21によって取得された画像データ200を取得する画像取得部36(取得手段の一例)と、取得された画像データ200に含まれる複数の人物の位置および向きに基づいて、ロボット10の移動先を示す目標点を算出する注目点算出部42および目標点算出部43(算出手段の一例)と、算出された目標点へロボット10を移動させる移動制御部37(移動制御手段の一例)と、算出された目標点において撮影装置21によって取得された画像データ200を、表示端末50へ送信する送受信部31(第1の送信手段の一例)を備える。また、表示端末50は、ロボット10から送信された画像データ200を受信する送受信部51(受信手段の一例)と、受信された画像データ200を、ディスプレイ512(表示手段の一例)に表示させる表示制御部53(表示制御手段の一例)と、を備える。そのため、遠隔制御システム1aは、ロボット10が位置する拠点と表示端末50との間における、ロボット10を用いた遠隔コミュニケーションを活性化させることができる。 Further, the remote control system 1a according to the embodiment of the present invention is via a robot 10 (an example of a moving body) including a photographing device 21 for photographing a subject and acquiring image data 200, the robot 10 and a communication network 9. It is equipped with a display terminal 50 that can communicate with the robot 10 and remotely control the robot 10. Then, the robot 10 is based on the position and orientation of the image acquisition unit 36 (an example of acquisition means) that acquires the image data 200 acquired by the photographing device 21 and a plurality of persons included in the acquired image data 200. , Attention point calculation unit 42 and target point calculation unit 43 (an example of calculation means) that calculate a target point indicating the destination of the robot 10, and movement control unit 37 (movement control) that moves the robot 10 to the calculated target point. An example of the means) and a transmission / reception unit 31 (an example of the first transmission means) for transmitting the image data 200 acquired by the photographing apparatus 21 at the calculated target point to the display terminal 50. Further, the display terminal 50 displays the transmission / reception unit 51 (an example of the receiving means) for receiving the image data 200 transmitted from the robot 10 and the received image data 200 on the display 512 (an example of the display means). A control unit 53 (an example of display control means) is provided. Therefore, the remote control system 1a can activate remote communication using the robot 10 between the base where the robot 10 is located and the display terminal 50.

さらに、本発明の一実施形態に係る遠隔制御システム1bは、被写体を撮影して画像データ200を取得する撮影装置21を備えるロボット10(移動体の一例)と、ロボット10と通信ネットワーク9を介して通信可能であり、ロボット10を遠隔操作する表示端末50と、を備える。そして、表示端末50は、撮影装置21によって取得された画像データ200を取得する送受信部51(取得手段の一例)と、取得された画像データ200に含まれる複数の人物の位置および向きに基づいて、ロボット10の移動先を示す目標点を算出する注目点算出部62および目標点算出部63(算出手段の一例)と、算出された目標点へロボット10を移動させるための要求コマンド(要求情報の一例)を、ロボット10を送信する送受信部51(第2の送信手段の一例)と、を備える。また、ロボット10は、算出された目標点へロボット10を移動させる移動制御部37(移動制御手段の一例)と、表示端末50から送信された要求コマンドに含まれる目標点において撮影装置21によって取得された画像データ200を、表示端末50へ送信する送受信部31(第1の送信手段の一例)と、を備える。さらに、表示端末50は、ロボット10から送信された画像データ200を受信する送受信部51(受信手段の一例)と、受信された画像データ200を、ディスプレイ512(表示手段の一例)に表示させる表示制御部53(表示制御手段の一例)と、を備える。そのため、遠隔制御システム1bは、ロボット10が位置する拠点と表示端末50との間における、ロボット10を用いた遠隔コミュニケーションを活性化させることができる。 Further, the remote control system 1b according to the embodiment of the present invention is via a robot 10 (an example of a moving body) including a photographing device 21 for photographing a subject and acquiring image data 200, and the robot 10 and a communication network 9. It is equipped with a display terminal 50 that can communicate with the robot 10 and remotely control the robot 10. Then, the display terminal 50 is based on the position and orientation of the transmission / reception unit 51 (an example of acquisition means) for acquiring the image data 200 acquired by the photographing device 21 and a plurality of persons included in the acquired image data 200. , Attention point calculation unit 62 and target point calculation unit 63 (an example of calculation means) that calculate a target point indicating the destination of the robot 10, and a request command (request information) for moving the robot 10 to the calculated target point. (Example) is provided with a transmission / reception unit 51 (an example of a second transmission means) for transmitting the robot 10. Further, the robot 10 is acquired by the movement control unit 37 (an example of the movement control means) for moving the robot 10 to the calculated target point and the shooting device 21 at the target point included in the request command transmitted from the display terminal 50. A transmission / reception unit 31 (an example of a first transmission means) for transmitting the generated image data 200 to the display terminal 50 is provided. Further, the display terminal 50 displays the transmission / reception unit 51 (an example of the receiving means) for receiving the image data 200 transmitted from the robot 10 and the received image data 200 on the display 512 (an example of the display means). A control unit 53 (an example of display control means) is provided. Therefore, the remote control system 1b can activate remote communication using the robot 10 between the base where the robot 10 is located and the display terminal 50.

また、本発明の一実施形態に係る遠隔制御システム1cは、被写体を撮影して画像データ200を取得する撮影装置21を備えるロボット10(移動体の一例)と、ロボット10と通信ネットワーク9を介して通信可能であり、ロボット10を遠隔操作する表示端末50と、ロボット10および表示端末50のそれぞれと通信ネットワーク9を介して通信可能な画像処理サーバ70(情報処理装置の一例)と、を備える。そして、画像処理サーバ70は、撮影装置21によって取得された画像データ200を取得する送受信部71(取得手段の一例)と、取得された画像データ200に含まれる複数の人物の位置および向きに基づいて、ロボット10の移動先を示す目標点を算出する注目点算出部75および目標点算出部76(算出手段の一例)と、算出された目標点へロボット10を移動させるための要求データ(要求情報の一例)を、ロボット10を送信する送受信部71(第3の送信手段の一例)と、を備える。また、ロボット10は、算出された目標点へロボット10を移動させる移動制御部37(移動制御手段の一例)と、画像処理サーバ70から送信された要求データに含まれる目標点において撮影装置21によって取得された画像データ200を、表示端末50へ送信する送受信部31(第1の送信手段の一例)と、を備える。さらに、表示端末50は、ロボット10から送信された画像データ200を受信する送受信部51(受信手段の一例)と、受信された画像データ200を、ディスプレイ512(表示手段の一例)に表示させる表示制御部53(表示制御手段の一例)と、を備える。そのため、遠隔制御システム1cは、ロボット10が位置する拠点と表示端末50との間における、ロボット10を用いた遠隔コミュニケーションを活性化させることができる。 Further, the remote control system 1c according to the embodiment of the present invention is via a robot 10 (an example of a moving body) including a photographing device 21 for photographing a subject and acquiring image data 200, the robot 10 and a communication network 9. A display terminal 50 that can remotely control the robot 10 and an image processing server 70 (an example of an information processing device) that can communicate with each of the robot 10 and the display terminal 50 via a communication network 9 are provided. .. Then, the image processing server 70 is based on the position and orientation of the transmission / reception unit 71 (an example of acquisition means) for acquiring the image data 200 acquired by the photographing device 21 and a plurality of persons included in the acquired image data 200. The point of interest calculation unit 75 and the target point calculation unit 76 (an example of the calculation means) for calculating the target point indicating the destination of the robot 10 and the request data (request) for moving the robot 10 to the calculated target point. An example of information) is provided with a transmission / reception unit 71 (an example of a third transmission means) for transmitting the robot 10. Further, the robot 10 is moved by the movement control unit 37 (an example of the movement control means) for moving the robot 10 to the calculated target point, and the photographing device 21 at the target point included in the request data transmitted from the image processing server 70. A transmission / reception unit 31 (an example of a first transmission means) for transmitting the acquired image data 200 to the display terminal 50 is provided. Further, the display terminal 50 displays the transmission / reception unit 51 (an example of the receiving means) for receiving the image data 200 transmitted from the robot 10 and the received image data 200 on the display 512 (an example of the display means). A control unit 53 (an example of display control means) is provided. Therefore, the remote control system 1c can activate remote communication using the robot 10 between the base where the robot 10 is located and the display terminal 50.

●補足●
なお、各実施形態の機能は、アセンブラ、C、C++、C#、Java(登録商標)等のレガシープログラミング言語やオブジェクト指向プログラミング言語等で記述されたコンピュータ実行可能なプログラムにより実現でき、ROM、EEPROM、EPROM(Erasable Programmable Read-Only Memory)、フラッシュメモリ、フレキシブルディスク、CD-ROM、CD-RW、DVD-ROM、DVD-RAM、DVD-RW、ブルーレイディスク、SDカード、MO(Magneto-Optical disc)等の装置可読な記録媒体に格納して、または電気通信回線を通じて頒布することができる。
● Supplement ●
The functions of each embodiment can be realized by a computer-executable program described in a legacy programming language such as an assembler, C, C ++, C #, Java (registered trademark), an object-oriented programming language, or the like, and ROM, EEPROM. , EPROM (Erasable Programmable Read-Only Memory), flash memory, flexible disc, CD-ROM, CD-RW, DVD-ROM, DVD-RAM, DVD-RW, Blu-ray disc, SD card, MO (Magneto-Optical disc) Can be stored in a readable recording medium such as, or distributed through a telecommunications line.

また、各実施形態の機能の一部または全部は、例えばFPGA(Field Programmable Gate Array)等のプログラマブル・デバイス(PD)上に実装することができ、またはASICとして実装することができ、各実施形態の機能をPD上に実現するためにPDにダウンロードする回路構成データ(ビットストリームデータ)、回路構成データを生成するためのHDL(Hardware Description Language)、VHDL(Very High Speed Integrated Circuits Hardware Description Language)、Verilog-HDL等により記述されたデータとして記録媒体により配布することができる。 In addition, some or all of the functions of each embodiment can be implemented on a programmable device (PD) such as an FPGA (Field Programmable Gate Array), or can be implemented as an ASIC, and each embodiment can be implemented. Circuit configuration data (bitstream data) downloaded to PD to realize the functions of PD, HDL (Hardware Description Language) for generating circuit configuration data, VHDL (Very High Speed Integrated Circuits Hardware Description Language), It can be distributed by a recording medium as data described by Verilog-HDL or the like.

これまで本発明の一実施形態に係る情報処理装置、移動体、遠隔制御システム、情報処理方法およびプログラムについて説明してきたが、本発明は上述した実施形態に限定されるものではなく、他の実施形態の追加、変更または削除等、当業者が想到することができる範囲内で変更することができ、いずれの態様においても本発明の作用・効果を奏する限り、本発明の範囲に含まれるものである。 Although the information processing apparatus, mobile body, remote control system, information processing method and program according to one embodiment of the present invention have been described so far, the present invention is not limited to the above-described embodiment, and other embodiments are made. It can be changed within the range that can be conceived by those skilled in the art, such as addition, change or deletion of the form, and it is included in the scope of the present invention as long as the action and effect of the present invention are exhibited in any of the embodiments. be.

1a、1b、1c 遠隔制御システム
10 ロボット(移動体の一例)
17 移動機構
21 撮影装置
30 制御装置(情報処理装置の一例)
31 送受信部(第1の送信手段の一例)
36 画像取得部(取得手段の一例)
37 移動制御部(移動制御手段の一例)
39 位置特定部(位置検出手段の一例)
41 画像処理部
42 注目点算出部(算出手段の一例、推定手段の一例、注目点特定手段の一例)
43 目標点算出部(算出手段の一例、目標点特定手段の一例)
45 存在通知部(存在通知手段の一例)
50 表示端末(情報処理装置の一例)
51 送受信部(取得手段の一例、受信手段の一例、第2の送信手段の一例)
53 表示制御部(表示制御手段の一例)
61 画像処理部
62 注目点算出部(算出手段の一例、推定手段の一例、注目点特定手段の一例)
63 目標点算出部(算出手段の一例、目標点特定手段の一例)
70 画像処理サーバ(情報処理装置の一例)
71 送受信部(取得手段の一例、第3の送信手段の一例)
74 画像処理部
75 注目点算出部(算出手段の一例、推定手段の一例、注目点特定手段の一例)
76 目標点算出部(算出手段の一例、目標点特定手段の一例)
90 管理サーバ
1a, 1b, 1c Remote control system 10 Robot (an example of a moving body)
17 Mobile mechanism 21 Imaging device 30 Control device (example of information processing device)
31 Transmission / reception unit (an example of the first transmission means)
36 Image acquisition unit (example of acquisition means)
37 Movement control unit (an example of movement control means)
39 Positioning part (an example of position detecting means)
41 Image processing unit 42 Point of interest calculation unit (an example of calculation means, an example of estimation means, an example of attention point identification means)
43 Target point calculation unit (an example of calculation means, an example of target point identification means)
45 Presence notification unit (an example of existence notification means)
50 Display terminal (example of information processing device)
51 Transmission / reception unit (example of acquisition means, example of reception means, example of second transmission means)
53 Display control unit (an example of display control means)
61 Image processing unit 62 Focus point calculation unit (example of calculation means, estimation means, focus point identification means)
63 Target point calculation unit (an example of calculation means, an example of target point identification means)
70 Image processing server (an example of information processing device)
71 Transmission / reception unit (an example of acquisition means, an example of a third transmission means)
74 Image processing unit 75 Point of interest calculation unit (an example of calculation means, an example of estimation means, an example of attention point identification means)
76 Target point calculation unit (an example of calculation means, an example of target point identification means)
90 Management server

特開2012-161851号公報Japanese Unexamined Patent Publication No. 2012-161851

Claims (13)

被写体を撮影して画像データを取得する撮影装置を備える移動体の位置を調整する情報処理装置であって、
前記撮影装置によって取得された前記画像データを取得する取得手段と、
前記取得された画像データに含まれる複数の人物の位置および向きに基づいて前記複数の人物が注目する注目点を特定する注目点特定手段と、
前記特定された注目点に基づいて前記移動体の移動先を示す目標点を特定する目標点特定手段と、を備え、
前記移動体を特定された前記目標点へ移動させる情報処理装置。
An information processing device that adjusts the position of a moving object equipped with a shooting device that shoots a subject and acquires image data.
An acquisition means for acquiring the image data acquired by the photographing apparatus, and
A point-of-focusing means for identifying a point of interest that the plurality of persons pay attention to based on the positions and orientations of the plurality of persons included in the acquired image data.
A target point specifying means for specifying a target point indicating a movement destination of the moving body based on the specified attention point is provided.
An information processing device that moves the moving body to the specified target point.
前記目標点特定手段は、前記複数の人物のうち少なくとも一つの人物の位置または向きが変化した場合、変化した人物の位置または向きに基づいて、前記目標点を特定する、請求項1に記載の情報処理装置。 The target point specifying means according to claim 1, wherein when the position or orientation of at least one of the plurality of persons changes, the target point is specified based on the changed position or orientation of the person. Information processing device. 前記目標点は、前記移動先の目標位置を示す位置情報を含み、
前記目標点特定手段は、
前記注目点から、前記注目点と前記複数の人物との距離の平均値だけ離れた位置を、前記目標位置として特定する請求項1または2に記載の情報処理装置。
The target point includes position information indicating the target position of the destination, and the target point includes position information.
The target point specifying means is
The information processing apparatus according to claim 1 or 2 , wherein a position separated from the attention point by an average value of the distances between the attention point and the plurality of persons is specified as the target position.
前記目標点は、前記移動先における前記移動体の向きを示す方向情報を含み、
前記目標点特定手段は、
現在の移動体の位置から見た前記注目点の方向を、前記移動体の向きとして特定する、請求項1乃至3のいずれか一項に記載の情報処理装置。
The target point includes direction information indicating the direction of the moving body at the moving destination.
The target point specifying means is
The information processing apparatus according to any one of claims 1 to 3 , wherein the direction of the point of interest as seen from the position of the current moving body is specified as the direction of the moving body.
請求項1乃至のいずれか一項に記載の情報処理装置と、
前記特定された目標点へ前記移動体を移動させる移動機構と、
を備えた移動体。
The information processing apparatus according to any one of claims 1 to 4 .
A moving mechanism that moves the moving body to the specified target point,
A mobile body equipped with.
請求項に記載の移動体であって、更に、
前記移動体の現在位置を検出する位置検出手段と、
前記検出された現在位置と前記特定された目標点との距離が閾値以下または閾値より小さい場合、前記移動体の存在を通知する通知情報を出力する存在通知手段と、
を備える移動体。
The moving body according to claim 5 , further
A position detecting means for detecting the current position of the moving body and
When the distance between the detected current position and the specified target point is equal to or less than the threshold value or smaller than the threshold value, the existence notification means for outputting the notification information for notifying the existence of the moving body and the presence notification means.
A mobile body equipped with.
前記通知情報は、音信号であり、
前記存在通知手段は、検出された現在位置と前記特定された目標点との距離が閾値以上または閾値より長い場合、前記音信号を出力する、請求項に記載の移動体。
The notification information is a sound signal and is
The moving body according to claim 6 , wherein the presence notification means outputs the sound signal when the distance between the detected current position and the specified target point is equal to or greater than a threshold value or longer than the threshold value.
被写体を撮影して画像データを取得する撮影装置を備える移動体と、前記移動体と通信ネットワークを介して通信可能であり、前記移動体を遠隔操作する表示端末と、を備える遠隔制御システムであって、
前記撮影装置によって取得された前記画像データを取得する取得手段と、
前記取得された画像データに含まれる複数の人物の位置および向きに基づいて前記複数の人物が注目する注目点を特定する注目点特定手段と、
前記特定された注目点に基づいて前記移動体の移動先を示す目標点を特定する目標点特定手段と、
前記特定された目標点へ前記移動体を移動させる移動制御手段と、
を備える遠隔制御システム。
It is a remote control system including a moving body provided with a photographing device for photographing a subject and acquiring image data, and a display terminal capable of communicating with the moving object via a communication network and remotely controlling the moving object. hand,
An acquisition means for acquiring the image data acquired by the photographing apparatus, and
A point-of-focusing means for identifying a point of interest that the plurality of persons pay attention to based on the positions and orientations of the plurality of persons included in the acquired image data.
A target point specifying means for specifying a target point indicating a destination of the moving body based on the specified attention point, and a target point specifying means .
A movement control means for moving the moving body to the specified target point, and
Remote control system with.
請求項に記載の遠隔制御システムであって、
前記移動体は、
前記特定された目標点において前記撮影装置によって取得された画像データを、前記表示端末へ送信する第1の送信手段を備え、
前記表示端末は、
前記第1の送信手段によって送信された前記画像データを受信する受信手段と、
前記受信された画像データを、表示手段に表示させる表示制御手段と、を備える遠隔制御システム。
The remote control system according to claim 8 .
The moving body is
A first transmission means for transmitting image data acquired by the photographing apparatus at the specified target point to the display terminal is provided.
The display terminal is
A receiving means for receiving the image data transmitted by the first transmitting means, and a receiving means.
A remote control system including a display control means for displaying the received image data on the display means.
請求項に記載の遠隔制御システムであって、
前記表示端末は、
前記特定された目標点へ前記移動体を移動させるための要求情報を、前記移動体へ送信する第2の送信手段を備え、
前記移動体は、
前記第2の送信手段によって送信された前記要求情報に含まれる前記目標点において前記撮影装置によって取得された画像データを、前記表示端末へ送信する第1の送信手段を備え、
前記表示端末は、更に、
前記第1の送信手段によって送信された前記画像データを受信する受信手段と、
前記受信された画像データを、表示手段に表示させる表示制御手段と、を備える遠隔制御システム。
The remote control system according to claim 8 .
The display terminal is
A second transmission means for transmitting the request information for moving the moving body to the specified target point to the moving body is provided.
The moving body is
A first transmission means for transmitting image data acquired by the photographing apparatus at the target point included in the request information transmitted by the second transmission means to the display terminal is provided.
The display terminal further
A receiving means for receiving the image data transmitted by the first transmitting means, and a receiving means.
A remote control system including a display control means for displaying the received image data on the display means.
請求項10に記載の遠隔制御システムであって、更に、
前記移動体および前記表示端末のそれぞれと前記通信ネットワークを介して通信可能な情報処理装置を備え、
前記情報処理装置は、
前記特定された目標点へ前記移動体を移動させるための要求情報を、前記移動体へ送信する第3の送信手段を備え、
前記移動体は、
前記第3の送信手段によって送信された前記要求情報に含まれる前記目標点において前記撮影装置によって取得された画像データを、前記表示端末へ送信する第1の送信手段を備え、
前記表示端末は、
前記第1の送信手段によって送信された前記画像データを受信する受信手段と、
前記受信された画像データを、表示手段に表示させる表示制御手段と、を備える遠隔制御システム。
The remote control system according to claim 10 , further
An information processing device capable of communicating with each of the mobile body and the display terminal via the communication network is provided.
The information processing device is
A third transmission means for transmitting the request information for moving the moving body to the specified target point to the moving body is provided.
The moving body is
A first transmission means for transmitting image data acquired by the photographing apparatus at the target point included in the request information transmitted by the third transmission means to the display terminal is provided.
The display terminal is
A receiving means for receiving the image data transmitted by the first transmitting means, and a receiving means.
A remote control system including a display control means for displaying the received image data on the display means.
被写体を撮影して画像データを取得する撮影装置を備える移動体の位置を調整する情報処理装置が実行する情報処理方法であって、
前記撮影装置によって取得された前記画像データを取得する取得ステップと、
前記取得された画像データに含まれる複数の人物の位置および向きに基づいて前記複数の人物が注目する注目点を特定する注目点特定ステップと、
前記特定された注目点に基づいて前記移動体の移動先を示す目標点を特定する目標点特定ステップと、を実行し、
前記移動体を特定された前記目標点へ移動させる情報処理方法。
It is an information processing method executed by an information processing device that adjusts the position of a moving object equipped with a shooting device that shoots a subject and acquires image data.
The acquisition step of acquiring the image data acquired by the photographing apparatus, and
A focus point specifying step for identifying a focus point to be focused on by the plurality of persons based on the positions and orientations of the plurality of persons included in the acquired image data.
A target point specifying step of specifying a target point indicating the destination of the moving body based on the specified attention point is executed.
An information processing method for moving the moving body to the specified target point.
コンピュータに、請求項12に記載の方法を実行させるプログラム。 A program that causes a computer to perform the method according to claim 12 .
JP2018123662A 2018-06-28 2018-06-28 Information processing equipment, mobiles, remote control systems, information processing methods and programs Active JP7091880B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018123662A JP7091880B2 (en) 2018-06-28 2018-06-28 Information processing equipment, mobiles, remote control systems, information processing methods and programs
JP2022096746A JP7400882B2 (en) 2018-06-28 2022-06-15 Information processing device, mobile object, remote control system, information processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018123662A JP7091880B2 (en) 2018-06-28 2018-06-28 Information processing equipment, mobiles, remote control systems, information processing methods and programs

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022096746A Division JP7400882B2 (en) 2018-06-28 2022-06-15 Information processing device, mobile object, remote control system, information processing method and program

Publications (2)

Publication Number Publication Date
JP2020005147A JP2020005147A (en) 2020-01-09
JP7091880B2 true JP7091880B2 (en) 2022-06-28

Family

ID=69100641

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018123662A Active JP7091880B2 (en) 2018-06-28 2018-06-28 Information processing equipment, mobiles, remote control systems, information processing methods and programs
JP2022096746A Active JP7400882B2 (en) 2018-06-28 2022-06-15 Information processing device, mobile object, remote control system, information processing method and program

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022096746A Active JP7400882B2 (en) 2018-06-28 2022-06-15 Information processing device, mobile object, remote control system, information processing method and program

Country Status (1)

Country Link
JP (2) JP7091880B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7091880B2 (en) * 2018-06-28 2022-06-28 株式会社リコー Information processing equipment, mobiles, remote control systems, information processing methods and programs
JP2022163353A (en) 2021-04-14 2022-10-26 トヨタ自動車株式会社 Remote robot system and control method of the same
CN114714321A (en) * 2022-04-06 2022-07-08 深圳市普渡科技有限公司 Robot and distribution method, control device and storage medium thereof
CN116088580B (en) * 2023-02-15 2023-11-07 北京拙河科技有限公司 Flying object tracking method and device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008005208A (en) 2006-06-22 2008-01-10 Nec Corp Camera automatic control system for athletics, camera automatic control method, camera automatic control unit, and program
JP2012076162A (en) 2010-09-30 2012-04-19 Waseda Univ Conversation robot
JP2017188715A (en) 2016-04-01 2017-10-12 富士通フロンテック株式会社 Video display system and video display method
JP2018085579A (en) 2016-11-21 2018-05-31 シャープ株式会社 Imaging apparatus, control method, and information processing program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5219535B2 (en) * 2008-02-07 2013-06-26 国立大学法人埼玉大学 Autonomous mobile wheelchair
JP7091880B2 (en) * 2018-06-28 2022-06-28 株式会社リコー Information processing equipment, mobiles, remote control systems, information processing methods and programs

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008005208A (en) 2006-06-22 2008-01-10 Nec Corp Camera automatic control system for athletics, camera automatic control method, camera automatic control unit, and program
JP2012076162A (en) 2010-09-30 2012-04-19 Waseda Univ Conversation robot
JP2017188715A (en) 2016-04-01 2017-10-12 富士通フロンテック株式会社 Video display system and video display method
JP2018085579A (en) 2016-11-21 2018-05-31 シャープ株式会社 Imaging apparatus, control method, and information processing program

Also Published As

Publication number Publication date
JP2022141639A (en) 2022-09-29
JP2020005147A (en) 2020-01-09
JP7400882B2 (en) 2023-12-19

Similar Documents

Publication Publication Date Title
US11151773B2 (en) Method and apparatus for adjusting viewing angle in virtual environment, and readable storage medium
US11703993B2 (en) Method, apparatus and device for view switching of virtual environment, and storage medium
JP7400882B2 (en) Information processing device, mobile object, remote control system, information processing method and program
WO2019153824A1 (en) Virtual object control method, device, computer apparatus, and storage medium
WO2020253655A1 (en) Method for controlling multiple virtual characters, device, apparatus, and storage medium
CN108888959B (en) Team forming method and device in virtual scene, computer equipment and storage medium
KR20200087260A (en) Method for indicating marker point location, electronic device, and computer readable storage medium
JP7026819B2 (en) Camera positioning method and equipment, terminals and computer programs
US10110830B2 (en) Multiple streaming camera navigation interface system
KR20180112599A (en) Mobile terminal and method for controlling the same
US20210268380A1 (en) Method and apparatus for observing virtual item in virtual environment and readable storage medium
KR20150131815A (en) Mobile terminal and controlling method thereof
JP2020005146A (en) Output control device, display terminal, information processing apparatus, movable body, remote control system, output control method, program, and photographing control device
US10832489B2 (en) Presenting location based icons on a device display
KR20160100188A (en) Mobile terminal and method of controlling the same
KR20170011194A (en) Mobile terminal and method for controlling the same
ES2976717T3 (en) Session creation method and terminal device
US10338768B1 (en) Graphical user interface for finding and depicting individuals
CN110213205B (en) Verification method, device and equipment
CN112717409B (en) Virtual vehicle control method, device, computer equipment and storage medium
CN114826799A (en) Information acquisition method, device, terminal and storage medium
CN112870712A (en) Method and device for displaying picture in virtual scene, computer equipment and storage medium
JP2004219847A (en) Miniaturized mobile terminal
US20230308705A1 (en) Communication terminal, communication management system, remote operation method, processing method, and communication management method
US11413520B2 (en) Method and system for a personal interaction game platform

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220301

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220426

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220517

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220530

R151 Written notification of patent or utility model registration

Ref document number: 7091880

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151