Nothing Special   »   [go: up one dir, main page]

JP6721023B2 - Information processing device and program - Google Patents

Information processing device and program Download PDF

Info

Publication number
JP6721023B2
JP6721023B2 JP2018208458A JP2018208458A JP6721023B2 JP 6721023 B2 JP6721023 B2 JP 6721023B2 JP 2018208458 A JP2018208458 A JP 2018208458A JP 2018208458 A JP2018208458 A JP 2018208458A JP 6721023 B2 JP6721023 B2 JP 6721023B2
Authority
JP
Japan
Prior art keywords
function
information
image
unit
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018208458A
Other languages
Japanese (ja)
Other versions
JP2019077033A (en
Inventor
賢吾 得地
賢吾 得地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP2018208458A priority Critical patent/JP6721023B2/en
Publication of JP2019077033A publication Critical patent/JP2019077033A/en
Application granted granted Critical
Publication of JP6721023B2 publication Critical patent/JP6721023B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Manipulator (AREA)

Description

本発明は、情報処理装置及びプログラムに関する。 The present invention relates to an information processing device and a program.

特許文献1−3には、他の機器と連携して処理を実行するロボット装置が開示されている。 Patent Documents 1 to 3 disclose a robot device that executes a process in cooperation with another device.

特開2014−188597号公報JP, 2014-188597, A 特開平5−65766号公報JP-A-5-65766 特開2005−111637号公報JP, 2005-111637, A

一般的に、発生した問題を情報処理装置が解決する手段は、予め定められている。それ故、情報処理装置が置かれている状況に応じて臨機応変に手段を変えて問題を解決できない場合がある。 In general, the means by which the information processing device solves the problem that has occurred is predetermined. Therefore, there are cases where the problem cannot be solved by flexibly changing the means according to the situation where the information processing apparatus is placed.

本発明の目的は、状況に応じて問題を解決することができるようにすることにある。 An object of the present invention is to be able to solve a problem depending on the situation.

請求項1に記載の発明は、周囲の状況を検知する検知手段と、自装置の機能だけでは前記状況の問題を解決することができない場合、前記状況に関する情報を、前記状況の問題が生じていると想定されるユーザの端末装置として識別された端末装置送信するための制御を行う制御手段と、を有し、前記制御手段は、前記状況に関する情報ではユーザが前記状況を理解することができない旨を示す情報を受けた場合、ユーザが追加情報を入力するための画面の表示を制御する、情報処理装置である。 According to the invention described in claim 1, when the problem of the situation cannot be solved only by the detection means for detecting the surrounding situation and the function of the own device, the information about the situation is provided as the problem of the situation. And a control unit that performs control for transmitting to a terminal device that is identified as the user 's terminal device that is assumed to be present, and the control unit is such that the user can understand the situation in the information regarding the situation. The information processing apparatus controls the display of a screen for the user to input additional information when the information indicating that the information cannot be received is received.

請求項2に記載の発明は、前記追加情報は、ユーザの要求に関する情報である、ことを特徴とする請求項1に記載の情報処理装置である。 The invention according to claim 2 is the information processing apparatus according to claim 1, wherein the additional information is information related to a user request.

請求項3に記載の発明は、前記制御手段は、前記要求に応じた情報を収集し、その情報の表示を制御する、ことを特徴とする請求項2に記載の情報処理装置である。 The invention according to claim 3 is the information processing apparatus according to claim 2, wherein the control means collects information in response to the request and controls display of the information.

請求項4に記載の発明は、前記制御手段は、更に、自装置の周囲に存在する機器の画像を前記端末装置に送信し、前記機器の画像は、前記端末装置に表示される、ことを特徴とする請求項1から請求項3のいずれか一項に記載の情報処理装置である。 In the invention according to claim 4, the control means further transmits an image of a device existing around the device itself to the terminal device, and the image of the device is displayed on the terminal device. The information processing apparatus according to any one of claims 1 to 3, which is characterized.

請求項5に記載の発明は、前記制御手段は、更に、前記機器の画像が前記ユーザによって指定され、前記状況の問題を解決するための解決手段の実行の指示が前記ユーザによって与えられた場合、その実行の指示を前記機器に送信する、ことを特徴とする請求項4に記載の情報処理装置である。 According to a fifth aspect of the present invention, in the control means, the image of the device is further designated by the user, and an instruction to execute a solving means for solving the problem of the situation is given by the user. The information processing apparatus according to claim 4, further comprising: transmitting an instruction to execute the execution to the device.

請求項に記載の発明は、コンピュータを、周囲の状況を検知する検知手段、情報処理装置の機能だけでは前記状況の問題を解決することができない場合、前記状況に関する情報を、前記状況の問題が生じていると想定されるユーザの端末装置として識別された端末装置送信するための制御を行う制御手段、として機能させ、前記制御手段は、前記状況に関する情報ではユーザが前記状況を理解することができない旨を示す情報を受けた場合、ユーザが追加情報を入力するための画面の表示を制御する、プログラムである。 In the invention according to claim 6, when the problem of the situation cannot be solved only by the function of the detection means for detecting the surrounding situation of the computer and the information processing apparatus, the information about the situation is provided as the problem of the situation. Is operated as control means for performing control for transmitting to the terminal device identified as the user 's terminal device that is assumed to occur, and the control means causes the user to understand the situation in the information regarding the situation. A program that controls the display of a screen for the user to input additional information when receiving information indicating that it is not possible.

請求項1−に記載の発明によれば、状況に応じて問題を解決することが可能となる。 According to the invention described in claims 1 to 6 , it is possible to solve the problem depending on the situation.

本実施形態に係る機器システムを示すブロック図である。It is a block diagram showing a device system concerning this embodiment. 本実施形態に係るロボット装置の外観を示す図である。It is a figure which shows the external appearance of the robot apparatus which concerns on this embodiment. 本実施形態に係るロボット装置を示すブロック図である。It is a block diagram which shows the robot apparatus which concerns on this embodiment. 端末装置を示すブロック図である。It is a block diagram which shows a terminal device. 無線通信技術の特性を示す図である。It is a figure which shows the characteristic of wireless communication technology. 無線通信技術の特性を示す図である。It is a figure which shows the characteristic of wireless communication technology. 所有機能管理テーブルを示す図である。It is a figure which shows an owned function management table. 非所有機能管理テーブルを示す図である。It is a figure which shows a non-owned function management table. 解決手段管理テーブルを示す図である。It is a figure which shows a solving means management table. デバイス機能管理テーブルを示す図である。It is a figure which shows a device function management table. 連携機能管理テーブルを示す図である。It is a figure which shows a cooperation function management table. 状況確認処理の概略を示すフローチャートである。It is a flow chart which shows an outline of situation confirmation processing. 状況確認処理の詳細を示すフローチャートである。It is a flow chart which shows the details of situation confirmation processing. ユーザ判断モードにおける処理を示すフローチャートである。It is a flowchart which shows the process in a user determination mode. 自律判断モードにおける処理を示すフローチャートである。It is a flow chart which shows processing in autonomous judgment mode. 解決手段の実行制御を示すフローチャートである。It is a flow chart which shows execution control of a solving means. ロボット装置の適用場面1を説明するための図である。It is a figure for demonstrating the application scene 1 of a robot apparatus. ロボット装置の適用場面2を説明するための図である。It is a figure for demonstrating the application scene 2 of a robot apparatus. ロボット装置の適用場面3を説明するための図である。It is a figure for demonstrating the application scene 3 of a robot apparatus. ロボット装置の適用場面4を説明するための図である。It is a figure for demonstrating the application scene 4 of a robot apparatus. 画面を示す図である。It is a figure which shows a screen. 画面を示す図である。It is a figure which shows a screen. 画面を示す図である。It is a figure which shows a screen. 画面を示す図である。It is a figure which shows a screen. 画面を示す図である。It is a figure which shows a screen. 画面を示す図である。It is a figure which shows a screen. 画面を示す図である。It is a figure which shows a screen. 画面を示す図である。It is a figure which shows a screen. 画面を示す図である。It is a figure which shows a screen. 画面を示す図である。It is a figure which shows a screen. 機器の外観を模式的に示す図である。It is a figure which shows the external appearance of an apparatus typically. 画面を示す図である。It is a figure which shows a screen. 画面を示す図である。It is a figure which shows a screen. 画面を示す図である。It is a figure which shows a screen. 画面を示す図である。It is a figure which shows a screen. 接続処理を示すフローチャートである。It is a flowchart which shows a connection process. 連携機能管理テーブルを示す図である。It is a figure which shows a cooperation function management table. 画面を示す図である。It is a figure which shows a screen. 画面を示す図である。It is a figure which shows a screen. デバイス機能管理テーブルを示す図である。It is a figure which shows a device function management table. 画面を示す図である。It is a figure which shows a screen. デバイス機能管理テーブルを示す図である。It is a figure which shows a device function management table. 連携機能管理テーブルを示す図である。It is a figure which shows a cooperation function management table. 画面を示す図である。It is a figure which shows a screen. 画面を示す図である。It is a figure which shows a screen. 画面を示す図である。It is a figure which shows a screen.

図1を参照して、本発明の実施形態に係る情報処理システムとしての機器システムについて説明する。図1には、本実施形態に係る機器システムの一例が示されている。 A device system as an information processing system according to an embodiment of the present invention will be described with reference to FIG. 1. FIG. 1 shows an example of a device system according to this embodiment.

本実施形態に係る機器システムは、例えば、ロボット装置10と、1又は複数の機器12と、端末装置14と、を含む。ロボット装置10、機器12及び端末装置14は、例えば、ネットワーク等の通信経路Nを介して他の装置と通信してもよいし、それぞれ異なる通信経路を介して他の装置と通信してもよい。もちろん、図1に示されている構成は一例に過ぎず、ロボット装置10、機器12及び端末装置14は、他の装置と通信しなくてもよい。 The device system according to the present embodiment includes, for example, a robot device 10, one or a plurality of devices 12, and a terminal device 14. The robot device 10, the device 12, and the terminal device 14 may communicate with other devices via a communication path N such as a network, or may communicate with other devices via different communication paths. .. Of course, the configuration shown in FIG. 1 is merely an example, and the robot device 10, the device 12, and the terminal device 14 may not communicate with other devices.

図1に示す例では、1つの機器12が機器システムに含まれているが、複数の機器12が機器システムに含まれていてもよい。この場合、同一の機能を有する複数の機器12が機器システムに含まれていてもよいし、互いに異なる機能を有する複数の機器12が機器システムに含まれていてもよい。また、1つの端末装置14が機器システムに含まれているが、複数の端末装置14が機器システムに含まれていてもよい。サーバ等の他の装置が機器システムに含まれていてもよい。 In the example shown in FIG. 1, one device 12 is included in the device system, but a plurality of devices 12 may be included in the device system. In this case, a plurality of devices 12 having the same function may be included in the device system, or a plurality of devices 12 having different functions may be included in the device system. Further, although one terminal device 14 is included in the equipment system, a plurality of terminal devices 14 may be included in the equipment system. Other devices such as a server may be included in the equipment system.

ロボット装置10は、ロボット装置10の周囲の状況を検知し、発生した問題を検知する機能を有する装置である。ロボット装置10は、移動しながら周囲の状況を検知してもよいし、停止した状態で周囲の状況を検知してもよい。問題が検知された場合、ロボット装置10は、ロボット装置10自身によって問題を解決できるか否かを判断し、その判断結果に応じた処理を行う。ロボット装置10によって問題を解決できる場合、ロボット装置10は問題を解決するための解決手段を実行することで、その問題を解決する。ロボット装置10によって問題を解決できない場合、ロボット装置10は、ロボット装置10以外の要素を利用する解決手段を実行するための制御を行う。要素は、例えば、人、ロボット装置10以外の機器、ロボット装置10以外のロボット装置、等である。もちろん、要素に、ロボット装置10自身が含まれてもよい。例えば、ロボット装置10は、他の機器に問題を解決させてもよいし、人に協力を依頼してもよいし、他の機器と人に問題を解決させてもよいし、他の機器や人と共同して問題を解決してもよい。 The robot device 10 is a device having a function of detecting a situation around the robot device 10 and detecting a problem that has occurred. The robot apparatus 10 may detect the surrounding situation while moving, or may detect the surrounding situation while stopped. When a problem is detected, the robot apparatus 10 determines whether the problem can be solved by the robot apparatus 10 itself, and performs processing according to the determination result. When the problem can be solved by the robot device 10, the robot device 10 solves the problem by executing a solution for solving the problem. If the problem cannot be solved by the robot device 10, the robot device 10 performs control for executing a solving means that uses an element other than the robot device 10. The element is, for example, a person, a device other than the robot device 10, a robot device other than the robot device 10, or the like. Of course, the element may include the robot apparatus 10 itself. For example, the robot apparatus 10 may cause another device to solve the problem, may request a person to cooperate, may cause the other device and the person to solve the problem, or may You may work with others to solve the problem.

ロボット装置10によって検知された問題は、例えば、ロボット装置10のみによって解決できる問題、ロボット装置10以外の他の機器のみによって解決できる問題、人のみによって解決できる問題、他の機器と人との共同作業によって解決できる問題、ロボット装置10と人との共同作業によって解決できる問題、他の機器とロボット装置10との共同作業によって解決できる問題、他の機器と他のロボット装置とロボット装置10との共同作業によって解決できる問題、他の機器と人とロボット装置10との共同作業によって解決できる問題、等である。つまり、解決手段は、例えば、ロボット装置10のみによって実現される手段、他の機器のみによって実現される手段、人のみによって実現される手段、他の機器と人との共同作業によって実現される手段、ロボット装置10と人との共同作業によって実現される手段、他の機器とロボット装置10との共同作業によって実現される手段、他の機器と他のロボット装置とロボット装置10との共同作業によって実現される手段、他の機器と人とロボット装置10との共同作業によって実現される手段、等である。 The problem detected by the robot device 10 is, for example, a problem that can be solved only by the robot device 10, a problem that can be solved only by a device other than the robot device 10, a problem that can be solved only by a person, a collaboration between another device and a person. Problems that can be solved by work, problems that can be solved by the joint work of the robot apparatus 10 and a person, problems that can be solved by the joint work of the other apparatus and the robot apparatus 10, and between the other apparatus and the other robot apparatus and the robot apparatus 10. These are problems that can be solved by collaborative work, problems that can be solved by collaborative work between other devices, people, and the robot apparatus 10. That is, the solving means is, for example, a means realized only by the robot apparatus 10, a means realized only by another device, a means realized only by a person, a means realized by a joint work between another device and a person. , Means realized by the joint work of the robot apparatus 10 and a person, means realized by the joint work of the robot apparatus 10 with another device, by the joint work of the robot apparatus 10 with another device and another robot apparatus. Means to be realized, means to be realized by collaborative work between another device, a person, and the robot apparatus 10, and the like.

機器12は、特定の機能を有する装置であり、例えば、画像形成機能を備えた画像形成装置、パーソナルコンピュータ(PC)、液晶ディスプレイやプロジェクタ等の表示装置、香りを発生するアロマ器、電話機、時計、カメラ、監視カメラ、自動販売機、空調機(エアコン、クーラー等)、扇風機、加湿器、等の装置である。もちろん、これら以外の機器が機器システムに含まれていてもよい。なお、機器が有する機能によっては、機器もロボット装置の範疇に含まれ得る。 The device 12 is a device having a specific function, and includes, for example, an image forming device having an image forming function, a personal computer (PC), a display device such as a liquid crystal display or a projector, an aroma device for generating a scent, a telephone, and a clock. , Cameras, surveillance cameras, vending machines, air conditioners (air conditioners, coolers, etc.), fans, humidifiers, etc. Of course, devices other than these may be included in the device system. Note that the device may be included in the category of the robot device depending on the function of the device.

端末装置14は、例えば、パーソナルコンピュータ(PC)、タブレットPC、スマートフォン、携帯電話、等の装置である。端末装置14は、例えば、問題を解決するための解決手段の実行時等にユーザによって利用される。 The terminal device 14 is, for example, a device such as a personal computer (PC), a tablet PC, a smartphone, or a mobile phone. The terminal device 14 is used by a user, for example, at the time of executing a solution for solving a problem.

本実施形態では、ロボット装置10によって周囲の状況が検知され、その状況の問題に応じて、その問題を解決するための解決手段を実行するための制御が行われる。 In the present embodiment, the robot apparatus 10 detects a surrounding situation, and controls for executing a solving means for solving the problem according to the problem of the situation.

以下、本実施形態に係る機器システムに含まれる各装置について詳しく説明する。 Hereinafter, each device included in the device system according to the present embodiment will be described in detail.

図2には、ロボット装置10の外観が示されている。ロボット装置10は、例えば、人型のロボットである。もちろん、ロボット装置10は、人型以外のタイプのロボットであってもよい。図2に示す例では、ロボット装置10は、胴体部16と、胴体部16上に設けられた頭部18と、胴体部16の下部に設けられた脚部20と、胴体部16の両側部にそれぞれ設けられた腕部22と、各腕部22の先端に設けられた指部24と、を含む。 FIG. 2 shows the appearance of the robot apparatus 10. The robot device 10 is, for example, a humanoid robot. Of course, the robot apparatus 10 may be a robot of a type other than the humanoid type. In the example illustrated in FIG. 2, the robot apparatus 10 includes a body portion 16, a head portion 18 provided on the body portion 16, a leg portion 20 provided below the body portion 16, and both side portions of the body portion 16. Each of the arm portions 22 is provided with a finger portion 24 provided at the tip of each arm portion 22.

ロボット装置10は、例えば、視覚センサー、聴覚センサー、触覚センサー、味覚センサー及び嗅覚センサー等の各種センサーを有し、人の五感に相当する視覚、聴覚、触覚、味覚及び嗅覚に関する能力を有する。ロボット装置10は、例えば、触覚に関して、表在感覚(触覚、痛角、温度覚等)、深部覚(圧覚、位置覚、振動覚等)、皮質性感覚(二点識別覚、立体識別能力等)を分別して理解する能力を有する。また、ロボット装置10は、平衡感覚を有している。例えば、頭部18にカメラ26等のセンサーが設けられており、視覚は、カメラ26等によって得られた画像を用いた画像認識によって実現される。また、ロボット装置10にマイク等の集音手段が設けられており、聴覚は、マイク等によって得られた音を用いた音声認識によって実現される。 The robot device 10 has various sensors such as a visual sensor, an auditory sensor, a tactile sensor, a taste sensor, and an olfactory sensor, for example, and has the capability of sight, hearing, touch, taste, and smell corresponding to the five senses of a person. Regarding the tactile sensation, the robot apparatus 10 has, for example, superficial sensation (tactile sensation, pain angle, temperature sensation, etc.), deep sensation (pressure sensation, position sensation, vibration sensation, etc.), cortical sensation (two-point discrimination sensation, stereoscopic discrimination capability, etc.). ) Has the ability to sort and understand. Further, the robot device 10 has a sense of balance. For example, a sensor such as a camera 26 is provided on the head 18, and vision is realized by image recognition using an image obtained by the camera 26 or the like. Further, the robot apparatus 10 is provided with a sound collecting means such as a microphone, and hearing is realized by voice recognition using sound obtained by the microphone or the like.

ロボット装置10は、人の脳波を検知する手段(例えば、人に脳波検知デバイスが設けられており、脳波検知デバイスから発信される情報を受信する手段)を備えていてもよい。 The robot apparatus 10 may include means for detecting a human electroencephalogram (for example, a person is provided with an electroencephalogram detection device, and means for receiving information transmitted from the electroencephalogram detection device).

脚部20は移動手段の一例に相当し、例えば、モータ等の駆動源からの駆動力によって駆動するようになっている。ロボット装置10は、脚部20によって移動できる。脚部20は、人の足のような形状を有していてもよいし、ローラやタイヤ等であってもよいし、別の形状を有していてもよい。脚部20は移動手段の一例に過ぎず、ロボット装置10は、脚部20以外の移動手段として、例えば、飛行するための構成(例えばプロペラ、羽、飛行用のエンジン等)を備えていてもよいし、水中を移動するための構成(例えば水中移動用のエンジン等)を備えていてもよい。つまり、ロボット装置10は、移動手段として、陸上を移動するための手段、飛行するための手段、及び、水中を移動するための手段の中の少なくとも1つの手段を備えていればよい。もちろん、ロボット装置10は、移動手段を備えていなくてもよい。 The leg portion 20 corresponds to an example of a moving unit, and is driven by a driving force from a driving source such as a motor. The robot apparatus 10 can be moved by the legs 20. The leg 20 may have a shape like a human foot, a roller, a tire, or the like, or may have another shape. The leg 20 is merely an example of a moving unit, and the robot apparatus 10 may include, as a moving unit other than the leg 20, a configuration for flying (for example, a propeller, wings, an engine for flight, etc.). Alternatively, a structure for moving in water (for example, an engine for moving in water) may be provided. That is, the robot apparatus 10 may include at least one of a means for moving on land, a means for flying, and a means for moving underwater as moving means. Of course, the robot apparatus 10 does not have to include the moving means.

ロボット装置10は、腕部22や指部24によって、物体を掴んだり操作したりする能力を備えていてもよい。ロボット装置10は、物体を掴んだり抱えたりしながら移動する能力を備えていてもよい。 The robot apparatus 10 may be provided with the ability to grasp and operate an object by the arm 22 and the finger 24. The robot apparatus 10 may have the ability to move while gripping or holding an object.

ロボット装置10は、音声を発する機能を備えていてもよい。ロボット装置10は、通信機能を備えて、他の装置との間でデータを送受信してもよい。ロボット装置10は、音を出したり、通信メッセージを送ることで、人や他の装置や他のロボット装置とコミュニケーションを取る能力を備えていてもよい。 The robot device 10 may have a function of emitting a voice. The robot device 10 may have a communication function and may transmit/receive data to/from another device. The robot device 10 may have the ability to communicate with a person, another device, or another robot device by producing a sound or sending a communication message.

ロボット装置10は、例えば、人工知能(AI)による機械学習によって、人に近い判断を行う能力を備えていてもよい。また、ニューラルネットワーク型のディープラーニングが利用されてもよいし、部分的に学習分野を強化する強化学習等が利用されてもよい。 The robot apparatus 10 may have the ability to make a judgment close to that of a person by machine learning using artificial intelligence (AI), for example. In addition, neural network type deep learning may be used, or reinforcement learning for partially strengthening the learning field may be used.

ロボット装置10は、例えばインターネット等を利用して情報(例えば問題を解決するための解決手段等)を検索する機能を備えていてもよい。 The robot apparatus 10 may have a function of searching information (for example, a solution means for solving a problem) using the Internet or the like.

ロボット装置10は、通信機能によって他の機器と通信し、他の機器の動作を制御してもよいし、リモコン等を利用して他の機器を操作してもよいし、リモコン等を利用せずに他の機器を直接操作してもよい。直接操作においては、例えば、他の機器に設けられている操作部(例えばボタンやパネル等)がロボット装置10によって操作される。例えば、通信によって他の機器の動作を制御できない場合、ロボット装置10は、リモコン等を利用して他の機器を操作してもよいし、他の機器を直接操作してもよい。例えば、ロボット装置10は、視覚センサーによって得られた画像を解析することで、他の機器の操作部やリモコン等を識別して、他の機器やリモコンを操作する。 The robot apparatus 10 may communicate with another device by a communication function to control the operation of the other device, operate the other device using a remote controller, or use the remote controller. Instead, other devices may be directly operated. In the direct operation, for example, the operation unit (for example, button or panel) provided in another device is operated by the robot device 10. For example, when the operation of another device cannot be controlled by communication, the robot apparatus 10 may operate the other device using a remote controller or the like, or may directly operate the other device. For example, the robot apparatus 10 analyzes the image obtained by the visual sensor to identify the operation unit and the remote controller of the other device, and operate the other device and the remote controller.

また、ロボット装置10は、表示部28を備えていてもよい。表示部28には、発生した問題に関する情報、解決手段に関する情報、各種のメッセージ、等が表示される。 The robot device 10 may also include the display unit 28. The display unit 28 displays information regarding the problem that has occurred, information regarding the solution, various messages, and the like.

以下、図3を参照して、ロボット装置10の構成について詳しく説明する。図3は、ロボット装置10の構成を示すブロック図である。 Hereinafter, the configuration of the robot apparatus 10 will be described in detail with reference to FIG. FIG. 3 is a block diagram showing the configuration of the robot apparatus 10.

通信部30は通信インターフェースであり、他の装置にデータを送信する機能、及び、他の装置からデータを受信する機能を備えている。通信部30は、無線通信機能を備えた通信インターフェースであってもよいし、有線通信機能を備えた通信インターフェースであってもよい。通信部30は、例えば、1又は複数の種類の通信方式に対応しており、通信相手に適した通信方式(つまり、通信相手が対応している通信方式)に従って通信相手と通信する。通信方式は、例えば、赤外線通信、可視光通信、Wi−Fi(登録商標)通信、近距離無線通信(例えばBluetooth(ブルートゥース)(登録商標)、RFID(Radio Frequency Identifier)等)、等である。通信部30は、例えば、通信相手に応じて通信方式を切り替えたり、周囲の環境(例えば、ロボット装置10と通信相手との間の距離や、ロボット装置10と通信相手との間の障害物の有無等)に応じて通信方式を切り替えたりする。また、通信の周波数帯として、例えば、800MHz〜920MHz(LPWA(Low Power Wide Area)等)といった短波長帯、2.4GHz、5GHz(MuLTEfire)といった長波長、等が利用されてもよい。通信部30は、例えば、通信相手に応じて周波数帯を切り替えたり、周囲の環境に応じて通信方式を切り替えたりする。 The communication unit 30 is a communication interface and has a function of transmitting data to another device and a function of receiving data from another device. The communication unit 30 may be a communication interface having a wireless communication function or may be a communication interface having a wired communication function. The communication unit 30 supports, for example, one or a plurality of types of communication methods, and communicates with a communication partner according to a communication method suitable for the communication partner (that is, a communication method supported by the communication partner). The communication method is, for example, infrared communication, visible light communication, Wi-Fi (registered trademark) communication, short-range wireless communication (for example, Bluetooth (registered trademark), RFID (Radio Frequency Identifier), etc.), or the like. The communication unit 30 switches, for example, the communication method according to the communication partner, the surrounding environment (for example, the distance between the robot device 10 and the communication partner, and the obstacle between the robot device 10 and the communication partner). The communication method is switched according to the presence or absence, etc.). Further, as the communication frequency band, for example, a short wavelength band such as 800 MHz to 920 MHz (LPWA (Low Power Wide Area)) and a long wavelength band such as 2.4 GHz and 5 GHz (MuLTEfire) may be used. The communication unit 30 switches the frequency band according to the communication partner, or switches the communication system according to the surrounding environment, for example.

記憶部32はハードディスクやメモリ(例えばSSD等)等の記憶装置である。記憶部32には、例えば、所有機能管理情報34、非所有機能管理情報36、解決手段管理情報38、デバイス機能管理情報40、連携機能管理情報42、その他、各種のデータ、各種のプログラム、等が記憶されている。また、他の機器のアドレスを示すデバイスアドレス情報が記憶部32に記憶されていてもよい。上記の情報は、それぞれ別々の記憶装置に記憶されてもよいし、同じ記憶装置に記憶されてもよい。 The storage unit 32 is a storage device such as a hard disk or a memory (for example, SSD). In the storage unit 32, for example, owned function management information 34, non-owned function management information 36, solution management information 38, device function management information 40, cooperation function management information 42, other various data, various programs, etc. Is remembered. In addition, device address information indicating addresses of other devices may be stored in the storage unit 32. The above information may be stored in different storage devices, or may be stored in the same storage device.

所有機能管理情報34は、ロボット装置10が有する機能を示す情報である。所有機能管理情報34においては、例えば、ロボット装置10が有する機能を示す情報と、その機能によって実行可能なこと(動作、処理、操作等)を示す情報と、が対応付けられている。所有機能管理情報34を参照することで、ロボット装置10によって実行可能なことが特定(識別)される。所有機能管理情報34に示されていない機能は、ロボット装置10が有していない機能であるため、所有機能管理情報34を参照することで、ロボット装置10によって実行不可能なことが特定(識別)されてもよい。 The owned function management information 34 is information indicating the function of the robot apparatus 10. In the owned function management information 34, for example, information indicating a function of the robot apparatus 10 and information indicating that the function can be executed (operation, processing, operation, etc.) are associated with each other. By referring to the owned function management information 34, it is specified (identified) that the robot apparatus 10 can execute the operation. Since the functions not shown in the owned function management information 34 are functions that the robot apparatus 10 does not have, by referring to the owned function management information 34, it is specified that the robot apparatus 10 cannot execute (identify). ) May be done.

非所有機能管理情報36は、ロボット装置10が有していない機能を示す情報である。非所有機能管理情報36においては、例えば、ロボット装置10が有していない機能を示す情報と、ロボット装置10がその機能を有していないことで実行不可能なことを示す情報と、が対応付けられている。非所有機能管理情報36を参照することで、ロボット装置10によって実行不可能なことが特定(識別)される。非所有機能管理情報36に示されていない機能は、ロボット装置10が有している機能である場合があるため、非所有機能管理情報36を参照することで、ロボット装置10によって実行可能なことが特定(識別)されてもよい。 The unowned function management information 36 is information indicating a function that the robot apparatus 10 does not have. In the non-owned function management information 36, for example, information indicating a function that the robot apparatus 10 does not have and information indicating that the robot apparatus 10 cannot execute because the robot apparatus 10 does not have the function correspond to each other. It is attached. By referring to the non-owned function management information 36, it is specified (identified) that the robot device 10 cannot execute. Since the function not shown in the unowned function management information 36 may be a function that the robot apparatus 10 has, it can be executed by the robot apparatus 10 by referring to the unowned function management information 36. May be specified (identified).

記憶部32には、所有機能管理情報34と非所有機能管理情報36の両方の情報が記憶されて、これらの情報に基づいて、ロボット装置10によって実行可能又は実行不可能なことが特定されてもよいし、いずれか一方の情報が記憶されて、その情報に基づいて、ロボット装置10によって実行可能又は実行不可能なことが特定されてもよい。 The storage unit 32 stores both information of the owned function management information 34 and the unowned function management information 36, and it is determined based on these information that the robot device 10 can execute or cannot execute. Alternatively, one of the pieces of information may be stored, and it may be specified that the robot apparatus 10 can execute or cannot execute based on the information.

解決手段管理情報38は、発生した問題を解決するための解決手段(解決方法、解決行動)を示す情報である。解決手段管理情報38においては、例えば、発生すると想定される問題を示す情報と、その問題の解決手段を示す情報と、が対応付けられている。 The solution management information 38 is information indicating a solution (solution, solution action) for solving the problem that has occurred. In the solution management information 38, for example, information indicating a problem expected to occur and information indicating a solution to the problem are associated with each other.

デバイス機能管理情報40は、ロボット装置10以外の機器が有する機能を管理するための情報であり、例えば、機器を識別するためのデバイス識別情報(機器識別情報)と、当該機器が有する機能を示す機能情報と、の対応付けを示す情報である。デバイス識別情報は、例えば、機器ID、機器名称、機器の種類を示す情報、機器の型番号、機器が設置されている位置を示す情報(機器の位置情報)、機器の外観を表わす外観画像、等である。機能情報は、例えば、機能IDや機能名称等である。例えば、機器としての画像形成装置が、スキャン機能、コピー機能及びスキャン転送機能を有する場合、当該画像形成装置のデバイス識別情報には、スキャン機能を示す機能情報、コピー機能を示す機能情報、及び、スキャン転送機能を示す機能情報が対応付けられている。デバイス機能管理情報40を参照することにより、各機器が有する機能が特定(識別)される。 The device function management information 40 is information for managing the functions of devices other than the robot apparatus 10, and indicates, for example, device identification information (device identification information) for identifying the devices and the functions of the devices. It is information indicating the correspondence between the function information and. The device identification information is, for example, a device ID, a device name, information indicating a device type, a device model number, information indicating a position where the device is installed (device position information), an appearance image showing an appearance of the device, Etc. The function information is, for example, a function ID or a function name. For example, when the image forming apparatus as a device has a scan function, a copy function, and a scan transfer function, the device identification information of the image forming apparatus includes function information indicating the scan function, function information indicating the copy function, and Functional information indicating the scan transfer function is associated. By referring to the device function management information 40, the function of each device is specified (identified).

デバイス機能管理情報40によって管理されている機器は、例えば機器システムに含まれる機器(例えば機器12)である。もちろん、機器システムに含まれない機器がデバイス機能管理情報40によって管理されてもよい。例えば、ロボット装置10は、機器システムに含まれていない新たな機器に関する情報(デバイス識別情報と機能情報とを含む情報)を取得し、デバイス機能管理情報40に新たに登録してもよい。機器に関する情報は、例えば、インターネット等を利用することで取得されてもよいし、管理者等によって入力されてもよい。また、ロボット装置10は、任意のタイミング、定期的、又は、管理者等によって指定されたタイミング等で、デバイス機能管理情報40を更新してもよい。これにより、更新前には機器が有していなかったが更新後には機器が有することになった機能を示す機能情報が、デバイス機能管理情報40に登録される場合がある。同様に、更新前には機器が有していたが更新後には機器が有していない機能を示す機能情報が、デバイス機能管理情報40から削除され、又は、使用不可な情報として登録される場合がある。更新用の情報は、例えば、インターネット等を利用することで取得されてもよいし、管理者等によって入力されてもよい。 The device managed by the device function management information 40 is, for example, a device (for example, the device 12) included in the device system. Of course, devices not included in the device system may be managed by the device function management information 40. For example, the robot apparatus 10 may acquire information (information including device identification information and function information) about a new device that is not included in the device system, and newly register it in the device function management information 40. The information about the device may be acquired by using the Internet or the like, or may be input by an administrator or the like. Further, the robot apparatus 10 may update the device function management information 40 at an arbitrary timing, periodically, or at a timing designated by an administrator or the like. As a result, in some cases, the device function management information 40 may be registered with the function information indicating the function that the device does not have before the update but that the device has after the update. Similarly, when the function information indicating the function which the device has before the update but which the device does not have after the update is deleted from the device function management information 40 or registered as unusable information. There is. The update information may be acquired by using the Internet or the like, or may be input by an administrator or the like.

連携機能管理情報42は、複数の機能を連携させることによって実行される連携機能を管理するための情報である。複数の機能を連携させることによって、1又は複数の連携機能が実行される。連携機能は、例えば、1つの機器が有する複数の機能を連携させることによって実行されてもよいし、複数の機器が有する複数の機能を連携させることによって実行されてもよい。また、操作指示を出している装置(例えば端末装置14)も識別対象の機器に含め、端末装置が有する機能を連携機能の一部として利用してもよいし、ロボット装置10が有する機能を連携機能の一部として利用してもよい。 The cooperation function management information 42 is information for managing a cooperation function executed by coordinating a plurality of functions. By linking a plurality of functions, one or a plurality of linked functions are executed. The cooperation function may be executed, for example, by coordinating a plurality of functions of one device or by coordinating a plurality of functions of a plurality of devices. Further, a device issuing an operation instruction (for example, the terminal device 14) may be included in the devices to be identified, and the function of the terminal device may be used as a part of the cooperation function, or the function of the robot device 10 may be combined. It may be used as a part of the function.

連携機能は、ハードウェアとしての機器を利用せずに実行される機能であってもよい。例えば、連携機能は、複数のソフトウェアを連携させることによって実行される機能であってもよい。もちろん、連携機能は、ハードウェアとしての機器が有する機能と、ソフトウェアによって実現される機能と、を連携させることによって実行される機能であってもよい。 The cooperation function may be a function executed without using a device as hardware. For example, the cooperation function may be a function executed by coordinating a plurality of software. Of course, the cooperation function may be a function executed by coordinating a function of a device as hardware and a function realized by software.

連携機能管理情報42は、例えば、連携機能に利用される各機能を示す機能情報の組み合わせと、当該連携機能を示す連携機能情報と、の対応付けを示す情報である。連携機能情報は、例えば、連携機能IDや連携機能名称等である。単独の機能が更新された場合、その更新に伴って連携機能管理情報42も更新される。これにより、更新前には互いに連携不可能であった複数の機能による連携機能が更新後には利用可能になったり、それとは逆に、更新前には利用可能な連携機能が更新後には利用不可能になったりする場合がある。更新後に利用可能になった連携機能を示す連携機能情報が、連携機能管理情報42に登録され、更新後に利用不可能になった連携機能を示す連携機能情報が、連携機能管理情報42から削除され、又は、使用不可な情報として登録される。 The cooperation function management information 42 is, for example, information indicating a correspondence between a combination of function information indicating each function used for the cooperation function and the cooperation function information indicating the cooperation function. The cooperation function information is, for example, a cooperation function ID or a cooperation function name. When a single function is updated, the linked function management information 42 is also updated along with the update. This makes it possible to use the linked functions of multiple functions that could not be linked to each other before the update after the update, or conversely, the linked functions that were available before the update are not available after the update. It may be possible. The cooperation function information indicating the cooperation function which is available after the update is registered in the cooperation function management information 42, and the cooperation function information indicating the cooperation function which is not available after the update is deleted from the cooperation function management information 42. Or, it is registered as unusable information.

複数の機器を連携させる場合、連携機能管理情報42は、複数の機器が有する複数の機能を利用する連携機能を管理するための情報であり、連携機能に利用される各機器を識別するためのデバイス識別情報の組み合わせと、連携機能情報と、の対応付けを示す情報である。上記のように、デバイス機能管理情報40が更新された場合、その更新に伴って、連携機能管理情報42も更新される。これにより、更新前には互いに連携不可能であった複数の機器による連携機能が更新後には利用可能になったり、それとは逆に、更新前には利用可能な連携機能が更新後には利用不可能になったりする場合がある。 When linking a plurality of devices, the link function management information 42 is information for managing a link function that uses a plurality of functions of a plurality of devices, and identifies each device used for the link function. It is information indicating a correspondence between a combination of device identification information and cooperation function information. As described above, when the device function management information 40 is updated, the linked function management information 42 is also updated along with the update. As a result, the cooperation function of multiple devices that could not be linked to each other before the update can be used after the update, or conversely, the usable link function before the update cannot be used after the update. It may be possible.

連携機能は、互いに異なる複数の機能を連携させることによって実行される機能であってもよいし、同一の機能を連携させることによって実行される機能であってもよい。連携機能は、連携前には利用できなかった機能であってもよい。連携前には利用できなかった機能は、連携対象の機器が有する機能のうち、同じ機能を利用することによって利用できる機能であってもよいし、互いに異なる機能を組み合わせることによって利用できる機能であってもよい。例えば、プリント機能を有する機器(プリンタ)とスキャン機能を有する機器(スキャナ)を連携させることにより、連携機能としてのコピー機能が実現される。すなわち、プリント機能とスキャン機能を連携させることにより、コピー機能が実現される。この場合、連携機能としてのコピー機能と、プリント機能及びスキャン機能の組み合わせと、が対応付けられている。連携機能管理情報42においては、例えば、連携機能としてのコピー機能を示す連携機能情報と、プリント機能を有する機器を識別するためのデバイス識別情報及びスキャン機能を有する機器を識別するためのデバイス識別情報の組み合わせと、が対応付けられる。 The cooperation function may be a function executed by coordinating a plurality of different functions or may be a function executed by coordinating the same function. The cooperation function may be a function that cannot be used before the cooperation. The functions that could not be used before the cooperation may be the functions that can be used by using the same function among the functions of the device to be linked, or the functions that can be used by combining different functions. May be. For example, by cooperating a device having a print function (printer) and a device having a scan function (scanner), a copy function as a cooperation function is realized. That is, the copy function is realized by linking the print function and the scan function. In this case, the copy function as the cooperation function and the combination of the print function and the scan function are associated with each other. In the cooperation function management information 42, for example, cooperation function information indicating a copy function as a cooperation function, device identification information for identifying a device having a print function, and device identification information for identifying a device having a scan function. Are associated with each other.

なお、記憶部32には、利用可能機能管理情報が記憶されていてもよい。利用可能機能管理情報は、各ユーザが利用可能な機能を管理するための情報であり、例えば、ユーザを識別するためのユーザ識別情報と、当該ユーザが利用可能な機能を示す機能情報(連携機能情報を含んでいてもよい)と、の対応付けを示す情報である。ユーザが利用可能な機能は、例えば、ユーザに無償で提供された機能や、ユーザが購入した機能、等であり、単体の機能であってもよいし、連携機能であってもよい。ユーザ識別情報は、例えば、ユーザIDや氏名等のユーザアカウント情報である。利用可能機能管理情報を参照することにより、各ユーザが利用可能な機能が識別(特定)される。利用可能機能管理情報は、例えば、ユーザに機能が提供される度に(例えば、ユーザに無償又は有償で機能が提供される度に)更新される。 The storage unit 32 may store the available function management information. The available function management information is information for managing the functions available to each user, and includes, for example, user identification information for identifying the user and function information indicating the functions available to the user (cooperative function). Information may be included). The function available to the user is, for example, a function provided to the user free of charge, a function purchased by the user, or the like, and may be a single function or a cooperative function. The user identification information is, for example, user account information such as user ID and name. The functions available to each user are identified (specified) by referring to the available function management information. The available function management information is updated, for example, every time the function is provided to the user (for example, each time the function is provided to the user without charge or for a fee).

所有機能管理情報34、非所有機能管理情報36、解決手段管理情報38、デバイス機能管理情報40、連携機能管理情報42及び利用可能機能管理情報の中の少なくとも1つの情報は、ロボット装置10以外の装置(例えば、図示しないサーバ、機器12、端末装置14等)に記憶されていてもよい。この場合、その少なくとも1つの情報は、ロボット装置10の記憶部32に記憶されていなくてもよい。 At least one of the owned function management information 34, the non-owned function management information 36, the solution management information 38, the device function management information 40, the cooperation function management information 42, and the available function management information is information other than the robot device 10. It may be stored in a device (for example, a server, a device 12, a terminal device 14, etc., not shown). In this case, the at least one piece of information may not be stored in the storage unit 32 of the robot apparatus 10.

状況収集部44は、各種センサーによって、ロボット装置10の周囲の状況に関する情報(以下、「状況情報」と称することとする)を収集する機能を備えている。センサーとして、上述した、視覚センサー、聴覚センサー、触覚センサー、味覚センサー、嗅覚センサー、等が用いられる。視覚センサーによって、ロボット装置10の周囲の画像(例えば動画像や静止画像)が取得され、画像認識が行われる。聴覚センサーによって、ロボット装置10の周囲の音(例えば人の会話や物音等)が収集され、音声認識が行われる。その他、ロボット装置10の周囲の温度、湿度、匂い、等が検知される。もちろん、これら以外のセンサーが用いられて、ロボット装置10の周囲の状況に関する情報が収集されてもよい。状況収集部44は、ロボット装置10以外の装置やセンサー等から状況情報を取得してもよい。 The situation collection unit 44 has a function of collecting information (hereinafter, referred to as “situation information”) regarding the situation around the robot apparatus 10 by various sensors. As the sensor, the above-described visual sensor, auditory sensor, tactile sensor, taste sensor, olfactory sensor, or the like is used. An image (for example, a moving image or a still image) around the robot apparatus 10 is acquired by the visual sensor and image recognition is performed. The hearing sensor collects sounds around the robot apparatus 10 (for example, a person's conversation or noise) and performs voice recognition. In addition, the temperature, humidity, odor, etc. around the robot apparatus 10 are detected. Of course, sensors other than these may be used to collect information regarding the situation around the robot apparatus 10. The situation collection unit 44 may acquire situation information from a device other than the robot device 10, a sensor, or the like.

移動部46は、陸上を移動するための手段、飛行するための手段、及び、水中を移動するための手段の中の少なくとも1つの手段によって、ロボット装置10を移動させる機能を備えている。移動部46は、例えば、図2に示されている脚部20によって構成される。 The moving unit 46 has a function of moving the robot apparatus 10 by at least one of a means for moving on land, a means for flying, and a means for moving in water. The moving unit 46 is constituted by, for example, the leg 20 shown in FIG.

作業部48は、ロボット装置10以外の機器を操作したり、物体を持ち上げたり移動させたりする機能を備えている。作業部48は、例えば、図2に示されている脚部20、腕部22及び指部24によって構成される。 The working unit 48 has a function of operating a device other than the robot apparatus 10 and lifting or moving an object. The working unit 48 is composed of, for example, the leg unit 20, the arm unit 22 and the finger unit 24 shown in FIG.

UI部50はユーザインターフェース部であり、表示部(例えば図1に示されている表示部28)と操作部を含む。表示部は、例えば液晶ディスプレイ等の表示装置である。操作部は、例えばタッチパネルやキーボード等の入力装置である。もちろん、表示部と操作部を兼ねたユーザインターフェース(例えば、タッチ式のディスプレイや、ディスプレイ上に電子的にキーボード等を表示する装置等を含む)であってもよい。なお、ロボット装置10は、UI部50を備えていなくてもよいし、表示部を備えずに、ハードウェアキー(例えば、各種のボタン)を備えていてもよい。ハードウェアキーとしてのボタンは、例えば、数字入力に特化したボタン(例えばテンキー)、方向の指示に特化したボタン(例えば方向指示キー)、等である。 The UI unit 50 is a user interface unit and includes a display unit (for example, the display unit 28 shown in FIG. 1) and an operation unit. The display unit is a display device such as a liquid crystal display. The operation unit is an input device such as a touch panel or a keyboard. Of course, it may be a user interface that doubles as a display unit and an operation unit (for example, a touch-type display, a device that electronically displays a keyboard or the like on the display, and the like). The robot device 10 may not include the UI unit 50, or may include a hardware key (for example, various buttons) without including the display unit. The button as a hardware key is, for example, a button specialized for inputting numbers (for example, a ten-key), a button specialized for indicating a direction (for example, a direction instruction key), and the like.

スピーカ52は、音を出力する機能を備えている。例えば、解決手段に関する音声(例えば、人に協力を依頼するためのメッセージ)等が、スピーカ52から発せられる。 The speaker 52 has a function of outputting sound. For example, a voice (for example, a message for requesting cooperation from a person) or the like regarding a solution is output from the speaker 52.

制御部54は、ロボット装置10の各部の動作を制御する。また、制御部54は、検知部56、解決手段特定部58、判断部60、検索部62及び識別部64を含む。 The control unit 54 controls the operation of each unit of the robot apparatus 10. Further, the control unit 54 includes a detection unit 56, a solving means identification unit 58, a determination unit 60, a search unit 62, and an identification unit 64.

検知部56は、状況収集部44によって収集された状況情報(例えば各種センサーの値)に基づいて、ロボット装置10の周囲の状況を検知し、ロボット装置10の周囲にて問題が発生しているか否かを判断し、発生した問題を検知する機能を備えている。検知部56は、例えば、ロボット装置10の周囲に存在する人に関する情報や、人以外の情報を、状況として検知する。人に関する情報は、例えば、視覚センサーによって得られた人の画像(例えば、人の顔の画像、全身の画像、その他、人の動作を表す画像等)や、聴覚センサーによって収集された人の音声等である。人以外の情報は、例えば、温度センサーによって得られた温度情報や湿度センサーによって得られた湿度情報等である。具体的には、検知部56は、視覚センサーによって得られた画像、聴覚センサーによって収集された音、触覚センサーによって得られた触覚に関する情報、味覚センサーによって得られた味覚に関する情報、嗅覚センサーによって得られた匂いに関する情報、等を組み合わせて、周囲の状況を検知し、発生した問題を検知する。なお、検知部56は、ロボット装置10が備えていないセンサーによって収集された情報を利用してもよい。例えば、検知部56は、外部に設置されたセンサー(例えば、部屋に設置されたセンサーや他の装置が備えるセンサー等)から、そのセンサーによって収集された情報を取得し、その情報を用いて問題を検知してもよい。 The detection unit 56 detects the situation around the robot apparatus 10 based on the situation information (for example, the values of various sensors) collected by the situation collection unit 44, and whether a problem has occurred around the robot apparatus 10. It has a function to judge whether or not the problem has occurred. The detection unit 56 detects, for example, information about a person existing around the robot apparatus 10 or information other than a person as a situation. The information about a person is, for example, an image of a person obtained by a visual sensor (for example, an image of a person's face, an image of the whole body, other images showing the movement of a person, etc.), or a person's voice collected by an auditory sensor. Etc. The information other than the person is, for example, temperature information obtained by the temperature sensor or humidity information obtained by the humidity sensor. Specifically, the detection unit 56 obtains the image obtained by the visual sensor, the sound collected by the auditory sensor, the information about the sense of touch obtained by the tactile sensor, the information about the sense of taste obtained by the taste sensor, and the information obtained by the smell sensor. By combining the information about the scent and the like, the surrounding situation is detected, and the generated problem is detected. The detection unit 56 may use information collected by a sensor that the robot device 10 does not have. For example, the detection unit 56 acquires information collected by the sensor from a sensor installed outside (for example, a sensor installed in a room or a sensor included in another device), and uses the information to solve the problem. May be detected.

検知部56は、例えば、センサーによって得られた値(例えば温度センサーによって検知された温度)が閾値以上となる場合、問題が発生したと判断してもよい。その閾値は、ロボット装置10が備える各種センサーによって検知された人の年齢や性別に応じて変更されてもよい。人の年齢や性別に応じて閾値を変えることで、人の個性に応じて問題を検知することができる。つまり、年齢や性別によって、問題の感じ方が異なる場合があるため、年齢や性別に応じて閾値を変えることで、年齢や性別に応じた問題を検知することができる。 The detection unit 56 may determine that a problem has occurred, for example, when the value obtained by the sensor (for example, the temperature detected by the temperature sensor) is equal to or higher than the threshold value. The threshold may be changed according to the age or sex of a person detected by various sensors included in the robot device 10. By changing the threshold according to the age and sex of the person, the problem can be detected according to the individuality of the person. That is, since the way the problem is felt may differ depending on age and sex, it is possible to detect a problem according to age and sex by changing the threshold according to age and sex.

解決手段特定部58は、解決手段管理情報38を参照して、検知部56によって検知された問題を解決するための解決手段を特定(識別)する機能を備えている。 The solution means identification unit 58 has a function of referring to the solution means management information 38 and identifying (identifying) a solution means for solving the problem detected by the detection unit 56.

人に関する情報(例えば人の画像や音声等)に基づく検知結果(第1の検知結果に相当する)と、人以外の情報に基づく検知結果(第2の検知結果に相当する)と、に基づく状況の問題が異なる場合、解決手段特定部58は、予め定めた第1の検知結果又は第2の検知結果の優先順位に基づき、発生した問題を解決するための解決手段を選択してもよい。この場合において、例えば、第1の検知結果に基づき解決手段を選択することで、実際に人に発生していると想定される問題を解決するための解決手段が選択される。 Based on a detection result (corresponding to a first detection result) based on information about a person (for example, a person's image or sound) and a detection result based on information other than a person (corresponding to a second detection result) When the problem of the situation is different, the solving means identifying unit 58 may select a solving means for solving the generated problem based on the priority order of the first detection result or the second detection result which is determined in advance. .. In this case, for example, by selecting the solution means based on the first detection result, the solution means for solving the problem that is supposed to actually occur in the person is selected.

判断部60は、ロボット装置10によって、検知部56によって検知された問題を解決することが可能か否かを判断する機能を備えている。ロボット装置10によって解決できない問題は、例えば、ロボット装置10の機能だけでは解決できない問題、ロボット装置10の機能だけでは解決に要する時間が予め設定された時間以上となる場合、ロボット装置10の機能による作業の結果の質が予め設定された質以下となる問題、等である。解決手段特定部58によって特定された解決手段が、ロボット装置10が有する機能群内に含まれている場合、判断部60は、ロボット装置10のみによって問題を解決することが可能であると判断する。つまり、ロボット装置10が、解決手段の実行に必要なすべての機能を備えている場合、判断部60は、ロボット装置10のみによって問題を解決することが可能であると判断する。一方、解決手段特定部58によって特定された解決手段が、ロボット装置10が有する機能群内に含まれていない場合、判断部60は、ロボット装置10のみによって、問題を解決することが不可能であると判断する。つまり、ロボット装置10が、解決手段の実行に必要な全機能又は一部の機能を有していない場合、判断部60は、ロボット装置10のみによって問題を解決することが不可能であると判断する。判断部60は、例えば、所有機能管理情報34を参照することで、ロボット装置10が有している機能を特定(又は、ロボット装置10が有していない機能)を特定してもよいし、非所有機能管理情報36を参照することで、ロボット装置10が有していない機能(又は、ロボット装置10が有している機能)を特定してもよい。 The determination unit 60 has a function of determining whether or not the robot device 10 can solve the problem detected by the detection unit 56. The problem that cannot be solved by the robot apparatus 10 is, for example, a problem that cannot be solved only by the function of the robot apparatus 10, or if the time required for solution by the function of the robot apparatus 10 is a preset time or more, it depends on the function of the robot apparatus 10. The problem is that the quality of the work result is less than or equal to the preset quality. When the solving means identified by the solving means identifying unit 58 is included in the function group of the robot apparatus 10, the determining unit 60 determines that the problem can be solved only by the robot apparatus 10. .. That is, when the robot apparatus 10 has all the functions necessary for executing the solving means, the determining unit 60 determines that the problem can be solved only by the robot apparatus 10. On the other hand, if the solving means identified by the solving means identifying unit 58 is not included in the function group of the robot apparatus 10, the determining unit 60 cannot solve the problem only by the robot apparatus 10. Judge that there is. That is, when the robot apparatus 10 does not have all or some of the functions required to execute the solving means, the determination unit 60 determines that the problem cannot be solved by the robot apparatus 10 alone. To do. The determination unit 60 may identify the function of the robot apparatus 10 (or the function that the robot apparatus 10 does not have) by referring to the owned function management information 34, for example. By referring to the unowned function management information 36, a function that the robot apparatus 10 does not have (or a function that the robot apparatus 10 has) may be specified.

判断部60が、ロボット装置10によって問題を解決することが可能であると判断した場合、ロボット装置10は、制御部54の制御の下、解決手段特定部58によって特定された解決手段を実行する。一方、判断部60が、ロボット装置10によって問題を解決することが不可能であると判断した場合、制御部54は、ロボット装置10以外の要素(他の機器や人)を利用する解決手段を実行するための制御を行う。例えば、制御部54は、ロボット装置10以外の機器に解決手段を実行させてもよいし、人に協力を依頼してもよい。もちろん、ロボット装置10と他の要素(例えば人や他の機器)とが共同して解決手段を実行してもよい。 When the determination unit 60 determines that the problem can be solved by the robot apparatus 10, the robot apparatus 10 executes the solution means specified by the solution means specification unit 58 under the control of the control unit 54. .. On the other hand, when the determination unit 60 determines that the robot device 10 cannot solve the problem, the control unit 54 determines a solution means that uses an element (other device or person) other than the robot device 10. Performs control for execution. For example, the control unit 54 may cause a device other than the robot device 10 to execute the solving means, or may request a person to cooperate. Of course, the robot apparatus 10 and another element (for example, a person or another device) may cooperate to execute the solving means.

検索部62は、検知部56によって検知された問題を解決するための解決手段であって、解決手段管理情報38に登録されていない解決手段を検索する機能を備えている。検索部62は、例えば、インターネット等を利用することで、その解決手段を検索する。 The search unit 62 has a function of searching for a solution that is a solution for solving the problem detected by the detection unit 56 and is not registered in the solution management information 38. The search unit 62 searches for a solution by using the Internet or the like.

識別部64は、ロボット装置10以外の機器を識別し、その機器が有する機能を識別(特定)する機能を備えている。識別部64は、例えば、視覚センサーによって機器を撮影することで得られた画像(例えば機器の外観を表わす画像)に基づいて機器を識別してもよいし、視覚センサーによって機器を撮影することで、機器に設けられたデバイス識別情報を取得して機器を識別してもよいし、機器が設置されている位置を示す位置情報を取得して機器を識別してもよい。識別部64は、更に、機器が有する機能を識別する。例えば、識別部64は、記憶部32に記憶されているデバイス機能管理情報40において、識別した機器のデバイス識別情報に対応付けられている機能を示す機能情報を特定する。これにより、当該機器が有する機能が識別(特定)される。 The identification unit 64 has a function of identifying a device other than the robot device 10 and identifying (specifying) a function of the device. The identification unit 64 may identify the device based on, for example, an image (for example, an image showing the appearance of the device) obtained by photographing the device with the visual sensor, or by photographing the device with the visual sensor. The device identification information provided in the device may be acquired to identify the device, or the position information indicating the position where the device is installed may be acquired to identify the device. The identification unit 64 further identifies the function of the device. For example, the identification unit 64 identifies the function information indicating the function associated with the device identification information of the identified device in the device function management information 40 stored in the storage unit 32. As a result, the function of the device is identified (specified).

また、識別部64は、連携対象の複数の機器を識別し、記憶部32に記憶されている連携機能管理情報42において、当該複数の機器のデバイス識別情報の組み合わせに対応付けられている連携機能を示す連携機能情報を特定してもよい。これにより、連携対象の各機器が有する機能を連携させることによって実行される連携機能が識別(特定)される。 Further, the identification unit 64 identifies a plurality of devices to be cooperated, and in the cooperation function management information 42 stored in the storage unit 32, a cooperation function associated with a combination of device identification information of the plurality of devices. You may specify the cooperation function information which shows. As a result, the cooperation function executed by coordinating the functions of the devices to be cooperated is identified (specified).

なお、ユーザが利用可能な機能が管理されている場合、識別部64は、ユーザを識別するためのユーザ識別情報を受け、記憶部32に記憶されている利用可能機能管理情報において当該ユーザ識別情報に対応付けられている各機能を示す機能情報を特定してもよい。これにより、当該ユーザが利用可能な機能群が識別(特定)される。例えば、端末装置14からロボット装置10にユーザ識別情報が送信され、識別部64によって、当該ユーザ識別情報に対応付けられている各機能を示す機能情報が特定される。例えば、識別部64は、デバイス識別情報とユーザ識別情報を受け、デバイス機能管理情報40において当該デバイス識別情報に対応付けられている機能を示す機能情報を特定し、また、利用可能機能管理情報において当該ユーザ識別情報に対応付けられている機能を示す機能情報を特定する。これにより、当該デバイス識別情報によって特定される機器が有する機能であって、当該ユーザ識別情報によって特定されるユーザが利用可能な機能が特定される。 When the function available to the user is managed, the identification unit 64 receives the user identification information for identifying the user, and the available function management information stored in the storage unit 32 includes the user identification information. You may specify the function information which shows each function matched with. As a result, the function group available to the user is identified (specified). For example, the user identification information is transmitted from the terminal device 14 to the robot device 10, and the identification unit 64 identifies the function information indicating each function associated with the user identification information. For example, the identification unit 64 receives the device identification information and the user identification information, identifies the function information indicating the function associated with the device identification information in the device function management information 40, and determines the available function management information in the available function management information. The function information indicating the function associated with the user identification information is specified. As a result, the functions that the device specified by the device identification information has and that can be used by the user specified by the user identification information are specified.

制御部54は、機能の購入処理を実行し、その購入の履歴を管理してもよい。例えば、有料の機能がユーザによって購入された場合、制御部54は、当該ユーザに対して課金処理を適用してもよい。 The control unit 54 may execute the function purchase process and manage the purchase history. For example, when the pay function is purchased by the user, the control unit 54 may apply the charging process to the user.

制御部54は、知能部としての人工知能(AI)を有しており、制御部54の各部の機能は、その人工知能によって実現される。 The control unit 54 has artificial intelligence (AI) as an intelligence unit, and the function of each unit of the control unit 54 is realized by the artificial intelligence.

なお、検知部56、解決手段特定部58、判断部60、検索部62及び識別部64の中の少なくとも1つは、ロボット装置10以外の装置(例えば、図示しないサーバ、機器12、端末装置14等)に設けられていてもよい。この場合。その少なくとも1つの部は、ロボット装置10の制御部54に含まれていなくてもよい。 At least one of the detection unit 56, the solution specifying unit 58, the determination unit 60, the search unit 62, and the identification unit 64 is a device other than the robot device 10 (for example, a server, a device 12, a terminal device 14 not shown). Etc.) may be provided. in this case. The at least one unit may not be included in the control unit 54 of the robot device 10.

以下、図4を参照して、端末装置14の構成について詳しく説明する。図4には、端末装置14の構成が示されている。 Hereinafter, the configuration of the terminal device 14 will be described in detail with reference to FIG. FIG. 4 shows the configuration of the terminal device 14.

通信部66は通信インターフェースであり、他の装置にデータを送信する機能、及び、他の装置からデータを受信する機能を有する。通信部66は、無線通信機能を備えた通信インターフェースであってもよいし、有線通信機能を備えた通信インターフェースであってもよい。 The communication unit 66 is a communication interface and has a function of transmitting data to another device and a function of receiving data from another device. The communication unit 66 may be a communication interface having a wireless communication function or may be a communication interface having a wired communication function.

撮影手段としてのカメラ68は、撮影対象を撮影することにより画像データ(例えば静止画像データや動画像データ)を生成する。また、端末装置14のカメラを利用するだけではなく、ネットワーク等の通信経路に繋がった外部のカメラで撮影された画像データを通信部66で受け取り、UI部72で画像データを表示し、ユーザが画像データを操作できるようにしてもよい。なお、端末装置14は、カメラ68を備えていなくてもよい。 The camera 68 as a photographing means generates image data (for example, still image data or moving image data) by photographing a photographing target. In addition to using the camera of the terminal device 14, the communication unit 66 receives image data captured by an external camera connected to a communication path such as a network, and the UI unit 72 displays the image data. Image data may be manipulated. The terminal device 14 may not include the camera 68.

記憶部70はハードディスクやメモリ(例えばSSD等)等の記憶装置であり、各種のプログラム、各種のデータ、等を記憶する。記憶部70には、ロボット装置10のアドレス情報、各機器(例えば機器12)のアドレス情報、識別された機器に関する情報、識別された連携対象の機器に関する情報、識別された機器が有する機能に関する情報、連携機能に関する情報、等が記憶されてもよい。これらの情報は、それぞれ別々の記憶装置に記憶されてもよいし、同じ記憶装置に記憶されてもよい。 The storage unit 70 is a storage device such as a hard disk or a memory (for example, SSD), and stores various programs, various data, and the like. The storage unit 70 stores the address information of the robot apparatus 10, the address information of each device (for example, the device 12), the information about the identified device, the information about the identified cooperation target device, and the information about the function of the identified device. , Information regarding the cooperation function, and the like may be stored. These pieces of information may be stored in different storage devices, or may be stored in the same storage device.

UI部72はユーザインターフェース部であり、表示部と操作部を含む。表示部は、例えば液晶ディスプレイ等の表示装置である。操作部は、例えば、タッチパネル、キーボード、マウス、等の入力装置である。もちろん、表示部と操作部を兼ねたユーザインターフェース(例えばタッチ式のディスプレイや、ディスプレイ上に電子的にキーボード等を表示するものを含む)であってもよい。 The UI unit 72 is a user interface unit and includes a display unit and an operation unit. The display unit is a display device such as a liquid crystal display. The operation unit is, for example, an input device such as a touch panel, a keyboard, a mouse, or the like. Needless to say, it may be a user interface that also serves as a display unit and an operation unit (including, for example, a touch-type display and one that electronically displays a keyboard or the like on the display).

制御部74は、端末装置14の各部の動作を制御する。制御部74は、例えば表示制御手段(制御手段)として機能し、各種の情報をUI部72の表示部に表示させる。 The control unit 74 controls the operation of each unit of the terminal device 14. The control unit 74 functions as, for example, a display control unit (control unit), and causes the display unit of the UI unit 72 to display various types of information.

UI部72の表示部には、例えば、ロボット装置10による撮影によって得られた画像、カメラ68によって撮影された画像、利用対象の機器(例えば、単独で利用される機器や連携対象の機器)として識別された機器に紐付く画像、機能に紐付く画像、等が表示される。機器に紐付く画像は、例えば、ロボット装置10によって撮影された当該機器を表わす画像(例えば静止画像や動画像)であってもよいし、当該機器を模式的に表す画像(例えばアイコン)であってもよいし、カメラ68によって撮影された当該機器を表わす画像(例えば静止画像や動画像)であってもよい。模式的に表す画像データは、例えば、ロボット装置10に記憶されてロボット装置10から端末装置14に提供されてもよいし、端末装置14に予め記憶されていてもよいし、別の装置に記憶されて当該別の装置から端末装置14に提供されてもよい。機能に紐付く画像は、例えば、その機能を表わすアイコン等の画像である。 On the display unit of the UI unit 72, for example, an image obtained by photographing by the robot device 10, an image photographed by the camera 68, a device to be used (for example, a device used alone or a device to be linked) is displayed. An image associated with the identified device, an image associated with the function, and the like are displayed. The image associated with the device may be, for example, an image (for example, a still image or a moving image) representing the device captured by the robot apparatus 10, or an image (for example, an icon) schematically representing the device. Alternatively, the image may be an image (for example, a still image or a moving image) representing the device captured by the camera 68. The image data schematically represented may be stored in the robot device 10 and provided to the terminal device 14 from the robot device 10, may be stored in the terminal device 14 in advance, or may be stored in another device. It may be provided to the terminal device 14 from the other device. The image associated with the function is, for example, an image such as an icon representing the function.

以下、図5,6を参照して、各無線通信技術について説明する。図5には、各無線通信技術の特性(メリット、デメリット)として周波数毎の特性が示されており、図6には、通信方式毎の特性が示されている。 Hereinafter, each wireless communication technique will be described with reference to FIGS. FIG. 5 shows characteristics for each frequency as characteristics (merits and demerits) of each wireless communication technology, and FIG. 6 shows characteristics for each communication method.

図5に示すように、周波数が900MHzの無線通信技術の主要な規格は、例えばRFIDである。そのメリットとして、障害物に強い、干渉周波数帯が少ない、といったことが挙げられ、デメリットとして、アンテナが大きい、通信可能な距離が短い、といったことが挙げられる。 As shown in FIG. 5, the main standard of the wireless communication technology having a frequency of 900 MHz is, for example, RFID. Its merit is that it is strong against obstacles and there are few interference frequency bands, and its demerits are that it has a large antenna and its communication range is short.

周波数が2.4GHzの無線通信技術の主要な規格は、例えばZigBee(登録商標)やBluetooth等である。そのメリットとして、省電力、通信速度が速い、アンテナが小さい、といったことが挙げられ、デメリットとして、干渉することが多い、ことが挙げられる。 The main standard of the wireless communication technology having a frequency of 2.4 GHz is, for example, ZigBee (registered trademark) or Bluetooth. Its advantages include power saving, high communication speed, and small antenna, and its disadvantages include frequent interference.

周波数が5GHzの無線通信技術の主要な規格は、例えばIEEE802.11aやMuLTEfire等である。そのメリットとして、干渉周波数帯が少ない、通信速度が速い、といったことが挙げられ、デメリットとして、障害物に弱い、ことが挙げられる。 Major standards of wireless communication technology with a frequency of 5 GHz are, for example, IEEE802.11a and MuLTEfire. The merit is that the interference frequency band is small and the communication speed is fast, and the demerit is that it is weak against obstacles.

図6に示すように、赤外線通信のメリットとして、低消費電力、小型化が容易、といったことが挙げられ、デメリットとして、赤外線が目に見えない、ことが挙げられる。 As shown in FIG. 6, the advantages of infrared communication include low power consumption and easy miniaturization, and the disadvantage is that infrared rays are invisible.

可視光通信のメリットとして、可視光を目で見て通信経路が分かる、ことが挙げられ、デメリットとして、指向性が強い、ことが挙げられる。 Visible light communication has a merit that the communication path can be seen by visually observing visible light, and has a strong directivity as a demerit.

近接無線通信(NFC)のメリットとして、複数の機器の間におけるペアリングが容易、といったことが挙げられ、デメリットとして、近距離でないと使えない、ことが挙げられる。 As a merit of the near field communication (NFC), it is easy to perform pairing between a plurality of devices, and a demerit is that it cannot be used unless a short distance is used.

無線通信技術によって通信相手と通信する場合、ロボット装置10の通信部30は、周囲の環境や通信相手に適した特性を有する無線通信技術によって、通信相手と通信を行う。より詳しく説明すると、通信部30は、例えば、通信相手との間の距離、ロボット装置10と通信相手との間の障害物の有無、通信相手が対応している通信方式、等に応じて無線通信技術を変えて通信相手と通信を行う。 When communicating with the communication partner by the wireless communication technology, the communication unit 30 of the robot apparatus 10 communicates with the communication partner by the wireless communication technology having characteristics suitable for the surrounding environment and the communication partner. More specifically, the communication unit 30 wirelessly determines, for example, the distance to the communication partner, the presence/absence of an obstacle between the robot apparatus 10 and the communication partner, the communication method supported by the communication partner, and the like. Communicate with the other party by changing the communication technology.

以下、図7,8を参照して、ロボット装置10が有する機能について詳しく説明する。図7には、所有機能管理情報34としての所有機能管理テーブルの一例が示されており、図8には、非所有機能管理情報36としての非所有機能管理テーブルの一例が示されている。 Hereinafter, the functions of the robot apparatus 10 will be described in detail with reference to FIGS. FIG. 7 shows an example of the owned function management table as the owned function management information 34, and FIG. 8 shows an example of the unowned function management table as the unowned function management information 36.

所有機能管理テーブルにおいては、一例として、管理番号と、ロボット装置10が有する機能を示す情報と、その機能によってロボット装置10が実行可能なこと(動作、処理、操作等)を示す情報と、が互いに対応付けられている。例えば、ロボット装置10は、腕部22で物体を持ち上げる機能を備えており、その機能によって、例えば、重さが30kgまでの物体を持ち上げて移動できる。また、ロボット装置10は、移動する機能を備えており、その機能によって、時速10km以内で速度を可変させて移動できる。所有機能管理テーブルを参照することで、ロボット装置10が有する機能と、その機能によってロボット装置10が実行可能なことが特定(識別)される。また、所有機能管理テーブルに登録されていない機能や実行可能なことは、ロボット装置10が有していない機能や実行不可能なことであるため、所有機能管理テーブルを参照することで、ロボット装置10が有していない機能や実行不可能なことが特定(識別)される。 In the owned function management table, as an example, a management number, information indicating a function of the robot apparatus 10, and information indicating that the robot apparatus 10 can execute the function (operation, processing, operation, etc.) They are associated with each other. For example, the robot apparatus 10 has a function of lifting an object with the arm portion 22, and by the function, for example, an object having a weight of up to 30 kg can be lifted and moved. Further, the robot apparatus 10 has a function of moving, and by the function, the robot apparatus 10 can move at a variable speed within 10 km/h. By referring to the owned function management table, it is possible to identify (identify) the functions of the robot apparatus 10 and the functions that the robot apparatus 10 can execute. Further, since a function that is not registered in the owned function management table or that can be executed is a function that the robot apparatus 10 does not have or that it cannot be executed, by referring to the owned function management table, It is specified (identified) that the function 10 does not have or that it cannot be executed.

非所有機能管理テーブルにおいては、一例として、管理番号と、ロボット装置10が有していない機能を示す情報と、ロボット装置10がその機能を有していないことで実行不可能なこと(動作、処理、操作等)を示す情報と、が互いに対応付けられている。例えば、ロボット装置10は、外部の冷却機能(例えばロボット装置10の周囲を冷却する機能)を備えておらず、そのため、ロボット装置10は、部屋の中を冷やすことができない。また、ロボット装置10は、印刷機能(プリント機能)を備えておらず、そのため、ロボット装置10が聞き取った音声や見た書類を印刷できない。非所有機能管理テーブルを参照することで、ロボット装置10が有していない機能と、ロボット装置10が実行不可能なことが特定(識別)される。また、非所有機能管理テーブルに登録されていない機能や実行不可能なことは、ロボット装置10が有している機能や実行可能なことである場合があるため、非所有機能管理テーブルを参照することで、ロボット装置10が有している機能や実行可能なことが特定(識別)されてもよい。 In the non-owned function management table, as an example, a management number, information indicating a function that the robot apparatus 10 does not have, and that the robot apparatus 10 cannot execute the function (operation, Information indicating processing, operation, etc.) is associated with each other. For example, the robot device 10 does not have an external cooling function (for example, a function of cooling the periphery of the robot device 10), and therefore the robot device 10 cannot cool the inside of the room. Further, the robot apparatus 10 does not have a print function (print function), and therefore, the voice heard by the robot apparatus 10 and the viewed document cannot be printed. By referring to the non-owned function management table, the functions that the robot apparatus 10 does not have and the fact that the robot apparatus 10 cannot execute are specified (identified). Further, since a function that is not registered in the non-owned function management table or an unexecutable function may be a function that the robot apparatus 10 has or an executable function, refer to the non-owned function management table. By doing so, it is possible to identify (identify) the functions that the robot apparatus 10 has and the executability.

記憶部32には、所有機能管理テーブルと非所有機能管理テーブルの両方のデータが記憶されて、これらのデータに基づいて、ロボット装置10によって実行可能又は実行不可能なことが特定されてもよいし、いずれか一方のデータが記憶されて、そのデータに基づいて、ロボット装置10によって実行可能又は実行不可能なことが特定されてもよい。 Data of both the owned function management table and the non-owned function management table may be stored in the storage unit 32, and it may be specified that the robot device 10 can execute or cannot execute based on these data. However, either one of the data may be stored, and it may be specified that the robot device 10 can execute or cannot execute based on the data.

以下、図9を参照して、解決手段管理情報38の具体例について説明する。図9には、解決手段管理情報38としての解決手段管理テーブルの一例が示されている。解決手段管理テーブルにおいては、一例として、管理番号と、状況(問題)を示す情報と、その状況(問題)に対する解決手段(その問題を解決するための手段)を示す情報と、が互いに対応付けられている。状況(問題)は、検知部56によって検知される。解決手段特定部58は、解決手段管理テーブルにおいて、検知部56によって検知された問題に対応する解決手段を特定する。 Hereinafter, a specific example of the solution management information 38 will be described with reference to FIG. 9. FIG. 9 shows an example of the solution management table as the solution management information 38. In the solution management table, for example, a management number, information indicating a situation (problem), and information indicating a solution to the situation (problem) (means for solving the problem) are associated with each other. Has been. The situation (problem) is detected by the detection unit 56. The solution means identification unit 58 identifies the solution means corresponding to the problem detected by the detection unit 56 in the solution means management table.

例えば、状況(1)「部屋の温度が温度閾値以上(例えば30℃以上)」が検知された場合、その状況を解決するための手段は、部屋の温度を下げる手段であり、具体的には、「(1)クーラーで冷やす。」、「(2)窓を開ける。」である。部屋の温度は、例えば、ロボット装置10が備えている各種センサー(例えば温度センサー)によって検知される。温度閾値は、ロボット装置10の周囲にいる人の年齢や性別によって変更されてもよい。例えば、ロボット装置10の検知部56は、各種センサー(例えば視覚センサーや聴覚センサー等)によって得られた情報(例えば画像や音声情報等)に基づいて周囲の人を検知するとともに、検知された人の年齢や性別等を推定する。例えば、年齢の高い人(年齢が年齢閾値以上となる人)が検知された場合と、年齢の低い人(年齢が年齢閾値未満となる人)が検知された場合と、で異なる温度閾値が用いられてもよい。例えば、年齢の高い人が検知された場合、年齢の低い人が検知された場合と比べて、より小さい温度閾値が用いられてもよい。これにより、年齢に適した解決手段が実行される。もちろん、性別毎に閾値を変えてもよい。これにより、性別に適した解決手段が実行される。 For example, when the situation (1) "the room temperature is equal to or higher than a temperature threshold value (for example, 30°C or higher)" is detected, the means for solving the situation is a means for lowering the room temperature, and specifically, , "(1) Cool with a cooler.", "(2) Open windows." The temperature of the room is detected by, for example, various sensors (for example, a temperature sensor) included in the robot device 10. The temperature threshold may be changed according to the age and sex of the people around the robot apparatus 10. For example, the detection unit 56 of the robot device 10 detects a person in the vicinity based on information (for example, image and audio information) obtained by various sensors (for example, a visual sensor and an auditory sensor), and the detected person. Estimate age, sex, etc. For example, different temperature thresholds are used when an old person (a person whose age is above the age threshold) is detected and when a young person (a person whose age is below the age threshold) is detected. You may be asked. For example, a smaller temperature threshold may be used when an older person is detected than when a younger person is detected. As a result, a solution suitable for the age is executed. Of course, the threshold may be changed for each gender. As a result, a solution suitable for gender is executed.

別の例として、状況(3)「部屋にいる人が寒そうな動作をしている」が検知された場合、その状況を解決するための手段は、部屋の温度を上げる手段であり、具体的には、「(1)ストーブをつける。」、「(2)扉を閉める。」である。ロボット装置10の検知部56は、各種センサーによって周囲の人の動作を検知することで、状況(3)を検知する。具体的には、検知部56は、人の顔や身体の動作等を表す画像に基づいて、人の表情、汗の有無、腕や足の動き等を検知したり、人の音声を検知することで、状況(3)を検知する。 As another example, when the situation (3) "a person in a room is performing an action that seems to be cold" is detected, a means for solving the situation is a means for raising the temperature of the room. Specifically, "(1) Put on the stove" and "(2) Close the door." The detection unit 56 of the robot apparatus 10 detects the situation (3) by detecting the movements of people around it with various sensors. Specifically, the detection unit 56 detects a person's facial expression, the presence/absence of sweat, movements of arms and legs, or detects a person's voice based on an image representing a person's face or body motion. Therefore, the situation (3) is detected.

互いに矛盾する複数の状況が検知された場合、検知部56は、複数の状況の中から1つの状況を優先的な状況として選択し、解決手段特定部58は、その優先的な状況を解決するための解決手段を特定してもよい。例えば、状況(1)「部屋の温度が30℃以上」が検知され、更に、状況(3)「部屋にいる人が寒そうな動作をしている」が検知された場合、状況(3)が状況(1)に優先して選択され、状況(3)を解決するための解決手段が選択される。この優先順位は予め設定されている。例えば、人に関する情報に基づいて検知された状況が、人以外の情報に基づいて検知された状況よりも優先して選択される。状況(3)は、人に関する情報に基づいて検知された状況(例えば、人の画像や音声を解析することで検知された状況)であり、状況(1)は、人以外の情報に基づいて検知された状況である。状況(3)を状況(1)よりも優先して選択することで、周囲の人に実際に発生していると想定される問題の解決手段が優先して選択されることになり、より確実に問題を解決することができる。 When a plurality of situations that contradict each other are detected, the detection unit 56 selects one situation from the plurality of situations as a priority situation, and the solution means identification unit 58 solves the priority situation. You may specify the solution for. For example, if the situation (1) "the room temperature is 30°C or higher" is detected, and the situation (3) "The person in the room is performing an action that seems to be cold" is detected, the situation (3) Is selected in preference to the situation (1), and a solution for solving the situation (3) is selected. This priority order is preset. For example, a situation detected based on information about a person is selected with priority over a situation detected based on information other than a person. The situation (3) is a situation detected based on information about a person (for example, a situation detected by analyzing a person's image or sound), and the situation (1) is based on information other than the person. This is the detected situation. By selecting the situation (3) with priority over the situation (1), the solution for the problem that is supposed to occur to the people around will be selected preferentially, which is more reliable. Can solve the problem.

以下、図10を参照して、デバイス機能管理情報40について詳しく説明する。図10には、デバイス機能管理情報40としてのデバイス機能管理テーブルの一例が示されている。デバイス機能管理テーブルにおいては、一例として、機器IDと、機器名(例えば機器の種類)を示す情報と、機器が有する機能を示す情報(機能情報)と、画像IDと、が互いに対応付けられている。機器IDと機器名はデバイス識別情報の一例に相当する。画像IDは、機器を表わす画像(例えば、機器の外観を表わす画像や、機器を模式的に表す画像(例えばアイコン)等)を識別するための画像識別情報の一例である。なお、デバイス機能管理テーブルには、画像IDは含まれていなくてもよい。例えば、機器IDが「B」の機器は、複合機(複数の画像形成機能を有する画像形成装置)であり、プリント機能やスキャン機能等の機能を有している。その機器には、その機器を表わす画像を識別するための画像IDが対応付けられている。機器を表わす画像のデータは、例えば、ロボット装置10の記憶部32や他の装置に記憶されている。 Hereinafter, the device function management information 40 will be described in detail with reference to FIG. FIG. 10 shows an example of the device function management table as the device function management information 40. In the device function management table, for example, a device ID, information indicating a device name (for example, device type), information indicating a function of the device (function information), and an image ID are associated with each other. There is. The device ID and the device name correspond to an example of device identification information. The image ID is an example of image identification information for identifying an image that represents a device (for example, an image that represents the appearance of the device, an image that schematically represents the device (for example, an icon), or the like). Note that the device function management table may not include the image ID. For example, the device having the device ID “B” is a multifunction peripheral (an image forming apparatus having a plurality of image forming functions), and has functions such as a print function and a scan function. An image ID for identifying an image representing the device is associated with the device. The image data representing the device is stored in, for example, the storage unit 32 of the robot device 10 or another device.

例えば、ロボット装置10が有する各種センサーによって、ロボット装置10の周囲に存在する機器を識別するための機器IDが取得され、ロボット装置10の識別部64は、デバイス機能管理テーブルを参照することにより、その機器IDに対応付けられている機器名、機能及び画像IDを特定する。これにより、ロボット装置10の周囲に存在する機器が識別される。例えば、機器名を示す情報、及び、機器を表わす画像のデータが、ロボット装置10から端末装置14に送信され、それらが端末装置14に表示されてもよい。機器を表わす画像は、当該機器に紐付く画像として表示される。機器に紐付く画像は、カメラ等によって撮影することで生成された画像であってもよいし、機器を模式的に表す画像(例えばアイコン等)であってもよい。また、端末装置14において、機器に紐付く画像がユーザによって指定されると、その機器が有する機能に関する情報(例えば、機能情報や機能の説明情報等)が、ロボット装置10から端末装置14に送信されて端末装置14に表示されてもよい。 For example, a device ID for identifying a device existing around the robot apparatus 10 is acquired by various sensors included in the robot apparatus 10, and the identification unit 64 of the robot apparatus 10 refers to the device function management table, The device name, function, and image ID associated with the device ID are specified. As a result, the devices existing around the robot apparatus 10 are identified. For example, the information indicating the device name and the data of the image indicating the device may be transmitted from the robot device 10 to the terminal device 14 and displayed on the terminal device 14. The image representing the device is displayed as an image associated with the device. The image associated with the device may be an image generated by photographing with a camera or the like, or may be an image (for example, an icon or the like) schematically showing the device. Further, in the terminal device 14, when an image associated with a device is designated by the user, information about a function of the device (for example, function information or function description information) is transmitted from the robot device 10 to the terminal device 14. It may be displayed and displayed on the terminal device 14.

以下、図11を参照して、連携機能管理情報42について詳しく説明する。図11には、連携機能管理情報42としての連携機能管理テーブルの一例が示されている。連携機能管理テーブルにおいては、一例として、機器IDの組み合わせと、連携対象の機器名(例えば各機器の種類)を示す情報と、連携機能を示す情報(連携機能情報)と、が互いに対応付けられている。例えば、機器IDが「A」の機器はPC(パーソナルコンピュータ)であり、機器IDが「B」の機器は複合機である。PC(A)と複合機(B)を連携させることにより、連携機能として、例えば「スキャン転送機能」や「プリント機能」が実現される。「スキャン転送機能」は、複合機(B)によるスキャンによって生成された画像データをPC(A)に転送する機能である。「プリント機能」は、PC(A)に保存されているデータ(例えば画像データや文書データ)を複合機(B)に送信して複合機(B)にて印刷する機能である。 Hereinafter, the cooperation function management information 42 will be described in detail with reference to FIG. FIG. 11 shows an example of the cooperation function management table as the cooperation function management information 42. In the cooperation function management table, as an example, a combination of device IDs, information indicating a device name of a cooperation target (for example, the type of each device), and information indicating a cooperation function (cooperation function information) are associated with each other. ing. For example, the device with the device ID "A" is a PC (personal computer), and the device with the device ID "B" is a multi-function peripheral. By linking the PC (A) and the multifunction peripheral (B), for example, a "scan transfer function" or a "print function" is realized as a linking function. The “scan transfer function” is a function of transferring the image data generated by the scan by the multifunction peripheral (B) to the PC (A). The “print function” is a function of transmitting data (for example, image data or document data) stored in the PC (A) to the multi function peripheral (B) and printing the data in the multi function peripheral (B).

以下、図12を参照して、状況確認処理の概略について説明する。図12は、その処理を示すフローチャートである。 Hereinafter, the outline of the situation confirmation processing will be described with reference to FIG. FIG. 12 is a flowchart showing the processing.

まず、状況収集部44は、各種センサーによって、ロボット装置10の周囲の状況に関する状況情報(各種センサーの値)を収集し、検知部56は、その状況情報に基づいて、ロボット装置10の周囲の状況を検知し、ロボット装置10の周囲にて問題が発生しているか否かを判断し、発生した問題を検知する(S01)。 First, the situation collection unit 44 collects situation information (values of various sensors) regarding the situation around the robot apparatus 10 by using various sensors, and the detection unit 56 detects the situation around the robot apparatus 10 based on the situation information. The situation is detected, it is determined whether or not a problem has occurred around the robot apparatus 10, and the problem that has occurred is detected (S01).

判断部60は、ロボット装置10によって、検知部56によって検知された問題を解決することが可能か否かを判断する(S02)。上述したように、ロボット装置10によって解決できない問題は、例えば、ロボット装置10の機能だけでは解決できない問題、ロボット装置10の機能だけでは解決に要する時間が予め定められた時間以上となる問題、ロボット装置10の機能による作業の結果の質が予め定められた質以下となる問題、等である。 The determination unit 60 determines whether the robot device 10 can solve the problem detected by the detection unit 56 (S02). As described above, the problem that cannot be solved by the robot apparatus 10 is, for example, the problem that cannot be solved only by the function of the robot apparatus 10, the problem that the time required for solution by the function of the robot apparatus 10 is a predetermined time or more, the robot For example, there is a problem that the quality of the work result by the function of the apparatus 10 becomes lower than a predetermined quality.

検知部56によって検知された問題が、ロボット装置10によって解決できない問題に該当しない場合(S02,No)、ロボット装置10は、その問題を解決するための解決手段を実行する(S03)。その解決手段は、解決手段特定部58によって特定される。この場合、ロボット装置10は、ロボット装置10以外の機器を利用せずに、また、人から援助を受けずに、自身の有する機能によって解決手段を実行する。ロボット装置10は、例えば、問題を示す情報や解決手段を示す情報をロボット装置10のUI部50や端末装置14のUI部72に表示させ、解決手段の実行指示がユーザによって与えられた場合、解決手段を実行してもよい。 When the problem detected by the detection unit 56 does not correspond to the problem that cannot be solved by the robot apparatus 10 (S02, No), the robot apparatus 10 executes the solution means for solving the problem (S03). The solution is identified by the solution identifying unit 58. In this case, the robot apparatus 10 executes the solving means by its own function without using any equipment other than the robot apparatus 10 and without receiving assistance from a person. For example, when the robot device 10 causes the UI unit 50 of the robot device 10 or the UI unit 72 of the terminal device 14 to display information indicating a problem or information indicating a solving means, and an instruction to execute the solving means is given by the user, The solution may be implemented.

一方、検知部56によって検知された問題が、ロボット装置10によって解決できない問題に該当する場合(S02,Yes)、解決手段の探索処理が実行される。ロボット装置10のみによって解決手段を探す場合(S04,Yes)、ロボット装置10は、自律判断モードを実行する(S05)。一方、ロボット装置10のみによって解決手段を探さない場合(S04,No)、ロボット装置10は、ユーザ判断モードを実行する(S06)。自律判断モード又はユーザ判断モードの何れかを実行するのかは、予め設定されている。つまり、ロボット装置10は、検知部56によって検知された問題が、ロボット装置10によって解決できない問題に該当する場合、自律判断モード及びユーザ判断モードの中で予め設定されたモードを実行する。実行されるモードは、ユーザによって指定されてもよい。 On the other hand, when the problem detected by the detection unit 56 corresponds to a problem that cannot be solved by the robot apparatus 10 (S02, Yes), a search process for a solution means is executed. When the solution is searched for only by the robot device 10 (S04, Yes), the robot device 10 executes the autonomous determination mode (S05). On the other hand, when the solution is not searched for only by the robot device 10 (S04, No), the robot device 10 executes the user determination mode (S06). Whether to execute the autonomous determination mode or the user determination mode is set in advance. That is, when the problem detected by the detection unit 56 corresponds to a problem that cannot be solved by the robot device 10, the robot device 10 executes a preset mode in the autonomous determination mode and the user determination mode. The mode to be executed may be designated by the user.

以下、図13を参照して、状況確認処理について詳しく説明する。図13は、その処理を示すフローチャートである。 Hereinafter, the situation confirmation process will be described in detail with reference to FIG. FIG. 13 is a flowchart showing the processing.

まず、状況収集部44は、各種センサーによって、ロボット装置10の周囲の状況に関する状況情報(各種センサーの値)を収集し(S10)、検知部56は、各種センサーの値を組み合わせることで、生じる問題を想定する(S11)。検知部56は、例えば、周囲を撮影することで得られた画像を解析することで得られた情報と、画像以外のセンサーの値と、を組み合わせることで、生じる問題を想定する。もちろん、人の音声を収集し、その音声の解析結果も組み合わせて問題を検知してもよい。例えば、検知された温度が温度閾値以上(例えば30℃以上)であって、周囲を表わす画像に汗をかいている人が表されている場合、検知部56は、クーラーや扇風機等を利用することで周囲の温度を下げる必要があることを検知する。1つのセンサーのみを使用して状況を判断する場合、その判断は誤る可能性があるが、周囲を表わす画像等と組み合わせることで、より複雑な状況をより精度高く検知できる。例えば、周囲を表わす画像とセンサーの値とを組み合わせることで、一様な判断だけでなく、個別的な判断まで可能になる。もちろん、センサーを用いることで、人の目や嗅覚等によって検知できない状況までも検知することが可能となる利点がある。 First, the situation collection unit 44 collects situation information (values of various sensors) relating to the surrounding situation of the robot apparatus 10 by using various sensors (S10), and the detection unit 56 generates by combining the values of various sensors. Assume a problem (S11). The detection unit 56 assumes a problem that occurs, for example, by combining information obtained by analyzing an image obtained by photographing the surroundings and a value of a sensor other than the image. Of course, the voice of a person may be collected and the analysis result of the voice may be combined to detect the problem. For example, when the detected temperature is equal to or higher than a temperature threshold value (for example, 30° C. or higher) and the image showing the surroundings shows a person who is sweating, the detection unit 56 uses a cooler, a fan, or the like. This detects that the ambient temperature needs to be lowered. When a situation is judged using only one sensor, the judgment may be erroneous, but by combining it with an image representing the surroundings, a more complicated situation can be detected with higher accuracy. For example, by combining the image showing the surroundings and the value of the sensor, not only the uniform judgment but also the individual judgment becomes possible. Of course, by using the sensor, there is an advantage that it is possible to detect even a situation that cannot be detected by human eyes, smell, and the like.

次に、解決手段特定部58は、各種センサーの値を正常値に戻すための解決手段を想定する(S12)。例えば、解決手段特定部58は、図9に示されている解決手段管理テーブルにおいて、検知部56によって検知された問題に対応する解決手段を特定する。ここで特定された解決手段に関する情報は、後述するユーザ問い合わせ時に提示されたり、ロボット装置10以外の機器や人を利用して問題を解決するときに、指示(コントロール)依頼として提示されたりしてもよい。 Next, the solution means identification unit 58 assumes solution means for returning the values of various sensors to normal values (S12). For example, the solving means identifying unit 58 identifies the solving means corresponding to the problem detected by the detecting unit 56 in the solving means management table shown in FIG. The information about the solving means specified here is presented at the time of a user inquiry described later, or presented as an instruction (control) request when solving a problem using a device or person other than the robot apparatus 10. Good.

次に、判断部60は、ロボット装置10によって、検知部56によって検知された問題を解決することが可能か否かを判断する。そのために、判断部60は、ロボット装置10が有する機能と、解決手段特定部58によって特定された解決手段と、を比較する(S13)。 Next, the determination unit 60 determines whether or not the robot apparatus 10 can solve the problem detected by the detection unit 56. Therefore, the determination unit 60 compares the function of the robot apparatus 10 with the solution means specified by the solution means specification unit 58 (S13).

ロボット装置10が有する機能内に、解決手段特定部58によって特定された解決手段が含まれている場合、つまり、ロボット装置10が、その解決手段を実行するための機能を備えている場合(S14,Yes)、処理は、図12に示されているステップS03に移行する。この場合、ロボット装置10は、ロボット装置10以外の機器を利用せずに、また、人から援助を受けずに、自身の有する機能によって解決手段を実行する。ロボット装置10は、ユーザによって実行指示が与えられた場合に、解決手段を実行してもよい。 When the solution means identified by the solution means identification unit 58 is included in the functions of the robot apparatus 10, that is, when the robot apparatus 10 has a function for executing the solution means (S14). , Yes), and the process proceeds to step S03 shown in FIG. In this case, the robot apparatus 10 executes the solving means by its own function without using any equipment other than the robot apparatus 10 and without receiving assistance from a person. The robot apparatus 10 may execute the solving means when the execution instruction is given by the user.

ロボット装置10が有する機能内に、解決手段特定部58によって特定された解決手段が含まれていない場合、つまり、ロボット装置10が、その解決手段を実行するための機能を備えていない場合(S14,No)、ロボット装置10は、自律判断モード又はユーザ判断モードを実行する(S15)。 If the solution means identified by the solution means identification unit 58 is not included in the functions of the robot apparatus 10, that is, if the robot apparatus 10 does not have the function for executing the solution means (S14). , No), the robot apparatus 10 executes the autonomous determination mode or the user determination mode (S15).

以下、図14を参照して、ユーザ判断モードにおける処理について詳しく説明する。図14は、その処理を示すフローチャートである。 Hereinafter, the processing in the user determination mode will be described in detail with reference to FIG. FIG. 14 is a flowchart showing the processing.

まず、ロボット装置10の通信部30は、制御部54の制御の下、状況収集部44によって収集された状況情報(各種センサーの値)を、端末装置14に送信する(S20)。このとき、通信部30は、障害物の有無や、ロボット装置10と端末装置14との間の距離等に応じて通信方式を切り替えてもよい。通信部30は、例えば、送信先として予め登録された端末装置14に状況情報を送信してもよいし、ロボット装置10によって識別された端末装置14に状況情報を送信してもよいし、ロボット装置10に対して通信を要求してきた端末装置14に状況情報を送信してもよい。例えば、ロボット装置10の識別部64は、視覚センサーによって端末装置14を撮影することで得られた画像から端末装置14のデバイス識別情報を取得し、そのデバイス識別情報に基づいて端末装置14を識別してもよい。別の例として、通信部30は、ロボット装置10の位置を基準にして予め設定された範囲内に存在する端末装置14(例えば、近距離無線通信によって通信が可能な範囲に存在する端末装置14)に対して、状況情報を送信してもよい。更に別の例として、ロボット装置10の識別部64は、問題が発生していると想定されるユーザを識別し、そのユーザが所持する端末装置14に状況情報を送信してもよい。 First, under the control of the control unit 54, the communication unit 30 of the robot device 10 transmits the status information (values of various sensors) collected by the status collection unit 44 to the terminal device 14 (S20). At this time, the communication unit 30 may switch the communication method according to the presence or absence of an obstacle, the distance between the robot device 10 and the terminal device 14, and the like. The communication unit 30 may, for example, send the status information to the terminal device 14 registered in advance as the destination, send the status information to the terminal device 14 identified by the robot device 10, or the robot. The status information may be transmitted to the terminal device 14 that has requested the device 10 to communicate. For example, the identification unit 64 of the robot device 10 acquires the device identification information of the terminal device 14 from the image obtained by photographing the terminal device 14 with the visual sensor, and identifies the terminal device 14 based on the device identification information. You may. As another example, the communication unit 30 includes the terminal device 14 existing within a preset range based on the position of the robot device 10 (for example, the terminal device 14 existing within a range in which short-range wireless communication is possible). ), situation information may be transmitted. As still another example, the identification unit 64 of the robot device 10 may identify a user who is assumed to have a problem and transmit the status information to the terminal device 14 that the user possesses.

ロボット装置10は、端末装置14のユーザの要求に応じて、状況情報を更に収集して端末装置14に送信してもよい(S21)。例えば、ロボット装置10は、移動しながらカメラ等の視覚センサーによって周囲を追加で撮影し、その撮影で得られた画像(動画像や静止画像)を、端末装置14に送信したり、ユーザが指示した事項(例えば温度)のデータを収集し直して端末装置14に再送信する。 The robot apparatus 10 may further collect the situation information and transmit it to the terminal apparatus 14 in response to a request from the user of the terminal apparatus 14 (S21). For example, the robot device 10 additionally captures an image of the surroundings by a visual sensor such as a camera while moving, and transmits the image (moving image or still image) obtained by the image capture to the terminal device 14 or the user instructs. The data of the performed items (for example, temperature) is collected again and retransmitted to the terminal device 14.

次に、ロボット装置10は、検知部56によって検知された問題を解決するための1又は複数の解決手段(解決手段特定部58によって特定された1又は複数の解決手段)をユーザに提示する(S22)。例えば、ロボット装置10の通信部30は、制御部54の制御の下、解決手段を示す情報を端末装置14に送信する。この場合、解決手段を示す情報は、端末装置14のUI部72に表示される。別の例として、ロボット装置10の制御部54は、解決手段を示す情報を、ロボット装置10自身のUI部50に表示させてもよい。 Next, the robot apparatus 10 presents to the user one or a plurality of solving means (one or a plurality of solving means specified by the solving means specifying unit 58) for solving the problem detected by the detecting unit 56 ( S22). For example, the communication unit 30 of the robot device 10 transmits the information indicating the solving means to the terminal device 14 under the control of the control unit 54. In this case, the information indicating the solving means is displayed on the UI unit 72 of the terminal device 14. As another example, the control unit 54 of the robot apparatus 10 may display information indicating the solving means on the UI unit 50 of the robot apparatus 10 itself.

ユーザに対して提示された1又は複数の解決手段の中からユーザによって実行対象の解決手段が選択された場合、ロボット装置10の制御部54は、ユーザによって選択された解決手段が、ロボット装置10以外の機器(例えば機器12)を利用する解決手段か否かを判断する(S23)。例えば、ユーザが端末装置14を使用して解決手段を選択した場合、その解決手段を示す情報が、端末装置14からロボット装置10に送信され、ロボット装置10の制御部54は、その情報に基づき、ユーザによって選択された解決手段が、ロボット装置10以外の機器を利用する解決手段か否かを判断する。解決手段を示す情報がロボット装置10のUI部50に表示され、ユーザがUI部50を利用して解決手段を選択した場合、制御部54は、その選択に従って判断する。 When the user selects a solution means to be executed from the one or more solution means presented to the user, the control unit 54 of the robot apparatus 10 causes the solution means selected by the user to be the robot apparatus 10. It is determined whether or not the solution means uses a device other than the above (for example, the device 12) (S23). For example, when the user selects a solving means using the terminal device 14, information indicating the solving means is transmitted from the terminal device 14 to the robot device 10, and the control unit 54 of the robot device 10 is based on the information. , It is determined whether or not the solution means selected by the user is a solution means that uses a device other than the robot apparatus 10. Information indicating the solving means is displayed on the UI unit 50 of the robot apparatus 10, and when the user selects the solving means using the UI unit 50, the control unit 54 determines according to the selection.

ユーザによって選択された解決手段が、ロボット装置10以外の機器を利用する解決手段に該当する場合(S23,Yes)、ロボット装置10の通信部30は、制御部54の制御の下、その解決手段を実現可能な機器に関する情報を、端末装置14に送信する(S24)。例えば、制御部54は、デバイス機能管理テーブルや連携機能管理テーブルを参照することで、ユーザによって選択された解決手段を実現可能な機能を有する1又は複数の機器を特定する。例えば、解決手段として「プリント」が選択された場合、プリント機能を有する複合機が、解決手段を実現する機器として特定される。機器に関する情報には、例えば、機器の外観を表わす外観画像、機器に接続するための機器のアドレス情報、機器のスペックを示す情報、等が含まれてもよい。別の例として、ロボット装置10の制御部54は、その機器に関する情報を、ロボット装置10のUI部50に表示させてもよい。この場合、端末装置14に機器に関する情報が送信されなくてもよい。 When the solution means selected by the user corresponds to the solution means that uses a device other than the robot apparatus 10 (S23, Yes), the communication unit 30 of the robot apparatus 10 is controlled by the control unit 54. The information about the device capable of realizing is transmitted to the terminal device 14 (S24). For example, the control unit 54 identifies one or a plurality of devices having a function capable of realizing the solution means selected by the user by referring to the device function management table and the cooperation function management table. For example, when “print” is selected as the solving means, the multi-function peripheral having the printing function is specified as the device that realizes the solving means. The information about the device may include, for example, an appearance image showing the appearance of the device, address information of the device for connecting to the device, information indicating the specifications of the device, and the like. As another example, the control unit 54 of the robot apparatus 10 may display information regarding the device on the UI unit 50 of the robot apparatus 10. In this case, the information about the device may not be transmitted to the terminal device 14.

次に、ユーザの操作によって解決手段が実行される(S25)。つまり、その解決手段を実現するための機器が有する機能が実行される。解決手段を実現するための機能として、単体の機器が有する機能が実行されてもよいし、複数の機器が有する機能を利用する連携機能が実行されてもよい。もちろん、解決手段を実現するための機能として、ロボット装置10が有する機能が利用されてもよい。機器に対する機能の実行指示は、ロボット装置10から与えられてもよいし、端末装置14から与えられてもよい。機能を実行するための操作等については、後で詳しく説明する。 Next, the solution means is executed by the operation of the user (S25). That is, the function of the device for realizing the solving means is executed. As a function for realizing the solving means, a function of a single device may be executed, or a cooperation function using a function of a plurality of devices may be executed. Of course, the function of the robot apparatus 10 may be used as the function for realizing the solving means. The function execution instruction for the device may be given from the robot device 10 or from the terminal device 14. Operations and the like for executing the function will be described in detail later.

一方、ユーザによって選択された解決手段が、ロボット装置10以外の機器を利用する解決手段に該当しない場合(S23,No)、ロボット装置10は、解決手段を実行するために、周囲の人に協力を依頼する(S24)。このとき、ロボット装置10は、解決手段を実行するための手順(ユーザが行うべき作業の手順)をユーザに伝える(S25)。例えば、ロボット装置10の制御部54は、その手順を音声としてスピーカに発生させたり、ロボット装置10のUI部50に手順を表示させたり、人のいる場所まで移動して人に触ったりする。手順が人に伝わり難い場合、音声を大きくしてもよい。ロボット装置10の通信部30は、その手順を示す情報を端末装置14に送信してもよい。この場合、端末装置14のUI部72に、その手順を示す情報が表示される。 On the other hand, when the solution selected by the user does not correspond to the solution using the device other than the robot apparatus 10 (S23, No), the robot apparatus 10 cooperates with the people around it to execute the solution. Is requested (S24). At this time, the robot apparatus 10 informs the user of the procedure for executing the solving means (procedure of work to be performed by the user) (S25). For example, the control unit 54 of the robot apparatus 10 causes the speaker to generate the procedure as voice, displays the procedure on the UI unit 50 of the robot apparatus 10, or moves to a place where a person is present and touches the person. If the procedure is difficult to convey to people, the voice may be increased. The communication unit 30 of the robot device 10 may transmit information indicating the procedure to the terminal device 14. In this case, the UI section 72 of the terminal device 14 displays information indicating the procedure.

なお、機器と人の両方によって実現される解決手段がユーザによって選択された場合、上記のステップS24からステップS27が実行される。この場合においても、ロボット装置10の機能が解決手段の一部として利用されてもよい。 It should be noted that when the user selects the solution means realized by both the device and the person, the above steps S24 to S27 are executed. Also in this case, the function of the robot device 10 may be used as a part of the solution means.

以下、図15を参照して、自律判断モードにおける処理について詳しく説明する。図15は、その処理を示すフローチャートである。 Hereinafter, the processing in the autonomous determination mode will be described in detail with reference to FIG. FIG. 15 is a flowchart showing the processing.

まず、ロボット装置10の制御部54は、必要に応じて、解決手段特定部58によって特定された解決手段を実現するために必要な追加機能や応援依頼(ユーザの応援の依頼)を特定する(S30)。 First, the control unit 54 of the robot apparatus 10 specifies, as necessary, an additional function or a support request (a request for support from the user) necessary to realize the solution means specified by the solution means specification unit 58 ( S30).

ロボット装置10の制御部54は、解決手段特定部58によって特定された解決手段が、ロボット装置10以外の機器(例えば機器12)を利用する解決手段か否かを判断する(S31)。 The control unit 54 of the robot apparatus 10 determines whether or not the solution means identified by the solution means identification unit 58 is a solution means that uses a device other than the robot device 10 (for example, the device 12) (S31).

解決手段特定部58によって特定された解決手段が、ロボット装置10以外の機器を利用する解決手段に該当する場合(S31,Yes)、ロボット装置10の制御部54は、周囲において、その解決手段を実行可能な機器を探索する(S32)。制御部54は、例えば、視覚センサーによって得られた画像、各機器の位置情報、無線通信状況等に基づいて、機器を探索する。例えば、制御部54は、デバイス機能管理テーブルや連携機能管理テーブルを参照することで、解決手段を実現可能な機能を有する1又は複数の機器を特定する。例えば、解決手段が「プリント」の場合、ロボット装置10の制御部54は、プリント機能を有する複合機を探索する。 When the solving means identified by the solving means identifying unit 58 corresponds to the solving means using a device other than the robot apparatus 10 (S31, Yes), the control unit 54 of the robot apparatus 10 determines the solving means in the surroundings. An executable device is searched for (S32). The control unit 54 searches for a device, for example, based on the image obtained by the visual sensor, the position information of each device, the wireless communication status, and the like. For example, the control unit 54 identifies one or a plurality of devices having a function capable of realizing a solving means by referring to the device function management table and the cooperation function management table. For example, when the solution is “print”, the control unit 54 of the robot apparatus 10 searches for a multifunction machine having a print function.

解決手段を実行可能な機器が周囲に存在する場合(S33,Yes)、ロボット装置10の通信部30は、制御部54の制御の下、解決手段の実行指示(解決手段を実現するための機能の実行指示)を示す情報を、当該機器に送信する(S34)。実行指示を示す情報を受けた機器は、その指示に従って解決手段を実行する。 When there is a device capable of executing the solving means in the surroundings (S33, Yes), the communication unit 30 of the robot apparatus 10 under the control of the control unit 54 gives an instruction to execute the solving means (a function for realizing the solving means. Information indicating the execution instruction) is transmitted to the device (S34). The device that has received the information indicating the execution instruction executes the solution according to the instruction.

ロボット装置10の制御部54は、解決手段を実行可能な機器のコントロール権を取得できるか否かを確認してもよい。すなわち、制御部54は、当該機器のアドレス情報やコントロール可能なドライバがロボット装置10に記憶されているか否かを確認する。ネットワーク等を利用してドライバ等を取得できる場合、制御部54は、ドライバ等のダウンロードを実行する。なお、ロボット装置10は、機器の操作パネルを直接操作することで当該機器に実行指示を与えてもよいし、当該機器のリモコンを操作することで、当該機器に実行指示を与えてもよい。 The control unit 54 of the robot apparatus 10 may check whether or not the control right of the device capable of executing the solving means can be acquired. That is, the control unit 54 confirms whether address information of the device or a controllable driver is stored in the robot apparatus 10. When the driver or the like can be acquired using the network or the like, the control unit 54 executes the download of the driver or the like. The robot apparatus 10 may give an execution instruction to the device by directly operating the operation panel of the device, or may give an execution instruction to the device by operating a remote controller of the device.

解決手段が無事終了したか否かは、機器による機能の実行後に、問題が解決したか否かによって判断される。検知部56によって問題が検知されない場合、制御部54は、その問題が解決されたと判断する。問題が解決していない場合、ロボット装置10の制御部54は、解決手段の実行指示を機器に再度与えたり、別の解決手段を探索する。 Whether or not the solution means has been successfully completed is determined by whether or not the problem has been resolved after the device executes the function. When the detection unit 56 does not detect the problem, the control unit 54 determines that the problem has been solved. When the problem has not been solved, the control unit 54 of the robot apparatus 10 gives an instruction to execute the solution to the device again or searches for another solution.

解決手段を実行可能な機器が周囲に存在しない場合(S33,No)、ロボット装置10の制御部54は、別の解決手段を探索する(S35)。このとき、制御部54は、モードをユーザ判断モードに切り替えてもよい。 When there is no device capable of executing the solving means in the vicinity (S33, No), the control unit 54 of the robot apparatus 10 searches for another solving means (S35). At this time, the control unit 54 may switch the mode to the user determination mode.

解決手段特定部58によって特定された解決手段が、ロボット装置10以外の機器を利用する解決手段に該当しない場合(S31,No)、ロボット装置10は、解決手段を実行するために、周囲の人に協力を依頼する(S36)。このとき、ロボット装置10は、協力依頼内容(例えば解決手段を実行するための手順等)をユーザに伝える(S37)。例えば、ロボット装置10の制御部54は、協力依頼内容を音声としてスピーカに発生させたり、ロボット装置10のUI部50に協力依頼内容を表示させたり、人のいる場所まで移動して人に触ったりする。ロボット装置10の通信部30は、協力依頼内容を示す情報を端末装置14に送信してもよい。この場合、端末装置14のUI部72に、その協力依頼内容を示す情報が表示される。 When the solving means specified by the solving means specifying unit 58 does not correspond to the solving means using the device other than the robot apparatus 10 (S31, No), the robot apparatus 10 executes the solving means, and therefore the surrounding persons need to know. Request cooperation (S36). At this time, the robot apparatus 10 informs the user of the details of the cooperation request (for example, the procedure for executing the solving means) (S37). For example, the control unit 54 of the robot apparatus 10 causes the speaker to indicate the content of the cooperation request as voice, displays the content of the cooperation request on the UI unit 50 of the robot apparatus 10, moves to the place where the person is, and touches the person. Or The communication unit 30 of the robot device 10 may transmit information indicating the cooperation request content to the terminal device 14. In this case, the information indicating the cooperation request content is displayed on the UI unit 72 of the terminal device 14.

協力に応じてもらえる場合(S38,Yes)、処理は終了する。この場合、ユーザが解決手段を実行する。協力に応じてもらえない場合(S38,No)、ロボット装置10の制御部54は、別の解決手段を探索する(S35)。制御部54は、モードをユーザ判断モードに切り替えてもよい。制御部54は、例えば、音声認識によって、ユーザの返事を認識することで、協力に応じてもらえたか否かを判断してもよい。例えば、協力に応じる旨の返事が音声認識された場合、制御部54は、協力に応じてもられたと判断する。別の例として、解決手段を実現するためにユーザによって行われると想定される動作が、予め設定された時間内に実行されて、各種センサー(例えば視覚センサー)によってその動作が検知された場合、制御部54は、協力に応じてもらえたと判断してもよい。 When the cooperation is received (S38, Yes), the process ends. In this case, the user executes the solution. When the cooperation is not received (S38, No), the control unit 54 of the robot apparatus 10 searches for another solution (S35). The control unit 54 may switch the mode to the user determination mode. The control unit 54 may determine whether or not the cooperation has been received, for example, by recognizing the user's reply by voice recognition. For example, when the reply to the cooperation is recognized by voice, the control unit 54 determines that the cooperation is accepted. As another example, when an operation supposed to be performed by the user to implement the solution is executed within a preset time and the operation is detected by various sensors (for example, a visual sensor), The control unit 54 may determine that the cooperation was received.

なお、時間が経過するにつれて、周囲の状況も変化するため、発生する問題も変化する場合がある。この場合、ロボット装置10は、刻々と変化する状況(問題)を検知し、その検知結果に応じた解決手段を特定する。 It should be noted that, as time passes, the surrounding situation also changes, so the problems that occur may also change. In this case, the robot apparatus 10 detects a situation (problem) that changes every moment, and identifies a solution means according to the detection result.

また、ロボット装置10が解決できる問題は、ロボット装置10が有する機能の更新に応じて変更される。その機能の更新は、例えば、ロボット装置10が有するハードウェア及びソフトウェアの中の少なくとも1つを変更することで行われる。 Further, the problem that can be solved by the robot device 10 is changed according to the update of the function of the robot device 10. The update of the function is performed, for example, by changing at least one of the hardware and the software included in the robot apparatus 10.

なお、解決手段特定部58は、人によって実行される解決手段よりも、人によって実行されずに機器を利用して実行される解決手段(人の協力が不要な解決手段)を優先的に特定してもよい。人によって実行される解決手段は、必ずしも人によって実行されるとは限らない。それ故、人の協力が不要な解決手段を優先的に特定することで、より確実に実行され得る解決手段が特定される。また、人が検知されない場合、解決手段特定部58は、人の協力が必要な解決手段を探索せずに、人の協力が不要な解決手段を特定してもよい。これにより、解決手段の探索に要する負荷が軽減される。 The solving means identifying unit 58 preferentially identifies a solving means that is not executed by a person and is executed by using a device (a solving means that does not require human cooperation), rather than a solving means executed by a person. You may. Solutions performed by people are not always performed by people. Therefore, by preferentially identifying a solution that does not require human cooperation, a solution that can be executed more reliably is identified. In addition, when the person is not detected, the solution means identification unit 58 may identify the solution means that does not require the person's cooperation, without searching for the solution means that requires the person's cooperation. This reduces the load required to search for a solution.

以下、図16を参照して、解決手段の実行制御について詳しく説明する。図16は、その制御を示すフローチャートである。以下では、ロボット装置10によって問題を解決できないものとする。 Hereinafter, the execution control of the solving means will be described in detail with reference to FIG. FIG. 16 is a flowchart showing the control. In the following, it is assumed that the robot device 10 cannot solve the problem.

まず、ロボット装置10の制御部54は、上記のユーザ判断モードにおいてユーザによって選択された解決手段、又は、上記の自律判断モードにおいてロボット装置10によって特定された解決手段に、機器の制御が含まれているか否かを判断する(S40)。つまり、制御部54は、上記の解決手段が、機器を利用する解決手段に該当するか否かを判断する。更に換言すると、制御部54は、上記の解決手段が、機器を利用せずに人のみによって実現される解決手段か否かを判断する。 First, the control unit 54 of the robot apparatus 10 includes the control of the device in the solution means selected by the user in the user determination mode described above or the solution means specified by the robot apparatus 10 in the autonomous determination mode described above. It is determined whether or not (S40). That is, the control unit 54 determines whether or not the above-mentioned solving means corresponds to the solving means using the device. In other words, the control unit 54 determines whether the above-mentioned solving means is a solving means realized only by a person without using a device.

上記の解決手段に機器の制御が含まれていない場合(S40,No)、つまり、解決手段が機器を利用せずに人のみによって実現される解決手段に該当する場合、ロボット装置10は、解決手段を実行するために、周囲の人に協力を依頼する(S41)。例えば、ロボット装置10の通信部30は、協力依頼内容(例えば解決手段を実行するための手順等)を示す情報を端末装置14に送信する。この場合、端末装置14のUI部72に、その協力依頼内容を示す情報が表示される。このとき、ロボット装置10の通信部30は、周囲の環境に応じた通信方式を利用して、協力依頼内容を示す情報を端末装置14に送信する(S42)。周囲の環境は、例えば、ロボット装置10と端末装置14との間の距離や、ロボット装置10と端末装置14との間の障害物の有無等である。ロボット装置10の制御部54は、協力依頼内容を音声としてスピーカに発生させたり、ロボット装置10のUI部50に協力依頼内容を表示させたり、人のいる場所まで移動して人に触ったりしてもよい。ロボット装置10の制御部54は、解決手段を実現するためにユーザによって行われると想定される動作が、予め設定された時間内に実行されるか否かを観察する(S43)。制御部54は、その観察に基づいて、問題が解消したか否かを判断する(S44)。その想定される動作が予め設定された時間内に実行されて、各種センサー(例えば視覚センサー)によってその動作が検知された場合、ロボット装置10の制御部54は、問題が解消したと判断する(S44,Yes)。この場合、処理は終了する。一方、想定される動作が予め設定された時間内に実行されず、各種センサーによってその動作が検知されない場合、ロボット装置10の制御部54は、問題が解消していないと判断する(S44,No)。この場合、ロボット装置10は、別の解決手段を探索してもよいし、同じ協力依頼内容をユーザに通知してもよい(S45)。 When the solution means does not include control of the device (S40, No), that is, when the solution means corresponds to the solution means realized only by a person without using the device, the robot apparatus 10 solves the problem. In order to execute the means, it asks the surrounding people for cooperation (S41). For example, the communication unit 30 of the robot device 10 transmits, to the terminal device 14, information indicating the content of the cooperation request (for example, the procedure for executing the solving means). In this case, the information indicating the cooperation request content is displayed on the UI unit 72 of the terminal device 14. At this time, the communication unit 30 of the robot device 10 transmits information indicating the contents of the cooperation request to the terminal device 14 by using the communication method according to the surrounding environment (S42). The surrounding environment is, for example, the distance between the robot device 10 and the terminal device 14, the presence or absence of an obstacle between the robot device 10 and the terminal device 14, and the like. The control unit 54 of the robot apparatus 10 causes the speaker to indicate the cooperation request content as voice, displays the cooperation request content on the UI unit 50 of the robot apparatus 10, moves to a place where a person is, and touches the person. May be. The control unit 54 of the robot apparatus 10 observes whether or not the operation supposed to be performed by the user to implement the solving means is executed within a preset time (S43). The control unit 54 determines whether the problem has been resolved based on the observation (S44). When the supposed operation is executed within a preset time and the operation is detected by various sensors (for example, a visual sensor), the control unit 54 of the robot apparatus 10 determines that the problem has been resolved ( S44, Yes). In this case, the process ends. On the other hand, when the expected operation is not executed within the preset time and the operation is not detected by the various sensors, the control unit 54 of the robot apparatus 10 determines that the problem has not been resolved (S44, No). ). In this case, the robot apparatus 10 may search for another solution or notify the user of the same cooperation request content (S45).

上記の解決手段に機器の制御が含まれている場合(S40,Yes)、つまり、解決手段が機器を利用する解決手段に該当する場合、ロボット装置10の制御部54は、解決手段に利用される機器が無料で利用可能な機器に該当するか否かを判断する(S46)。具体的には、ロボット装置10の制御部54は、周囲において、その解決手段を実行可能な機器を探索(識別)し、その機器が無料で利用可能な機器に該当する否かを判断する。無料又は有料を示す情報は、機器毎に管理されている。例えば、デバイス機能管理テーブルにおいて、各機器が無料又は有料で使用可能なことが管理されていてもよい。別の例として、制御部54は、識別した機器から、当該危機が無料又は有料で使用可能な機器かを示す情報を取得してもよい。 When the solution means includes control of the equipment (S40, Yes), that is, when the solution means corresponds to the solution means that uses the equipment, the control unit 54 of the robot apparatus 10 is used as the solution means. It is determined whether the device to be used corresponds to a device that can be used free of charge (S46). Specifically, the control unit 54 of the robot apparatus 10 searches (identifies) a device capable of executing the solving means in the surroundings, and determines whether the device corresponds to a device that can be used free of charge. The information indicating free or paid is managed for each device. For example, the device function management table may manage that each device can be used for free or for a fee. As another example, the control unit 54 may acquire, from the identified device, information indicating whether the crisis is a device that can be used for free or for a fee.

解決手段に利用される機器が無料で利用可能な機器に該当しない場合(S46,No)、つまり、その機器が有料で使用可能な機器に該当する場合、ロボット装置10の制御部54は、当該ロボット装置10が、当該機器に対応する支払手段を有しているか否かを判断する(S47)。支払手段は、例えば、電子マネー(電子通貨)、仮想通貨、現金、クレジットカード等である。もちろん、これら以外の手段によって支払いが行われてもよい。ロボット装置10が、支払手段を有していない場合(S47,No)、ロボット装置10の制御部54は、別の解決手段を探索する(S48)。ロボット装置10が、支払手段を有している場合(S47,Yes)、処理はステップS49に移行する。この場合、ロボット装置10の制御部54は、有料で利用可能な機器を使用するための支払い動作を制御する。つまり、ロボット装置10は、機器の利用の際に、支払手段によって支払する。なお、ロボット装置10が支払手段を有していない場合、ロボット装置10は、ロボット装置10以外の機器及び人の中の少なくとも1つから支払い援助を受けて(例えば、人や機器から金銭を借りたり譲り受けたりして)支払い動作を行ってもよい。 When the device used for the solution does not correspond to the device that can be used free of charge (S46, No), that is, when the device corresponds to the device that can be used for a fee, the control unit 54 of the robot apparatus 10 concerned. It is determined whether the robot device 10 has a payment means corresponding to the device (S47). The payment means is, for example, electronic money (electronic currency), virtual currency, cash, credit card, or the like. Of course, payment may be made by means other than these. When the robot apparatus 10 does not have the payment means (S47, No), the control unit 54 of the robot apparatus 10 searches for another solution means (S48). When the robot device 10 has a payment means (S47, Yes), the process proceeds to step S49. In this case, the control unit 54 of the robot apparatus 10 controls the payment operation for using a device that can be used for a fee. That is, the robot device 10 pays by the payment means when using the device. If the robot device 10 does not have a payment means, the robot device 10 receives payment assistance from at least one of the devices other than the robot device 10 and the person (for example, borrow money from the person or the device). The payment operation may be performed (by receiving or handing over).

次に、ロボット装置10の制御部54は、解決手段に利用される機器が通信機能を介して制御可能な機器に該当するか否かを判断する(S49)。通信機能を介して制御可能か否かを示す情報は、機器毎に管理されている。例えば、デバイス機能管理テーブルにおいて、各機器が通信機能を介して制御可能か否かが管理されていてもよい。 Next, the control unit 54 of the robot apparatus 10 determines whether or not the device used as the solving means corresponds to the device controllable via the communication function (S49). The information indicating whether control is possible via the communication function is managed for each device. For example, the device function management table may manage whether or not each device can be controlled via the communication function.

解決手段に利用される機器が通信機能を介して制御可能な機器に該当する場合(S49,Yes)、ロボット装置10の制御部54は、その機器との間で通信可能な通信方式(その機器が対応している通信方式)を選択する(S50)。各機器が対応している通信方式は、機器毎に管理されている。例えば、デバイス機能管理テーブルにおいて、各機器が対応している通信方式が管理されていてもよい。なお、機器が対応している通信方式に従って当該機器と通信を行っても通信エラーが生じる場合、ステップS57以降の処理が実行されてもよい。また、当該機器が複数の通信方式に対応している場合、ロボット装置10は、当該複数の通信方式のそれぞれを用いて当該機器との間で通信を試みてもよい。この場合、ロボット装置10は、複数の通信方式の中で最適な通信方式(例えば、通信速度が最も速い通信方式や、ノイズが最も少ない通信方式等)を用いて機器と通信してもよい。 When the device used as the solving means corresponds to the device that can be controlled via the communication function (S49, Yes), the control unit 54 of the robot apparatus 10 communicates with the device (the device). Communication system) is selected (S50). The communication method supported by each device is managed for each device. For example, in the device function management table, the communication method supported by each device may be managed. If a communication error occurs even when the device communicates with the device according to the communication method supported by the device, the processes in and after step S57 may be executed. If the device supports a plurality of communication methods, the robot device 10 may attempt communication with the device using each of the plurality of communication methods. In this case, the robot device 10 may communicate with the device using an optimal communication method (for example, a communication method with the highest communication speed, a communication method with the least noise, etc.) among the plurality of communication methods.

また、ロボット装置10の制御部54は、解決手段に利用される機器のアドレス情報やアクセスパスワード等を取得する(S51)。ロボット装置10の制御部54は、例えば、アドレス情報等を記憶するサーバ等の装置からアドレス情報等を取得してもよいし、インターネット経由等でアドレス情報等を取得してもよい。別の例として、アドレス情報等はロボット装置10に記憶されていてもよい。また、ロボット装置10の制御部54は、解決手段に利用される機器を制御するために当該機器のドライバが必要な場合、そのドライバを取得してロボット装置10にインストールする(S52)。ロボット装置10の制御部54は、例えば、ドライバを記憶するサーバ等の装置からドライバを取得してもよいし、インターネット経由等でドライバを取得してもよい。 In addition, the control unit 54 of the robot apparatus 10 acquires address information, an access password, etc. of the device used as the solving means (S51). The control unit 54 of the robot device 10 may acquire the address information or the like from a device such as a server that stores the address information or the like, or may acquire the address information or the like via the Internet or the like. As another example, the address information and the like may be stored in the robot device 10. Further, when the driver of the device is required to control the device used for the solving means, the control unit 54 of the robot device 10 acquires the driver and installs the driver in the robot device 10 (S52). The control unit 54 of the robot device 10 may acquire the driver from a device such as a server that stores the driver, or may acquire the driver via the Internet or the like.

次に、ロボット装置10の通信部30は、解決手段の実行指示(解決手段を実行するための機能の実行指示)を示す情報を、解決手段に利用される機器に送信する(S53)。実行指示を示す情報を受けた機器は、その指示に従って解決手段を実行する。 Next, the communication unit 30 of the robot apparatus 10 transmits information indicating an execution instruction of the solving means (an execution instruction of a function for executing the solving means) to a device used by the solving means (S53). The device that has received the information indicating the execution instruction executes the solution according to the instruction.

ロボット装置10の制御部54は、機器が問題を解決しているか否かを観察し(S54)、その観察に基づいて、問題が解消したか否かを判断する(S55)。例えば、解決手段を実現するために機器によって行われると想定される動作が、予め設定された時間内に当該機器によって実行されて、各種センサー(例えば視覚センサー)によってその動作が検知された場合、ロボット装置10の制御部54は、機器が問題を解決していると判断する(S55,Yes)。この場合、処理は終了する。一方、想定される動作が予め設定された時間内に実行されず、各種センサーによってその動作が検知されない場合、ロボット装置10の制御部54は、問題が解消していないと判断する(S55,No)。この場合、ロボット装置10は、別の解決手段を探索してもよいし、同じ実行指示を機器に送信してもよい(S56)。なお、ロボット装置10の制御部54は、別の新たな解決手段の実行が可能か否かを判断してもよい。例えば、部屋の温度が高い場合において、クーラー以外の機器として扇風機が部屋内に新たに設置された場合、制御部54は、その扇風機を用いた新たな解決手段を探索してもよい。また、検索部62は、インターネット等を利用することで、新たな解決手段を検索してもよい。 The control unit 54 of the robot apparatus 10 observes whether the device solves the problem (S54), and based on the observation, determines whether the problem has been solved (S55). For example, when an operation that is supposed to be performed by the device to implement the solution is performed by the device within a preset time and the operation is detected by various sensors (for example, a visual sensor), The control unit 54 of the robot apparatus 10 determines that the device solves the problem (S55, Yes). In this case, the process ends. On the other hand, when the expected operation is not executed within the preset time and the operation is not detected by the various sensors, the control unit 54 of the robot apparatus 10 determines that the problem has not been resolved (S55, No). ). In this case, the robot apparatus 10 may search for another solution, or may send the same execution instruction to the device (S56). The control unit 54 of the robot apparatus 10 may determine whether another new solving means can be executed. For example, when the temperature of the room is high and a fan is newly installed in the room as a device other than the cooler, the control unit 54 may search for a new solution using the fan. Further, the search unit 62 may search for a new solution by using the Internet or the like.

解決手段に利用される機器が通信機能を介して制御可能な機器に該当しない場合(S49,No)、ロボット装置10は、当該機器を操作するためのリモコンを探索する(S57)。ロボット装置10は、例えば、視覚センサーによって得られた画像を解析することでリモコンを識別する。 When the device used as the solving means does not correspond to the device controllable via the communication function (S49, No), the robot apparatus 10 searches for a remote controller for operating the device (S57). The robot apparatus 10 identifies the remote controller by analyzing an image obtained by a visual sensor, for example.

リモコンが見つからない場合(S58,No)、ロボット装置10は、別の解決手段を探す(S59)。 When the remote controller is not found (S58, No), the robot apparatus 10 searches for another solution (S59).

リモコンが見つかった場合(S58,Yes)、ロボット装置10は、リモコンを操作することで、解決手段の実行するための指示を入力する(S59)。その指示を受けた機器は、その指示に従って解決手段を実行する。 When the remote controller is found (S58, Yes), the robot apparatus 10 operates the remote controller to input an instruction to execute the solving means (S59). The device that has received the instruction executes the solution according to the instruction.

ロボット装置10の制御部54は、機器が問題を解決しているか否かを観察し、その観察に基づいて、問題が解消したか否かを判断する(S61)。例えば、解決手段を実現するために機器によって行われると想定される動作が、予め設定された時間内に当該機器によって実行されて、各種センサー(例えば視覚センサー)によってその動作が検知された場合、ロボット装置10の制御部54は、機器が問題を解決していると判断する(S61,Yes)。この場合、処理は終了する。一方、想定される動作が予め設定された時間内に実行されず、各種センサーによってその動作が検知されない場合、ロボット装置10の制御部54は、問題が解消していないと判断する(S61,No)。この場合、ロボット装置10は、別の解決手段を探索してもよいし、リモコンを用いて同じ実行指示を機器に送信してもよい(S62)。 The control unit 54 of the robot apparatus 10 observes whether or not the device solves the problem, and based on the observation, determines whether or not the problem has been resolved (S61). For example, when an operation that is supposed to be performed by the device to implement the solution is executed by the device within a preset time and the operation is detected by various sensors (for example, a visual sensor), The control unit 54 of the robot apparatus 10 determines that the device solves the problem (S61, Yes). In this case, the process ends. On the other hand, when the expected operation is not executed within the preset time and the operation is not detected by the various sensors, the control unit 54 of the robot apparatus 10 determines that the problem has not been resolved (S61, No). ). In this case, the robot apparatus 10 may search for another solution, or may transmit the same execution instruction to the device using the remote controller (S62).

以下、本実施形態に係るロボット装置10の適用場面について詳しく説明する。 Hereinafter, the application scene of the robot apparatus 10 according to the present embodiment will be described in detail.

(適用場面1)
図17を参照して、適用場面1について説明する。図17には、人やロボット装置10等が示されている。例えば、人76(3人)によって会議が行われており、その場にロボット装置10が同席しているものとする。
(Application scene 1)
Application scene 1 will be described with reference to FIG. FIG. 17 shows a person, the robot device 10, and the like. For example, it is assumed that the person 76 (three people) is having a meeting and the robot apparatus 10 is present at the meeting.

ロボット装置10の状況収集部44は、各種センサーによって周囲の状況情報を収集する。状況収集部44は、例えば、周囲の人76の会話を示す音声や、人76を表わす画像(例えば人76の顔を表わす画像や全身を表わす画像等)、温度、湿度、等を状況情報として収集する。ロボット装置10の検知部56は、その状況情報(例えば、人76の様子(会話、表情、態度等)や温度等)に基づいて、周囲の状況を検知する。例えば、人76が「今の発言をメモにして紙でほしい」と発言した場合、ロボット装置10の状況収集部44は、その会話の音声情報を状況情報として収集し、ロボット装置10の検知部56は、その会話に基づいて、問題が発生しているか否かを判断する。上記の発言では、「発言の内容を紙に印刷してほしい」という問題が検知される。 The situation collection unit 44 of the robot apparatus 10 collects surrounding situation information by various sensors. The situation collection unit 44 uses, for example, a voice indicating the conversation of the surrounding person 76, an image indicating the person 76 (for example, an image indicating the face of the person 76 or an image indicating the whole body), temperature, humidity, and the like as the situation information. collect. The detection unit 56 of the robot apparatus 10 detects the surrounding situation based on the situation information (for example, the state (conversation, facial expression, attitude, etc.) of the person 76, temperature, etc.). For example, when the person 76 says “I want you to write down a memo and write on paper”, the situation collection unit 44 of the robot apparatus 10 collects the voice information of the conversation as situation information, and the detection unit of the robot apparatus 10. Based on the conversation, 56 determines whether a problem has occurred. In the above statement, the problem of "printing the content of the statement on paper" is detected.

解決手段特定部58は、解決手段管理情報38を参照して、その問題を解決するための解決手段を特定する。この問題は、例えば、「発言を音声情報として収集し、その発言内容を文字列に変換する機能」と、「プリント機能」と、を組み合わせることによって、解決できる問題である。すなわち、この問題に対する解決手段は、「発言を音声情報として収集し、その発言内容を文字列に変換する機能」と「プリント機能」との組み合わせによって構成される。 The solving means identifying unit 58 refers to the solving means management information 38 and identifies a solving means for solving the problem. This problem can be solved by, for example, combining a "function of collecting a statement as voice information and converting the content of the statement into a character string" and a "print function". That is, the solution to this problem is configured by a combination of the "function of collecting utterances as voice information and converting the utterance contents into a character string" and the "print function".

ここで、ロボット装置10が、「発言を音声情報として収集し、その発言内容を文字列に変換する機能」を備えており、「プリント機能」を備えていないものとする。この場合、ロボット装置10のみによっては、上記の問題を解決することができない。これに対処するために、ロボット装置10は、プリント機能を有する機器を探索する。例えば、ロボット装置10は、視覚センサー(例えばカメラ)によって周囲の機器を撮影し、ロボット装置10の識別部64は、その撮影で得られた画像を解析することで、撮影された機器を識別する。例えば、複合機78がロボット装置10の周囲に設置されており、プリント機能を備えているものとする。ロボット装置10の識別部64は、複合機78を識別し、その複合機78が有する機能(例えばプリント機能)を識別する。この場合、ロボット装置10と複合機78とによって、解決手段が実行される。この解決手段は、ロボット装置10と複合機78とを利用する連携機能によって実現される解決手段、つまり、ロボット装置10と複合機78とが連携することで実現される解決手段である。例えば、ロボット装置10は、自動的に解決手段を実行してもよいし、ユーザからの実行指示を受けて解決手段を実行してもよい。解決手段を実行する場合、ロボット装置10は、複合機78と通信し、人76の発言内容を示す情報を複合機78に送信するとともに、その情報の印刷指示を複合機78に与える。これにより、人76の発言内容が用紙に印刷される。 Here, it is assumed that the robot device 10 has a “function of collecting utterances as voice information and converting the utterance contents into a character string”, and does not have a “print function”. In this case, the above problem cannot be solved only by the robot device 10. To deal with this, the robot apparatus 10 searches for a device having a print function. For example, the robot device 10 photographs a peripheral device by a visual sensor (for example, a camera), and the identifying unit 64 of the robot device 10 identifies the photographed device by analyzing an image obtained by the photographing. .. For example, assume that the multi-function peripheral 78 is installed around the robot apparatus 10 and has a print function. The identification unit 64 of the robot apparatus 10 identifies the multifunction device 78 and identifies the function (for example, the printing function) of the multifunction device 78. In this case, the solving means is executed by the robot device 10 and the multifunction device 78. This solving means is a solving means realized by a cooperation function using the robot apparatus 10 and the multi-function peripheral 78, that is, a solving means realized by cooperation between the robot apparatus 10 and the multi-function peripheral 78. For example, the robot apparatus 10 may automatically execute the solving means, or may execute the solving means in response to an execution instruction from the user. When executing the solving means, the robot apparatus 10 communicates with the multi-function peripheral 78, sends information indicating the content of the statement of the person 76 to the multi-function peripheral 78, and gives the multi-function peripheral 78 an instruction to print the information. As a result, the content of the statement made by the person 76 is printed on the paper.

ロボット装置10は、複合機78まで移動し、発言内容が印刷された用紙を取得してユーザに渡してもよい。また、ロボット装置10は、音声等によって、解決手段が実行されたことをユーザに報知してもよい。 The robot apparatus 10 may move to the multi-function peripheral 78, acquire the sheet on which the content of the statement is printed, and give it to the user. Further, the robot device 10 may notify the user that the solution means has been executed, by voice or the like.

図17に示す例では、ロボット装置10が解決手段に利用されているが、ロボット装置10が利用されずに、ロボット装置10以外の機器を利用する解決手段が実行されてもよい。この場合、ロボット装置10は、ロボット装置10以外の機器に、解決手段の実行指示を与える。 In the example shown in FIG. 17, the robot apparatus 10 is used as the solving means, but the solving means may use the equipment other than the robot apparatus 10 without using the robot apparatus 10. In this case, the robot apparatus 10 gives an instruction to execute the solving means to a device other than the robot apparatus 10.

ロボット装置10は、複合機78を直接操作してもよい。例えば、「用紙をコピーしてほしい」といった問題がロボット装置10の検知部56によって検知された場合、ロボット装置10の解決手段特定部58は、「コピー機能」を解決手段として特定する。この場合、ロボット装置10は、コピー機能を有する機器(例えば複合機78)を探索し、複合機78に用紙のコピーを実行させる。例えば、ロボット装置10は、ユーザから用紙を受け取って複合機78にセットし、複合機78の操作パネルを直接操作することで、複合機78にコピー指示を与える。ロボット装置10は、例えば視覚センサーによって取得された画像を解析することで、操作パネル等を識別して、コピー指示を与える。 The robot apparatus 10 may directly operate the multifunction device 78. For example, when the detection unit 56 of the robot apparatus 10 detects a problem such as "I want you to copy a sheet", the solution means identification unit 58 of the robot apparatus 10 identifies the "copy function" as the solution means. In this case, the robot apparatus 10 searches for a device having a copy function (for example, the multifunction device 78) and causes the multifunction device 78 to copy the paper. For example, the robot apparatus 10 receives a sheet from a user, sets the sheet in the multifunction device 78, and directly operates the operation panel of the multifunction device 78 to give a copying instruction to the multifunction device 78. The robot device 10 identifies an operation panel or the like by analyzing an image acquired by a visual sensor, for example, and gives a copy instruction.

以上のように、ロボット装置10のみによって解決できない問題が検知された場合であても、他の機器を利用してその問題を解決することが可能となる。これにより、ロボット装置10が状況に応じて連携して解決できる問題の範囲を広げることが可能となる。 As described above, even when a problem that cannot be solved by only the robot apparatus 10 is detected, it is possible to solve the problem by using another device. As a result, it is possible to widen the range of problems that the robot apparatus 10 can solve in cooperation depending on the situation.

(適用場面2)
図18を参照して、適用場面2について説明する。図18には、ユーザやロボット装置10等が示されている。例えば、人80が倒れているものとする。ロボット装置10の状況収集部44は、倒れている人80の画像を状況情報として収集し、ロボット装置10の検知部56は、その画像に基づいて、問題が発生しているか否かを判断する。図18に示す例では、「人が倒れている」という問題が検知される。
(Application scene 2)
Application scene 2 will be described with reference to FIG. FIG. 18 shows the user, the robot device 10, and the like. For example, assume that the person 80 is lying down. The situation collecting unit 44 of the robot apparatus 10 collects an image of the person 80 who is lying down as situation information, and the detecting unit 56 of the robot apparatus 10 determines whether or not a problem occurs based on the image. .. In the example shown in FIG. 18, the problem of “a person is falling” is detected.

解決手段特定部58は、解決手段管理情報38を参照して、その問題を解決するための解決手段を特定する。この問題は、例えば、「倒れている人を救護するために人に助けを求める」ことで解決できる問題である。すなわち、この問題に対する解決手段には、「人に助けを求めること」が含まれている。この場合、ロボット装置10は、倒れている人80以外の人82に助けを求める。そのために、ロボット装置10は、音声を発生してもよいし、人82まで移動して人82に接触してもよい。このとき、ロボット装置10の制御部54は、救護するための手順を示す情報を、ロボット装置10のUI部50に表示させてもよいし、人82が所持する端末装置14に表示させてもよい。例えば、ロボット装置10は、各種センサーによって人82が所持する端末装置14を識別し、識別した端末装置14に、救助するための手順を示す情報を送信してもよい。 The solving means identifying unit 58 refers to the solving means management information 38 and identifies a solving means for solving the problem. This problem can be solved by, for example, "seeking a person to help the fallen person". That is, the solution to this problem includes "to ask a person for help." In this case, the robot apparatus 10 asks a person 82 other than the person 80 who is lying down for help. Therefore, the robot apparatus 10 may generate a voice, or may move to the person 82 and contact the person 82. At this time, the control unit 54 of the robot device 10 may display the information indicating the procedure for rescue on the UI unit 50 of the robot device 10 or on the terminal device 14 carried by the person 82. Good. For example, the robot device 10 may identify the terminal device 14 carried by the person 82 by various sensors, and may transmit information indicating a procedure for rescue to the identified terminal device 14.

なお、解決手段特定部58によって、「倒れている人を安全な場所まで運ぶ」という解決手段が特定された場合において、ロボット装置10が、物体を運ぶ機能を備えている場合、ロボット装置10は、ロボット装置10のみによって人80を運んでもよいし、他の人と共同で人80を運んでもよいし、他の機器と共同で人80を運んでもよいし、他の人と他の機器と共同して人80を運んでもよい。他の機器は、ロボット装置10によって識別された機器である。ロボット装置10が、物体を運ぶ機能を備えていない場合、ロボット装置10は、倒れている人80を安全な場所まで運ぶよう、人82に指示を与えてもよい。その指示を示す情報は、ロボット装置10のUI部50に表示されてもよいし、人82が有する端末装置に送信されて端末装置に表示されてもよい。 In addition, in the case where the solving means specifying unit 58 specifies the solving means of “carrying a fallen person to a safe place”, if the robot apparatus 10 has a function of carrying an object, the robot apparatus 10 is The person 80 may be carried only by the robot apparatus 10, the person 80 may be carried in collaboration with another person, the person 80 may be carried in collaboration with another device, or the person 80 may be carried together with another device. You may carry the person 80 together. The other device is a device identified by the robot apparatus 10. If the robotic device 10 does not have the ability to carry objects, the robotic device 10 may instruct the person 82 to carry the fallen person 80 to a safe location. The information indicating the instruction may be displayed on the UI unit 50 of the robot device 10 or may be transmitted to the terminal device of the person 82 and displayed on the terminal device.

以上のように、ロボット装置10のみによって解決できない問題が検知された場合であって、人に協力を依頼してその問題を解決することが可能となる。 As described above, when a problem that cannot be solved by only the robot apparatus 10 is detected, it is possible to request the cooperation of a person and solve the problem.

(適用場面3)
図19を参照して、適用場面3について説明する。図19には、ユーザやロボット装置10等が示されている。例えば、人84が「喉が渇いた」と発言した場合、ロボット装置10の状況収集部44は、その発言の音声情報を状況情報として収集し、ロボット装置10の検知部56は、その発言に基づいて、問題が発生しているか否かを判断する。上記の発言では、「喉が渇いた」という問題が検知される。
(Application scene 3)
Application scene 3 will be described with reference to FIG. FIG. 19 shows a user, the robot device 10 and the like. For example, when the person 84 says "I'm thirsty", the situation collecting unit 44 of the robot apparatus 10 collects the voice information of the statement as the situation information, and the detecting unit 56 of the robot apparatus 10 makes the statement. Based on this, it is determined whether a problem has occurred. In the statement above, the problem of being "thirsty" is detected.

解決手段特定部58は、解決手段管理情報38を参照して、その問題を解決するための解決手段を特定する。この問題は、例えば、「飲み物を購入する」ことによって解決できる問題である。すなわち、この問題に対する解決手段は、「飲み物を提供する機能」によって構成される。 The solving means identifying unit 58 refers to the solving means management information 38 and identifies a solving means for solving the problem. This problem can be solved by, for example, "buying a drink". That is, the solution to this problem is constituted by the "function of providing drinks".

ここで、ロボット装置10は、「飲み物を提供する機能」を備えていないものとする。この場合、ロボット装置10にのみによっては、上記の問題を解決することができない。これに対処するために、ロボット装置10は、飲み物を提供する機器を探索する。例えば、ロボット装置10は、視覚センサーによって周囲の機器を撮影し、ロボット装置10の識別部64は、その撮影で得られた画像を解析することで、撮影された機器を識別する。例えば、飲料水の自動販売機86(機器の一例)がロボット装置10の周囲に設置されているものとする。ロボット装置10の識別部64は、自動販売機86を識別し、その自動販売機86が有する機能(例えば有料で飲み物を提供する機能)を識別する。ロボット装置10の識別部64は、視覚センサーによって得られた画像に基づいて、自動販売機86が対応している支払方法(例えば電子マネーや貨幣)を識別してもよいし、自動販売機86と通信して、自動販売機86が対応している支払方法を識別してもよい。ロボット装置10の制御部54は、自動販売機86が対応している支払方法を準備する。 Here, it is assumed that the robot apparatus 10 does not have the “function of providing drinks”. In this case, the above problem cannot be solved only by the robot device 10. To deal with this, the robot apparatus 10 searches for a device that provides a drink. For example, the robot apparatus 10 photographs a peripheral device with a visual sensor, and the identification unit 64 of the robot device 10 identifies the photographed device by analyzing the image obtained by the photographing. For example, it is assumed that a drinking water vending machine 86 (an example of a device) is installed around the robot apparatus 10. The identification unit 64 of the robot device 10 identifies the vending machine 86 and identifies the function of the vending machine 86 (for example, the function of providing drinks for a fee). The identification unit 64 of the robot device 10 may identify the payment method (for example, electronic money or currency) supported by the vending machine 86 based on the image obtained by the visual sensor, or the vending machine 86. May be communicated with to identify the payment method supported by the vending machine 86. The control unit 54 of the robot apparatus 10 prepares a payment method supported by the vending machine 86.

ロボット装置10が、自動販売機86に対応している支払手段(例えば、電子マネー、貨幣、クレジットカード等)を有している場合、ロボット装置10の制御部54は、支払い動作を制御する。これにより、ロボット装置10は、自動販売機86において、その支払手段によって支払を行うことで、飲み物を購入する。例えば、ロボット装置10は、自動販売機86まで移動して自動販売機86を直接操作することで、飲み物を購入する。ロボット装置10は、例えば視覚センサーによって取得された画像を解析することで、自動販売機86の購入ボタン等を識別して、飲み物を購入する。ロボット装置10は、その飲み物を人84に届けてもよい。なお、ロボット装置10は、ユーザの指示に応じて、飲み物を購入してもよいし、ユーザの指示を受けずに、飲み物を購入してもよい。ユーザの指示に応じて購入処理を行う場合、ロボット装置10の制御部54は、解決手段を示す情報(例えば、飲み物を購入することを示す情報)をロボット装置10のUI部50に表示させる。ユーザがUI部50を用いて購入指示を与えた場合、ロボット装置10は、支払手段によって支払を行って飲み物を購入する。解決手段を示す情報は、ユーザの端末装置14に送信されて端末装置14に表示されてもよい。ユーザが端末装置14を用いて購入指示を与えると、その購入指示を示す情報が端末装置14からロボット装置10に送信され、ロボット装置10は、その購入指示に従って、飲み物を購入する。 When the robot apparatus 10 has a payment means (for example, electronic money, currency, credit card, etc.) corresponding to the vending machine 86, the control unit 54 of the robot apparatus 10 controls the payment operation. As a result, the robot device 10 purchases the drink by paying by the payment means in the vending machine 86. For example, the robot device 10 moves to the vending machine 86 and directly operates the vending machine 86 to purchase a drink. The robot device 10 identifies the purchase button or the like of the vending machine 86 and analyzes the image acquired by the visual sensor to purchase the drink. The robotic device 10 may deliver the drink to the person 84. The robot apparatus 10 may purchase the drink according to the user's instruction, or may purchase the drink without receiving the user's instruction. When the purchase process is performed according to a user's instruction, the control unit 54 of the robot apparatus 10 causes the UI unit 50 of the robot apparatus 10 to display information indicating a solution (for example, information indicating that a drink is to be purchased). When the user gives a purchase instruction using the UI unit 50, the robot apparatus 10 pays by the payment means and purchases the drink. The information indicating the solving means may be transmitted to the terminal device 14 of the user and displayed on the terminal device 14. When the user gives a purchase instruction using the terminal device 14, information indicating the purchase instruction is transmitted from the terminal device 14 to the robot device 10, and the robot device 10 purchases a drink according to the purchase instruction.

ロボット装置10が、自動販売機86に対応している支払手段を有していない場合、人84及び他の機器の中の少なくとも1つから支払いの援助を受けて、支払い動作を行ってもよい。例えば、ロボット装置10は、問題を解決するための行動に関与し得る人から支払用の金銭を受け取り、その金銭によって飲み物を購入してもよいし、支払手段を有する他の機器からその支払手段を借りて支払い動作を行ってもよい。問題を解決するための行動に関与し得る人は、例えば、「喉が渇いた」と発言した人84であり、この人84は、ロボット装置10の各種センサーによって識別される。 If the robotic device 10 does not have a payment instrument corresponding to the vending machine 86, the payment operation may be performed with payment assistance from at least one of the person 84 and other equipment. .. For example, the robot apparatus 10 may receive money for payment from a person who may be involved in an action for solving a problem, purchase a drink by the money, or pay the payment means from another device having a payment means. You may borrow and perform a payment operation. A person who may be involved in the action for solving the problem is, for example, a person 84 who says “thirsty”, and this person 84 is identified by various sensors of the robot apparatus 10.

(ユーザ判断モード1)
以下、ユーザ判断モードの一例(ユーザ判断モード1)について詳しく説明する。図20には、人やロボット装置10等が示されている。例えば、人87(3人)が会話をしており、ロボット装置10の周囲には、複数の機器(例えば、複合機78、プロジェクタ88、カメラ90、ディスプレイ92、アロマ器94)が設置されている。
(User judgment mode 1)
Hereinafter, an example of the user determination mode (user determination mode 1) will be described in detail. FIG. 20 shows a person, a robot device 10, and the like. For example, a person 87 (three people) is having a conversation, and a plurality of devices (for example, a multifunction device 78, a projector 88, a camera 90, a display 92, and an aroma device 94) are installed around the robot apparatus 10. There is.

ロボット装置10の状況収集部44は、各種センサーによって周囲の状況情報を収集し、検知部56は、その状況情報に基づいて周囲の状況を検知する。また、識別部64は、周囲に存在する機器を識別する。例えば、検知部56によって、「3人が会議しており、何やら揉めている」という状況(問題)が検知されたものとする。また、図20に示す例では、識別部64によって、複合機78、プロジェクタ88、カメラ90、ディスプレイ92及びアロマ器94が識別される。識別部64は、人(例えば問題が生じている人87)が所持している端末装置14を識別してもよい。 The situation collection unit 44 of the robot apparatus 10 collects surrounding situation information by various sensors, and the detection unit 56 detects the surrounding situation based on the situation information. Further, the identification unit 64 identifies the devices existing in the vicinity. For example, it is assumed that the detection unit 56 has detected a situation (problem) that “three people are in a meeting and somehow rubs each other”. Further, in the example shown in FIG. 20, the identification unit 64 identifies the multifunction device 78, the projector 88, the camera 90, the display 92, and the aroma device 94. The identification unit 64 may identify the terminal device 14 carried by a person (for example, a person 87 having a problem).

ロボット装置10の判断部60が、検知部56によって検知された問題をロボット装置10によって解決できないと判断した場合、ロボット装置10の通信部30は、制御部54の制御の下、ロボット装置10に予め登録された端末装置14や、識別部64によって識別された端末装置14(例えば問題が生じている人87が所持している端末装置14)に、状況情報を送信する。その状況情報には、検知部56によって検知された状況(問題)を示す情報、識別部64によって識別された機器を示す情報、等が含まれる。 When the determination unit 60 of the robot apparatus 10 determines that the problem detected by the detection unit 56 cannot be solved by the robot apparatus 10, the communication unit 30 of the robot apparatus 10 controls the robot apparatus 10 under the control of the control unit 54. The status information is transmitted to the terminal device 14 registered in advance or the terminal device 14 identified by the identification unit 64 (for example, the terminal device 14 possessed by the person 87 having the problem). The status information includes information indicating the status (problem) detected by the detection unit 56, information indicating the device identified by the identification unit 64, and the like.

端末装置14のUI部72には、状況を説明する画面が表示される。図21には、その画面の一例が示されている。端末装置14のUI部72には、状況説明画面96が表示される。状況説明画面96には、検知部56によって検知された状況(問題)を示す情報、識別部64によって識別された機器を示す情報、等が表示される。図21に示す例では、状況(問題)として「3人が会議して、何か揉めている」ことを示す文字列が表示され、「周囲に、複合機、プロジェクタ、カメラ、ディスプレイ及びアロマ器が存在する」ことを示す文字列が表示される。 A screen explaining the situation is displayed on the UI unit 72 of the terminal device 14. FIG. 21 shows an example of the screen. A situation explanation screen 96 is displayed on the UI unit 72 of the terminal device 14. The situation explanation screen 96 displays information indicating the situation (problem) detected by the detection unit 56, information indicating the device identified by the identification unit 64, and the like. In the example shown in FIG. 21, a character string indicating “three people are having a meeting and rubbing something” is displayed as the situation (problem), and “around the periphery, a multifunction peripheral, a projector, a camera, a display, and an aroma machine”. Is displayed.” is displayed.

また、ユーザが端末装置14を使用して追加情報を要求した場合、その要求を示す情報が、端末装置14からロボット装置10に送信される。ロボット装置10の通信部30は、その要求に応じて、追加情報を端末装置14に送信する。例えば、追加情報として、周囲の状況を表わす画像がユーザによって要求された場合、ロボット装置10の通信部30は、周囲の状況を表わす画像データを端末装置14に送信する。 When the user uses the terminal device 14 to request additional information, the information indicating the request is transmitted from the terminal device 14 to the robot device 10. The communication unit 30 of the robot device 10 transmits the additional information to the terminal device 14 in response to the request. For example, when the user requests an image representing the surrounding situation as the additional information, the communication unit 30 of the robot apparatus 10 transmits the image data representing the surrounding situation to the terminal device 14.

ロボット装置10の通信部30は、例えば、問題が生じていると想定される人87に紐付く画像データ、識別部64によって識別された機器に紐付く画像データ、等を、周囲の状況を表わす画像データとして、端末装置14に送信する。人87に紐付く画像データは、視覚センサーによる撮影によって生成された画像データであってもよいし、人を模式的に表す画像データであってもよい。機器に紐付く画像データは、識別部64が機器を識別するときに視覚センサー(カメラ)による撮影で得られた画像データであってもよいし、識別された機器を模式的に表す画像データ(例えばアイコン)であってもよい。模式的に表す画像データは、例えば、ロボット装置10に予め記憶されていてもよいし、サーバ等の装置に予め記憶されて、ロボット装置10に送信されてもよい。 The communication unit 30 of the robot apparatus 10 represents the surrounding situation, for example, image data associated with the person 87 who is assumed to have a problem, image data associated with the device identified by the identification unit 64, and the like. The image data is transmitted to the terminal device 14. The image data associated with the person 87 may be image data generated by photographing with a visual sensor or may be image data that schematically represents the person. The image data associated with the device may be image data obtained by shooting with a visual sensor (camera) when the identification unit 64 identifies the device, or image data (image data schematically showing the identified device. For example, it may be an icon). The image data schematically represented may be stored in the robot device 10 in advance, or may be stored in a device such as a server in advance and transmitted to the robot device 10.

ロボット装置10の通信部30は、追加情報としての画像データ(例えば人87に紐付く画像データと機器に紐付く画像データ)を端末装置14に送信する。端末装置14のUI部72には、その画像が表示される。図22には、その画像の一例が示されている。端末装置14のUI部72には、状況説明画面98が表示される。状況説明画面96には、追加情報としての画像群が表示される。例えば、人87に紐付く画像100、複合機78に紐付く機器画像102、プロジェクタ88に紐付く機器画像104、カメラ90に紐付く機器画像106、ディスプレイ92に紐付く機器画像108、及び、アロマ器94に紐付く機器画像110が表示される。 The communication unit 30 of the robot device 10 transmits the image data as additional information (for example, the image data associated with the person 87 and the image data associated with the device) to the terminal device 14. The image is displayed on the UI unit 72 of the terminal device 14. FIG. 22 shows an example of the image. A situation explanation screen 98 is displayed on the UI unit 72 of the terminal device 14. A group of images as additional information is displayed on the situation explanation screen 96. For example, an image 100 associated with the person 87, a device image 102 associated with the multifunction device 78, a device image 104 associated with the projector 88, a device image 106 associated with the camera 90, a device image 108 associated with the display 92, and an aroma. A device image 110 associated with the device 94 is displayed.

ユーザが状況説明画面98上において、機器画像を指定し、その機器画像に紐付く機器を利用する解決手段の実行指示を与えると、その実行指示を示す情報が、その機器に送信される。その機器は、実行指示に従って、検知部56によって検知された問題を解決するための解決手段を実行する。実行指示を示す情報は、端末装置14から機器に送信されてもよいし、ロボット装置10から機器に送信されてもよい。 When the user specifies a device image on the situation explanation screen 98 and gives an execution instruction of a solving means using a device associated with the device image, information indicating the execution instruction is transmitted to the device. The device executes a solution for solving the problem detected by the detection unit 56 according to the execution instruction. The information indicating the execution instruction may be transmitted from the terminal device 14 to the device, or may be transmitted from the robot device 10 to the device.

例えば、ユーザによって機器画像108,110が指定されたものとする。この場合、解決手段特定部58は、解決手段管理情報38を参照することで、検知部56によって検知された問題「3人が会議して、何か揉めている」を解決するための解決手段であって、機器画像108に紐付くディスプレイ92と機器画像110に紐付くアロマ器94とを利用する解決手段を特定する。つまり、解決手段特定部58は、解決手段管理情報38を参照することで、検知部56によって検知された問題「3人が会議して、何か揉めている」を解決するための解決手段を特定し、デバイス機能管理情報40と連携機能管理情報42を参照することで、特定された各解決手段に用いられる機器群(各解決手段を実行するために利用される機能を有する機器群)を特定する。ユーザによってディスプレイ92とアロマ器94が指定されると、解決手段特定部58は、それらを利用する解決手段を選択する。 For example, it is assumed that the device images 108 and 110 are designated by the user. In this case, the solving means identifying unit 58 refers to the solving means management information 38 to solve the problem "three people have a meeting and rub something" detected by the detecting unit 56. That is, a solution means that uses the display 92 associated with the device image 108 and the aroma device 94 associated with the device image 110 is specified. In other words, the solution means identification unit 58 refers to the solution management information 38 to find a solution means for solving the problem "three people have a meeting and rub something" detected by the detection unit 56. By identifying and referring to the device function management information 40 and the cooperation function management information 42, a device group used for each identified solution means (a device group having a function used to execute each solution means) is identified. Identify. When the display 92 and the aroma device 94 are designated by the user, the solution determining unit 58 selects the solution using them.

ユーザによってディスプレイ92とアロマ器94が指定されると、例えば図23に示すように、端末装置14のUI部72に、実行指示画面112が表示される。その実行指示画面112には、ユーザによって指定された機器画像(例えば機器画像108,110)が表示され、ユーザによって指定された機器を利用して実行可能な機能(解決手段)を示す情報が表示される。例えば、ディスプレイ92とアロマ器94を利用することで実行可能な解決手段は、「癒し画像をディスプレイ92に表示し、癒しの香りをアロマ器94から発声させる」ことである。この解決手段は、ディスプレイ92とアロマ器94とを連携させることで実行可能な連携機能であり、この連携機能は、連携機能管理情報42に登録されている。ユーザが端末装置14を使用して解決手段の実行指示を与えると、その実行指示を示す情報が、端末装置14からディスプレイ92とアロマ器94に送信される。もちろん、実行指示を示す情報は、ロボット装置10を介してディスプレイ92とアロマ器94に送信されてもよい。実行指示を示す情報を受けたディスプレイ92は、癒し画像を表示し、実行指示を示す情報を受けたアロマ器94は、癒しの香りを発声させる。なお、癒し画像のデータは、ロボット装置10に予め記憶されており、ロボット装置10からディスプレイ92に送信されてもよいし、サーバ等の装置に記憶されて、サーバ等の装置からディスプレイ92に送信されてもよい。 When the user designates the display 92 and the aroma device 94, an execution instruction screen 112 is displayed on the UI unit 72 of the terminal device 14, as shown in FIG. 23, for example. On the execution instruction screen 112, a device image (for example, device image 108, 110) designated by the user is displayed, and information indicating a function (solving means) that can be executed by using the device designated by the user is displayed. To be done. For example, a solution that can be executed by using the display 92 and the aroma device 94 is to “display a healing image on the display 92 and cause the aroma device 94 to utter a healing scent”. This solving means is a cooperation function that can be executed by coordinating the display 92 and the aroma device 94, and this cooperation function is registered in the cooperation function management information 42. When the user gives an instruction to execute the solving means using the terminal device 14, information indicating the execution instruction is transmitted from the terminal device 14 to the display 92 and the aroma unit 94. Of course, the information indicating the execution instruction may be transmitted to the display 92 and the aroma machine 94 via the robot apparatus 10. The display 92 that has received the information indicating the execution instruction displays a healing image, and the aroma device 94 that has received the information indicating the execution instruction utters a healing scent. The healing image data may be stored in advance in the robot apparatus 10 and may be transmitted from the robot apparatus 10 to the display 92, or may be stored in an apparatus such as a server and transmitted from the apparatus such as a server to the display 92. May be done.

なお、図21から図23に示されている画面は、ロボット装置10のUI部50に表示されてもよい。この場合、各画面は、端末装置14のUI部72に表示されなくてもよい。また、画面に表示される情報は、音声情報として出力されてもよい。 The screens shown in FIGS. 21 to 23 may be displayed on the UI unit 50 of the robot apparatus 10. In this case, each screen may not be displayed on the UI unit 72 of the terminal device 14. Further, the information displayed on the screen may be output as audio information.

なお、解決手段を実行する機器の選択操作について後で詳しく説明する。 The operation of selecting the device that executes the solving means will be described in detail later.

(ユーザ判断モード2)
以下、ユーザ判断モードの別の例(ユーザ判断モード2)について詳しく説明する。
(User judgment mode 2)
Hereinafter, another example of the user determination mode (user determination mode 2) will be described in detail.

ロボット装置10の判断部60が、検知部56によって検知された問題をロボット装置10によって解決できないと判断した場合、ロボット装置10の通信部30は、制御部54の制御の下、端末装置14に状況情報を送信する。 When the determination unit 60 of the robot apparatus 10 determines that the problem detected by the detection unit 56 cannot be solved by the robot apparatus 10, the communication unit 30 of the robot apparatus 10 is controlled by the terminal device 14 under the control of the control unit 54. Send status information.

例えば図24に示すように、端末装置14のUI部72には通知画面114が表示される。通知画面114には、ロボット装置10によっては解決できない問題(事態)が発生した旨のメッセージが表示される。 For example, as shown in FIG. 24, a notification screen 114 is displayed on the UI unit 72 of the terminal device 14. The notification screen 114 displays a message indicating that a problem (situation) that cannot be solved by the robot apparatus 10 has occurred.

通知画面114においてユーザが「はい」ボタンを押すと、画面は次の画面に遷移する。例えば図25に示すように、端末装置14のUI部72には状況説明画面116が表示される。状況説明画面116には、ロボット装置10によって検知された状況(問題)の説明文が表示される。 When the user presses the “Yes” button on the notification screen 114, the screen transitions to the next screen. For example, as illustrated in FIG. 25, the situation explanation screen 116 is displayed on the UI unit 72 of the terminal device 14. On the situation explanation screen 116, an explanation sentence of the situation (problem) detected by the robot apparatus 10 is displayed.

状況説明画面116には、ユーザに状況を理解できたか否かを問うメッセージが表示される。ユーザが「いいえ」ボタンを押すと、ロボット装置10に対して問い合わせを行うこと、つまり、追加情報を要求することが可能となる。この場合、図26に示されているように、端末装置14のUI部72には、問い合わせ画面118が表示される。問い合わせ画面118においては、ユーザは端末装置14を使用して、問い合わせ内容(例えば、ユーザが追加で知りたい事項等)を入力することが可能となっている。図26に示す例では、「○○のデータが欲しい。」、「△△の映像が見たい。」等といった問い合わせ内容がユーザによって入力されている。この問い合わせ内容を示す情報は、端末装置14からロボット装置10に送信される。ロボット装置10の状況収集部44は、その問い合わせに応じた情報(例えば画像や音声データ等)を収集し、ロボット装置10の通信部30は、状況収集部44によって収集された情報を端末装置14に送信する。端末装置14のUI部72の状況説明画面116には、追加で取得された情報が表示される。 On the situation explanation screen 116, a message asking the user whether or not he/she understands the situation is displayed. When the user presses the “No” button, it becomes possible to make an inquiry to the robot apparatus 10, that is, request additional information. In this case, as shown in FIG. 26, the inquiry screen 118 is displayed on the UI unit 72 of the terminal device 14. On the inquiry screen 118, the user can use the terminal device 14 to input the inquiry content (for example, the user additionally wants to know). In the example shown in FIG. 26, the user inputs inquiry contents such as "I want data of XX." and "I want to see a video of ∆." The information indicating the inquiry content is transmitted from the terminal device 14 to the robot device 10. The situation collecting unit 44 of the robot apparatus 10 collects information (for example, image and voice data) according to the inquiry, and the communication unit 30 of the robot apparatus 10 collects the information collected by the situation collecting unit 44 from the terminal device 14 Send to. The additionally acquired information is displayed on the situation explanation screen 116 of the UI unit 72 of the terminal device 14.

状況説明画面116において、ユーザが「はい」ボタンを押すと、図27に示されているように、端末装置14のUI部72には、解決手段表示画面120が表示される。解決手段表示画面120には、ロボット装置10の解決手段特定部58によって特定された解決手段を示す情報(解決手段の説明文や名称等)が表示される。例えば、上述したように、「3人が会議して、何やら揉めている」という問題が検知された場合、解決手段特定部58は、解決手段管理情報38を参照することで、その問題を解決するための解決手段を特定する。特定された解決手段を示す情報は、ロボット装置10から端末装置14に送信され、端末装置14のUI部72に表示される。図27に示す例では、(1)から(4)までの4つの解決手段案が、上記の問題を解決するための推奨解決手段として特定されて、それらを示す情報が表示されている。各解決手段案は、ランダムの順番で表示されてもよいし、問題を解決する上でより高い効果が得られると想定される順番で表示されてもよいし、実行容易性で決定される順番で表示されてもよい。例えば、端末装置14又はロボット装置10からより近い位置に存在する機器を利用する解決手段ほど、実行容易性が高く、その解決手段はより上位に表示される。ロボット装置10、端末装置14及び各機器の位置情報は、例えばGPS(Global Positioning System)を利用することで得られる。ロボット装置10の制御部54は、GPSを利用することで得られた位置情報を用いて、端末装置14又はロボット装置10と各機器との間の距離を演算する。その演算結果に基づいて、上記の順位が決定される。 When the user presses the “Yes” button on the situation explanation screen 116, the solution means display screen 120 is displayed on the UI unit 72 of the terminal device 14 as shown in FIG. 27. On the solving means display screen 120, information indicating the solving means identified by the solving means identifying unit 58 of the robot apparatus 10 (explanatory text, name, etc. of the solving means) is displayed. For example, as described above, when the problem of “three people are having a meeting and rubbing something” is detected, the solution means identification unit 58 solves the problem by referring to the solution means management information 38. Identify a solution for doing so. The information indicating the identified solving means is transmitted from the robot device 10 to the terminal device 14 and displayed on the UI unit 72 of the terminal device 14. In the example shown in FIG. 27, four solution means proposals (1) to (4) are specified as recommended solution means for solving the above problems, and information indicating them is displayed. The solution plans may be displayed in a random order, may be displayed in an order expected to have a higher effect in solving the problem, or may be displayed in an order determined by ease of execution. May be displayed in. For example, a solution means that uses a device located closer to the terminal device 14 or the robot device 10 has higher easiness of execution, and the solution means is displayed higher. The position information of the robot device 10, the terminal device 14, and each device can be obtained by using, for example, GPS (Global Positioning System). The control unit 54 of the robot device 10 calculates the distance between the terminal device 14 or the robot device 10 and each device by using the position information obtained by using the GPS. The above ranking is determined based on the calculation result.

解決手段表示画面120が端末装置14のUI部72に表示されている状態で、ユーザが画面遷移を指示した場合や、予め設定された時間が経過した場合、図28に示されているように、端末装置14のUI部72に画面122が表示される。その画面122には、「解決手段の選択してください。」といったメッセージ(例えば、解決手段の選択を促すメッセージ)が表示される。また、提示された解決手段案(図27参照)の中に適切な解決手段(例えば、ユーザが実行を希望する解決手段)が含まれていない場合、ユーザは、別の指示を与えることができるようになっている。 When the solution display screen 120 is displayed on the UI unit 72 of the terminal device 14 and the user gives an instruction for screen transition or when a preset time elapses, as shown in FIG. The screen 122 is displayed on the UI unit 72 of the terminal device 14. A message such as “Please select a solution” is displayed on the screen 122 (for example, a message prompting the user to select a solution). Further, when the proposed solution means (see FIG. 27) does not include an appropriate solution means (for example, a solution means that the user desires to execute), the user can give another instruction. It is like this.

例えば、提示された解決手段案(図27参照)の中に適切な解決手段が含まれており、ユーザが端末装置14を使用してその適切な解決手段を選択した場合、図29に示されているように、端末装置14のUI部72に確認画面124が表示される。その確認画面124には、ユーザによって選択された解決手段を示す情報等が表示される。図29に示す例では、解決手段(2)「ディスプレイで癒し画像を表示する。」と(3)「アロマ器で柑橘系の香りを出す。」がユーザによって選択されている。確認画面124においてユーザが「はい」ボタンを押すと、解決手段(2),(3)の実行指示を示す情報が、端末装置14又はロボット装置10から、解決手段(2),(3)の実行に用いられる機器(例えばディスプレイ92とアロマ器94)に送信される。これにより、ディスプレイ92によって解決手段(2)が実行され、アロマ器94によって解決手段(3)が実行される。 For example, if the proposed solution (see FIG. 27) includes an appropriate solution and the user uses the terminal device 14 to select the appropriate solution, the solution shown in FIG. 29 is displayed. As described above, the confirmation screen 124 is displayed on the UI unit 72 of the terminal device 14. On the confirmation screen 124, information indicating the solving means selected by the user is displayed. In the example shown in FIG. 29, the solution means (2) “display a healing image on the display” and (3) “provide a citrus scent with an aroma device” are selected by the user. When the user presses the “Yes” button on the confirmation screen 124, the information indicating the execution instruction of the solving means (2) and (3) is displayed from the terminal device 14 or the robot device 10 of the solving means (2) and (3). It is transmitted to the device used for execution (for example, the display 92 and the aroma device 94). As a result, the display 92 executes the solution (2), and the aroma unit 94 executes the solution (3).

確認画面124においてユーザが「いいえ」ボタンを押すと、画面は前の画面122(図28参照)に戻る。 If the user presses the "No" button on the confirmation screen 124, the screen returns to the previous screen 122 (see FIG. 28).

提示された解決手段案(図27参照)の中に適切な解決手段が含まれていない場合、ユーザは、提示された解決手段案以外の解決手段を指定してもよい。ユーザが端末装置14を使用して、解決手段を指定するための入力画面の表示指示を与えると、例えば図30に示されているように、端末装置14のUI部72にユーザ入力画面126が表示される。そのユーザ入力画面126において、ユーザは、解決手段に用いられる機器と、その機器を用いた解決手段を指示する。図30に示す例では、解決手段に用いられる機器として複合機が指定されており、その複合機を用いた解決手段として「XX」処理が指定されている。なお、ユーザは、機器の名称を文字で入力することで、解決手段に用いられる機器を指定してもよいし、機器に紐付く機器画像を指定することで、解決手段に用いられる機器を指定してもよい。例えば、端末装置14のUI部72には、ロボット装置10によって識別された1又は複数の機器に紐付く1又は複数の機器画像が表示され、ユーザは、1又は複数の機器画像の中から、解決手段に用いられる機器に紐付く機器画像を選択する。このように機器画像によって機器を指定することで、機器の詳細な名称等が分からなくても、解決手段に用いられる機器を指定することができる。また、解決手段に用いられる機器がユーザによって指定されると、その機器が有する機能の一覧が端末装置14のUI部72に表示される。機器が有する機能は、例えば、デバイス機能管理情報40を参照することで特定される。ユーザは、機能の一覧の中から、解決手段に用いられる機能を選択する。そして、ユーザが端末装置14を使用して解決手段の実行指示を与えると、その実行指示を示す情報が、ユーザによって指定された機器に送信され、当該機器は解決手段を実行する。 If the proposed solution means (see FIG. 27) does not include an appropriate solution, the user may specify a solution other than the proposed solution solution. When the user uses the terminal device 14 to give an instruction to display an input screen for designating a solution, the user input screen 126 is displayed on the UI unit 72 of the terminal device 14 as shown in FIG. 30, for example. Is displayed. On the user input screen 126, the user instructs a device used as a solution and a solution using the device. In the example shown in FIG. 30, a multi-function peripheral is designated as the device used as the solving means, and "XX" processing is designated as the solving means using the multifunction peripheral. The user may specify the device used for the solving means by inputting the device name in characters, or specify the device used for the solving means by specifying the device image associated with the device. You may. For example, the UI unit 72 of the terminal device 14 displays one or more device images associated with the one or more devices identified by the robot device 10, and the user selects one or more device images from among the one or more device images. A device image associated with the device used as the solving means is selected. By thus specifying the device by the device image, it is possible to specify the device used for the solving means without knowing the detailed name of the device. Also, when the device used for the solving means is designated by the user, a list of functions of the device is displayed on the UI unit 72 of the terminal device 14. The function of the device is specified by, for example, referring to the device function management information 40. The user selects a function used for the solving means from the function list. When the user uses the terminal device 14 to give an instruction to execute the solving means, information indicating the execution instruction is transmitted to the device designated by the user, and the device executes the solving means.

なお、図24から図30に示されている画面は、ロボット装置10のUI部50に表示されてもよい。この場合、各画面は、端末装置14のUI部72に表示されなくてもよい。また、画面に表示される情報は、音声情報として出力されてもよい。 The screens shown in FIGS. 24 to 30 may be displayed on the UI unit 50 of the robot apparatus 10. In this case, each screen may not be displayed on the UI unit 72 of the terminal device 14. Further, the information displayed on the screen may be output as audio information.

上記のユーザ判断モード1,2において、端末装置14のUI部72に表示される情報は、例えば、ロボット装置10から端末装置14に送信される。もちろん、その情報は、ロボット装置10の制御の下、サーバ等の装置から端末装置14に送信されてもよい。 In the user determination modes 1 and 2 described above, the information displayed on the UI unit 72 of the terminal device 14 is transmitted from the robot device 10 to the terminal device 14, for example. Of course, the information may be transmitted from the device such as the server to the terminal device 14 under the control of the robot device 10.

(機器の識別処理)
以下、機器の識別処理について説明する。一例として、AR(Augmented Reality)技術(拡張現実技術)を適用することにより、デバイス識別情報が取得されて機器が識別される。例えば、AR技術を適用することにより、単独で使用される機器のデバイス識別情報が取得されて当該機器が識別され、また、連携対象の機器のデバイス識別情報が取得されて連携対象の機器が識別される。AR技術として公知のAR技術が用いられる。例えば、2次元バーコード等のマーカを用いるマーカ型AR技術、画像認識技術を用いるマーカレス型AR技術、位置情報を用いる位置情報AR技術、等が用いられる。もちろん、AR技術を適用せずにデバイス識別情報が取得されて機器が識別されてもよい。例えば、ネットワークに繋がっている機器であれば、IPアドレスに基づいて機器を識別してもよいし、機器IDを読み出して機器を識別してもよい。更に、赤外線通信、可視光通信、Wi−Fi、ブルートゥースといった各種無線通信機能を備えた機器、端末装置であれば、それら無線通信機能を利用して連携する機器の機器IDを取得することで機器を識別し、連携機能を実行してもよい。
(Device identification process)
The device identification process will be described below. As an example, by applying AR (Augmented Reality) technology (augmented reality technology), device identification information is acquired and a device is identified. For example, by applying the AR technology, the device identification information of the device that is used alone is acquired and the device is identified, and the device identification information of the device that is the cooperation target is acquired and the device that is the cooperation target is identified. To be done. AR technology known as AR technology is used. For example, a marker type AR technique using a marker such as a two-dimensional barcode, a markerless type AR technique using an image recognition technique, a position information AR technique using position information, etc. are used. Of course, the device identification information may be acquired and the device may be identified without applying the AR technology. For example, if the device is connected to the network, the device may be identified based on the IP address, or the device ID may be read to identify the device. Further, in the case of a device or a terminal device having various wireless communication functions such as infrared communication, visible light communication, Wi-Fi, and Bluetooth, the device is obtained by acquiring the device ID of the device to be linked using these wireless communication functions. May be identified and the cooperation function may be executed.

以下、図31を参照して、デバイス識別情報の取得処理について詳しく説明する。一例として、ロボット装置10の周囲に複合機78が設置されており、ロボット装置10が複合機78のデバイス識別情報を取得する場合について説明する。図31には、複合機78の外観が模式的に示されている。ここでは、マーカ型AR技術を適用してデバイス識別情報を取得するための処理について説明する。複合機78の筐体には、2次元バーコード等のマーカ128が設けられている。マーカ128は、複合機78のデバイス識別情報がコード化された情報である。ロボット装置10は、視覚センサーによってマーカ128を撮影する。これにより、マーカ128を表す画像データが生成される。ロボット装置10においては、制御部54が、当該画像データに表されたマーカ画像に対してデコード処理を適用することにより、デバイス識別情報を抽出する。これにより、複合機78が識別される。ロボット装置10の識別部64は、デバイス機能管理情報40において、抽出されたデバイス識別情報に対応付けられている機能を示す機能情報を特定する。これにより、複合機78が有する機能が特定(識別)される。 Hereinafter, the acquisition processing of the device identification information will be described in detail with reference to FIG. As an example, a case will be described in which the multifunction device 78 is installed around the robot device 10 and the robot device 10 acquires the device identification information of the multifunction device 78. FIG. 31 schematically shows the external appearance of the multi-function peripheral 78. Here, a process for acquiring the device identification information by applying the marker type AR technology will be described. A marker 128 such as a two-dimensional barcode is provided on the housing of the multi-function peripheral 78. The marker 128 is information in which the device identification information of the multifunction device 78 is coded. The robot apparatus 10 captures an image of the marker 128 with a visual sensor. As a result, image data representing the marker 128 is generated. In the robot apparatus 10, the control unit 54 extracts the device identification information by applying the decoding process to the marker image represented by the image data. As a result, the multifunction device 78 is identified. The identification unit 64 of the robot apparatus 10 identifies, in the device function management information 40, function information indicating a function associated with the extracted device identification information. As a result, the function of the multifunction device 78 is specified (identified).

マーカ128は、複合機78が有する機能を示す機能情報がコード化されて含まれていてもよい。この場合、マーカ128を表す画像データにデコード処理を適用することにより、当該複合機78のデバイス識別情報が抽出されるとともに、当該複合機78が有する機能を示す機能情報も抽出される。これにより、複合機78が特定(識別)されるとともに、当該複合機78が有する機能が特定(識別)される。 The marker 128 may include coded function information indicating the function of the multi-function peripheral 78. In this case, by applying the decoding process to the image data representing the marker 128, the device identification information of the multifunction peripheral 78 is extracted and the functional information indicating the function of the multifunction peripheral 78 is also extracted. As a result, the multifunction device 78 is specified (identified) and the function of the multifunction device 78 is specified (identified).

マーカレス型AR技術を適用してデバイス識別情報を取得する場合、例えば、ロボット装置10は、視覚センサーによって機器(例えば複合機78)の外観の全部又は一部を撮影する。もちろん、機器の名称(例えば商品名)や型番号といった機器を特定するための情報を外観から撮影して得ることは役に立つ。撮影により、機器の外観の全部又は一部を表す外観画像データが生成される。ロボット装置10においては、制御部54が、当該外観画像データに基づいて利用対象の機器を識別する。例えば、ロボット装置10の記憶部32には、機器毎に、機器の外観の全部又は一部を表す外観画像データと、当該機器のデバイス識別情報と、の対応付けを示す外観画像対応付け情報が記憶されている。制御部54は、例えば、撮影で得られた外観画像データと外観画像対応付け情報に含まれる各外観画像データとを比較し、その比較結果に基づいて、利用対象の機器のデバイス識別情報を特定する。例えば、制御部54は、撮影で得られた外観画像データから機器の外観の特徴を抽出し、外観画像対応付け情報に含まれる外観画像データ群において、その外観の特徴と同一又は類似の特徴を表す外観画像データを特定し、その外観画像データに対応付けられているデバイス識別情報を特定する。これにより、機器(例えば複合機78)が識別される。別の例として、機器の名称(例えば商品名)や型番号が撮影され、名称や型番号を表す外観画像データが生成されている場合、その外観画像データに表された名称や型番号に基づいて、機器を識別してもよい。ロボット装置10の識別部64は、デバイス機能管理情報40において、特定されたデバイス識別情報に対応付けられている各機能を示す機能情報を特定する。これにより、機器(例えば複合機78)が有する機能が特定される。 When the device identification information is acquired by applying the markerless AR technology, for example, the robot apparatus 10 captures the whole or a part of the external appearance of the device (for example, the multi-function device 78) using a visual sensor. Of course, it is useful to obtain information for identifying the device, such as the device name (for example, product name) and the model number, from the external appearance. Appearance image data representing the whole or part of the appearance of the device is generated by photographing. In the robot device 10, the control unit 54 identifies the device to be used based on the appearance image data. For example, the storage unit 32 of the robot apparatus 10 stores, for each device, appearance image correspondence information indicating correspondence between appearance image data representing all or part of the appearance of the device and device identification information of the device. Remembered The control unit 54 compares, for example, the appearance image data obtained by photographing with each appearance image data included in the appearance image association information, and identifies the device identification information of the device to be used based on the comparison result. To do. For example, the control unit 54 extracts the appearance feature of the device from the appearance image data obtained by shooting, and in the appearance image data group included in the appearance image association information, determines the same or similar feature as the appearance feature. The appearance image data to be represented is specified, and the device identification information associated with the appearance image data is specified. As a result, the device (for example, the multifunction device 78) is identified. As another example, when a device name (for example, product name) or model number is photographed and appearance image data representing the name or model number is generated, based on the name or model number represented in the appearance image data. May identify the device. In the device function management information 40, the identification unit 64 of the robot apparatus 10 identifies the function information indicating each function associated with the identified device identification information. As a result, the function of the device (for example, the multifunction device 78) is specified.

位置情報AR技術を適用してデバイス識別情報を取得する場合、例えば、GPS機能を利用することにより、機器(例えば複合機78)が設置されている位置を示す位置情報が取得される。例えば、各機器がGPS機能を備えており、機器自身の位置を示すデバイス位置情報を取得する。ロボット装置10は、機器に対してデバイス位置情報の取得要求を示す情報を出力し、その取得要求に対する応答として、当該機器から当該機器のデバイス位置情報を受信する。ロボット装置10においては、制御部54が、当該デバイス位置情報に基づいて機器を識別する。例えば、ロボット装置10の記憶部32には、機器毎に、機器が設置されている位置を示すデバイス位置情報と、当該機器のデバイス識別情報と、の対応付けを示す位置対応付け情報が記憶されている。制御部54は、その位置対応付け情報において、デバイス位置情報に対応付けられているデバイス識別情報を特定する。これにより、機器が特定(識別)される。ロボット装置10の識別部64は、デバイス機能管理情報40において、特定されたデバイス識別情報に対応付けられている各機能を示す機能情報を特定する。これにより、機器(例えば複合機78)が有する機能が特定(識別)される。 When the device identification information is acquired by applying the position information AR technology, for example, by using the GPS function, the position information indicating the position where the device (for example, the multifunction device 78) is installed is acquired. For example, each device has a GPS function and acquires device position information indicating the position of the device itself. The robot apparatus 10 outputs information indicating a device position information acquisition request to the device, and receives device position information of the device from the device as a response to the acquisition request. In the robot device 10, the control unit 54 identifies the device based on the device position information. For example, the storage unit 32 of the robot apparatus 10 stores, for each device, position correspondence information indicating correspondence between device position information indicating a position where the device is installed and device identification information of the device. ing. The control unit 54 identifies the device identification information associated with the device location information in the location association information. As a result, the device is specified (identified). In the device function management information 40, the identification unit 64 of the robot apparatus 10 identifies the function information indicating each function associated with the identified device identification information. As a result, the function of the device (for example, the multifunction device 78) is specified (identified).

例えば、複合機78がロボット装置10によって識別された場合、上記のユーザ判断モード1においては、その複合機78に紐づく機器画像が、状況情報として端末装置14に表示される。例えば図32に示すように、端末装置14のUI部72に、複合機78に紐づく機器画像102が表示される。機器画像102は、例えば、ロボット装置10の視覚センサーによる撮影によって生成された画像であってもよいし、複合機78を模式的に表す画像であってもよい。 For example, when the multifunction device 78 is identified by the robot device 10, in the user determination mode 1 described above, the device image associated with the multifunction device 78 is displayed on the terminal device 14 as status information. For example, as shown in FIG. 32, the device image 102 associated with the multi-function peripheral 78 is displayed on the UI unit 72 of the terminal device 14. The device image 102 may be, for example, an image generated by photographing with a visual sensor of the robot device 10, or may be an image that schematically represents the multifunction machine 78.

また、機器が識別されると、その機器の名称を示す情報がロボット装置10から端末装置14に送信され、端末装置14のUI部72に機器の名称が表示されてもよい。図32に示す例では、名称「複合機(B)」が表示されている。 Further, when the device is identified, information indicating the name of the device may be transmitted from the robot device 10 to the terminal device 14, and the device name may be displayed on the UI unit 72 of the terminal device 14. In the example shown in FIG. 32, the name “multifunction machine (B)” is displayed.

例えば、ユーザが端末装置14を使用して機器画像102を指定すると、例えば図33に示すように、端末装置14のUI部72には、機器画像102に紐づく複合機78を利用する解決手段を示す情報(例えば、解決手段の実行を指示するためのボタン画像)が表示される。複合機(B)は、例えば、プリント機能、スキャン機能、コピー機能、及び、ファクシミリ機能を備えており、これらの機能が解決手段として利用される場合、これらの機能を実行するためのボタン画像が端末装置14のUI部72に表示される。例えば、ユーザが端末装置14を使用してプリント機能を表わすボタン画像を指定し、プリント機能の実行を指示すると、プリント機能の実行指示を示す実行指示情報が、端末装置14又はロボット装置10から複合機78に送信される。その実行指示情報には、プリント機能を実行するための制御データや、プリント機能が適用される画像データ等のデータ、等が含まれる。複合機78は実行指示情報を受けると、その実行指示情報に従ってプリントを実行する。 For example, when the user specifies the device image 102 using the terminal device 14, for example, as shown in FIG. 33, the UI unit 72 of the terminal device 14 uses a multifunction device 78 linked to the device image 102 in the UI unit 72. Is displayed (for example, a button image for instructing the execution of the solution). The multifunction peripheral (B) has, for example, a print function, a scan function, a copy function, and a facsimile function. When these functions are used as a solution, button images for executing these functions are displayed. It is displayed on the UI unit 72 of the terminal device 14. For example, when the user uses the terminal device 14 to specify a button image representing a print function and gives an instruction to execute the print function, execution instruction information indicating an instruction to execute the print function is output from the terminal device 14 or the robot device 10. Machine 78. The execution instruction information includes control data for executing the print function, data such as image data to which the print function is applied, and the like. Upon receiving the execution instruction information, the multi-function peripheral 78 executes printing according to the execution instruction information.

複数の機器(例えば複合機78とプロジェクタ88)がロボット装置10によって識別された場合、上記のユーザ判断モード1においては、複合機78に紐づく機器画像とプロジェクタ88に紐づく機器画像が、状況情報として端末装置14に表示される。例えば図34に示すように、端末装置14のUI部72に、複合機78に紐づく機器画像102とプロジェクタ88に紐づく機器画像104が表示される。機器画像102,104は、例えば、ロボット装置10の視覚センサーによる撮影によって生成された画像であってもよいし、複合機78、プロジェクタ88を模式的に表す画像であってもよい。 When a plurality of devices (for example, the multifunction device 78 and the projector 88) are identified by the robot device 10, in the user determination mode 1 described above, the device image associated with the multifunction device 78 and the device image associated with the projector 88 are The information is displayed on the terminal device 14 as information. For example, as shown in FIG. 34, a device image 102 associated with the multifunction device 78 and a device image 104 associated with the projector 88 are displayed on the UI unit 72 of the terminal device 14. The device images 102 and 104 may be, for example, images generated by photographing with a visual sensor of the robot device 10, or may be images that schematically represent the multifunction machine 78 and the projector 88.

また、機器が識別されると、その機器の名称を示す情報がロボット装置10から端末装置14に送信され、端末装置14のUI部72に表示されてもよい。図34に示す例では、複合機78の名称「複合機(B)」と、プロジェクタ88の名称「プロジェクタ(C)」が表示されている。 When the device is identified, the information indicating the name of the device may be transmitted from the robot device 10 to the terminal device 14 and displayed on the UI unit 72 of the terminal device 14. In the example shown in FIG. 34, the name “multifunction device (B)” of the multifunction device 78 and the name “projector (C)” of the projector 88 are displayed.

例えば、ユーザが端末装置14を使用して機器画像102,104を指定すると、例えば図35に示すように、端末装置14のUI部72には、機器画像102に紐づく複合機78と機器画像104に紐づくプロジェクタ88を利用する解決手段を示す情報(例えば、解決手段の実行を指示するためのボタン画像)が表示される。その解決手段は、複合機78とプロジェクタ88を利用する連携機能によって実現される手段である。複合機78とプロジェクタ88を連携させることで、例えば、複合機78によるスキャンによって生成された画像をプロジェクタ88によって投影する連携機能や、プロジェクタ88によって投影されている画像を複合機78によってプリントする連携機能が実行可能となる。これらの連携機能の実行を指示するためのボタン画像が端末装置14のUI部72に表示される。例えば、ユーザが端末装置14を使用してボタン画像を指定し、解決手段(連携機能)の実行を指示すると、その解決手段の実行指示を示す実行指示情報が、端末装置14又はロボット装置10から複合機78とプロジェクタ88に送信される。複合機78とプロジェクタ88は、実行指示情報を受けると、ユーザによって指定された連携機能を実行する。 For example, when the user uses the terminal device 14 to specify the device images 102 and 104, for example, as shown in FIG. 35, the UI unit 72 of the terminal device 14 includes the multifunction device 78 and the device image associated with the device image 102. Information (for example, a button image for instructing the execution of the solving means) indicating the solving means using the projector 88 associated with 104 is displayed. The solving means is a means realized by a cooperation function using the multifunction device 78 and the projector 88. By making the multifunction device 78 and the projector 88 cooperate with each other, for example, a cooperation function of projecting an image generated by scanning by the multifunction device 78 by the projector 88, or a cooperation function of printing an image projected by the projector 88 by the multifunction device 78. The function becomes executable. Button images for instructing execution of these cooperation functions are displayed on the UI unit 72 of the terminal device 14. For example, when the user uses the terminal device 14 to specify a button image and gives an instruction to execute the solution means (cooperation function), the execution instruction information indicating the execution instruction of the solution means is sent from the terminal device 14 or the robot device 10. It is transmitted to the multi-function device 78 and the projector 88. Upon receiving the execution instruction information, the multi-function device 78 and the projector 88 execute the cooperation function designated by the user.

ユーザが機器画像102をタッチして機器画像104までの間を指等で操作する(例えば指等でなぞる)ことにより、機器画像102,104が指定され、複合機78とプロジェクタ88が連携対象の機器として指定されてもよい。機器画像102,104を触れる順番やなぞる方向は、上記の例と逆であってもよい。もちろん、画面をなぞるためのペンといった指以外の画面接触手段が用いられてもよい。ユーザが機器画像102と機器画像104を繋げることにより、機器画像102、104が指定され、複合機78とプロジェクタ88が連携対象の機器として指定されてもよい。ユーザが機器画像102と機器画像104を重ねることにより、機器画像102,104が指定され、複合機78とプロジェクタ88が連携対象の機器として指定されてもよい。丸を付けるような描画操作によって連携対象の機器を指定してもよいし、連携したい機器に紐付く機器画像を予め設定された時間内に指定することで、連携対象の機器を指定してもよい。連携を解除する場合、ユーザが画面上で解除対象の機器を指定してもよいし、連携解除ボタンを押してもよい。バツ印等を付けるような予め設定された操作によって、解除対象の機器を指定してもよい。 The user touches the device image 102 and operates the device image 104 up to the device image 104 with a finger or the like (for example, traces with a finger or the like), whereby the device images 102 and 104 are designated, and the multifunction device 78 and the projector 88 are targeted for cooperation. It may be designated as a device. The order in which the device images 102 and 104 are touched and the tracing direction may be opposite to the above example. Of course, screen contact means other than a finger such as a pen for tracing the screen may be used. The user may connect the device image 102 and the device image 104 to specify the device images 102 and 104, and specify the multifunction device 78 and the projector 88 as the cooperation target devices. The device images 102 and 104 may be designated by the user overlapping the device image 102 and the device image 104, and the multifunction device 78 and the projector 88 may be designated as devices to be linked. A device to be linked may be specified by a drawing operation such as a circle, or a device to be linked may be specified by specifying a device image associated with the device to be linked within a preset time. Good. When canceling the cooperation, the user may specify the device to be canceled on the screen, or may press the cooperation cancel button. The device to be released may be designated by a preset operation such as adding a cross mark.

別の例として、連携対象の機器が基本連携機器として予め設定されていてもよい。例えば、複合機78が基本連携機器として予め設定されているものとする。基本連携機器のデバイス識別情報は、ロボット装置10やサーバ等の装置に予め記憶されていてもよい。ユーザが端末装置14を利用して基本連携機器を指定してもよい。基本連携機器が設定されている場合、ユーザは、基本連携機器以外の機器に紐づく機器画像を指定することで、その基本連携機器と連携する機器を指定する。 As another example, the cooperation target device may be set in advance as a basic cooperation device. For example, it is assumed that the multi-function device 78 is preset as a basic cooperation device. The device identification information of the basic cooperation device may be stored in advance in a device such as the robot device 10 or a server. The user may specify the basic cooperation device by using the terminal device 14. When the basic cooperation device is set, the user specifies the device image associated with the device other than the basic cooperation device, thereby specifying the device that cooperates with the basic cooperation device.

なお、上記の例では、単体の機能及び連携機能は、ハードウェアとしての機器を利用する機能であるが、単体の機能及び連携機能は、ソフトウェア(アプリケーション)によって実現される機能であってもよい。例えば、機器画像の替わりに、ソフトウェアによって実現される機能に紐付く機能画像(例えばアイコン等の画像)が端末装置14のUI部72に表示され、1又は複数の機能画像がユーザによって指定されることで、機能画像に紐づく機能や、複数の機能画像に紐付く複数の機能を利用する連携機能が指定されてもよい。もちろん、ハードウェアとしての機器に紐付く機器画像と、ソフトウェアによって実現される機能に紐付く機能画像と、が端末装置14のUI部72に表示され、機器画像と機能画像がユーザによって指定された場合、その機器画像に紐付く機器とその機能画像に紐付く機能とを利用する連携機能が指定されてもよい。 In the above example, the standalone function and the cooperative function are functions that use the device as hardware, but the standalone function and the cooperative function may be functions realized by software (application). .. For example, instead of the device image, a function image associated with a function realized by software (for example, an image such as an icon) is displayed on the UI unit 72 of the terminal device 14, and one or more function images are designated by the user. By doing so, a function associated with the functional image or a cooperative function using a plurality of functions associated with a plurality of functional images may be designated. Of course, the device image associated with the device as hardware and the function image associated with the function realized by the software are displayed on the UI unit 72 of the terminal device 14, and the device image and the function image are designated by the user. In this case, a cooperation function that uses the device associated with the device image and the function associated with the function image may be designated.

以下、機器が有する機能を実行するときの処理について説明する。一例として、連携機能を実行するときの処理について説明する。この場合、端末装置14から連携対象の機器に対して接続要求が送信され、端末装置14と連携対象の機器とが接続される。もちろん、ロボット装置10から連携対象の機器に対して接続要求が送信され、ロボット装置10と連携対象の機器とが接続されてもよい。以下、図36を参照して、この接続処理について説明する。図36は、その処理を示すシーケンス図である。 Hereinafter, a process for executing a function of the device will be described. As an example, a process when executing the cooperation function will be described. In this case, a connection request is transmitted from the terminal device 14 to the cooperation target device, and the terminal device 14 and the cooperation target device are connected. Of course, a connection request may be transmitted from the robot apparatus 10 to the cooperation target device, and the robot apparatus 10 and the cooperation target device may be connected. Hereinafter, this connection processing will be described with reference to FIG. FIG. 36 is a sequence diagram showing the processing.

端末装置14において、ユーザによって実行対象の連携機能が指定されると(S70)、端末装置14は、その連携機能を実行する連携対象の機器(例えば複合機78とプロジェクタ88)に接続要求を示す情報を送信する(S71)。例えば、連携対象の機器のアドレスを示すアドレス情報が、ロボット装置10に記憶されている場合、端末装置14は、連携対象の機器のアドレス情報をロボット装置10から取得する。別の例として、端末装置14に、連携対象の機器のアドレス情報が記憶されていてもよい。もちろん、端末装置14は、別の手法によって連携対象の機器のアドレス情報を取得してもよい。端末装置14は、連携対象の機器(例えば複合機78とプロジェクタ88)のアドレス情報を用いて、連携対象の機器(例えば複合機78とプロジェクタ88)に接続要求を示す情報を送信する。 When the user specifies the cooperation function to be executed in the terminal device 14 (S70), the terminal device 14 sends a connection request to the cooperation target device (for example, the multifunction device 78 and the projector 88) that executes the cooperation function. Information is transmitted (S71). For example, when the address information indicating the address of the cooperation target device is stored in the robot device 10, the terminal device 14 acquires the address information of the cooperation target device from the robot device 10. As another example, the terminal device 14 may store address information of devices to be cooperated. Of course, the terminal device 14 may acquire the address information of the cooperation target device by another method. The terminal device 14 uses the address information of the cooperation target device (for example, the multifunction device 78 and the projector 88) to transmit information indicating a connection request to the cooperation target device (for example, the multifunction device 78 and the projector 88).

接続要求を示す情報を受けた複合機78とプロジェクタ88は、端末装置14との接続を許可する、又は、許可しない(S72)。例えば、複合機78とプロジェクタ88が、接続が許可されていない機器に該当する場合や、接続を要求している装置の数が上限を超えている機器に該当する場合、接続は許可されない。なお、端末装置14からの接続が許可された場合、複合機78とプロジェクタ88の固有の設定情報が端末装置14から変更されないように、その変更操作を禁止してもよい。例えば、複合機78の色彩のパラメータや、節電に移行する際の設定時間等の変更が禁止されてもよい。これにより、連携対象の機器に対するセキュリティが向上する。別の例として、機器を連携させる場合、当該機器を連携させずに単独で利用する場合と比べて、設定情報の変更が制限されてもよい。例えば、機器を単独で利用する場合と比べて、より少ない設定項目の変更が許可されてもよい。また、稼働履歴のような他のユーザの個人情報の閲覧を禁止してもよい。これにより、ユーザの個人情報に対するセキュリティが向上する。 Upon receiving the information indicating the connection request, the multifunction device 78 and the projector 88 allow or disallow the connection with the terminal device 14 (S72). For example, if the multifunction device 78 and the projector 88 correspond to devices that are not permitted to connect, or if the number of devices requesting the connection exceeds the upper limit, the connection is not permitted. When the connection from the terminal device 14 is permitted, the changing operation may be prohibited so that the unique setting information of the multifunction device 78 and the projector 88 is not changed from the terminal device 14. For example, changes in the color parameters of the multi-function peripheral 78, the set time when shifting to power saving, and the like may be prohibited. As a result, security for the device to be linked is improved. As another example, when the devices are made to cooperate with each other, the change of the setting information may be restricted as compared with the case where the devices are used alone without being made to cooperate. For example, as compared with the case where the device is used alone, fewer setting items may be permitted to be changed. Further, browsing of personal information of other users such as operation history may be prohibited. This improves the security of the personal information of the user.

接続の許可又は不許可を示す結果情報が、複合機78とプロジェクタ88から端末装置14に送信される(S73)。複合機78とプロジェクタ88への接続が許可された場合、端末装置14と、複合機78及びプロジェクタ88と、の間で通信が確立される。 Result information indicating permission or non-permission of connection is transmitted from the multifunction device 78 and the projector 88 to the terminal device 14 (S73). When the connection to the multifunction device 78 and the projector 88 is permitted, the communication is established between the terminal device 14 and the multifunction device 78 and the projector 88.

次に、ユーザは端末装置14を利用して連携機能の実行を指示する(S74)。この指示に応じて、連携機能の実行指示を示す実行指示情報が、端末装置14から複合機78とプロジェクタ88に送信される(S75)。複合機78に送信される実行指示情報には、複合機78にて実行される処理を示す情報(例えばジョブ情報)が含まれ、プロジェクタ88に送信される実行指示情報には、プロジェクタ88にて実行される処理を示す情報(例えばジョブ情報)が含まれる。 Next, the user uses the terminal device 14 to instruct execution of the cooperation function (S74). In response to this instruction, execution instruction information indicating an instruction to execute the cooperation function is transmitted from the terminal device 14 to the multifunction device 78 and the projector 88 (S75). The execution instruction information transmitted to the multi-function peripheral 78 includes information (for example, job information) indicating the process executed by the multi-function peripheral 78, and the execution instruction information transmitted to the projector 88 includes the projector 88. Information (e.g., job information) indicating the processing to be executed is included.

実行指示情報を受けた複合機78とプロジェクタ88は、実行指示情報に従って機能を実行する(S76)。例えば、複合機78(複合機(B))からプロジェクタ88(PC(A))へスキャンデータを転送してプロジェクタ88によってデータを投影する機能のように、連携機能に、複合機78とプロジェクタ88との間でデータの送受信が行われる処理が含まれている場合、複合機78とプロジェクタ88との間で通信が確立される。この場合、例えば、複合機78に送信される実行指示情報にはプロジェクタ88のアドレス情報が含まれ、プロジェクタ88に送信される実行指示情報には複合機78のアドレス情報が含まれ、それらのアドレス情報を用いて複合機78とプロジェクタ88との間で通信が確立される。 Upon receiving the execution instruction information, the multi-function peripheral 78 and the projector 88 execute the function according to the execution instruction information (S76). For example, like the function of transferring scan data from the multi-function peripheral 78 (multi-function peripheral (B)) to the projector 88 (PC (A)) and projecting the data by the projector 88, the multi-function peripheral 78 and the projector 88 are included in the cooperation function. When the process of transmitting and receiving data to and from is included, communication is established between the multi-function device 78 and the projector 88. In this case, for example, the execution instruction information transmitted to the multifunction device 78 includes the address information of the projector 88, and the execution instruction information transmitted to the projector 88 includes the address information of the multifunction device 78. Communication is established between the multifunction device 78 and the projector 88 using the information.

連携機能の実行が終了すると、連携機能の実行完了を示す情報が、複合機78とプロジェクタ88から端末装置14に送信される(S77)。端末装置14のUI部72には、連携機能の実行が完了したことを示す情報が表示される(S78)。なお、実行指示を与えた時点から予め設定された時間が経過しても実行完了を示す情報が表示されない場合、端末装置14は、エラーを示す情報をUI部72に表示させ、再度、実行指示情報、又は、接続要求を示す情報を、複合機78とプロジェクタ88に送信してもよい。 When the execution of the cooperation function is completed, the information indicating the completion of the execution of the cooperation function is transmitted from the multifunction device 78 and the projector 88 to the terminal device 14 (S77). Information indicating that the execution of the cooperation function is completed is displayed on the UI unit 72 of the terminal device 14 (S78). If the information indicating the completion of execution is not displayed even after the preset time has elapsed from the time when the execution instruction is given, the terminal device 14 causes the UI unit 72 to display the information indicating the error, and the execution instruction is executed again. The information or the information indicating the connection request may be transmitted to the multifunction device 78 and the projector 88.

次に、ユーザは、複合機78とプロジェクタ88の連携状態を解除するか否かを確認し(S79)、解除の有無に応じた処理が実行される(S80)。連携状態を解除する場合、ユーザは、端末装置14を利用して解除の指示を与える。これにより、端末装置14と、複合機78及びプロジェクタ88と、の間の通信が解除される。同様に、複合機78とプロジェクタ88との間の通信も解除される。連携状態を解除しない場合、継続して実行指示を与えてもよい。 Next, the user confirms whether or not to cancel the linked state of the multi-function device 78 and the projector 88 (S79), and the process according to the presence/absence of cancellation is executed (S80). When canceling the linked state, the user gives a cancellation instruction using the terminal device 14. As a result, the communication between the terminal device 14 and the multifunction device 78 and the projector 88 is canceled. Similarly, the communication between the multi-function peripheral 78 and the projector 88 is canceled. When the linked state is not released, the execution instruction may be continuously given.

なお、単独機能が実行される場合、その単独機能の実行指示を示す情報が、端末装置14から単独機能を実行する機器に送信される。当該機器は、その実行指示に従って単独機能を実行する。 When the single function is executed, the information indicating the instruction to execute the single function is transmitted from the terminal device 14 to the device that executes the single function. The device executes a single function according to the execution instruction.

上記の実行指示情報は、ロボット装置10から各機器に送信されてもよい。 The execution instruction information may be transmitted from the robot apparatus 10 to each device.

以下、解決手段に用いられる機器の指定操作に関する処理について説明する。 Hereinafter, a process related to a designation operation of a device used as a solving means will be described.

(連携機能に関する情報の表示の切り替え処理)
本実施形態において、機器に紐付く機器画像同士を繋げる順番に応じて、連携機能に関する情報の表示が切り替えられてもよい。以下、図37から図39を参照して、この処理について詳しく説明する。
(Switching process for displaying information related to linkage function)
In the present embodiment, the display of the information regarding the cooperation function may be switched according to the order in which the device images associated with the devices are connected. Hereinafter, this processing will be described in detail with reference to FIGS. 37 to 39.

図37には、連携機能管理情報42の別の例としての連携機能管理テーブルが示されている。この連携機能管理テーブルにおいては、一例として、機器IDの組み合わせを示す情報と、連携対象の機器名(例えば各機器の種類)を示す情報と、連携機能を示す情報(連携機能情報)と、接続順番を示す情報と、優先順位を示す情報と、が対応付けられている。接続順番は、機器に紐付く機器画像を繋ぐ順番に対応している。優先順位は、連携機能に関する情報の表示の優先順位である。例えば、機器IDが「A」の機器はPC(パーソナルコンピュータ)であり、機器IDが「B」の機器は複合機である。PC(A)と複合機(B)を連携させることにより、連携機能として、例えば「スキャン転送機能」と「印刷機能」が実現される。「スキャン転送機能」は、複合機(B)によるスキャンによって生成された画像データをPC(A)に転送する機能である。「印刷機能」は、PC(A)に保存されているデータ(例えば画像データや文書データ)を複合機(B)に送信して複合機(B)にて印刷する機能である。例えば、複合機(B)からPC(A)に機器が接続された場合、つまり、複合機(B)に紐付く機器画像からPC(A)に紐付く機器画像へ機器画像が繋がれた場合、「スキャン転送機能」の優先順位が「1位」となり、「印刷機能」の優先順位は「2位」となる。この場合、「スキャン転送機能」に関する情報が「印刷機能」に関する情報よりも優先的に表示される。これとは逆に、PC(A)から複合機(B)に機器が接続された場合、つまり、PC(A)に紐付く機器画像から複合機(B)に紐付く機器画像へ画像が繋がれた場合、「印刷機能」の優先順位が「1位」となり、「スキャン転送機能」の優先順位が「2位」となる。この場合、「印刷機能」に関する情報が「スキャン転送機能」に関する情報よりも優先的に表示される。 FIG. 37 shows a cooperation function management table as another example of the cooperation function management information 42. In the cooperation function management table, as an example, information indicating a combination of device IDs, information indicating a device name of a cooperation target (for example, the type of each device), information indicating a cooperation function (cooperation function information), and connection The information indicating the order and the information indicating the priority order are associated with each other. The connection order corresponds to the order in which the device images associated with the devices are connected. The priority order is the display priority order of information related to the cooperation function. For example, the device with the device ID "A" is a PC (personal computer), and the device with the device ID "B" is a multi-function peripheral. By linking the PC (A) and the multi-function peripheral (B), for example, a "scan transfer function" and a "print function" are realized as the linking functions. The “scan transfer function” is a function of transferring the image data generated by the scan by the multifunction peripheral (B) to the PC (A). The “print function” is a function of transmitting data (for example, image data or document data) stored in the PC (A) to the multi function peripheral (B) and printing the data in the multi function peripheral (B). For example, when a device is connected from the multi-function peripheral (B) to the PC (A), that is, when a device image is connected from the device image associated with the multi-function peripheral (B) to the device image associated with the PC (A). , The priority of the “scan transfer function” is “first”, and the priority of the “print function” is “second”. In this case, the information regarding the “scan transfer function” is displayed with priority over the information regarding the “print function”. On the contrary, when a device is connected from the PC (A) to the multifunction device (B), that is, the image is linked from the device image associated with the PC (A) to the device image associated with the multifunction device (B). If so, the priority of the “print function” is “first” and the priority of the “scan transfer function” is “second”. In this case, the information regarding the “print function” is displayed with priority over the information regarding the “scan transfer function”.

図38及び図39には、端末装置14のUI部72に表示される画面の一例が示されている。例えば、複合機(B)とPC(A)が識別されているものとする。上記のユーザ判断モード1においては、図38(a)に示すように、端末装置14のUI部72には、複合機(B)に紐付く機器画像102とPC(A)に紐付く機器画像130が、状況情報として表示される。この状態で、ユーザは指示子(例えばユーザの指、ペン、スタイラス等)を用いて連携対象の機器を表わす機器画像同士を繋ぐ。端末装置14の制御部74は、画面への指示子の接触を検知し、画面上での指示子の移動を検知する。例えば、矢印132で示すように、ユーザが操作子を用いて画面上で機器画像102をタッチして機器画像130まで操作する(例えば、画面上で操作子をなぞる)ことにより、機器画像102と機器画像130を繋ぐ。これにより、機器画像102に紐付く複合機(B)と機器画像130に紐付くPC(A)が、連携対象の機器として指定されるとともに、接続の順番が指定される。機器画像を繋ぐ順番が接続の順番に相当する。なお、複合機(B)が第1機器に該当し、PC(A)が第2機器に該当する。図38(a)に示す例では、機器画像102から機器画像130へ画像を繋げているため、複合機(B)からPC(A)へ機器が接続されている。機器の接続順番を示す情報は、端末装置14からロボット装置10に送信される。なお、端末装置14の制御部74は、ユーザがなぞった軌跡を表わす画像を画面に表示させてもよいし、機器同士が接続された後は、その軌跡を予め設定された直線等に置き換えて画面に表示させてもよい。 38 and 39 show examples of screens displayed on the UI unit 72 of the terminal device 14. For example, it is assumed that the multifunction peripheral (B) and the PC (A) are identified. In the user determination mode 1 described above, as shown in FIG. 38A, the UI unit 72 of the terminal device 14 has a device image 102 associated with the multi-function peripheral (B) and a device image associated with the PC (A). 130 is displayed as status information. In this state, the user connects the device images representing the devices to be linked with each other using an indicator (for example, the user's finger, pen, stylus, etc.). The control unit 74 of the terminal device 14 detects the contact of the indicator on the screen and the movement of the indicator on the screen. For example, as indicated by an arrow 132, the user touches the device image 102 on the screen with the operator to operate up to the device image 130 (for example, tracing the operator on the screen), and the device image 102 is displayed. Connect the device images 130. As a result, the multifunction device (B) associated with the device image 102 and the PC (A) associated with the device image 130 are designated as devices to be linked and the order of connection is designated. The order of connecting device images corresponds to the order of connection. The multifunction device (B) corresponds to the first device, and the PC (A) corresponds to the second device. In the example shown in FIG. 38A, since the images are connected from the device image 102 to the device image 130, the device is connected from the multifunction peripheral (B) to the PC (A). The information indicating the connection order of the devices is transmitted from the terminal device 14 to the robot device 10. The control unit 74 of the terminal device 14 may display an image representing the trajectory traced by the user on the screen, or after the devices are connected to each other, replace the trajectory with a preset straight line or the like. It may be displayed on the screen.

上記のように、連携対象の機器(例えば複合機(B)とPC(A))が指定されると、ロボット装置10の識別部64は、図37に示されている連携機能管理テーブルにおいて、PC(A)と複合機(B)の組み合わせに対応付けられている連携機能を特定する。これにより、PC(A)と複合機(B)を連携させることによって実行される連携機能が特定される。また、ユーザによって機器の接続順番が指定されると、識別部64は、連携機能管理テーブルにおいて、その接続順番に対応付けられている優先順位を特定する。図37を参照して具体例を挙げて説明すると、PC(A)と複合機(B)が連携対象の機器として指定されているため、それらによって実行される連携機能は「スキャン転送機能」と「印刷機能」である。また、複合機(B)からPC(A)へ機器が接続されているため(B→A)、「スキャン転送機能」の優先順位は「1位」であり、「印刷機能」の優先順位は「2位」である。 As described above, when the devices to be linked (for example, the multifunction device (B) and the PC (A)) are designated, the identification unit 64 of the robot device 10 displays the linked function management table shown in FIG. The cooperation function associated with the combination of PC (A) and multifunction peripheral (B) is specified. As a result, the cooperation function executed by coordinating the PC (A) and the multifunction machine (B) is specified. Further, when the user specifies the connection order of the devices, the identification unit 64 specifies the priority order associated with the connection order in the cooperation function management table. Explaining with a specific example with reference to FIG. 37, since the PC (A) and the multi-function peripheral (B) are designated as devices to be linked, the link function executed by them is the “scan transfer function”. It is a "print function". Further, since the device is connected from the multi-function peripheral (B) to the PC (A) (B→A), the priority order of the “scan transfer function” is “first place” and the priority order of the “print function” is "2nd place".

上記のようにして特定された連携機能に関する情報と優先順位を示す情報は、ロボット装置10から端末装置14に送信される。端末装置14の制御部74は、その優先順位に従って、連携機能に関する情報をUI部72に表示させる。 The information regarding the cooperation function identified as described above and the information indicating the priority order are transmitted from the robot device 10 to the terminal device 14. The control unit 74 of the terminal device 14 causes the UI unit 72 to display information regarding the cooperation function in accordance with the priority order.

例えば図38(b)に示すように、端末装置14の制御部74は、UI部72に連携機能候補に関する情報を表示させる。「スキャン転送機能」の優先順位が「1位」であり、「印刷機能」の優先順位が「2位」であるため、「スキャン転送機能」に関する情報が「印刷機能」に関する情報よりも優先的に(例えば上位に)表示されている。例えば、「スキャン転送機能」に関する情報として、「複合機(B)でスキャンしたデータをPC(A)に転送する。」という「スキャン転送機能」の説明文が表示される。また、「印刷機能」に関する情報として、「PC(A)にあるデータを印刷する。」という「印刷機能」の説明文が表示される。 For example, as shown in FIG. 38(b), the control unit 74 of the terminal device 14 causes the UI unit 72 to display information regarding the cooperation function candidate. Since the priority of the "scan transfer function" is "1st" and the priority of the "print function" is "2nd", the information about the "scan transfer function" has priority over the information about the "print function". (For example, at the top). For example, as the information regarding the “scan transfer function”, a description of “scan transfer function” of “transfer data scanned by the multifunction device (B) to the PC (A)” is displayed. Further, as the information regarding the “print function”, a description of “print function” of “print data in PC(A).” is displayed.

連携機能がユーザによって指定されて実行指示が与えられると、指定された連携機能が実行される。例えば、「YES」ボタンがユーザによって押されると、その「YES」ボタンに紐付く連携機能が実行される。 When the cooperation function is specified by the user and an execution instruction is given, the specified cooperation function is executed. For example, when the “YES” button is pressed by the user, the link function associated with the “YES” button is executed.

なお、連携機能の特定処理及び優先順位の特定処理は、端末装置14にて行われてもよい。 It should be noted that the terminal device 14 may perform the cooperation function specifying process and the priority order specifying process.

機器画像の間を操作子でなぞる以外の操作として、丸印を付けるような描画操作によって連携対象の機器を指定するとともに、接続順番を指定してもよい。例えば、描画操作の順番が接続順番に相当する。別の例として、ユーザの音声指示に従って連携対象の機器や接続順番が指定されてもよい。 As an operation other than tracing the device images with the operator, the device to be linked may be specified by a drawing operation such as adding a circle, and the connection order may be specified. For example, the order of drawing operations corresponds to the connection order. As another example, the device to be linked and the connection order may be designated according to the voice instruction from the user.

図39には別の操作の例が示されている。例えば図39(a)に示すように、ユーザが操作子を用いて、機器画像130をタッチし、矢印134で示す方向に機器画像102まで操作することにより、機器画像130と機器画像102を繋ぐ。これにより、機器画像130に紐付くPC(A)と機器画像102に紐付く複合機(B)が、連携対象の機器として指定されるとともに、接続の順番が指定される。この例では、機器画像130から機器画像102へ画像を繋げているため、PC(A)から複合機(B)へ機器が接続されている。図37に示されている連携機能管理テーブルを参照すると、「印刷機能」の優先順位が「1位」であり、「スキャン転送機能」の優先順位は「2位」である。この場合、図39(b)に示すように、端末装置14のUI部72には、「印刷機能」に関する情報が「スキャン転送機能」に関する情報よりも優先的に(例えば上位に)表示される。 FIG. 39 shows an example of another operation. For example, as shown in FIG. 39(a), the user touches the device image 130 using an operator and operates the device image 102 in the direction indicated by the arrow 134, thereby connecting the device image 130 and the device image 102. .. As a result, the PC (A) associated with the device image 130 and the multifunction device (B) associated with the device image 102 are specified as devices to be linked, and the order of connection is specified. In this example, since the image is connected from the device image 130 to the device image 102, the device is connected from the PC (A) to the multifunction device (B). Referring to the cooperation function management table shown in FIG. 37, the priority of the “print function” is “first” and the priority of the “scan transfer function” is “second”. In this case, as shown in FIG. 39( b ), the UI unit 72 of the terminal device 14 displays the information about the “print function” preferentially (for example, higher) than the information about the “scan transfer function”. ..

以上のように、機器に紐付く機器画像同士を繋ぐことにより、機器が有する機能を利用する連携機能が特定される。また、画像を繋ぐ順番、つまり、機器を接続する順番に応じて、連携機能に関する情報の表示順位が変更される。機器の接続順番は、各機器で利用される機能の順番や、連携する機器間を移動するデータの移動順番を兼ねており、機器を接続する操作(つまり画像を繋ぐ操作)は、機能の順番やデータの移動順番を指定する操作を兼ねることになる。それ故、接続順番に応じて連携機能に関する情報の表示順位を変えることにより、ユーザが利用するであろうと予測される連携機能に関する情報が優先的に表示される。つまり、ユーザが利用する可能性の高い連携機能に関する情報が優先的に表示される。例えば、複合機(B)からPC(A)へ画像が繋がれた場合、「PC(A)よりも先に複合機(B)の機能を利用し、複合機(B)からPC(A)へデータを転送する」という連携機能がユーザによって利用されると予測される。また、PC(A)から複合機(B)へ画像が繋がれた場合、「複合機(B)よりも先にPC(A)の機能を利用し、PC(A)から複合機(B)へデータを転送する」という連携機能がユーザによって利用されると予測される。それ故、画像を繋ぐ順番に応じて連携機能に関する情報の表示順位を変えることにより、ユーザが利用する可能性の高い連携機能に関する情報が優先的に表示される。また、機器画像同士を繋ぐ操作以外の操作を行わずに、利用する機能の順番やデータの移動順番が指定され、ユーザが利用するであろうと予測される連携機能に関する情報が表示される。 As described above, by linking the device images associated with the device, the cooperation function that uses the function of the device is specified. Further, the display order of the information regarding the cooperation function is changed according to the order of connecting the images, that is, the order of connecting the devices. The device connection order is also the order of the functions used by each device and the order of moving data that moves between linked devices. The operation of connecting the devices (that is, the operation of connecting images) is the order of the functions. It also serves as an operation to specify the data transfer order. Therefore, by changing the display order of the information on the cooperation function according to the connection order, the information on the cooperation function predicted to be used by the user is preferentially displayed. That is, the information regarding the cooperation function that is likely to be used by the user is preferentially displayed. For example, when an image is connected from the multi-function peripheral (B) to the PC (A), "the function of the multi-function peripheral (B) is used before the PC (A), and the multi-function peripheral (B) to the PC (A) is used. It is predicted that the user will use the cooperation function of "transferring data to". Further, when an image is connected from the PC (A) to the multifunction device (B), "the function of the PC (A) is used before the multifunction device (B), and the PC (A) to the multifunction device (B) is used. It is expected that the user will use the cooperation function of "transferring data to". Therefore, by changing the display order of the information regarding the cooperation function according to the order in which the images are connected, the information regarding the cooperation function that is likely to be used by the user is preferentially displayed. Further, the order of the functions to be used and the order of moving the data are designated without performing an operation other than the operation of connecting the device images, and the information on the cooperation functions predicted to be used by the user is displayed.

上記の表示切替処理は、機能に紐付く機能画像が用いられる場合に適用されてもよい。例えば、第1機能に紐付く機器画像と第2機能に紐付く機器画像の指定の順番に応じて、連携機能に関する情報の表示が切り替えられる。 The above display switching process may be applied when a functional image associated with a function is used. For example, the display of the information regarding the cooperation function is switched according to the order of designation of the device image associated with the first function and the device image associated with the second function.

(部分画像を用いた連携処理)
機器に紐付く機器画像内の位置に応じて、連携機能に割り当てられる機器が有する機能が異なっていてもよい。機器画像内において特定の位置がユーザによって指定されると、その特定の位置に対応する機能を利用する連携機能に関する情報が優先的に表示される。以下、この処理について詳しく説明する。
(Collaboration process using partial images)
Depending on the position in the device image associated with the device, the device assigned to the cooperation function may have a different function. When a specific position is designated by the user in the device image, information regarding the cooperation function that uses the function corresponding to the specific position is preferentially displayed. Hereinafter, this process will be described in detail.

図40には、デバイス機能管理テーブルの一例が示されている。このデバイス機能管理テーブルのデータは、デバイス機能管理情報40としてロボット装置10に記憶されている。このデバイス機能管理テーブルにおいては、一例として、機器IDと、機器名(例えば機器の種類)を示す情報と、機器画像内位置を示す情報と、その機器画像内位置に対応する機能を示す情報(機能情報)と、画像IDと、が対応付けられている。機器画像内位置は、機器に紐付く機器画像内の特定の位置(特定の部位)であり、例えば、機器を模式的に表す機器画像内の特定の位置や、カメラによって撮影された機器画像内の特定の位置である。機器画像内の特定の位置毎に、異なる機能が対応付けられている。 FIG. 40 shows an example of the device function management table. The data of the device function management table is stored in the robot apparatus 10 as the device function management information 40. In the device function management table, as an example, a device ID, information indicating a device name (for example, device type), information indicating a position in the device image, and information indicating a function corresponding to the position in the device image ( (Function information) and the image ID are associated with each other. The position in the device image is a specific position (specific part) in the device image that is associated with the device. For example, a specific position in the device image that schematically represents the device or in the device image captured by the camera. Is a specific position. Different functions are associated with specific positions in the device image.

図41には、端末装置14のUI部72に表示される画面の一例が示されている。例えば、複合機(B)とPC(A)が識別されているものとする。上記のユーザ判断モード1においては、図41(a)に示すように、端末装置14のUI部72には機器画像102,130が、状況情報として表示される。例えば、機器画像102において複合機(B)の本体部分に対応する特定の位置(部分画像102a)には、「プリント機能」が割り当てられている。機器画像102において複合機(B)の原稿カバーや原稿ガラスや自動原稿給紙装置に対応する特定の位置(部分画像102b)には、「スキャン機能」が割り当てられている。機器画像102において後処理装置に対応する特定の位置(部分画像102c)には、「ステープラ止め機能」が割り当てられている。「ステープラ止め機能」は、出力された用紙をステープラによって止める機能である。また、機器画像130においてPC(A)の本体部分に対応する特定の位置(部分画像130a)には、「データ保存機能」が割り当てられている。機器画像130においてPC(A)の表示部に対応する特定の位置(部分画像130b)には、「画面表示機能」が割り当てられている。「データ保存機能」は、他の装置から送られてきたデータをPC(A)にて保存する機能である。「画面表示機能」は、他の装置から送られてきたデータをPC(A)にて表示する機能である。 FIG. 41 shows an example of a screen displayed on the UI unit 72 of the terminal device 14. For example, it is assumed that the multifunction peripheral (B) and the PC (A) are identified. In the user determination mode 1 described above, as shown in FIG. 41A, the device images 102 and 130 are displayed as status information on the UI unit 72 of the terminal device 14. For example, a “print function” is assigned to a specific position (partial image 102a) corresponding to the main body of the multifunction peripheral (B) in the device image 102. In the device image 102, a “scan function” is assigned to a specific position (partial image 102b) corresponding to the document cover, the document glass, or the automatic document feeder of the multifunction peripheral (B). A “stapler stopping function” is assigned to a specific position (partial image 102c) corresponding to the post-processing apparatus in the device image 102. The "stapler stop function" is a function of stopping the output paper by a stapler. Further, in the device image 130, a “data saving function” is assigned to a specific position (partial image 130a) corresponding to the main body of the PC (A). A “screen display function” is assigned to a specific position (partial image 130b) corresponding to the display unit of the PC (A) in the device image 130. The “data saving function” is a function of saving data sent from another device on the PC(A). The "screen display function" is a function of displaying data sent from another device on the PC (A).

なお、端末装置14の制御部74は、機器画像内の特定の位置に割り当てられている機能の名称(例えば印刷やスキャン等)をUI部72に表示させてもよい。これにより、特定の位置にどのような機能が対応しているのかが分かり易い情報がユーザに提供される。もちろん、機能の名称は表示されなくてもよい。 The control unit 74 of the terminal device 14 may cause the UI unit 72 to display the name of the function (for example, printing or scanning) assigned to a specific position in the device image. This provides the user with information that makes it easy to understand what function corresponds to a specific position. Of course, the name of the function may not be displayed.

機器画像において機能が割り当てられている位置がユーザによって指定されると、その指定された位置に割り当てられている機能が連携対象の機能として指定される。ユーザは指示子を用いて、連携対象の機器を表わす機器画像において機能が割り当てられている特定の位置(部分画像)を繋ぐ。例えば、矢印136で示すように、ユーザが操作子を用いて、部分画像102bをタッチして部分画像130bまで操作することにより、部分画像102bと部分画像130bを繋ぐ。これにより、部分画像102bを含む機器画像102に紐付く複合機(B)と部分画像130bを含む機器画像130に紐付くPC(A)が、連携対象の機器として指定されるとともに、部分画像102bに割り当てられている「スキャン機能」と部分画像130bに割り当てられている「画面表示機能」が指定される。また、この繋ぐ操作によって、接続の順番が指定されてもよい。この場合、部分画像を繋ぐ順番が接続の順番に相当する。図41(a)に示す例では、部分画像102bから部分画像130bへ画像を繋げているため、複合機(B)からPC(A)へ機器が接続されている。また、連携機能に利用する機能として「スキャン機能」と「画面表示機能」が指定されている。機器の接続順番を示す情報と、機器画像内においてユーザによって指定された特定の位置を示す情報が、端末装置14からロボット装置10に送信される。 When the user designates the position to which the function is assigned in the device image, the function assigned to the designated position is designated as the function to be linked. The user connects the specific position (partial image) to which the function is assigned in the device image representing the device to be linked, using the indicator. For example, as shown by an arrow 136, the user touches the partial image 102b and operates up to the partial image 130b using the manipulator to connect the partial image 102b and the partial image 130b. As a result, the multifunction machine (B) associated with the device image 102 including the partial image 102b and the PC (A) associated with the device image 130 including the partial image 130b are designated as the cooperation target devices, and the partial image 102b is also specified. The "scan function" assigned to the image and the "screen display function" assigned to the partial image 130b are designated. Further, the order of connection may be designated by this connecting operation. In this case, the order of connecting the partial images corresponds to the order of connection. In the example shown in FIG. 41(a), since the images are connected from the partial image 102b to the partial image 130b, the device is connected from the multifunction peripheral (B) to the PC (A). Also, a "scan function" and a "screen display function" are specified as the functions to be used for the cooperation function. The information indicating the connection order of the devices and the information indicating the specific position designated by the user in the device image are transmitted from the terminal device 14 to the robot device 10.

連携対象の機器(例えばPC(A)と複合機(B))が識別されると、ロボット装置10の識別部64は、例えば図11に示されている連携機能管理テーブルにおいて、PC(A)と複合機(B)を連携させることによって実現される連携機能を特定する。また、識別部64は、図40に示されているデバイス機能管理テーブルを参照することにより、機器画像内においてユーザによって指定された特定に位置に割り当てられている機能を特定する。そして、識別部64は、PC(A)と複合機(B)とを連携させることによって実現される連携機能群の中で、ユーザによって指定された位置に割り当てられている機能を利用する連携機能の優先順位を上げて、その機能を利用しない連携機能の優先順位を下げる。 When the devices (for example, the PC (A) and the multifunction device (B)) to be linked are identified, the identification unit 64 of the robot device 10 displays the PC (A) in the linked function management table shown in FIG. 11, for example. And a coordinating function realized by coordinating the multi-function peripheral (B) with each other. Further, the identification unit 64 identifies the function assigned to the specific position designated by the user in the device image by referring to the device function management table shown in FIG. 40. Then, the identification unit 64 uses a function assigned to the position designated by the user in the function group realized by linking the PC (A) and the multifunction peripheral (B). , And lower the priority of linked functions that do not use that function.

上記のようにして特定された連携機能に関する情報と優先順位を示す情報は、ロボット装置10から端末装置14に送信される。端末装置14の制御部74は、その優先順位に従って、連携機能に関する情報を連携機能候補に関する情報としてUI部72に表示させる。 The information regarding the cooperation function identified as described above and the information indicating the priority order are transmitted from the robot device 10 to the terminal device 14. The control unit 74 of the terminal device 14 causes the UI unit 72 to display the information regarding the cooperation function as the information regarding the cooperation function candidate in accordance with the priority order.

例えば図41(b)に示すように、端末装置14の制御部74は、UI部72に連携機能候補に関する情報を表示させる。「スキャン機能」と「画面表示機能」がその順番でユーザによって指定されているため、「スキャン機能」と「画像表示機能」を連携させることによって実行される連携機能「スキャン転送表示機能」に関する情報が、他の連携機能に関する情報よりも優先的に(例えば上位に)表示される。例えば、「スキャン機能」と「データ保存機能」を連携させることによって実行される連携機能「スキャン転送保存機能」に関する情報よりも、「スキャン転送表示機能」に関する情報が優先的に表示される。なお、スキャン転送表示機能は、複合機(B)によるスキャンによって生成されたデータをPC(A)に転送してPC(A)の画面に表示する機能である。スキャン転送保存機能は、複合機(B)によるスキャンによって生成されたデータをPC(A)に転送してPC(A)に保存する機能である。図41(b)に示す例では、各連携機能に関する情報として、各連携機能の説明文が表示されている。 For example, as shown in FIG. 41( b ), the control unit 74 of the terminal device 14 causes the UI unit 72 to display information regarding the cooperation function candidate. Information about the link function "scan transfer display function" that is executed by linking "scan function" and "image display function" because "scan function" and "screen display function" are specified by the user in that order However, it is displayed (for example, in a higher order) with priority over information about other cooperation functions. For example, the information about the “scan transfer display function” is preferentially displayed over the information about the cooperative function “scan transfer save function” executed by linking the “scan function” and the “data save function”. The scan transfer display function is a function of transferring data generated by scanning by the multifunction peripheral (B) to the PC (A) and displaying it on the screen of the PC (A). The scan transfer saving function is a function of transferring data generated by scanning by the multifunction peripheral (B) to the PC (A) and saving the data in the PC (A). In the example shown in FIG. 41(b), a description of each cooperation function is displayed as information about each cooperation function.

部分画像を用いた連携処理によると、連携対象の機器が複数の機能を有している場合に、機能が個別的に指定され、その指定された機能を利用する連携機能に関する情報が優先的に表示される。これにより、ユーザが利用するであろうと予測される連携機能が優先的に表示される。 According to the cooperation process using the partial image, when the device to be cooperated has a plurality of functions, the functions are individually specified, and the information about the cooperation function that uses the specified function is given priority. Is displayed. Thereby, the cooperation function predicted to be used by the user is preferentially displayed.

なお、連携機能は、機器の部分同士の組み合わせを利用する機能であってもよいし、機器の全体と機器の部分との組み合わせを利用する機能であってもよいし、機器の全体同士の組み合わせを利用する機能であってもよい。 Note that the cooperation function may be a function that uses a combination of device parts, a function that uses a combination of the entire device and device parts, or a combination of the entire devices. It may be a function of utilizing.

部分画像を用いた連携処理は、機能に紐付く機能画像が用いられる場合に適用されてもよい。例えば、機能画像内の位置に応じて異なる機能が割り当てられており、ユーザによって指定された位置に割り当てられている機能を利用する連携機能が特定される。 The cooperation process using the partial image may be applied when the functional image associated with the function is used. For example, different functions are assigned according to the position in the functional image, and the cooperation function that uses the function assigned to the position designated by the user is specified.

(部分画像を用いた連携処理の別の例)
以下、図42及び図43を参照して、部分画像を用いた連携処理の別の例について説明する。
(Another example of cooperative processing using partial images)
Hereinafter, another example of the cooperation process using the partial images will be described with reference to FIGS. 42 and 43.

図42には、デバイス機能管理テーブルの一例が示されている。このデバイス機能管理テーブルのデータは、デバイス機能管理情報40としてロボット装置10に記憶されている。デバイス機能管理テーブルにおいては、一例として、機器IDと、機器名(例えば機器の種類)を示す情報と、機器の部分の名称(例えば部分の種類)を示す情報と、その部分を識別するための部分識別情報としての部分IDと、その部分に割り当てられている機能(その部分が有する機能)を示す情報と、その部分に紐付く部分画像を識別するための部分画像IDと、が互いに対応付けられている。部分画像は、カメラによる撮影によって得られた機器の部分の外観を表わす画像である。もちろん、機器の部分を模式的に表す部分画像が、当該部分に対応付けられていてもよい。例えば、機器の部分毎に異なる機能が割り当てられている。 FIG. 42 shows an example of the device function management table. The data of the device function management table is stored in the robot apparatus 10 as the device function management information 40. In the device function management table, as an example, a device ID, information indicating a device name (for example, device type), information indicating a device part name (for example, device type), and a part for identifying the part. A partial ID as partial identification information, information indicating a function assigned to the part (a function of the part), and a partial image ID for identifying a partial image associated with the part are associated with each other. Has been. The partial image is an image representing the appearance of the portion of the device obtained by photographing with the camera. Of course, a partial image that schematically represents a device part may be associated with the part. For example, different functions are assigned to different parts of the device.

具体例を挙げて説明すると、PC(A)の表示部には画面表示機能が割り当てられており、その表示部に紐付く部分画像の部分画像IDには、画面表示機能を示す情報が対応付けられている。画面表示機能は、情報をPC(A)にて表示する機能である。PC(A)の本体部にはデータ保存機能が割り当てられており、その本体部に紐付く部分画像の部分画像IDには、データ保存機能を示す情報が対応付けられている。データ保存機能は、データをPC(A)に保存する機能である。 Explaining with a specific example, the screen display function is assigned to the display unit of the PC (A), and the information indicating the screen display function is associated with the partial image ID of the partial image associated with the display unit. Has been. The screen display function is a function of displaying information on the PC (A). A data storage function is assigned to the main body of the PC (A), and information indicating the data storage function is associated with the partial image ID of the partial image associated with the main body. The data saving function is a function of saving data in the PC (A).

また、複合機(B)の本体部にはプリント機能が割り当てられており、その本体部に紐付く部分画像の部分画像IDには、プリント機能を示す情報が対応付けられている。複合機(B)の読取部(例えば、複合機(B)の原稿カバーや原稿ガラスや自動原稿給紙装置に対応する部分)にはスキャン機能が割り当てられており、その読取部に紐付く部分画像の部分画像IDには、スキャン機能を示す情報が対応付けられている。複合機(B)の後処理装置にはステープル止め機能が割り当てられており、その後処理装置に紐付く部分画像の部分画像IDには、ステープル止め機能を示す情報が対応付けられている。ステープル止め機能は、出力された用紙をステープルによって綴じる機能である。 A print function is assigned to the main body of the multifunction peripheral (B), and the partial image ID of the partial image associated with the main body is associated with information indicating the print function. A scanning function is assigned to the reading unit of the multifunction device (B) (for example, a document cover of the multifunction device (B), a portion corresponding to a document glass, or an automatic document feeder), and a portion associated with the reading unit. Information indicating the scan function is associated with the partial image ID of the image. A stapling function is assigned to the post-processing device of the multi-function peripheral (B), and information indicating the stapling function is associated with the partial image ID of the partial image that is subsequently associated with the processing device. The stapling function is a function of binding output sheets by stapling.

機器の部分に割り当てられている機能は、例えば、マーカレス型AR技術を用いることによって特定(識別)される。例えば、機器の部分がカメラ(例えばロボット装置10の視覚センサー)によって撮影された場合、ロボット装置10の識別部64は、デバイス機能管理テーブルにおいて、その外観画像データに対応付けられている機能を特定(識別)する。これにより、撮影された部分に割り当てられている機能が特定(識別)される。例えば、複合機(B)の本体部が視覚センサーによって撮影された場合、ロボット装置10の識別部64は、デバイス機能管理テーブルにおいて、その外観画像データに対応付けられているプリント機能を特定する。これにより、複合機(B)の本体部に割り当てられている機能がプリント機能であることが特定される。 The function assigned to the device part is specified (identified) by using, for example, the markerless AR technology. For example, when the device part is photographed by a camera (for example, the visual sensor of the robot device 10), the identification unit 64 of the robot device 10 identifies the function associated with the appearance image data in the device function management table. (Identify) As a result, the function assigned to the captured portion is specified (identified). For example, when the main body of the multifunction peripheral (B) is photographed by the visual sensor, the identification unit 64 of the robot apparatus 10 specifies the print function associated with the appearance image data in the device function management table. As a result, it is specified that the function assigned to the main body of the multifunction peripheral (B) is the print function.

もちろん、機器の部分に割り当てられている機能は、マーカ型AR技術を用いることによって特定(識別)されてもよい。例えば、機器の各部分に、部分を識別するための部分識別情報(例えば部分ID)がコード化された2次元バーコード等のマーカが設けられている。部分に設けられているマーカが視覚センサーによって撮影されてマーカ型AR技術が適用されると、その部分の部分識別情報(例えば部分ID)が取得される。このように部分識別情報が取得されると、ロボット装置10の識別部64は、デバイス機能管理テーブルにおいて、その部分識別情報(例えば部分ID)に対応付けられている機能を特定(識別)する。 Of course, the function assigned to the device part may be identified (identified) by using the marker type AR technology. For example, each part of the device is provided with a marker such as a two-dimensional barcode in which partial identification information (for example, partial ID) for identifying the part is coded. When the marker provided on the portion is photographed by the visual sensor and the marker type AR technique is applied, the partial identification information (for example, the partial ID) of the portion is acquired. When the partial identification information is acquired in this way, the identification unit 64 of the robot apparatus 10 identifies (identifies) the function associated with the partial identification information (for example, partial ID) in the device function management table.

図43には、連携機能管理テーブルの一例が示されている。この連携機能管理テーブルのデータは、連携機能管理情報42としてロボット装置10に記憶されている。この連携機能管理テーブルは、複数の部分が有する機能を利用する連携機能を示す情報であり、その連携機能管理テーブルにおいては、一例として、機器の部分の組み合わせを示す情報と、部分IDの組み合わせを示す情報と、その組み合わせに含まれる複数の部分が有する機能を利用する連携機能を示す情報と、が互いに対応付けられている。もちろん、連携機能管理テーブルにおいては、機器の部分と機器の全体との組み合わせを示す情報と、その機器の部分が有する機能と機器の全体が有する機能とを利用する連携機能を示す情報と、が対応付けられていてもよい。 FIG. 43 shows an example of the cooperation function management table. The data of this cooperation function management table is stored in the robot apparatus 10 as cooperation function management information 42. This cooperation function management table is information indicating cooperation functions that use functions of a plurality of parts. In the cooperation function management table, as an example, information indicating a combination of device parts and a combination of part IDs are combined. The information shown and the information showing the cooperation function that uses the functions of the plurality of parts included in the combination are associated with each other. Of course, in the cooperation function management table, there are information indicating a combination of a device part and the entire device, and information indicating a cooperation function using the function of the device part and the function of the entire device. It may be associated.

具体例を挙げて説明すると、PC(A)の表示部と複合機(B)の本体部との組み合わせには、連携機能としてのプリント機能が割り当てられており、PC(A)の表示部の部分IDと複合機(B)の本体部の部分IDとの組み合わせを示す情報には、連携機能としてのプリント機能を示す情報が対応付けられている。連携機能としてのプリント機能は、例えば、PC(A)に保存されているデータを複合機(B)に送信して、そのデータを複合機(B)によって印刷する機能である。 Explaining with a specific example, the print function as the cooperation function is assigned to the combination of the display unit of the PC (A) and the main body unit of the multi-function peripheral (B). The information indicating the combination of the partial ID and the partial ID of the main body of the multifunction peripheral (B) is associated with the information indicating the print function as the cooperation function. The print function as the cooperation function is, for example, a function of transmitting data stored in the PC (A) to the multi function peripheral (B) and printing the data by the multi function peripheral (B).

また、複合機(B)の本体部とプロジェクタ(C)の本体部との組み合わせには、連携機能としてのプリント機能が割り当てられており、複合機(B)の本体部の部分IDとプロジェクタ(C)の本体部の部分IDとの組み合わせを示す情報には、連携機能としてのプリント機能を示す情報が対応付けられている。連携機能としてのプリント機能は、例えば、プロジェクタ(C)によって投影されているデータを複合機(B)に送信して、そのデータを複合機(B)によって印刷する機能である。 Further, a print function as a cooperation function is assigned to a combination of the main body of the multifunction peripheral (B) and the main body of the projector (C), and the partial ID of the main body of the multifunction peripheral (B) and the projector ( The information indicating the combination with the partial ID of the main body portion in C) is associated with the information indicating the print function as the cooperation function. The print function as the cooperation function is, for example, a function of transmitting the data projected by the projector (C) to the multifunction peripheral (B) and printing the data by the multifunction peripheral (B).

また、複合機(B)の読取部とプロジェクタ(C)の本体部との組み合わせには、連携機能としてのスキャン投影機能が割り当てられており、複合機(B)の読取部の部分IDとプロジェクタ(C)の本体部の部分IDとの組み合わせを示す情報には、連携機能としてのスキャン投影機能を示す情報が対応付けられている。連携機能としてのスキャン投影機能は、例えば、複合機(B)によるスキャンによって生成されたデータをプロジェクタ(C)に送信して、そのデータをプロジェクタ(C)によって投影する機能である。 Further, the scan projection function as the cooperation function is assigned to the combination of the reading unit of the multifunction peripheral (B) and the main body of the projector (C), and the partial ID of the reading unit of the multifunction peripheral (B) and the projector The information indicating the combination with the partial ID of the main body portion in (C) is associated with the information indicating the scan projection function as the cooperation function. The scan projection function as the cooperation function is, for example, a function of transmitting data generated by scanning by the multifunction peripheral (B) to the projector (C) and projecting the data by the projector (C).

なお、連携機能は、同一の機器に含まれる複数の部分が有する機能を利用する機能であってもよいし、互いに異なる複数の機器の部分が有する機能を利用する機能であってもよい。また、連携機能は、3つ以上の部分が有する機能を利用する機能であってもよい。 The cooperation function may be a function that uses a function of a plurality of parts included in the same device, or may be a function that uses a function of a part of a plurality of different devices. Further, the cooperation function may be a function that uses a function of three or more parts.

例えば、マーカ型AR技術又はマーカレス型AR技術を利用して、機器の複数の部分(例えば、互いに異なる複数の機器の複数の部分や、同一機器の複数の部分)が特定(識別)されると、ロボット装置10の識別部64は、連携機能管理テーブルにおいて、識別された複数の部分の組み合わせに対応付けられている連携機能を特定(識別)する。これにより、識別(例えば撮影)された複数の部分が有する機能を利用する連携機能が特定(識別)される。例えば、複合機(B)の本体部とプロジェクタ(C)の本体部が識別された場合、ロボット装置10は、連携機能管理テーブルにおいて、複合機(B)の本体部とプロジェクタ(C)の本体部の組み合わせに対応付けられている連携機能としてのプリント機能等を特定する。 For example, when a plurality of parts of a device (for example, a plurality of parts of different devices or a plurality of parts of the same device) are identified (identified) by using the marker type AR technology or the markerless type AR technology. The identification unit 64 of the robot apparatus 10 identifies (identifies) the cooperation function associated with the combination of the identified plurality of parts in the cooperation function management table. As a result, the cooperation function that uses the function of the plurality of identified (for example, photographed) portions is specified (identified). For example, when the main body of the multifunction peripheral (B) and the main body of the projector (C) are identified, the robot apparatus 10 uses the main body of the multifunction peripheral (B) and the main body of the projector (C) in the cooperation function management table. A print function or the like as a cooperation function associated with the combination of sets is specified.

(機器画像の重ね合わせによる連携対象の機器の指定)
複数の機器画像を重ね合わせることによって、連携対象の機器群が指定されてもよい。以下、図44及び図45を参照して、この処理について説明する。図44及び図45には、端末装置14のUI部72に表示される画面の一例が示されている。
(Specify the device to be linked by superimposing device images)
A device group to be linked may be designated by superimposing a plurality of device images. This process will be described below with reference to FIGS. 44 and 45. 44 and 45 show an example of a screen displayed on the UI unit 72 of the terminal device 14.

例えば、複合機(B)とPC(A)が識別されているものとする。上記のユーザ判断モード1においては、図44(a)に示すように、端末装置14のUI部72には、識別された機器に紐付く機器画像102,130が、状況情報として表示される。この状態で、ユーザが指示子(例えばユーザの指、ペン、スタイラス等)を用いて第1機器に紐付く機器画像を、連携先の機器(第2機器)に紐付く機器画像に重ね合わせる。例えば、図44(b)に示すように、ユーザが操作子を用いて機器画像102を指定し、矢印138で示すように、その機器画像102を機器画像130に重ね合わせる。例えば、ドラッグ&ドロップ操作によって機器画像同士を重ね合わせる。つまり、ユーザは機器画像102をドラッグ操作し、機器画像130に重なる位置で機器画像102をドロップ操作する。このドラッグ&ドロップ操作自体は、例えば公知の技術である。なお、ユーザの音声指示に従って、重ね合わせる機器画像が指定されてもよい。例えば、ユーザの音声指示に従って、機器画像102,130が重ね合わせ対象の機器画像として指定され、それらが重ねられてもよい。 For example, it is assumed that the multifunction peripheral (B) and the PC (A) are identified. In the user determination mode 1 described above, as shown in FIG. 44A, the device images 102 and 130 associated with the identified device are displayed on the UI unit 72 of the terminal device 14 as status information. In this state, the user uses the indicator (for example, the user's finger, pen, stylus, etc.) to superimpose the device image associated with the first device on the device image associated with the device (second device) of the cooperation destination. For example, as shown in FIG. 44( b ), the user specifies the device image 102 using the operator and superimposes the device image 102 on the device image 130 as indicated by an arrow 138. For example, the device images are superimposed on each other by a drag and drop operation. That is, the user drags the device image 102 and drops the device image 102 at a position overlapping the device image 130. The drag and drop operation itself is a known technique, for example. Note that the device image to be superimposed may be designated according to the voice instruction from the user. For example, the device images 102 and 130 may be designated as the device images to be overlaid according to the voice instruction of the user, and they may be overlaid.

機器画像102,130を互いに重ね合わせることにより、機器画像102に紐付く複合機(B)と機器画像130に紐付くPC(A)が、連携対象の機器として指定される。 By superimposing the device images 102 and 130 on each other, the multifunction machine (B) associated with the device image 102 and the PC (A) associated with the device image 130 are designated as cooperation target devices.

なお、端末装置14の制御部74は、ドラッグ操作中の機器画像を識別可能な表示態様でUI部72に表示させてもよい。例えば、ドラッグ操作中の機器画像を半透明に表示したり、特定の色で表示したりしてもよい。 The control unit 74 of the terminal device 14 may display the device image during the drag operation on the UI unit 72 in a display mode that allows the device image to be identified. For example, the device image during the drag operation may be displayed semitransparently or may be displayed in a specific color.

機器画像102が機器画像130に重ねられた場合において、PC(A)が複合機(B)と共に連携機能を実行することが可能な場合、図44(c)に示すように、端末装置14のUI部72に確認画面140が表示される。確認画面140は、連携対象の機器として指定された機器群を連携させるか否かを確認するための画面である。確認画面140において、連携指示がユーザによって与えられると(例えば「YES」ボタンがユーザによって押されると)、連携機能に関する情報が端末装置14のUI部72に表示される。 When the device image 102 is overlaid on the device image 130 and the PC (A) can execute the cooperation function together with the multifunction device (B), as shown in FIG. The confirmation screen 140 is displayed on the UI unit 72. The confirmation screen 140 is a screen for confirming whether or not to cooperate with the device group designated as the cooperation target device. On the confirmation screen 140, when a cooperation instruction is given by the user (for example, the “YES” button is pressed by the user), information regarding the cooperation function is displayed on the UI unit 72 of the terminal device 14.

例えば図45(a)に示すように、端末装置14の制御部74は、UI部72に連携機能候補に関する情報を表示させる。PC(A)と複合機(B)を連携させることにより、例えば、「スキャン転送機能」と「印刷機能」が実現されるため、UI部72には、「スキャン転送機能」に関する情報と「印刷機能」に関する情報が表示される。 For example, as shown in FIG. 45(a), the control unit 74 of the terminal device 14 causes the UI unit 72 to display information regarding the cooperation function candidate. By linking the PC (A) and the multi-function peripheral (B), for example, the "scan transfer function" and the "print function" are realized. Therefore, in the UI unit 72, the information about the "scan transfer function" and the "print function" are displayed. Information about "features" is displayed.

連携機能がユーザによって指定されて実行指示が与えられると、端末装置14から連携対象の機器に対して接続要求が行われる。図45(b)に示すように、その接続要求の間、端末装置14のUI部72には待機画面が表示される。端末装置14と連携対象の機器との接続が成功すると、指定された連携機能が実行される。 When the cooperation function is designated by the user and an execution instruction is given, the terminal device 14 makes a connection request to the cooperation target device. As shown in FIG. 45(b), a standby screen is displayed on the UI unit 72 of the terminal device 14 during the connection request. When the connection between the terminal device 14 and the device to be cooperated with is successful, the specified cooperation function is executed.

以上のように、機器に紐付いた機器画像同士を重ね合わせることにより、機器が有する機能を利用する連携機能が特定される。それ故、画像操作以外の操作を行わずに、機能を連携させることが可能となり、簡易な操作で機能が連携される。 As described above, by overlapping the device images associated with the device, the cooperation function that uses the function of the device is specified. Therefore, the functions can be linked without performing an operation other than the image operation, and the functions can be linked by a simple operation.

部分画像を機器画像又は部分画像に重ね合わせることで、連携機能が特定されてもよい。図46を参照して、この処理について説明する。図46には、端末装置14のUI部72に表示される画面の一例が示されている。 The cooperation function may be specified by superimposing the partial image on the device image or the partial image. This processing will be described with reference to FIG. FIG. 46 shows an example of a screen displayed on the UI unit 72 of the terminal device 14.

上述した部分画像を用いた連携処理と同様に、機器に紐付く機器画像内の位置に応じて、機器が有する機能が異なっている。機器画像内の部分画像を、同一又は異なる機器画像内の部分画像に重ね合わせることにより、両部分画像に紐付く機能を利用する連携機能が特定される。以下、この処理について詳しく説明する。 Similar to the above-described cooperation process using the partial image, the function possessed by the device differs depending on the position in the device image associated with the device. By superimposing the partial images in the device image on the partial images in the same or different device images, the cooperation function that uses the function associated with both partial images is specified. Hereinafter, this process will be described in detail.

例えば、複合機(B)とPC(A)が識別されているものとする。上記のユーザ判断モード1においては、図46(a)に示すように、端末装置14のUI部72には、機器画像102,130が、状況情報として表示される。例えば、部分画像102a,102b,102c,130a,130bは他の部分画像から分離して個別的に移動可能な画像として表示されている。 For example, it is assumed that the multifunction peripheral (B) and the PC (A) are identified. In the user determination mode 1 described above, as shown in FIG. 46A, the device images 102 and 130 are displayed as status information on the UI unit 72 of the terminal device 14. For example, the partial images 102a, 102b, 102c, 130a, and 130b are displayed as images that can be individually moved separately from the other partial images.

部分画像がユーザによって指定されて、その部分画像が他の部分画像に重ねられると、それら両部分画像に紐付く機能を利用する連携機能が特定され、その連携機能に関する情報が端末装置14のUI部72に表示される。 When a partial image is designated by the user and the partial image is overlaid on another partial image, a cooperation function that uses the function associated with both partial images is specified, and information regarding the cooperation function is displayed on the UI of the terminal device 14. It is displayed on the section 72.

例えば、図46(b)中の矢印142で示すように、ユーザが操作子を用いて、部分画像102bをドラッグ操作して部分画像130bに重ねてドロップ操作を行った場合、部分画像102bを含む機器画像102に紐付く複合機(B)と部分画像130bを含む機器画像130に紐付くPC(A)が、連携対象の機器として指定されるとともに、部分画像102bに割り当てられている「スキャン機能」と部分画像130bに割り当てられている「画面表示機能」が連携対象の機能として指定される。 For example, as shown by an arrow 142 in FIG. 46(b), when the user performs a drag operation on the partial image 102b using the manipulator to perform a drop operation on the partial image 130b, the partial image 102b is included. The multifunction device (B) associated with the device image 102 and the PC (A) associated with the device image 130 including the partial image 130b are designated as devices to be linked, and the "scan function" is assigned to the partial image 102b. ", and the "screen display function" assigned to the partial image 130b is designated as the function to be linked.

ロボット装置10においては、部分画像に割り当てられている機能が管理されている。例えば、部分画像を識別するための識別情報と、部分画像に対応付けられている機能を示す機能情報と、機能を連携させることによって実行される連携機能を示す連携機能情報と、が対応付けられてロボット装置10に記憶されている。部分画像が選択されて他の部分画像に重ねられると、それらの部分画像を示す識別情報が、端末装置14からロボット装置10に送信される。図46(b)に示す例では、部分画像102b,130bをそれぞれ示す識別情報が端末装置14からロボット装置10に送信される。ロボット装置10の識別部64は、その識別情報に基づいて、重ねられた部分画像102b,130bのそれぞれに割り当てられている機能を特定し、その機能を利用する連携機能を特定する。その連携機能に関する情報は、ロボット装置10から端末装置14に送信されて表示される。 In the robot device 10, the functions assigned to the partial images are managed. For example, identification information for identifying a partial image, function information indicating a function associated with the partial image, and cooperative function information indicating a cooperative function executed by linking the functions are associated with each other. Are stored in the robot device 10. When the partial images are selected and overlaid on the other partial images, the identification information indicating the partial images is transmitted from the terminal device 14 to the robot device 10. In the example illustrated in FIG. 46B, the identification information indicating the partial images 102b and 130b is transmitted from the terminal device 14 to the robot device 10. The identification unit 64 of the robot apparatus 10 identifies the function assigned to each of the overlapped partial images 102b and 130b based on the identification information, and identifies the cooperation function that uses the function. Information regarding the cooperation function is transmitted from the robot device 10 to the terminal device 14 and displayed.

以上の処理によると、連携対象の機器が複数の機能を有している場合に、機能が個別的に指定され、この指定された機能を利用する連携機能に関する情報が優先的に表示される。これにより、ユーザが利用するであろうと予測される連携機能が優先的に表示される。 According to the above processing, when the device to be linked has a plurality of functions, the function is individually designated, and information regarding the linked function that uses the designated function is preferentially displayed. Thereby, the cooperation function predicted to be used by the user is preferentially displayed.

また、部分画像を重ね合わせる順番に応じて、連携機能の表示の優先順位が変更されてもよい。この場合、重ねられた部分画像に紐付く機能を利用する連携機能に関する情報が優先的に表示される。 Further, the display priority of the cooperation function may be changed according to the order in which the partial images are superimposed. In this case, information regarding the cooperation function that uses the function associated with the overlapped partial images is preferentially displayed.

上記のロボット装置10及び端末装置14のそれぞれは、一例としてハードウェアとソフトウェアとの協働により実現される。具体的には、ロボット装置10及び端末装置14のそれぞれは、図示しないCPU等の1又は複数のプロセッサを備えている。当該1又は複数のプロセッサが、図示しない記憶装置に記憶されたプログラムを読み出して実行することにより、ロボット装置10及び端末装置14の各部の機能が実現される。上記プログラムは、CDやDVD等の記録媒体を経由して、又は、ネットワーク等の通信経路を経由して、記憶装置に記憶される。別の例として、ロボット装置10及び端末装置14のそれぞれの各部は、例えばプロセッサや電子回路やASIC(Application Specific Integrated Circuit)等のハードウェア資源により実現されてもよい。その実現においてメモリ等のデバイスが利用されてもよい。更に別の例として、ロボット装置10及び端末装置14のそれぞれの各部は、DSP(Digital Signal Processor)やFPGA(Field Programmable Gate Array)等によって実現されてもよい。 Each of the robot device 10 and the terminal device 14 described above is realized, for example, by cooperation of hardware and software. Specifically, each of the robot device 10 and the terminal device 14 includes one or a plurality of processors such as a CPU (not shown). The functions of the respective units of the robot device 10 and the terminal device 14 are realized by the one or more processors reading and executing the program stored in the storage device (not shown). The program is stored in the storage device via a recording medium such as a CD or a DVD or via a communication path such as a network. As another example, the respective units of the robot device 10 and the terminal device 14 may be realized by hardware resources such as a processor, an electronic circuit, and an ASIC (Application Specific Integrated Circuit). A device such as a memory may be used in the realization thereof. As still another example, the respective units of the robot device 10 and the terminal device 14 may be realized by a DSP (Digital Signal Processor), an FPGA (Field Programmable Gate Array), or the like.

10 ロボット装置、12 機器、14 端末装置、34 所有機能管理情報、36 非所有機能管理情報、38 解決手段管理情報、40 デバイス機能管理情報、42 連携機能管理情報、44 状況収集部、46 移動部、48 作業部、54 制御部、56 検知部、58 解決手段特定部、60 判断部、62 検索部、64 識別部。 10 robot device, 12 devices, 14 terminal device, 34 owned function management information, 36 non-owned function management information, 38 solution means management information, 40 device function management information, 42 cooperative function management information, 44 status collection unit, 46 moving unit , 48 working unit, 54 control unit, 56 detecting unit, 58 solving means specifying unit, 60 determining unit, 62 searching unit, 64 identifying unit.

Claims (6)

周囲の状況を検知する検知手段と、
自装置の機能だけでは前記状況の問題を解決することができない場合、前記状況に関する情報を、前記状況の問題が生じていると想定されるユーザの端末装置として識別された端末装置送信するための制御を行う制御手段と、
を有し、
前記制御手段は、前記状況に関する情報ではユーザが前記状況を理解することができない旨を示す情報を受けた場合、ユーザが追加情報を入力するための画面の表示を制御する、
情報処理装置。
Detection means to detect the surrounding situation,
To send information about the situation to a terminal device identified as the user 's terminal device assumed to have the situation problem, when the function of the own device cannot solve the situation problem. Control means for controlling
Have
The control means controls the display of a screen for the user to input additional information when receiving information indicating that the user cannot understand the situation based on the information on the situation,
Information processing device.
前記追加情報は、ユーザの要求に関する情報である、
ことを特徴とする請求項1に記載の情報処理装置。
The additional information is information regarding a user request,
The information processing apparatus according to claim 1, wherein:
前記制御手段は、前記要求に応じた情報を収集し、その情報の表示を制御する、
ことを特徴とする請求項2に記載の情報処理装置。
The control means collects information according to the request and controls display of the information,
The information processing apparatus according to claim 2, wherein:
前記制御手段は、更に、
自装置の周囲に存在する機器の画像を前記端末装置に送信し、
前記機器の画像は、前記端末装置に表示される、
ことを特徴とする請求項1から請求項3のいずれか一項に記載の情報処理装置。
The control means further comprises
Send an image of the device around the device to the terminal device,
The image of the device is displayed on the terminal device,
The information processing apparatus according to any one of claims 1 to 3, characterized in that .
前記制御手段は、更に、
前記機器の画像が前記ユーザによって指定され、前記状況の問題を解決するための解決手段の実行の指示が前記ユーザによって与えられた場合、その実行の指示を前記機器に送信する、
ことを特徴とする請求項4に記載の情報処理装置。
The control means further comprises
When an image of the device is designated by the user and an instruction to execute a solution for solving the problem in the situation is given by the user, the instruction to execute the device is transmitted to the device,
The information processing apparatus according to claim 4, wherein:
コンピュータを、
周囲の状況を検知する検知手段、
情報処理装置の機能だけでは前記状況の問題を解決することができない場合、前記状況に関する情報を、前記状況の問題が生じていると想定されるユーザの端末装置として識別された端末装置送信するための制御を行う制御手段、
として機能させ、
前記制御手段は、前記状況に関する情報ではユーザが前記状況を理解することができない旨を示す情報を受けた場合、ユーザが追加情報を入力するための画面の表示を制御する、
プログラム。
Computer,
Detection means to detect the surrounding situation,
When the function of the information processing device alone cannot solve the situation problem, the information on the situation is transmitted to the terminal device identified as the terminal device of the user assumed to have the situation problem. Control means for performing control for
Function as
The control means controls the display of a screen for the user to input additional information when receiving information indicating that the user cannot understand the situation based on the information on the situation,
program.
JP2018208458A 2018-11-05 2018-11-05 Information processing device and program Active JP6721023B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018208458A JP6721023B2 (en) 2018-11-05 2018-11-05 Information processing device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018208458A JP6721023B2 (en) 2018-11-05 2018-11-05 Information processing device and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017002408A Division JP6439806B2 (en) 2016-10-19 2017-01-11 Robot apparatus and program

Publications (2)

Publication Number Publication Date
JP2019077033A JP2019077033A (en) 2019-05-23
JP6721023B2 true JP6721023B2 (en) 2020-07-08

Family

ID=66626162

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018208458A Active JP6721023B2 (en) 2018-11-05 2018-11-05 Information processing device and program

Country Status (1)

Country Link
JP (1) JP6721023B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021064784A1 (en) 2019-09-30 2021-04-08 シャープNecディスプレイソリューションズ株式会社 Facility management device, facility management method, and program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003291083A (en) * 2002-03-28 2003-10-14 Toshiba Corp Robot device, robot controlling method, and robot delivery system
JP2005111637A (en) * 2003-10-10 2005-04-28 Ntt Data Corp Network robot service system
JP6069607B2 (en) * 2013-03-26 2017-02-01 株式会社国際電気通信基礎技術研究所 Robot service linkage system and platform

Also Published As

Publication number Publication date
JP2019077033A (en) 2019-05-23

Similar Documents

Publication Publication Date Title
JP6439806B2 (en) Robot apparatus and program
US10987804B2 (en) Robot device and non-transitory computer readable medium
US10495878B2 (en) Mobile terminal and controlling method thereof
US20210321010A1 (en) Information processing device and non-transitory computer readable medium
US10922029B2 (en) Information processing device and non-transitory computer readable medium
JP6179653B1 (en) Information processing apparatus and program
US11514705B2 (en) Information processing apparatus and non-transitory computer readable medium to allow operation without contact
JP6981118B2 (en) Information processing equipment, programs and control methods
US10567608B2 (en) Information processing apparatus and non-transitory computer readable medium
JPWO2019155735A1 (en) Information processing equipment, information processing methods and programs
US11223729B2 (en) Information processing apparatus and non-transitory computer readable medium for instructing an object to perform a specific function
JP6721023B2 (en) Information processing device and program
JP2019050519A (en) Information processing apparatus and program
WO2019138661A1 (en) Information processing device and information processing method
JP6721024B2 (en) Information processing device and program
JP2021013159A (en) Information processing apparatus, telepresence robot, site control system, remote control system, information processing method, and program
JP2019159848A (en) Information processing device and program
JP2022014758A (en) Information processing device and program
KR101666488B1 (en) System and method for managing action block for autonomous movement of robot
JP2019040468A (en) Information processing apparatus and program
JP7119445B2 (en) Information processing device and program
US10792819B2 (en) Information processing apparatus and non-transitory computer readable medium
JP2019053426A (en) Information processing device and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181105

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200128

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200325

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200519

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200601

R150 Certificate of patent or registration of utility model

Ref document number: 6721023

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350