JP5233768B2 - COMMUNICATION SUPPORT SYSTEM, DISPLAY CONTROL DEVICE, AND DISPLAY CONTROL METHOD - Google Patents
COMMUNICATION SUPPORT SYSTEM, DISPLAY CONTROL DEVICE, AND DISPLAY CONTROL METHOD Download PDFInfo
- Publication number
- JP5233768B2 JP5233768B2 JP2009065684A JP2009065684A JP5233768B2 JP 5233768 B2 JP5233768 B2 JP 5233768B2 JP 2009065684 A JP2009065684 A JP 2009065684A JP 2009065684 A JP2009065684 A JP 2009065684A JP 5233768 B2 JP5233768 B2 JP 5233768B2
- Authority
- JP
- Japan
- Prior art keywords
- video
- unit
- display
- moving body
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Description
本発明は、コミュニケーション支援システム、表示制御装置および表示制御方法に関する。 The present invention relates to a communication support system, a display control device, and a display control method.
音声や映像などのメディアを用いた遠隔コミュニケーションにおいて、実際にコミュニケーションを行う人の身体に関する情報がコミュニケーションするそれぞれの空間において欠如するために生じる問題が従来から存在していた。例えば、単純にカメラで撮影されている映像が遠隔の場に送信されたとしても、そのカメラを動かすことができないために遠隔の場のユーザが見ることができる範囲が制限されたり、遠隔ユーザの身体の向きや姿勢等によって表現されている非言語的情報を的確に送受信することができず自然なコミュニケーションを行うことが困難であるという問題がある。 In remote communication using media such as voice and video, there has conventionally been a problem caused by lack of information about the body of a person who actually communicates in each space where communication is performed. For example, even if an image captured by a camera is simply transmitted to a remote field, the camera cannot be moved, so that the range that can be viewed by a remote field user is limited, There is a problem that it is difficult to perform natural communication because it is impossible to accurately transmit and receive non-verbal information expressed by the orientation and posture of the body.
このような問題を解決する方法として、遠隔ユーザの分身として動作する移動体であるロボットを用いたロボットシステムが提案されている(例えば、特許文献1、2)。これらのシステムでは、重要な非言語表現を行うため、ロボットとして動作可能な身体とともに参加者の表情を表示するディスプレイを備えている。これにより、遠隔の場にいるユーザから発せられた情報をより多く伝達することができる。
As a method for solving such a problem, a robot system using a robot that is a moving body that operates as a substitute for a remote user has been proposed (for example,
しかし、上記特許文献1、2に記載のシステムでは、ユーザの表情を表示するためのディスプレイがロボットに搭載されており、またそのディスプレイが通常使用されている平面の画像を表示するディスプレイであるため、実際にはディスプレイに提示される表情を見ることができる範囲が制限されるという問題があった。このため、ある場所にいるユーザはディスプレイに表示された画像を見ることができるが、他の場所のユーザにはその画像が見づくなっていた。また、ディスプレイをロボットに搭載するためディスプレイのサイズに制限が生じ、結果ディスプレイに表示されたロボットを操作するユーザの表情を十分に視認することができないという問題もあった。
However, in the systems described in
そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、移動体の動きとともに移動体を操作するユーザの映像を多くのユーザが視認することが可能な、新規かつ改良されたコミュニケーション支援システム、表示制御装置および表示制御方法を提供することにある。 Therefore, the present invention has been made in view of the above problems, and an object of the present invention is to enable many users to visually recognize a video of a user who operates the moving body along with the movement of the moving body. Another object of the present invention is to provide a new and improved communication support system, display control apparatus, and display control method.
上記課題を解決するために、本発明のある観点によれば、遠隔操作可能な移動体を操作するリモート拠点のユーザと移動体が存在する遠隔拠点のユーザとのコミュニケーションを支援するコミュニケーション支援システムが提供される。かかるコミュニケーション支援システムは、リモート拠点から遠隔拠点に配置された移動体を操作する操作部と、リモート拠点にて移動体を操作するユーザを撮像する撮像部と、遠隔拠点に設けられ、撮像部により撮像された映像を、移動体が移動する移動面を含む表示面に表示する表示部と、表示面における移動体の位置を検出する位置検出部と、位置検出部により検出された移動体の位置に基づいて表示面に表示される映像の表示方法を制御する映像制御部と、を備える。映像制御部は、撮像部により撮像された映像を、表示面のうち移動体近傍の表示面に表示する。 In order to solve the above-described problem, according to an aspect of the present invention, there is provided a communication support system that supports communication between a user at a remote site that operates a remotely operable mobile body and a user at a remote site where the mobile body exists. Provided. Such a communication support system includes an operation unit that operates a moving body arranged from a remote site to a remote site, an imaging unit that images a user who operates the moving body at the remote site, and a remote site, A display unit that displays a captured image on a display surface including a moving surface on which the moving body moves, a position detection unit that detects the position of the moving body on the display surface, and a position of the moving body detected by the position detection unit And a video control unit that controls a display method of the video displayed on the display surface. The video control unit displays the video imaged by the imaging unit on a display surface in the vicinity of the moving body among the display surfaces.
本発明によれば、遠隔拠点のユーザは、リモート拠点のユーザにより操作されて遠隔拠点で動作する移動体の動作からリモート拠点のユーザの非言語的感情を認識するとともに、リモート拠点のユーザの映像を目視してリモート拠点のユーザの表情を認識する。このとき、遠隔拠点に表示されるリモート拠点のユーザの映像を、移動体が移動する移動面を含む表示面に表示する。これにより、より多くの遠隔拠点のユーザが映像を目視することができる。また、映像を移動体の近傍の表示面に表示させることにより、遠隔拠点のユーザが移動体と映像との双方を一度に把握しやすくなる。 According to the present invention, the user at the remote site recognizes the non-verbal feelings of the user at the remote site from the operation of the mobile body operated by the user at the remote site and operates at the remote site, and the video of the user at the remote site. To recognize the facial expression of the user at the remote site. At this time, the video of the user at the remote site displayed at the remote site is displayed on the display surface including the moving surface on which the moving body moves. As a result, more remote users can view the video. Further, by displaying the video on the display surface in the vicinity of the moving body, a user at a remote site can easily grasp both the moving body and the video at a time.
ここで、映像制御部は、映像を、移動体の動きに追従させて移動体近傍の表示面に表示するようにしてもよい。これにより、ユーザが移動体の動きを追って視線を移動させたときにも、映像も移動体の動きに追従するため、移動体と映像との双方を一度に把握することができる。 Here, the video control unit may display the video on a display surface in the vicinity of the moving body, following the movement of the moving body. Thereby, even when the user moves the line of sight following the movement of the moving body, the image also follows the movement of the moving body, so that both the moving body and the image can be grasped at a time.
また、映像制御部は、映像を、表示面における移動体の位置と表示面の境界との距離が最大となる方向に表示してもよい。これにより、映像を表示する領域を大きく確保することができる。 The video control unit may display the video in a direction in which the distance between the position of the moving body on the display surface and the boundary of the display surface is maximized. Thereby, a large area for displaying an image can be secured.
さらに、コミュニケーション支援システムに、リモート拠点にて移動体を操作するユーザの音声を入力する音声入力部と、音声入力部に入力された音声を解析する音声解析部と、を備えることもできる。このとき、映像制御部は、音声解析部による音声の解析結果に基づいて、映像の表示方法を変更する。これにより、話者の存在感も表現することが可能となる。 Furthermore, the communication support system may include a voice input unit that inputs a voice of a user who operates the moving body at a remote site, and a voice analysis unit that analyzes the voice input to the voice input unit. At this time, the video control unit changes the video display method based on the audio analysis result by the audio analysis unit. This makes it possible to express the presence of the speaker.
例えば、映像制御部は、移動体が所定時間以上動作していないか否かを判定し、移動体が所定時間以上動作していない場合、音声解析部による音声の解析結果により移動体を操作するユーザが発話しているか否かを判定するようにしてもよい。そして、ユーザが発話していると判定した場合、映像を表示する映像サイズを拡大する。これにより、移動体を操作するユーザが発話に集中して移動体の操作を停止していた場合にも、当該ユーザの映像のサイズが拡大されることにより、話者であるユーザの存在感をアピールすることができる。 For example, the video control unit determines whether or not the moving body has not operated for a predetermined time or more, and when the moving body has not operated for a predetermined time or more, operates the moving body based on the analysis result of the sound by the sound analysis unit. It may be determined whether or not the user is speaking. When it is determined that the user is speaking, the video size for displaying the video is enlarged. As a result, even when the user who operates the mobile body concentrates on the speech and stops the operation of the mobile body, the user's presence is increased by increasing the size of the video of the user. Can appeal.
あるいは、映像制御部は、音声解析部により解析された音声の大きさに基づいて、表示部に表示する映像のサイズを変更するようにしてもよい。これにより、話者の発言の内容の強さ等も表現することができる。 Alternatively, the video control unit may change the size of the video displayed on the display unit based on the volume of the audio analyzed by the audio analysis unit. Thereby, the strength of the content of the speaker's speech can be expressed.
また、映像制御部は、表示面の境界内に収めるように映像サイズを調整してもよい。これにより、映像が確実に表示面の境界内に表示されるので、見やすい映像をユーザに提供することができる。 Further, the video control unit may adjust the video size so as to be within the boundary of the display surface. Thereby, since the video is surely displayed within the boundary of the display surface, it is possible to provide an easy-to-view video to the user.
表示部は、例えば、映像を投射する映像投射部と、映像投射部から投射された映像が表示される表示面とから構成することもできる。 A display part can also be comprised from the video projection part which projects an image | video, and the display surface on which the image | video projected from the video projection part is displayed, for example.
また、上記課題を解決するために、本発明の別の観点によれば、遠隔拠点に配置された遠隔操作可能な移動体を操作するリモート拠点のユーザの映像を、遠隔拠点の表示部の表示面に表示させる表示制御装置が提供される。かかる表示制御装置は、移動体が移動する移動面を含む表示面における移動体の位置を検出する位置検出部と、位置検出部により検出された移動体の位置に基づいて、移動面を含む表示面に表示する映像の表示方法を制御する映像表示部と、を備える。映像制御部は、映像を、表示面のうち移動体近傍の表示面に表示する。 In order to solve the above-described problem, according to another aspect of the present invention, an image of a user at a remote site that operates a remotely operable mobile unit arranged at a remote site is displayed on a display unit at the remote site. A display control device for displaying on a surface is provided. Such a display control device includes a position detection unit that detects a position of a moving body on a display surface including a moving surface on which the moving body moves, and a display that includes the moving surface based on the position of the moving body detected by the position detection unit. A video display unit for controlling a display method of the video displayed on the screen. The video control unit displays the video on a display surface in the vicinity of the moving body among the display surfaces.
さらに、上記課題を解決するために、本発明の別の観点によれば、遠隔拠点に配置された遠隔操作可能な移動体を操作するリモート拠点のユーザの映像を、遠隔拠点の表示部の表示面に表示する表示制御方法が提供される。かかる表示制御方法は、遠隔拠点に配置された移動体を操作する操作情報を、リモート拠点の操作部から入力するステップと、リモート拠点にて移動体を操作するユーザを撮像するステップと、リモート拠点のユーザの映像を、遠隔拠点に設けられた表示部の表示面に表示するステップと、移動体が移動する移動面を含む表示面における移動体の位置を検出するステップと、移動体の位置に基づいて、撮像部により撮像された映像を、表示面のうち移動体近傍の表示面に表示するステップと、を含む。 Furthermore, in order to solve the above-described problem, according to another aspect of the present invention, an image of a user at a remote site who operates a remotely operable mobile body arranged at a remote site is displayed on a display unit at the remote site. A display control method for displaying on a surface is provided. Such a display control method includes a step of inputting operation information for operating a mobile unit located at a remote site from an operation unit at the remote site, a step of imaging a user operating the mobile unit at the remote site, Displaying the video of the user on the display surface of the display unit provided at the remote base, detecting the position of the moving object on the display surface including the moving surface on which the moving object moves, and the position of the moving object And displaying a video imaged by the imaging unit on a display surface in the vicinity of the moving body in the display surface.
以上説明したように本発明によれば、移動体の動きとともに移動体を操作するユーザの映像を多くのユーザが視認することが可能なコミュニケーション支援システム、表示制御装置および表示制御方法を提供することができる。 As described above, according to the present invention, it is possible to provide a communication support system, a display control apparatus, and a display control method that enable many users to visually recognize a video of a user who operates a moving body along with the movement of the moving body. Can do.
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。 Exemplary embodiments of the present invention will be described below in detail with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, duplication description is abbreviate | omitted by attaching | subjecting the same code | symbol.
(第1の実施形態)
<コミュニケーション支援システムの概略>
まず、図1に基づいて、本実施形態にかかるコミュニケーション支援システムの概略について説明する。なお、図1は、本実施形態にかかるコミュニケーション支援システムの概略を示す説明図である。
(First embodiment)
<Outline of communication support system>
First, based on FIG. 1, the outline of the communication assistance system concerning this embodiment is demonstrated. FIG. 1 is an explanatory diagram showing an outline of the communication support system according to the present embodiment.
本実施形態では、移動体であるロボット220を操作するユーザが存在するリモート拠点(拠点A)と、ロボット220が配置される遠隔のローカル拠点(拠点B)とに存在するユーザのコミュニケーションを支援するコミュニケーション支援システムについて説明する。コミュニケーション支援システムは、図1に示すように、ネットワーク10を介して接続された、リモート拠点およびローカル拠点に配置された構成要素を機能させることにより実現される。
In the present embodiment, communication of a user existing at a remote base (base A) where a user who operates the
リモート拠点には、ローカル拠点のロボット220を操作するユーザU1が存在する。ユーザU1は、操作部110を操作してロボット220の動きを操作する。ロボット220は、ローカル拠点を撮像するカメラを搭載している。ロボット220を動作させることで、ローカル拠点にある撮像対象を変化させることができ、また、カメラで取得する映像を変化させるためのロボット220の動きや向きが、ユーザU1の関心や興味を自然に表現することになる。
At the remote site, there is a user U1 who operates the
また、ユーザU1は、例えばカメラなどの表情映像取得部120により撮影されている。表情映像取得部120は、取得したユーザU1の表情映像を、後述する通信部およびネットワーク10を介して、ローカル拠点のシステム構成要素へ送信する。さらに、リモート拠点には、ロボット220に搭載されたカメラなどにより撮像されたローカル拠点に存在するユーザU2〜U4の表情映像を表示するための表示部140が設けられている。
Further, the user U1 is photographed by a facial expression
一方、ローカル拠点には、リモート拠点に存在するユーザU1に操作されるロボット220が配置される。ロボット220は、ユーザU1が操作部110を用いて入力した操作情報に基づいて動作する。これにより、ロボット220と同一空間に存在するユーザU2〜U4は、ロボット220の動きからユーザU1の興味関心を容易に理解することができる。なお、ユーザU2〜U4は、ロボット220が自律移動するものではなく、リモート拠点にいるユーザU1によってリモート操作されていることを認識しているものとする。
On the other hand, the
また、ローカル拠点では、リモート拠点のユーザU1の表情映像が、ロボット220が移動する移動面を含む表示面260に表示される。例えば、表示面260に対して上方からプロジェクタなどの映像投射装置252により表示面260へ映像が投射されることにより、表示面260に映像254が表示される。ローカル拠点に存在するユーザU2〜U4は、表示面260に表示されたユーザU1の映像254を視認することができる。
At the local site, the facial image of the user U1 at the remote site is displayed on the
このように、リモート拠点のユーザU1は、ローカル拠点に配置されたロボット220を動作させながら、ローカル拠点に存在するユーザU2〜U4とコミュニケーションを行う。
As described above, the user U1 at the remote base communicates with the users U2 to U4 existing at the local base while operating the
以上、本実施形態にかかるコミュニケーション支援システムの概略について説明した。以下、図2〜図5に基づいて、コミュニケーション支援システムの構成とその機能について詳細に説明していく。なお、図2は、本実施形態にかかるコミュニケーション支援システムの構成を示すブロック図である。図3Aおよび図3Bは、本実施形態における映像表示位置の算出方法を示すフローチャートである。図4は、本実施形態における映像表示位置の算出方法を説明するための説明図である。図5は、ロボット220の方向を説明するための説明図である。
The outline of the communication support system according to the present embodiment has been described above. Hereinafter, the configuration and functions of the communication support system will be described in detail with reference to FIGS. FIG. 2 is a block diagram showing the configuration of the communication support system according to the present embodiment. 3A and 3B are flowcharts showing a method for calculating the video display position in the present embodiment. FIG. 4 is an explanatory diagram for explaining a method of calculating a video display position in the present embodiment. FIG. 5 is an explanatory diagram for explaining the direction of the
<コミュニケーション支援システムの構成>
まず、図2に基づいて、コミュニケーション支援システムの構成を説明する。本実施形態にかかるコミュニケーション支援システムは、上述したように、リモート拠点のシステム構成要素群100と、ローカル拠点のシステム構成要素群200とがネットワーク10を介して接続されている。ネットワーク10は、インターネット網やLAN(Local Area Network)などの一般的なネットワークである。
<Configuration of communication support system>
First, the configuration of the communication support system will be described with reference to FIG. In the communication support system according to the present embodiment, as described above, the
リモート拠点のシステム構成要素群100は、図2に示すように、操作部110と、表情映像取得部120と、通信部130とからなる。
As shown in FIG. 2, the remote base
操作部110は、リモート拠点に存在するユーザがローカル拠点に配置されたロボット220を操作するための機能部である。操作部110は、ユーザによる操作からロボット220を操作する操作情報を含むデータを生成し、通信部130へ出力する。操作部110は、例えば、ジョイスティック型コントローラなどの物理的な装置として構成することもでき、コンピュータシステム上のGUI要素などソフトウェア的に構成することもできる。
The
表情映像取得部120は、リモート拠点に存在するユーザの表情を取得する機能部であって、例えばカメラなどの撮像部から構成される。表情映像取得部120は、操作部110を用いてロボット220の操作を行っているユーザの表情を撮影し、符号化して映像データ化する。そして、表情映像取得部120は、生成した映像データを通信部130へ出力する。
The facial expression
通信部130は、ネットワーク10を介して、リモート拠点のシステム構成要素により生成した情報をローカル拠点のシステム構成要素へ送信し、また、ローカル拠点のシステム構成要素から送信された情報を受信する機能部である。通信部130は、例えば、操作部110により生成された操作情報や、表情映像取得部120により生成された映像データを、ネットワーク10を介してローカル拠点のシステム構成要素へ送信する。
The
一方、ローカル拠点のシステム構成要素群200は、位置検出部210と、ロボット220と、通信部230と、映像制御部240と、映像表示部250とからなる。
On the other hand, the
位置検出部210は、ロボット220の移動面におけるロボット220の位置を検出する機能部であって、例えば赤外線センサや静電容量センサ等から構成される。また、位置検出部210は、例えばロボット220に搭載されている電子コンパスと通信したり、ロボット220を撮影してその映像を認識したりするなどの方法により、ロボット220の向いている方向を検出することもできる。
The
ロボット220は、リモート拠点に存在するユーザによって操作されることで、当該ユーザの非言語的情報を伝達する。ロボット220は、車輪や脚部等の移動機構を備えており、空間を移動することができる。また、ロボット220は、ロボット220の向きを変更するための回転機構を備えている。このような機構を備えることにより、ロボット220の位置や姿勢、向いている方向によってロボット220を操作しているユーザの興味や関心を物理空間内で表現することができる。さらに、ロボット220は、カメラなどの撮像機構を備えることもでき、撮像機構により取得した映像を遠隔地に送信することもできる。
The
通信部230は、ネットワーク10を介して、ローカル拠点のシステム構成要素により生成した情報をリモート拠点のシステム構成要素へ送信し、また、リモート拠点のシステム構成要素から送信された情報を受信する機能部である。通信部230は、例えば、リモート拠点の通信部130から受信したロボット220の操作情報をロボット220へ送信したり、映像データを映像表示部250へ送信したりする。また、通信部230は、映像表示方法を変更する変更データを映像制御部240へ送信することもできる。
The
映像制御部240は、映像表示部250に表示される映像の表示方法を制御する機能部である。映像制御部240は、ロボット220の位置情報を位置検出部210から受信し、そのロボット220の位置情報に基づいて映像の表示位置を決定する。映像制御部240による映像表示位置の算出方法については、後述する。
The
映像表示部250は、リモート拠点のユーザの表情映像を表示する機能部である。映像表示部250は、例えば液晶ディスプレイのような表示部が表示面に直接映像を表示する一体型の表示手段でもよく、プロジェクタなどの映像投射部と当該映像投射部から映像が投射されるスクリーン面などの表示面を備える表示部とからなる分離型の表示手段でもよい。プロジェクタを用いる場合、映像表示位置や映像サイズを容易かつ自由に変更することが可能である。また、分離型の表示手段である場合、映像表示部250の映像投射部は、例えば空間上方の所定の位置に固定されていてもよく、空間上方を移動可能に設けられていてもよい。また、表示部として、例えば会議卓などのテーブルの平面を利用することもできる。映像表示部250は、映像制御部240により算出された表示位置に映像を表示する。なお、映像表示部250は、2次元映像を表示することもでき、3次元映像を表示することもできる。
The
以上、本実施形態にかかるコミュニケーション支援システムの構成について説明した。なお、図2に示した各拠点のシステム構成要素は、本実施形態の特徴を明確にするため、必要最小限の構成要素を記載している。したがって、当該システムに、一般的な遠隔コミュニケーションで利用される、音声を取得するマイクや固定カメラによる映像を送受信するための要素を各拠点に設けてもよい。 The configuration of the communication support system according to the present embodiment has been described above. The system components at each site shown in FIG. 2 describe the minimum necessary components in order to clarify the features of this embodiment. Therefore, the system may be provided with an element for transmitting and receiving video from a microphone or a fixed camera that is used for general remote communication, and used for general remote communication.
このような構成要素からなるコミュニケーション支援システムでは、図1に基づいて説明したように、ロボット220の動きと映像表示部250に表示される表情映像とにより、リモート拠点にいるユーザの非言語的情報をローカル拠点のユーザに伝達する。このとき、ローカル拠点に存在するより多くのユーザに対してリモート拠点のユーザの表情映像を視認させるため、ロボット220の移動する移動面を含む表示面に、ロボット220の動きに追従してロボット220の近傍に表情映像を表示する。このように表情映像を表示させることで、ユーザはロボット220への視線の向きと略同一方向に表情映像がされるので、ユーザにとってロボット220の動きと表情映像とを同時に見やすくなる。また、ロボット220の移動面を含む表示面に表像映像を表示することで、ユーザの位置によって表像映像が見えなくなったりすることを低減することができる。
In the communication support system including such components, as described with reference to FIG. 1, the non-verbal information of the user at the remote site is obtained from the movement of the
<映像表示位置の算出方法>
以下、図3Aおよび図3Bのフローチャートに基づいて、本実施形態における映像表示位置の算出方法について説明する。
<Video display position calculation method>
Hereinafter, a method for calculating the video display position in the present embodiment will be described based on the flowcharts of FIGS. 3A and 3B.
まず、移動面におけるロボット220の位置p(x,y)およびロボット220の向きa1(dx,dy)を取得する(ステップS100)。ここで、図4に基づいて、ロボット220の移動する移動面を含む表示面におけるロボット220の大きさと位置、表示面の境界、および映像表示位置の平面的関係を説明する。
First, the position p (x, y) of the
本実施形態では、図1に示すように、ロボット220は会議卓のような限定的空間内で動作するとしており、このとき移動面の境界は会議卓の辺、あるいは会議卓の平面のうちロボット220が移動可能である領域(移動面)を囲む外郭線とすることができる。すなわち、移動面は、会議卓と同一の大きさであってもよく、別個に移動面の境界を設定してもよい。本実施形態では、移動面と表示面は同一領域であるとする。図4では、表示面の境界280を、幅(x方向の長さ)lw、高さ(y方向の長さ)lhで規定される略長方形の領域として表わしている。このとき、左下角を原点O(0,0)とする。また、図1では、映像表示部250を構成する映像投射部252は、移動面を含む、あるいは移動面と同一の表示面に映像を投射する。
In the present embodiment, as shown in FIG. 1, the
図4において、p(x,y)は表示面におけるロボット220の位置を示す。ロボット220の位置は、位置検出部210により検出される。また、ロボット220の向きは二次元ベクトル(dx,dy)によって表現される。このロボット220の向きは、図5に示すように、例えばロボットの存在する点(すなわち、p(x,y))を原点としたときの長さが1となるように調整された方向ベクトルとして表現することができる。例えば、ロボット220が図5の図面上部を向いている状態の方向ベクトルを(0,1)で表わすと、時計回りに90°回転した状態は方向ベクトル(1,0)と表すことができる。ステップS100にて算出するロボット220の向きは、例えばロボット220の正面の向きとすることができる。ロボット220の向きは、ロボット220に搭載された電子コンパスにより測定することができる。
In FIG. 4, p (x, y) indicates the position of the
次いで、方向ベクトルa1から他の3つの向きを表す方向ベクトルa2、a3、a4を算出する(ステップS102)。方向ベクトルa2は、方向ベクトルa1と正反対の方向を示す方向ベクトルであって、a2(−dx,−dy)で表わされる。方向ベクトルa3は、方向ベクトルa1を時計回りに90°回転させた方向を示す方向ベクトルであって、a3(−dy,dx)で表わされる。方向ベクトルa4は、方向ベクトルa1を反時計回りに90°回転させた方向を示す方向ベクトルであって、a4(dy,−dx)で表わされる。 Next, direction vectors a2, a3, and a4 representing the other three directions are calculated from the direction vector a1 (step S102). The direction vector a2 is a direction vector indicating the direction opposite to the direction vector a1, and is represented by a2 (−dx, −dy). The direction vector a3 is a direction vector that indicates a direction obtained by rotating the direction vector a1 by 90 ° in the clockwise direction, and is represented by a3 (−dy, dx). The direction vector a4 is a direction vector indicating a direction obtained by rotating the direction vector a1 by 90 ° counterclockwise, and is represented by a4 (dy, −dx).
さらに、ステップS100およびS102にて算出したロボット220の4つの向きa1〜a4について、ロボット220の位置p(x,y)から表示面の境界280までの距離を算出する(ステップS104〜S126)。まず、ロボット220の位置p(x,y)から方向ベクトルa1(dx,dy)で表わされる向きに伸ばした直線と表示面の境界280との間の距離d1を算出する。距離d1を求めるため、ロボット220の位置p(x,y)から方向ベクトルa1(dx,dy)で表わされる向きに伸ばした直線と表示面の境界280との交点P1(px,py)を算出する。なお、方向ベクトルは、a1〜a4の4種類あるが、その成分を(ax,ay)と表記する場合もある。
Further, the distances from the position p (x, y) of the
まず、方向ベクトルa1のx成分(ax)が0以上であるか否かを判断する(ステップS106)。axが0以上である場合には、x方向における表示面の境界280をx=lwに設定する(ステップS108)。一方、axが0より小さい場合には、x方向における表示面の境界280をx=0に設定する(ステップS110)。
First, it is determined whether or not the x component (ax) of the direction vector a1 is 0 or more (step S106). If ax is greater than or equal to 0, the
次いで、方向ベクトルa1のy成分(ay)が0以上であるか否かを判断する(ステップS112)。ayが0以上である場合には、y方向における表示面の境界280をy=lhに設定する(ステップS114)。一方、ayが0より小さい場合には、y方向における表示面の境界280をy=0に設定する(ステップS116)。
Next, it is determined whether or not the y component (ay) of the direction vector a1 is 0 or more (step S112). When ay is 0 or more, the
さらに、ステップS106〜S116にて設定された表示面のx方向の境界280およびy方向の境界280と、ロボット220の位置p(x,y)から方向ベクトルa1(dx,dy)で表わされる向きに伸ばした直線との交点cx,cyを算出する(ステップS118)。cxは、水平境界(y方向の境界)と直線との交点のx座標であり、cyは、垂直境界(x方向の境界)と直線との交点のy座標である。
Further, the
ここで、一例として、p(x1,y1)、ax<0かつay≧0であるときの表示面の境界280との交点の算出方法について具体的に説明する。P1(px,py)を算出することは、pを通る傾きay/axの直線と、直線y=lhとの交点を算出することに相当する。ここで、ax<0より垂直境界はx=0となり、ay≧0より水平境界はy=lhとなる。これより、直線y=lhとの交点P11は、
y−y1=ay/ax(x−x1)
y=lh
の連立方程式を解くことにより、
cx=px=ax/ay(lh−y1)+x1
py=lh
を得ることができ、cxを取得できる。
Here, as an example, a method for calculating an intersection point with the
y−y1 = ay / ax (x−x1)
y = lh
By solving the simultaneous equations of
cx = px = ax / ay (lh−y1) + x1
py = lh
And cx can be obtained.
同様に、直線x=0との交点P12は、
px=0
cy=py=−(ay×x1/ax)+y1
を得ることができ、cyを取得できる。
Similarly, the intersection P12 with the straight line x = 0 is
px = 0
cy = py = − (ay × x1 / ax) + y1
And cy can be acquired.
図3Aの映像表示位置の算出方法の説明に戻り、ステップS118で表示面の境界280との交点が算出されると、cx<lwかつcy>lhを満たすか否かを判定する(ステップS120)。これにより、P11とP12のうちどちらが表示面の境界280内に存在するかを判定する。
Returning to the description of the method for calculating the video display position in FIG. 3A, when the intersection with the
cx<lwかつcy>lhである場合には、表示面の水平境界との交点とロボット220の位置pとの距離をdとする(ステップS122)。距離dはユークリッド距離で表現される。例えば、p(x1,y1)とすると、距離dは、
d=sqrt((x1−cx)2+y12)
で表わされる。
If cx <lw and cy> lh, the distance between the intersection with the horizontal boundary of the display surface and the position p of the
d = sqrt ((x1-cx) 2 + y1 2 )
It is represented by
一方、cx<lwかつcy>lhを満たさない場合には、表示面の垂直境界との交点とロボット220の位置pとの距離をdとする(ステップS124)。例えば、p(x1,y1)とすると、距離dは、
d=sqrt(x12+(y1−cy)2)
で表わされる。
On the other hand, if cx <lw and cy> lh are not satisfied, the distance between the intersection with the vertical boundary of the display surface and the position p of the
d = sqrt (x1 2 + (y1-cy) 2 )
It is represented by
このようにして、ロボット220の位置p(x,y)から方向ベクトルa1(dx,dy)で表わされる向きに伸ばした直線と表示面の境界280との間の距離d1を算出することができる。以下、ロボット220の位置p(x,y)から方向ベクトルa2、a3、a4で表わされる向きに伸ばした直線と表示面の境界280との間の距離d2、d3、d4についても、ステップS104〜ステップS126の処理を繰り返すことで算出することができる。
In this way, the distance d1 between the straight line extended from the position p (x, y) of the
次いで、図3Bに示すように、ステップS104〜ステップS126において算出された距離d1〜d4のうち最大となる距離の方向を映像の表示方向ベクトルAとする(ステップS128)。これにより、表示面におけるロボット220の位置からみて映像を表示する領域を多く確保できる方向が映像の表示方向として決定される。例えば、図4では、距離d1〜d4のうち距離が最大であるd2の方向ベクトルa2が映像の表示方向ベクトルAとされる。
Next, as shown in FIG. 3B, the direction of the maximum distance among the distances d1 to d4 calculated in steps S104 to S126 is set as a video display direction vector A (step S128). As a result, the direction in which a large area for displaying an image can be secured as viewed from the position of the
さらに、ロボットサイズR、ロボット220の位置pおよび表示方向ベクトルAから映像の表示位置P(X,Y)を算出する(ステップS130)。ロボットサイズRは、ロボット220の領域を円として表わしたときの半径である。表示面に表示する映像がロボット220の領域と重複しないように、ロボット220の領域外に映像の表示位置Pを決定する。ここで、表示方向ベクトルAをA(Ax,Ay)として表わすと、Ax、Ayは距離が1となるように正規化されているため、映像の表示位置P(X,Y)は、
X=x+R×Ax
Y=y+R×Ay
と表わされる。
Further, the video display position P (X, Y) is calculated from the robot size R, the position p of the
X = x + R × Ax
Y = y + R × Ay
It is expressed as
その後、ステップS130にて算出された映像の表示位置P(X,Y)を始点として、表示面に映像を表示する(ステップS132)。例えば図4に示すように、表示する映像の形状を長方形であるとき、ロボット220の領域を表す境界とロボット220の位置pから方向ベクトルa2に延びる直線との交点が映像の表示位置Pとなり、表示位置Pを長方形の一角とした所定サイズの映像254が表示面に表示される。なお、ロボット220の位置および向きを考慮して表示位置Pが算出される場合を例に挙げて説明したが、本発明はかかる例に限定されない。例えば、ロボット220の位置に基づいて表示位置Pが算出されてもよい。より具体的には、例えば、ロボット220の位置から表示面の境界までの直線距離が最大となる直線上の位置に表示位置Pが存在するように算出されてもよい。
Thereafter, the video is displayed on the display surface starting from the video display position P (X, Y) calculated in step S130 (step S132). For example, as shown in FIG. 4, when the shape of the image to be displayed is a rectangle, the intersection of the boundary representing the region of the
なお、ロボット220の領域は、ロボット220が実際に存在する領域を少なくとも含んでいればよく、必ずしもロボット220の実際の大きさと同一でなくともよい。しかし、映像がロボット220の近傍に表示されるように設定しなければならない。また、本実施形態では、ロボット220の領域を円形で表わしたが、例えば楕円形や多角形など、ロボット220の形状に応じて変更することもできる。例えば、ロボット220の領域が楕円形の場合、上記ロボットサイズRを楕円形の長い方の半径(長半径)とする。ここで、ロボット220の近傍とは、表情映像を目視するための視線の方向が、ロボット220の目視するための視線の方向とほぼ一致する範囲内であるとする。また、映像として表示されたリモート拠点のユーザの頭部が、ロボット220の位置pの方向を向くように表示させてもよい。これにより、ユーザの表情を映像から認識しやすくすることができる。
The area of the
以上、本実施形態にかかる映像表示位置の算出方法について説明した。かかる処理は、例えばロボット220がリモート拠点のユーザによって操作される度に実行される。これにより、ロボット220が位置や向きを変更する度に映像の表示位置も変更されることになる。すなわち、ロボット220の動きに追従して映像の表示位置が変更されるので、ユーザがロボット220の動きを追って視線を移動させたときにも、ロボット220と映像との双方を一度に把握することができる。また、リモート拠点におけるユーザの表情映像がロボット220が移動する移動面を含む表示面に表示されるので、より多くのユーザが表情映像を視認することができる。
The video display position calculation method according to the present embodiment has been described above. Such processing is executed each time the
<映像表示方法の比較>
ここで、図6〜図8に基づいて、映像表示方法の相違による映像の見やすさについて検討する。図6は、ロボット20に映像表示部22が搭載された場合におけるユーザUの映像の見やすさについて説明する説明図である。図7は、ロボット20と映像表示部22とが別個に配置された場合におけるユーザUの映像の見やすさについて説明する説明図である。図8は、本実施形態にかかる映像表示方法により映像を表示した場合におけるユーザUの映像の見やすさについて説明する説明図である。
<Comparison of video display methods>
Here, based on FIG. 6 to FIG. 8, the ease of viewing the video due to the difference in the video display method will be examined. FIG. 6 is an explanatory diagram for explaining the ease of viewing of the video of the user U when the
まず、図6は、例えば特許文献1、2のような映像の表示形態である。かかる表示方法では、ロボット20に平面の映像表示部22が搭載されているため、ロボット20の向きや姿勢によっては、図6に示すようにユーザUと映像表示部22の表示面とが対向しない状態となり、ユーザUが映像を目視できないという問題が生じる。
First, FIG. 6 shows a video display form as described in
次に、図7に示すように、映像表示部22とロボット20とが別個に配置されている場合には、図6のようなロボット20の位置や姿勢によって映像が見え難くなるという問題は生じない。しかし、ユーザUが、身体的にリモート拠点のユーザの関心等を表現しているロボット20に向ける視線の方向と、リモート拠点のユーザの表情映像を表示する映像表示部22に向ける視線の方向とが一致しない。このため、ユーザUは、絶えずロボット20と映像表示部22との間で視線を往復させる必要があり、円滑なコミュニケーションを阻害する。
Next, as shown in FIG. 7, when the
そこで、図8に示すように、本実施形態の映像表示方法を用いて、映像254をロボット220が移動する移動面を含む表示面260に表示する、すなわち、リモート拠点のユーザの表情映像をロボット220が動作する空間上に表示することにより、ロボット220の向きや姿勢によってユーザUが映像を目視することができないといった問題は生じない。また、ロボット220の位置に応じて、映像の表示位置が適宜変更されるため、ロボット220の身体によって表現される情報を取得するための視線の方向と、リモート拠点のユーザの表情映像を目視するための視線の方向とが一致する。このように、本実施形態の映像表示方法を用いることにより、図6および図7の形態において生じていた問題を解決することができる。
Therefore, as shown in FIG. 8, by using the image display method of the present embodiment, the
(第2の実施形態)
次に、本発明の第2の実施形態にかかるコミュニケーション支援システムについて説明する。上述した第1の実施形態では、ロボット220が動作している場合に、ロボット220の位置に追従するように映像の表示位置を変更するという映像の表示方法について説明した。ここで、通常、リモート拠点に存在するロボット220を操作するユーザは会議の主要話者になっている場合には、ロボット220を操作する回数が減少し、ロボット220が動作しない状態となることが考えられる。このようにロボット220が動作しない状態では、通常の映像の表示や音声表示システムと同様に、遠隔話者の存在感を提示することが困難である。
(Second Embodiment)
Next, a communication support system according to the second embodiment of the present invention will be described. In the first embodiment described above, the video display method of changing the video display position so as to follow the position of the
そこで、本実施形態では、このような問題を解決するために、リモート拠点でロボットを操作するユーザが音声発話を所定時間以上続けている場合に、提示されるユーザの表情映像を発話時間に応じて拡大させる処理を行う。これにより、ロボットが必ずしも動作しない場合でもリモート拠点に存在するユーザの存在を簡易かつ明瞭に伝えることができる。 Therefore, in the present embodiment, in order to solve such a problem, when the user who operates the robot at the remote site continues voice utterance for a predetermined time or longer, the user's facial expression video is displayed according to the utterance time. Process to enlarge. Thereby, even when the robot does not always operate, the presence of the user existing at the remote base can be easily and clearly transmitted.
以下、図9〜図11に基づいて、本実施形態にかかるコミュニケーション支援システムの構成とその機能について説明する。なお、図9は、本実施形態にかかるコミュニケーション支援システムの構成を示すブロック図である。図10は、映像サイズ変更処理を示すフローチャートである。図11は、本実施形態における映像サイズ変更処理を説明するための説明図である。また、以下では、第1の実施形態と同一の動作を行うシステム構成要素についての詳細な説明は省略する。 The configuration and functions of the communication support system according to the present embodiment will be described below with reference to FIGS. FIG. 9 is a block diagram showing the configuration of the communication support system according to the present embodiment. FIG. 10 is a flowchart showing the video size changing process. FIG. 11 is an explanatory diagram for explaining video size change processing in the present embodiment. In the following, detailed description of system components that perform the same operation as in the first embodiment will be omitted.
<コミュニケーション支援システムの構成>
まず、図9に基づいて、コミュニケーション支援システムの構成を説明する。本実施形態にかかるコミュニケーション支援システムは、第1の実施形態と同様、リモート拠点のシステム構成要素群300と、ローカル拠点のシステム構成要素群400とがネットワーク10を介して接続されている。
<Configuration of communication support system>
First, the configuration of the communication support system will be described with reference to FIG. In the communication support system according to the present embodiment, the
リモート拠点のシステム構成要素群300は、図9に示すように、操作部310と、表情映像取得部320と、通信部330と、音声取得部340と、音声解析部350とからなる。ここで、操作部310および表情映像取得部320は、第1の実施形態にかかる操作部110および表情映像取得部120と同一の構成とすることができるため、これらの説明は省略する。
As shown in FIG. 9, the remote base
通信部330は、ネットワークを介して10を介して、リモート拠点のシステム構成要素により生成した情報をローカル拠点のシステム構成要素へ送信し、また、ローカル拠点のシステム構成要素から送信された情報を受信する機能部である。通信部330は、例えば、操作部310により生成された操作情報や、表情映像取得部320により生成された映像データを、ネットワーク10を介してローカル拠点のシステム構成要素へ送信する。さらに、本実施形態の通信部330は、音声取得部340により取得された音声データや、音声解析部350による音声解析結果を、ネットワーク10を介してローカル拠点のシステム構成要素へ送信する。
The
音声取得部340は、例えばマイク等から実装される音声信号取得機能と、当該音声信号取得機能により取得した音声信号をネットワーク10経由でローカル拠点のシステム構成要素へ送信可能な状態に処理する信号処理機能とを備える機能部である。音声取得部340は、音声信号取得機能により取得した音声信号を音声解析部350へ出力するとともに、さらに信号処理機能により処理された音声信号を音声データとして通信部330へ出力する。
The
音声解析部350は、音声信号を解析する機能部である。音声解析部350は、例えば、リモート拠点においてロボット420を操作するユーザの音声データを取得し、その音声データを解析して、解析結果を通信部330へ出力する。音声解析部350は、上記解析により、例えば音声データから話者を識別したり、音量を判定したり、所定時間において発言した時間で表わされる発言率を算出したりする。
The
一方、ローカル拠点のシステム構成要素群400は、位置検出部410と、ロボット420と、通信部430と、映像制御部440と、映像表示部450と、音声提示部460とからなる。ここで、位置検出部410、ロボット420および映像表示部450は、第1の実施形態にかかる位置検出部210、ロボット220および映像表示部250と同一の構成とすることができるため、これらの説明は省略する。
On the other hand, the
通信部430は、ネットワークを介して10を介して、ローカル拠点のシステム構成要素により生成した情報をリモート拠点のシステム構成要素へ送信し、また、リモート拠点のシステム構成要素から送信された情報を受信する機能部である。通信部430は、例えば、リモート拠点の通信部330から受信したロボット420の操作情報をロボット420へ送信したり、映像データを映像表示部450へ送信したりする。また、通信部430は、音声解析結果を映像制御部440へ送信することもできる。さらに、通信部430は、リモート拠点の通信部330から受信した音声データを音声提示部460へ出力する。
The
映像制御部440は、映像表示部450に表示される映像の表示方法を制御する機能部である。映像制御部440は、ロボット420の位置情報を位置検出部410から受信し、そのロボット420の位置情報に基づいて映像の表示位置を決定する。映像制御部440による映像表示位置の算出方法としては、第1の実施形態にて説明した方法を用いることができる。また、映像制御部440は、リモート拠点のシステム構成要素である音声解析部350の解析結果に基づいて、表示面に表示する映像サイズを変更する。映像サイズの変更処理の詳細については後述する。
The
音声提示部460は、リモート拠点の音声取得部340により生成された音声データを復号化して、実際の音声として出力する機能部である。音声提示部460は、例えばスピーカ等を用いることができる。また、音声提示部460は、ローカル拠点の通信部430、ネットワーク10およびリモート拠点の通信部330を介して音声取得部340と通信することもできる。
The
以上、本実施形態にかかるコミュニケーション支援システムの構成について説明した。本実施形態にかかるコミュニケーション支援システムでは、図3Aおよび図3Bに示した映像表示方法を用いて、ロボット420の移動面を表示面に映像を表示するが、ステップS130に続いて図10に示す映像サイズ変更処理を行うことにより、ロボット420が動作しない場合にもリモート拠点におけるユーザの存在感をアピールする。以下、図10および図11に基づいて、本実施形態にかかる映像サイズ変更処理について説明する。
The configuration of the communication support system according to the present embodiment has been described above. In the communication support system according to the present embodiment, the moving image of the
<映像サイズ変更処理>
映像サイズ変更処理では、まず、映像制御部440が映像表示位置の算出処理を実行してから所定時間が経過したか否かを判定する(ステップS200)。映像表示位置の算出処理を実行してからの経過時間は、タイマー(図示せず。)により計測することができる。上述したように、映像表示位置の算出処理は、ロボット420が動作する度に実行される。つまり、ステップS200では、所定時間ロボット420が操作されなかった時間を判定していることになる。所定時間は、例えば1分と設定することができる。
<Image size change processing>
In the video size change process, first, it is determined whether or not a predetermined time has elapsed since the
ステップS200にて、経過時間が所定時間を超えたと判定された場合、映像制御部440は、音声解析部350によりロボット420を操作可能なユーザが発話しているか否かを解析させて、当該ユーザが発話しているか否かを判定させる(ステップS202)。音声解析部350は、音声取得部340により取得された音声信号を解析して、発話しているユーザを特定し、ロボット420を操作可能なユーザが発話しているか否かを判定する。発話の有無の判定方法は、単純に音声入力の有無を判定してもよく、周囲の雑音を緩和するなどの信号処理を加えるなどの既存の処理を実施した後の音声データに基づいて判定してもよい。音声解析部350は、通信部330、ネットワーク10および通信部430を介して映像制御部440へ、判定結果を解析結果として送信する。
If it is determined in step S200 that the elapsed time has exceeded the predetermined time, the
ステップS202にて、音声入力があると判定された場合には、映像制御部440は、映像サイズの拡大率rを所定割合だけ増加させる(ステップS204)。所定割合は、任意に設定することができ、例えば10%とすることができる。これにより、ロボット420を操作可能なユーザがロボット420の操作は行っていないがリモート拠点側の主要話者となっている場合に、その存在感をローカル拠点側にアピールするために映像サイズが拡大されるようにする。一方、ステップS202にて、音声入力がないと判定された場合には、映像制御部440は、映像サイズの拡大率rを所定割合だけ減少させる(ステップS206)。当該所定の割合も任意に設定することができ、映像サイズを拡大する場合の割合と同一でもよく相違してもよい。ステップS206により映像サイズを縮小することによって、ロボット420を操作可能なユーザが主要話者ではないことや、当該ユーザの興味関心の低下を伝えることができるようにする。
If it is determined in step S202 that there is an audio input, the
ステップS200にて、経過時間が未だ所定時間を超えていないと判定された場合や、ステップS204またはS206により映像サイズの拡大率の変更を行った後、映像制御部440は、その時点での映像サイズの拡大率rによって映像を表示した場合に、当該映像が表示面内に収まるか否かを判定する(ステップS208)。例えば、映像の形状が長方形である場合、基準となる基準映像サイズを幅(x方向の長さ)sw、高さ(y方向の長さ)shによって表すとする。このとき、各辺の長さを拡大率rに応じて変化させたときの映像サイズは、図11に示すように、(sw×r)×(sh×r)となる。この映像サイズと、映像の表示位置P(X,Y)とによって、表示面に表示される映像が表示面の境界280内に収まるか否かを判定することができる。
When it is determined in step S200 that the elapsed time has not yet exceeded the predetermined time, or after changing the video size enlargement ratio in step S204 or S206, the
ステップS208にて、映像サイズが表示面の境界280内に収まると判定された場合には、映像制御部440は、当該映像サイズが最小映像サイズよりも大きいか否かを判定する(ステップS210)。最小映像サイズは予め設定されており、例えば映像により映し出されるユーザの顔の形状を認識できる最小のサイズとしてもよく、点状にして映像をほぼ見えないようにしてもよい。
When it is determined in step S208 that the video size is within the
ステップS210で映像サイズが最小サイズ以下であると判定された場合には、映像制御部440は、拡大率rを所定割合だけ増加させて(ステップS212)、再度ステップS208から処理を行う。一方、ステップS210で映像サイズが最小サイズより大きいと判定された場合には、映像制御部440は、現在指定された拡大率rで映像を表示する(ステップS214)。
If it is determined in step S210 that the video size is equal to or smaller than the minimum size, the
以上、映像サイズ変更処理について説明した。本実施形態では、第1の実施形態で説明した映像表示方法を用いて、リモート拠点のユーザの表情映像をロボット420が動作する空間上に表示することにより、より多くのユーザが当該表情映像を目視することができる。また、ロボット420の位置に応じて、映像の表示位置が適宜変更されるため、ロボット420の身体によって表現される情報を取得するための視線の方向と、リモート拠点のユーザの表情映像を目視するための視線の方向とを一致させて、これらの情報を同時に取得しやすくなる。
The video size change process has been described above. In this embodiment, by using the video display method described in the first embodiment, the facial expression video of the user at the remote site is displayed on the space where the
このような第1の実施形態での効果に加え、さらに、ロボット420を操作可能なユーザが発話に集中してロボット420の操作を行わない場合にも、ユーザの発話状態に応じて表情映像の映像サイズを適宜変更させることにより、会議に参加しているユーザの注意を喚起したりするなど、発話者の存在感を強くアピールすることが可能となる。また、ロボット420が配置されている移動面を含む表示面に映像を表示する場合、表示可能な映像サイズに限りがある場合が多い。このような場合でも、映像サイズの変更により実装の制限を超えたユーザの存在感を表現することもできる。また、映像が表示面からはみ出さないように表示させることもできる。
In addition to the effects of the first embodiment, even when a user who can operate the
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。 The preferred embodiments of the present invention have been described in detail above with reference to the accompanying drawings, but the present invention is not limited to such examples. It is obvious that a person having ordinary knowledge in the technical field to which the present invention pertains can come up with various changes or modifications within the scope of the technical idea described in the claims. Of course, it is understood that these also belong to the technical scope of the present invention.
例えば、上記実施形態では、ロボットが載置される載置台(上記実施形態では会議卓)の表示面260は平面であったが、本発明はかかる例に限定されない。例えば、図12に示すように、ロボット220を、平面部262と当該平面部262から突出した突出部264とを備える載置台に載置した場合も、上記実施形態で説明した映像表示方法および映像サイズ変更処理を適用することができる。この場合、例えば、映像制御部は、映像254を平面部262または突出部264のいずれかのみに表示させるようにしてもよい。これにより、映像254が段差にまたがって表示されることで、表情映像を認識し難くなるのを防止することもできる。また、図13に示すように、載置台の表示面260上にフィルム等の薄膜270が設けられている場合も上記実施形態で説明した映像表示方法および映像サイズ変更処理を適用することができる。
For example, in the above embodiment, the
また、上記実施形態では、位置検出部と映像表示部とは別個の構成としたが、本発明はかかる例に限定されない。例えば、タッチパネルディスプレイ等のように1つの要素として構成してしてもよい。 Moreover, in the said embodiment, although the position detection part and the image | video display part were set as the separate structure, this invention is not limited to this example. For example, you may comprise as one element like a touchscreen display.
さらに、上記実施形態では、ロボットを操作するリモート拠点のユーザは1人であったが、本発明はかかる例に限定されず、同様のコミュニケーション支援システムを複数利用して、複数の話者やロボットを設けてコミュニケーションを図ることもできる。 Further, in the above embodiment, there is one user at the remote base that operates the robot. However, the present invention is not limited to such an example, and a plurality of speakers and robots can be used by using a plurality of similar communication support systems. It is also possible to establish communication for communication.
また、上記第2の実施形態では、話者の音量に応じて映像サイズを変更したが、本発明はかかる例に限定されない。例えば、音声の大きさに比例して映像の大きさを変更してもよい。すなわち、音声の大きさが大きくなるにつれて映像サイズを拡大し、音声の大きさが小さくなるにつれて映像サイズを縮小する。これにより、ユーザの発話の有無や発言内容の強さを表現することもできる。あるいは、所定時間内におけるロボットを操作可能なユーザの発言時間が所定の割合以上であった場合に当該ユーザが主要話者であると判断し、映像サイズを拡大する処理を行ってもよい。一方、所定時間内におけるロボットを操作可能なユーザの発言時間が所定の割合以下であった場合には映像サイズを縮小する処理を行ってもよい。 In the second embodiment, the video size is changed according to the volume of the speaker. However, the present invention is not limited to this example. For example, the video size may be changed in proportion to the audio size. That is, the video size is increased as the audio size increases, and the video size is reduced as the audio size decreases. Thereby, the presence or absence of the user's utterance and the strength of the utterance content can also be expressed. Alternatively, when the utterance time of a user who can operate the robot within a predetermined time is equal to or greater than a predetermined ratio, it may be determined that the user is a main speaker, and processing for enlarging the video size may be performed. On the other hand, when the utterance time of the user who can operate the robot within a predetermined time is less than or equal to a predetermined ratio, a process of reducing the video size may be performed.
100、300 リモート拠点のシステム構成要素群
110、310 操作部
120、320 表情映像取得部
130、330 通信部
200、400 ローカル拠点のシステム構成要素群
210、410 位置検出部
220、420 ロボット
230、430 通信部
240、440 映像制御部
250、450 映像表示部
254 映像
260 表示面
280 表示面の境界
340 音声取得部
350 音声解析部
460 音声提示部
100, 300 System component group at
Claims (10)
前記リモート拠点から前記遠隔拠点に配置された前記移動体を操作する操作部と、
前記リモート拠点にて前記移動体を操作するユーザを撮像する撮像部と、
前記遠隔拠点に設けられ、前記撮像部により撮像された映像を、前記移動体が移動する移動面を含む表示面に表示する表示部と、
前記表示面における前記移動体の位置を検出する位置検出部と、
前記位置検出部により検出された前記移動体の位置に基づいて前記表示面に表示される映像の表示方法を制御する映像制御部と、
を備え、
前記映像制御部は、前記撮像部により撮像された映像を、前記表示面のうち前記移動体近傍の前記表示面に表示する、コミュニケーション支援システム。 A communication support system for supporting communication between a user at a remote site that operates a remotely operable mobile unit and a user at a remote site where the mobile unit exists,
An operation unit for operating the mobile body arranged at the remote site from the remote site;
An imaging unit that captures an image of a user who operates the moving body at the remote site;
A display unit that is provided at the remote site and displays an image captured by the imaging unit on a display surface including a moving surface on which the moving body moves;
A position detection unit for detecting the position of the moving body on the display surface;
A video control unit that controls a display method of a video displayed on the display surface based on the position of the moving body detected by the position detection unit;
With
The said video control part is a communication assistance system which displays the image | video imaged by the said imaging part on the said display surface of the said moving body vicinity among the said display surfaces.
前記音声入力部に入力された音声を解析する音声解析部と、
をさらに備え、
前記映像制御部は、前記音声解析部による音声の解析結果に基づいて、前記映像の表示方法を変更する、請求項1〜3のいずれかに記載のコミュニケーション支援システム。 A voice input unit for inputting a voice of a user who operates the moving body at the remote site;
A voice analysis unit for analyzing the voice input to the voice input unit;
Further comprising
The communication support system according to claim 1, wherein the video control unit changes a display method of the video based on a voice analysis result by the voice analysis unit.
前記移動体が所定時間以上動作していないか否かを判定し、
前記移動体が所定時間以上動作していない場合、前記音声解析部による音声の解析結果により前記移動体を操作するユーザが発話しているか否かを判定し、
前記ユーザが発話していると判定した場合、前記映像を表示する映像サイズを拡大する、請求項4に記載のコミュニケーション支援システム。 The video control unit
Determining whether the moving body has not operated for a predetermined time or more;
When the moving body has not operated for a predetermined time or more, it is determined whether or not the user operating the moving body is speaking according to the voice analysis result by the voice analysis unit,
The communication support system according to claim 4, wherein when it is determined that the user is speaking, the video size for displaying the video is enlarged.
前記移動体が移動する移動面を含む前記表示面における前記移動体の位置を検出する位置検出部と、
前記位置検出部により検出された前記移動体の位置に基づいて、前記表示面に表示する映像の表示方法を制御する映像表示部と、
を備え、
前記映像制御部は、前記映像を、前記表示面のうち前記移動体近傍の表示面に表示する、表示制御装置。 A display control device for displaying a video of a user at a remote site that operates a remotely operable mobile unit disposed at a remote site on a display surface of a display unit of the remote site,
A position detection unit that detects a position of the moving body on the display surface including a moving surface on which the moving body moves;
A video display unit that controls a display method of a video displayed on the display surface based on the position of the moving body detected by the position detection unit;
With
The video control unit is a display control device that displays the video on a display surface in the vicinity of the moving body of the display surface.
前記遠隔拠点に配置された前記移動体を操作する操作情報を、前記リモート拠点の操作部から入力するステップと、
前記リモート拠点にて前記移動体を操作するユーザを撮像するステップと、
前記リモート拠点のユーザの映像を、前記遠隔拠点に設けられた表示部の表示面に表示するステップと、
前記移動体が移動する移動面を含む前記表示面における前記移動体の位置を検出するステップと、
前記移動体の位置に基づいて、前記撮像部により撮像された映像を、前記表示面のうち前記移動体近傍の前記表示面に表示するステップと、
を含む、表示制御方法。
A display control method for displaying a video of a user at a remote site that operates a remotely operable mobile unit disposed at a remote site on a display surface of a display unit of the remote site,
Input operation information for operating the mobile unit arranged at the remote site from the operation unit of the remote site;
Imaging a user operating the mobile at the remote location;
Displaying a video of a user at the remote site on a display surface of a display unit provided at the remote site;
Detecting a position of the moving body on the display surface including a moving surface on which the moving body moves;
Displaying the video imaged by the imaging unit based on the position of the moving body on the display surface in the vicinity of the moving body among the display surfaces;
Including a display control method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009065684A JP5233768B2 (en) | 2009-03-18 | 2009-03-18 | COMMUNICATION SUPPORT SYSTEM, DISPLAY CONTROL DEVICE, AND DISPLAY CONTROL METHOD |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009065684A JP5233768B2 (en) | 2009-03-18 | 2009-03-18 | COMMUNICATION SUPPORT SYSTEM, DISPLAY CONTROL DEVICE, AND DISPLAY CONTROL METHOD |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010219989A JP2010219989A (en) | 2010-09-30 |
JP5233768B2 true JP5233768B2 (en) | 2013-07-10 |
Family
ID=42978318
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009065684A Active JP5233768B2 (en) | 2009-03-18 | 2009-03-18 | COMMUNICATION SUPPORT SYSTEM, DISPLAY CONTROL DEVICE, AND DISPLAY CONTROL METHOD |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5233768B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101444858B1 (en) | 2013-09-03 | 2014-11-03 | 재단법인 실감교류인체감응솔루션연구단 | Telepresence apparatus |
WO2018216327A1 (en) * | 2017-05-24 | 2018-11-29 | ソニー株式会社 | Information processing device, information processing method, and program |
KR102180023B1 (en) * | 2019-01-18 | 2020-11-18 | 경남정보대학교 산학협력단 | Hologram device that responds to external sounds |
CN111736694B (en) * | 2020-06-11 | 2024-03-05 | 上海境腾信息科技有限公司 | Holographic presentation method, storage medium and system for teleconference |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06141317A (en) * | 1992-10-28 | 1994-05-20 | Nippon Telegr & Teleph Corp <Ntt> | Video conference system |
JPH07336660A (en) * | 1994-06-14 | 1995-12-22 | Matsushita Electric Ind Co Ltd | Video conference system |
JPH09107534A (en) * | 1995-10-11 | 1997-04-22 | Canon Inc | Video conference equipment and video conference system |
WO1998051078A1 (en) * | 1997-05-07 | 1998-11-12 | Telbotics Inc. | Teleconferencing robot with swiveling video monitor |
JP2002046088A (en) * | 2000-08-03 | 2002-02-12 | Matsushita Electric Ind Co Ltd | Robot device |
JP2004261941A (en) * | 2003-03-04 | 2004-09-24 | Sharp Corp | Communication robot and communication system |
US7154526B2 (en) * | 2003-07-11 | 2006-12-26 | Fuji Xerox Co., Ltd. | Telepresence system and method for video teleconferencing |
US7699476B2 (en) * | 2006-09-20 | 2010-04-20 | Fuji Xerox Co., Ltd. | System and method for operating photo-addressable ePaper environment |
-
2009
- 2009-03-18 JP JP2009065684A patent/JP5233768B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2010219989A (en) | 2010-09-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4991458B2 (en) | Image display apparatus and control method thereof | |
JP4770178B2 (en) | Camera control apparatus, camera system, electronic conference system, and camera control method | |
US8730335B2 (en) | Imaging apparatus and imaging system | |
US8350896B2 (en) | Terminal apparatus, display control method, and display control program | |
US9094597B2 (en) | Imaging apparatus and imaging system | |
KR101397712B1 (en) | Apparatus and Method for Providing Recognition Guide for Augmented Reality Object | |
TW201246950A (en) | Method of controlling audio recording and electronic device | |
KR102565977B1 (en) | Method for detecting region of interest based on line of sight and electronic device thereof | |
CN102104767A (en) | Facial pose improvement with perspective distortion correction | |
JP2012040655A (en) | Method for controlling robot, program, and robot | |
JP2013076924A5 (en) | ||
US9374554B1 (en) | Display selection for video conferencing | |
JP2014233035A (en) | Information processor, display control method and program | |
US20120307080A1 (en) | Imaging apparatus and imaging system | |
JP2012079167A (en) | Information processing apparatus, information processing system and information processing method | |
US10600218B2 (en) | Display control system, display control apparatus, display control method, and storage medium | |
US20210135892A1 (en) | Automatic Detection Of Presentation Surface and Generation of Associated Data Stream | |
JP5233768B2 (en) | COMMUNICATION SUPPORT SYSTEM, DISPLAY CONTROL DEVICE, AND DISPLAY CONTROL METHOD | |
WO2009119288A1 (en) | Communication system and communication program | |
JP2006191408A (en) | Image display program | |
JP2008182321A (en) | Image display system | |
JP2005303683A (en) | Image transceiver | |
US20180203661A1 (en) | Information processing device, information processing method, and program | |
US20170285874A1 (en) | Capture and projection of an object image | |
JP7427739B2 (en) | display device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20111115 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130204 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130226 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130311 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 5233768 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160405 Year of fee payment: 3 |