JP5613102B2 - CONFERENCE DEVICE, CONFERENCE METHOD, AND CONFERENCE PROGRAM - Google Patents
CONFERENCE DEVICE, CONFERENCE METHOD, AND CONFERENCE PROGRAM Download PDFInfo
- Publication number
- JP5613102B2 JP5613102B2 JP2011110379A JP2011110379A JP5613102B2 JP 5613102 B2 JP5613102 B2 JP 5613102B2 JP 2011110379 A JP2011110379 A JP 2011110379A JP 2011110379 A JP2011110379 A JP 2011110379A JP 5613102 B2 JP5613102 B2 JP 5613102B2
- Authority
- JP
- Japan
- Prior art keywords
- conference
- video
- utterance
- participant
- desire
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Description
本発明は、ネットワークを介した遠隔会議を行う会議装置、会議方法および会議プログラムに関する。 The present invention relates to a conference apparatus, a conference method, and a conference program for performing a remote conference via a network.
環境問題(エコロジー)や、企業活動における出張費を抑えるなどの目的から、遠隔会議の需要が高まっている。従来の会議システムには、例えば、電話(音声)会議システムや、ブラウザ上で動作するWeb(映像)会議システムなどがある。Web会議システムでは、ブラウザを起動し、Webカメラを設置し、ヘッドセットを装着すれば、互いの参加者の映像をみながら会議を行うことができる。例えば、特許文献1には、発言権の取得や移譲が可能な多地点通信システムが記載されている。 The demand for remote conferences is increasing for the purpose of reducing environmental problems (ecology) and business trip expenses in corporate activities. Conventional conference systems include, for example, a telephone (voice) conference system and a Web (video) conference system that operates on a browser. In the Web conference system, if a browser is started, a Web camera is installed, and a headset is attached, a conference can be held while watching each other's participants. For example, Patent Document 1 describes a multipoint communication system that can acquire or transfer a right to speak.
このような会議システムでは、映像や音声の質が低いという欠点がある。例えば、映像の解像度は低く、映像表示サイズは小型ディスプレイサイズにより制限され、映像と音声に伝送には遅延が生じる。このため、遠隔に存在する他の会議参加者の表情や仕草を読み取ることが困難になる。 Such a conference system has a drawback that the quality of video and audio is low. For example, the video resolution is low, the video display size is limited by the small display size, and there is a delay in transmission between video and audio. For this reason, it becomes difficult to read the expressions and gestures of other conference participants that exist remotely.
これに起因して発生する問題の1つとして、誰が次に発言しそうなのかがわからず、同時に複数の会議参加者が発話を開始する発話の衝突が発生してしまう。発話の衝突が頻発する会議では、会議参加者に精神的なストレスが蓄積するとともに、会議の進行を停滞させてしまう。 As one of the problems that occur due to this, it is not known who is likely to speak next, and at the same time, a collision of utterances in which a plurality of conference participants start speaking. In a meeting where utterance collisions occur frequently, mental stress accumulates in the meeting participants and the progress of the meeting is delayed.
特許文献1の技術では、発言権を取得するための意識的な行動が必要であり、会議の円滑な進行が妨げられる可能性がある。対面コミュニケーションでは、発話したい旨を明確に意思表示して発言する場合と、自然な仕草(非言語情報のやりとり)から周囲に発話欲求を伝達して発言する場合とがあるが、特許文献1では後者の場合については考慮されていない。 In the technique of Patent Document 1, a conscious action for acquiring the right to speak is necessary, and the smooth progress of the conference may be hindered. In face-to-face communication, there are a case where a person expresses his intention to speak and a person speaks, and a case where he speaks by transmitting a desire to speak from a natural gesture (exchange of non-linguistic information). The latter case is not considered.
本発明は、上記事情に鑑みてなされたものであり、本発明の目的は、参加者の表情や仕草が読み取れない場合であっても、各参加者の発話欲求を容易に認識させる会議装置、会議方法および会議プログラムを提供することにある。 The present invention has been made in view of the above circumstances, and the purpose of the present invention is to provide a conference device that allows the participant's speech desires to be easily recognized even when the facial expressions and gestures of the participants cannot be read. To provide a meeting method and a meeting program.
上記目的を達成するため、本発明は、ネットワークを介して遠隔会議を行う会議装置であって、当該会議装置を使用する自参加者の映像データを取得する映像取得手段と、前記自参加者の映像データから発話欲求があると想定される所定の動作を検出する動作検出手段と、前記動作検出手段が検出した動作に基づいて発話欲求レベルを算出する発話欲求レベル算出手段と、ネットワークを介して他の会議装置から他参加者の映像データおよび発話欲求レベルを受信する受信手段と、自参加者および他参加者の映像データを配置した会議映像を生成する映像生成手段と、自参加者および他参加者の発話欲求レベルを示す情報を、前記会議映像に設定する映像編集手段と、前記映像編集手段が編集した会議映像を表示する表示手段と、を有する。 In order to achieve the above object, the present invention provides a conference device that performs a remote conference via a network, the video acquisition means for acquiring video data of the self-participant who uses the conference device, and the self-participant Via a network, an action detecting means for detecting a predetermined action assumed to have an utterance desire from video data; an utterance desire level calculating means for calculating an utterance desire level based on the action detected by the action detecting means; Receiving means for receiving video data and utterance desire levels of other participants from other conference devices, video generating means for generating conference videos in which video data of the self-participants and other participants are arranged, self-participants and others Video editing means for setting information indicating the utterance desire level of the participant to the conference video, and display means for displaying the conference video edited by the video editing means.
本発明は、ネットワークを介して遠隔会議を行う会議方法であって、会議装置は、当該会議装置を使用する自参加者の映像データを取得する映像取得ステップと、前記自参加者の映像データから発話欲求があると想定される所定の動作を検出する動作検出ステップと、前記動作検出ステップで検出した動作に基づいて発話欲求レベルを算出する発話欲求レベル算出ステップと、ネットワークを介して他の会議装置から他参加者の映像データおよび発話欲求レベルを受信する受信ステップと、自参加者および他参加者の映像データを配置した会議映像を生成する映像生成ステップと、自参加者および他参加者の発話欲求レベルを示す情報を、前記会議映像に設定する映像編集ステップと、前記映像編集ステップで編集した会議映像を表示する表示ステップと、を行う。 The present invention is a conference method for performing a remote conference via a network, wherein the conference device acquires a video acquisition step of acquiring video data of a self-participant who uses the conference device, and the video data of the self-participant An action detecting step for detecting a predetermined action assumed to have an utterance desire, an utterance desire level calculating step for calculating an utterance desire level based on the action detected in the action detecting step, and another meeting via the network A receiving step of receiving video data and speech desire levels of other participants from the device, a video generating step of generating a conference video in which video data of the self-participants and other participants are arranged, and the self-participants and other participants' A video editing step for setting information indicating an utterance desire level in the conference video, and a table for displaying the conference video edited in the video editing step. And the step, is carried out.
本発明は、前記会議方法をコンピュータに実行させるための会議プログラムである。 The present invention is a conference program for causing a computer to execute the conference method.
本発明によれば、参加者の表情や仕草が読み取れない場合であっても、各参加者の発話欲求を容易に認識させる会議装置、会議方法および会議プログラムを提供することができる。 ADVANTAGE OF THE INVENTION According to this invention, even if it is a case where a participant's facial expression and gesture cannot be read, the conference apparatus, the conference method, and the conference program which can recognize each participant's speech desire easily can be provided.
以下、本発明の実施の形態について、図面を参照して説明する。 Embodiments of the present invention will be described below with reference to the drawings.
図1は、本発明の実施形態に係る会議システムの全体構成図である。本実施形態の会議システムは、ネットワーク9に接続された複数の会議装置1を用いて、遠隔地にいる複数の会議参加者(以下、「参加者」という)が遠隔会議を行うためのシステムである。
FIG. 1 is an overall configuration diagram of a conference system according to an embodiment of the present invention. The conference system of the present embodiment is a system for a plurality of conference participants (hereinafter referred to as “participants”) in a remote place to perform a remote conference using a plurality of conference devices 1 connected to a
図示する会議システムは、複数の参加者の各々が使用する複数の会議装置1と、これらの会議装置1とネットワーク9を介して接続された会議サーバ8とを備える。
The conference system shown in the figure includes a plurality of conference devices 1 used by each of a plurality of participants, and a
会議装置1は、例えばPCなどであって、当該会議装置1を使用する自参加者の映像を撮影するビデオカメラ11と、自参加者が発言した音声を集音するマイク12と、会議映像を表示する表示装置(ディスプレイ)13と、会議サーバ8から送信された他の参加者の音声を出力するスピーカ14とを備える。
The conference apparatus 1 is, for example, a PC or the like, and includes a
また、会議装置1は、映像取得部21と、動作検出部22と、発話欲求レベル算出部23と、メモリ24と、音声取得部25と、相槌検出部26と、映像生成部27と、映像編集部28と、通信部29とを備える。
In addition, the conference apparatus 1 includes a
映像取得部21は、ビデオカメラ11が撮像した映像データを取り込む。動作検出部22は、自参加者の映像データから発話欲求があると想定される所定の動作を検出する。
The
音声取得部25は、マイク12から集音された音声データを取り込む。相槌検出部26は、自参加者の音声データから相槌を検出する。
The
発話欲求レベル算出手段23は、動作検出部22が検出した動作および相槌検出部26が検出した相槌に基づいて発話欲求レベルを算出し、メモリ24に記憶する。
The utterance desire level calculation means 23 calculates the utterance desire level based on the motion detected by the
通信部29は、映像取得部21により取り込まれた映像データを、ネットワーク9を介して会議サーバ8に送信するとともに、映像生成部27に送出する。また、通信部29は、音声取得部25により取り込まれた音声データをネットワーク9を介して会議サーバ8に送信する。また、通信部29は、他の参加者の音声データを、ネットワーク9を介して会議サーバ8から受信し、スピーカ14に出力・再生するとともに、他の参加者の映像データをネットワーク9を介して会議サーバ8から受信し、映像生成部27に送出する。また、通信部29は、メモリ24に記憶された情報を、ネットワーク9および会議サーバ8を介して、他の会議装置1と送受信する。
The
映像生成部27は、映像取得部21が取り込んだ自参加者の映像データと、通信部29が受信した他参加者の映像データとを配置した会議映像を生成する。映像編集部28は、自参加者および他参加者の発話欲求レベルを示す情報を、映像生成部27が生成した会議映像に設定し、表示装置13に表示する。
The
会議サーバ8は、各参加者が使用する各会議装置1から入力される、当該参加者の映像データ、音声データおよびメモリ24の情報をそれぞれ受信し、他の会議装置1に送信する。
The
会議装置1および会議サーバ8は、例えば、CPUと、メモリと、HDD等の外部記憶装置と、入力装置と、出力装置とを備えた汎用的なコンピュータシステムを用いることができる。このコンピュータシステムにおいて、CPUがメモリ上にロードされた所定のプログラムを実行することにより、各装置の各機能が実現される。例えば、会議装置1および会議サーバ8およびの各機能は、会議装置1用のプログラムの場合は会議装置1のCPUが、そして、会議サーバ8用のプログラムの場合は会議サーバ8のCPUが、それぞれ実行することにより実現される。
The conference device 1 and the
また、会議装置1用のプログラムおよび会議サーバ8用のプログラムは、ハードディスク、フレキシブルディスク、CD−ROM、MO、DVD−ROMなどのコンピュータ読取り可能な記録媒体に記憶することも、ネットワークを介して配信することもできる。
Further, the program for the conference apparatus 1 and the program for the
次に、本実施形態の動作について説明する。 Next, the operation of this embodiment will be described.
各参加者は、それぞれ、会議装置1に前に座り、ネットワークを介した遠隔会議を行う。 Each participant sits in front of the conference apparatus 1 and conducts a remote conference via the network.
映像取得部21は、ビデオカメラ11で撮像された自参加者の映像データを取り込み、動作検出部22に送出する。
The
動作検出部22は、映像データから自参加者の所定の動作を検出する。ここで検出される所定の動作は、例えば、「手を口元へ動かす」、「挙手」、「頷き」、「体を横に動かす」など、発話欲求があると想定される動作である。
The
動作検出部22は、映像データを画像処理することで、このような動作を検出する。例えば、「頷き」動作は、顔向き検出を行い、顔の向きが上下に動いた場合に、「頷き」と判別する。「手を口元へ動かす」動作は、例えば、顔領域と隣接していない肌色の領域を手の領域であると識別し、この手の領域が顔領域と重なった場合、「手を口元へ動かす」と判別する。
The
「挙手」動作は、例えば、顔領域と隣接していない肌色の領域を手の領域であると識別し、この手の領域の重心が画像(映像データ)のy軸方向に、所定の高さ(閾値)を超えた場合、「挙手」と判別する。「体を横に動かす」動作は、例えば顔検出を行い、検出した顔領域の中心点が、単位時間当たりの所定の閾値を越えて、画像のx軸方向へ移動した場合、「体を横に動かす」と判別する。 In the “raising hand” operation, for example, a skin-colored region that is not adjacent to the face region is identified as a hand region, and the center of gravity of the hand region has a predetermined height in the y-axis direction of the image (video data). If (threshold) is exceeded, it is determined that the hand is raised. The “move the body sideways” operation is performed, for example, when face detection is performed, and the center point of the detected face area exceeds the predetermined threshold per unit time and moves in the x-axis direction of the image. "Move to".
音声取得部25は、マイク12から入力された自参加者の音声を集音し、相槌検出部26に送出する。相槌検出部26は、音声データが入力され、かつ、自参加者が話者でない場合は、入力された音声データは全て「相槌」であると判別する。例えば、各会議装置は、自参加者が話者であるかどうかを判別するための話者フラグがメモリ24に記憶される。話者フラグの初期値は「0」(非話者)であり、これが「1」(話者)である場合、その自参加者は話者であると判別される。
The
会議サーバ8では、全会議装置(全参加者)の話者フラグを管理するとともに、誰が現在の話者であるかを決定する。例えば、全ての参加者の話者フラグが「0」であるときに、ある会議装置から音声データが入力された場合、この入力を行った会議装置の参加者を話者に指定し、当該参加者の話者フラグを「1」にする。すなわち、会議サーバ8は、当該会議サーバ8内の話者フラグを更新するとともに、話者に指定した会議装置に話者指定通知を送信し、当該会議装置のメモリ24の話者フラグを「0」から「1」に更新させる。なお、当該参加者の音声データ入力がなくなった時点で、話者の指定を解除し、話者フラグを「1」から「0」に更新する。
The
また、相槌検出部26は、メモリ24の自参加者の話者フラグが「0」(非話者)であって、自参加者以外の参加者の話者フラグが「1」であるときに、音声データが入力された場合、これを「相槌」であると判別する。このとき、この参加者の話者フラグは「0」のままである。相槌検出部26は、音声データが入力された場合、会議サーバ8に話者フラグが「1」の他の参加者が存在するか否かを問い合わせ、話者フラグが「1」の他の参加者が存在する場合、「相槌」であると判別する。
In addition, the
なお、相槌検出部26は、メモリ24の自参加者の話者フラグが「1」(話者)のときに音声データが入力された場合は、会議サーバ8への問い合わせを行わず、「相槌」でないと判別する。このとき、メモリ24の話者フラグは「1」のままである。
When the voice data is input when the speaker flag of the self-participant in the
そして、動作検出部22で検出された動作の情報、および相槌検出部26が検出した相槌の情報は、発話欲求レベル算出部23に送出される。
Then, the motion information detected by the
図2は、発話欲求レベル算出部23の処理を示すフローチャートである。発話欲求レベル算出部23は、所定のタイミングで繰り返し図2に示す処理を行う。
FIG. 2 is a flowchart showing processing of the utterance desire
発話欲求レベル算出部23は、動作検出部22が、「手を口元へ動かす」、「頷き」、「体を横に動かす」のいずれかの動作を検出した場合(S11:YES)、図示しない記憶部のカウンタの値に「1」を加算する(S12)。なお、カウンタの初期値は「0」である。
The utterance desire
また、発話欲求レベル算出部23は、動作検出部22が「挙手」の動作を検出した場合(S13:YES)、カウンタの値に「5」を加算する(S14)。
Further, the utterance desire
また、発話欲求レベル算出部23は、相槌検出部26が「相槌」を検出した場合(S15:YES)、カウンタの値に「3」を加算する(S16)。
Further, the utterance desire
そして、発話欲求レベル算出部23は、S11からS16で加算されたカウンタの値にもとづいて、発話欲求レベルを算出する。例えば、発話欲求レベルが、レベル0〜レベル5までの6つのレベルに分かれている場合、カウンタの値をいずれかのレベルに変換し、メモリ24に記憶する(S17)。
And the utterance desire
そして、発話欲求レベル算出部23は、変換したレベル値が所定の値(例えば「5」)以上の場合(S18:YES)、所定のマークの表示を決定し、マーク表示情報をメモリ24に記憶する(S19)。なお、所定のマークには、図形、記号、文字などを用いることができる。例えば、挙手を連想させる挙手マークを、所定のマークとして用いることとしてもよい。
図2で説明したように、メモリ24には、自参加者の発話欲求レベル、および、発話欲求レベルが「5」以上の場合にはマーク表示情報が記憶される。この自参加者の発話欲求レベルおよびマーク表示情報は、通信部29によりネットワーク9を介して他の全ての会議装置1に送信される。また、他の全ての会議装置1からネットワーク9を介して送信された他参加者の発話欲求レベルおよびマーク表示情報が通信部29により受信され、メモリ24に記憶される。このように、各参加者の発話欲求レベルおよびマーク表示情報は、全ての会議装置1で共有される。
Then, when the converted level value is equal to or higher than a predetermined value (for example, “5”) (S18: YES), the utterance desire
As described with reference to FIG. 2, the
映像生成部27および映像編集部28は、ビデオカメラ11が撮像した自参加者の映像データと、ネットワーク9を介して会議サーバ8から受信した他参加者の映像データと、メモリ24に記憶された各参加者の発話欲求レベルおよびマーク表示情報とを用いて会議映像を生成・編集する。
The
図3は、会議映像の一例を示す図である。映像生成部27は、図示するように、各参加者の映像データをタイル状に所定の位置に配置する。図示する例では、4人の参加者が会議に参加している。
FIG. 3 is a diagram illustrating an example of a conference video. As shown in the figure, the
そして、映像編集部28は、各参加者の発話欲求レベルおよびマーク表示情報が記憶されたメモリ24を参照し、映像生成部27が生成した会議映像を編集する。具体的には、図示するように、発話欲求レベルを示す情報(図示する例では、インジケータ)を、各参加者の発話欲求レベルに応じて、対応する参加者の映像データの近傍に設定する。例えば、発話欲求レベルが「2」の参加者の場合に、下から2つインジケータを点灯するなど、発話欲求レベルに応じてインジケータを点灯する。
Then, the
また、マーク表示情報が記憶されている参加者については、当該参加者の映像データの近傍に所定のマーク(図示する例では、挙手マーク)を設定する。表示装置13は、映像編集部28が編集した会議映像を表示する。
For a participant in which mark display information is stored, a predetermined mark (in the illustrated example, a hand raising mark) is set in the vicinity of the participant's video data. The
また、話者が存在する場合(話者フラグが「1」の参加者が存在する場合)、映像編集部28は、例えば話者の映像データを所定の色の枠で囲むなど、当該話者を目立たせるように表示させることとしてもよい。
Further, when there is a speaker (when there is a participant whose speaker flag is “1”), the
以上説明した本実施形態では、ネットワークを介した遠隔会議において、各参加者の発話欲求レベルを示す情報を表示することで、各参加者の発話欲求を容易に(自然に)認識することができる。そのため、参加者は、発話意思を他の参加者に示すためにマウスやキーボードなどの入力デバイスを操作することなく、各参加者の発話欲求を汲み取りながら、円滑な会議を進行することができる。例えば、発話の衝突を防止し、スムーズな話者交代を実現することができる。 In the present embodiment described above, it is possible to easily (naturally) recognize each participant's utterance desire by displaying information indicating the utterance desire level of each participant in a remote conference via a network. . Therefore, the participant can proceed with a smooth conference while drawing out each participant's utterance desires without operating an input device such as a mouse or a keyboard in order to show the utterance intention to other participants. For example, it is possible to prevent utterance collisions and realize a smooth speaker change.
また、本実施形態では、動作検出部22が検出する動作の1つに「挙手」があるため、参加者が発話意思を明示的に示したい場合は、対面での会議と同様に挙手(手を挙げる)動作を行うことで、発話欲求レベルを上げることができる。
In this embodiment, one of the actions detected by the
また、本実施形態では、発話欲求レベルが所定の値以上の参加者の映像データの近傍に、所定のマーク(例えば、挙手マーク)を表示すること、発話欲求の高い参加者を一目で容易に認識させることができる。 In the present embodiment, a predetermined mark (for example, a raised hand mark) is displayed in the vicinity of the video data of a participant whose utterance desire level is a predetermined value or more, and a participant with a high utterance desire can be easily recognized at a glance. Can be recognized.
なお、本発明は上記実施形態に限定されるものではなく、その要旨の範囲内で数々の変形が可能である。例えば、本実施形態では、動作検出部22が検出した動作および相槌検出部26が検出した相槌に基づいて発話欲求レベルを算出することした。しかしながら、動作検出部22が検出した動作のみに基づいて発話欲求レベルを算出することとしてもよい。また、相槌検出部26が検出した相槌のみに基づいて発話欲求レベルを算出することとしてもよい。
In addition, this invention is not limited to the said embodiment, Many deformation | transformation are possible within the range of the summary. For example, in the present embodiment, the utterance desire level is calculated based on the motion detected by the
1 :会議装置
11:ビデオカメラ
12:マイク
13:表示装置
14:スピーカ
21:映像取得部
22:動作検出部
23:発話要求レベル算出部
24:メモリ
25:音声取得部
26:相槌検出部
27:映像生成部
28:映像編集部
29:通信部
8 :会議サーバ
9 :ネットワーク
1: Conference device 11: Video camera 12: Microphone 13: Display device 14: Speaker 21: Video acquisition unit 22: Motion detection unit 23: Speech request level calculation unit 24: Memory 25: Audio acquisition unit 26: Affinity detection unit 27: Video generation unit 28: Video editing unit 29: Communication unit 8: Conference server 9: Network
Claims (7)
当該会議装置を使用する自参加者の映像データを取得する映像取得手段と、
前記自参加者の映像データから発話欲求があると想定される所定の動作を検出する動作検出手段と、
前記動作検出手段が検出した動作に基づいて発話欲求レベルを算出する発話欲求レベル算出手段と、
ネットワークを介して他の会議装置から他参加者の映像データおよび発話欲求レベルを受信する受信手段と、
自参加者および他参加者の映像データを配置した会議映像を生成する映像生成手段と、
自参加者および他参加者の発話欲求レベルを示す情報を、前記会議映像に設定する映像編集手段と、
前記映像編集手段が編集した会議映像を表示する表示手段と、を有すること
を特徴とする会議装置。 A conference device for performing a remote conference via a network,
Video acquisition means for acquiring video data of self-participants who use the conference device;
Action detecting means for detecting a predetermined action assumed to have utterance desire from the video data of the participant;
Utterance desire level calculating means for calculating an utterance desire level based on the action detected by the action detecting means;
Receiving means for receiving video data and utterance desire levels of other participants from other conference devices via a network;
Video generation means for generating a conference video in which video data of self-participants and other participants are arranged;
Video editing means for setting information indicating the speech desire level of the self-participant and other participants in the conference video;
And a display unit for displaying the conference video edited by the video editing unit.
前記映像編集手段は、発話欲求レベルが所定の値以上の参加者の映像データの近傍に、所定のマークを設定すること
を特徴とする会議装置。 The conference device according to claim 1,
The video editing means sets a predetermined mark in the vicinity of video data of a participant whose utterance desire level is a predetermined value or more.
当該会議装置を使用する自参加者の音声データを取得する音声取得手段と、
前記自参加者の音声データから相槌を検出する相槌検出手段と、さらに有し、
前記発話欲求レベル算出手段は、前記動作検出手段が検出した動作および前記相槌検出手段が検出した相槌に基づいて発話欲求レベルを算出すること
を特徴とする会議装置。 The conference device according to claim 1 or 2,
Voice acquisition means for acquiring voice data of the self-participant who uses the conference device;
A conflict detection means for detecting conflict from the audio data of the participant;
The conference apparatus characterized in that the utterance desire level calculation means calculates an utterance desire level based on the action detected by the action detection means and the interaction detected by the interaction detection means.
会議装置は、
当該会議装置を使用する自参加者の映像データを取得する映像取得ステップと、
前記自参加者の映像データから発話欲求があると想定される所定の動作を検出する動作検出ステップと、
前記動作検出ステップで検出した動作に基づいて発話欲求レベルを算出する発話欲求レベル算出ステップと、
ネットワークを介して他の会議装置から他参加者の映像データおよび発話欲求レベルを受信する受信ステップと、
自参加者および他参加者の映像データを配置した会議映像を生成する映像生成ステップと、
自参加者および他参加者の発話欲求レベルを示す情報を、前記会議映像に設定する映像編集ステップと、
前記映像編集ステップで編集した会議映像を表示する表示ステップと、を行うこと
を特徴とする会議方法。 A conference method for conducting a remote conference via a network,
The conference equipment
A video acquisition step of acquiring video data of the self-participant who uses the conference device;
An operation detecting step for detecting a predetermined operation assumed to have an utterance desire from the video data of the participant;
An utterance desire level calculating step for calculating an utterance desire level based on the motion detected in the motion detection step;
A receiving step of receiving video data and utterance desire levels of other participants from other conference devices via the network;
A video generation step for generating a conference video in which video data of the self-participant and other participants are arranged;
A video editing step for setting information indicating the utterance desire level of the self-participant and other participants in the conference video;
And a display step of displaying the conference video edited in the video editing step.
前記映像編集ステップは、発話欲求レベルが所定の値以上の参加者の映像データの近傍に、所定のマークを設定すること
を特徴とする会議方法。 The conference method according to claim 4,
In the video editing step, a predetermined mark is set in the vicinity of video data of a participant whose utterance desire level is equal to or higher than a predetermined value.
当該会議装置を使用する自参加者の音声データを取得する音声取得ステップと、
前記自参加者の音声データから相槌を検出する相槌検出ステップと、さらに行い、
前記発話欲求レベル算出ステップは、前記動作検出ステップで検出した動作および前記相槌検出ステップで検出した相槌に基づいて発話欲求レベルを算出すること
を特徴とする会議方法。 The conference method according to claim 4 or 5, wherein:
An audio acquisition step of acquiring audio data of the self-participant using the conference device;
A conflict detection step of detecting a conflict from the audio data of the participant; and
The utterance desire level calculating step calculates an utterance desire level based on the motion detected in the motion detection step and the conflict detected in the conflict detection step.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011110379A JP5613102B2 (en) | 2011-05-17 | 2011-05-17 | CONFERENCE DEVICE, CONFERENCE METHOD, AND CONFERENCE PROGRAM |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011110379A JP5613102B2 (en) | 2011-05-17 | 2011-05-17 | CONFERENCE DEVICE, CONFERENCE METHOD, AND CONFERENCE PROGRAM |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012244285A JP2012244285A (en) | 2012-12-10 |
JP5613102B2 true JP5613102B2 (en) | 2014-10-22 |
Family
ID=47465551
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011110379A Expired - Fee Related JP5613102B2 (en) | 2011-05-17 | 2011-05-17 | CONFERENCE DEVICE, CONFERENCE METHOD, AND CONFERENCE PROGRAM |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5613102B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210390961A1 (en) * | 2018-11-01 | 2021-12-16 | Shin Nippon Biomedical Laboratories, Ltd. | Conference support system |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08274888A (en) * | 1995-03-31 | 1996-10-18 | Hitachi Software Eng Co Ltd | Proceedings progress control method for conference system among multiple spots |
JP2003295749A (en) * | 2002-04-03 | 2003-10-15 | Ecc Co Ltd | Method and device for image processing in remote learning system |
JP2004032229A (en) * | 2002-06-25 | 2004-01-29 | Nri & Ncc Co Ltd | Voice conference support system, terminal device in voice conference support system, and computer program |
JP4376525B2 (en) * | 2003-02-17 | 2009-12-02 | 株式会社メガチップス | Multipoint communication system |
JP2011061314A (en) * | 2009-09-07 | 2011-03-24 | Konica Minolta Business Technologies Inc | Conference system, conference management device, terminal device, and program |
JP2011077839A (en) * | 2009-09-30 | 2011-04-14 | Sharp Corp | Information sharing system |
JP5407069B2 (en) * | 2009-11-02 | 2014-02-05 | 株式会社国際電気通信基礎技術研究所 | Listening dialog system |
-
2011
- 2011-05-17 JP JP2011110379A patent/JP5613102B2/en not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210390961A1 (en) * | 2018-11-01 | 2021-12-16 | Shin Nippon Biomedical Laboratories, Ltd. | Conference support system |
Also Published As
Publication number | Publication date |
---|---|
JP2012244285A (en) | 2012-12-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7379907B2 (en) | Information processing device, information processing program, information processing system, information processing method | |
KR101825569B1 (en) | Technologies for audiovisual communication using interestingness algorithms | |
CN108028042B (en) | Transcription of verbal communications | |
EP2663064B1 (en) | Method and system for operating communication service | |
WO2016103988A1 (en) | Information processing device, information processing method, and program | |
JP5458027B2 (en) | Next speaker guidance device, next speaker guidance method, and next speaker guidance program | |
JP6176041B2 (en) | Information processing apparatus and program | |
WO2018105373A1 (en) | Information processing device, information processing method, and information processing system | |
JP2015115892A (en) | Comment generating apparatus and control method of the same | |
US10082928B2 (en) | Providing content to a user based on amount of user contribution | |
KR20150128386A (en) | display apparatus and method for performing videotelephony using the same | |
WO2018061173A1 (en) | Tv conference system, tv conference method, and program | |
JP6950708B2 (en) | Information processing equipment, information processing methods, and information processing systems | |
JP2016189121A (en) | Information processing device, information processing method, and program | |
JP6977463B2 (en) | Communication equipment, communication systems and programs | |
JP5613102B2 (en) | CONFERENCE DEVICE, CONFERENCE METHOD, AND CONFERENCE PROGRAM | |
JP2013183183A (en) | Conference device, conference method and conference program | |
JP2013110508A (en) | Conference apparatus, conference method, and conference program | |
JP2016082355A (en) | Input information support device, input information support method, and input information support program | |
JP2023184519A (en) | Information processing system, information processing method and computer program | |
US12198701B2 (en) | Support method and computer readable storage medium | |
JP2012165170A (en) | Conference device, conference method and conference program | |
JP6296193B2 (en) | INPUT INFORMATION SUPPORT DEVICE, INPUT INFORMATION SUPPORT METHOD, AND INPUT INFORMATION SUPPORT PROGRAM | |
US20210082427A1 (en) | Information processing apparatus and information processing method | |
JP6112239B2 (en) | INPUT INFORMATION SUPPORT DEVICE, INPUT INFORMATION SUPPORT METHOD, AND INPUT INFORMATION SUPPORT PROGRAM |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130829 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140514 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140520 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140902 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140905 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5613102 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |