JP2010074494A - 会議支援装置 - Google Patents
会議支援装置 Download PDFInfo
- Publication number
- JP2010074494A JP2010074494A JP2008239247A JP2008239247A JP2010074494A JP 2010074494 A JP2010074494 A JP 2010074494A JP 2008239247 A JP2008239247 A JP 2008239247A JP 2008239247 A JP2008239247 A JP 2008239247A JP 2010074494 A JP2010074494 A JP 2010074494A
- Authority
- JP
- Japan
- Prior art keywords
- terminal
- ratio
- data
- unit
- time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Telephonic Communication Services (AREA)
Abstract
【課題】複数の通信端末を用いて遠隔会議等を行う際に、発言者の偏りを軽減することのできる技術を提供する。
【解決手段】端末10は、マイクロホンで収音した音声を表す音声データと撮影部で撮影した映像を表す映像データとを、他の端末10に送信する。また、端末10は、他の端末10から映像データと音声データとを受信し、受信した音声データをスピーカから音として放音するとともに、映像データを表示部に出力して映像を表示する。このとき、制御部は、マイクロホンで収音された音声を表す音声データの音圧を検出し、音圧の時間的な変化を解析して利用者の発言時間を算出する。制御部は、算出結果から端末10毎の発言時間の割合を算出し、算出結果を示すデータを表示部に出力することによって、算出結果を会議の参加者に報知する。
【選択図】図1
【解決手段】端末10は、マイクロホンで収音した音声を表す音声データと撮影部で撮影した映像を表す映像データとを、他の端末10に送信する。また、端末10は、他の端末10から映像データと音声データとを受信し、受信した音声データをスピーカから音として放音するとともに、映像データを表示部に出力して映像を表示する。このとき、制御部は、マイクロホンで収音された音声を表す音声データの音圧を検出し、音圧の時間的な変化を解析して利用者の発言時間を算出する。制御部は、算出結果から端末10毎の発言時間の割合を算出し、算出結果を示すデータを表示部に出力することによって、算出結果を会議の参加者に報知する。
【選択図】図1
Description
本発明は、会議を支援する技術に関する。
近年、通信網を介して接続された複数の通信端末を用いて会議を行う遠隔会議システムが普及している。このような遠隔会議システムにおいては、発話者と聴取者が直接対面していないため、発話者が聴取者の反応を感じることが困難であり、自身の声が相手に届いているか不安に感じる場合がある。特許文献1には、発話者の不安を解消するために、送信した音声・画像データが受信側においてどのような状態で届いているかを送信側でリアルタイムに表示する技術が提案されている。また、特許文献2には、複数の音源からの音声データを経時的に記録したデータを利用する際に、発言内容を可視化することによって利用者に対して使い勝手のよい状態で提供する技術が提案されている。
特開2005−269498号公報
特開2007−256498号公報
ところで、従来の遠隔会議システムにおいては、或る特定の参加者が会議において多く発言を行い、他の参加者がほとんど発言しない、といったように、発言者が偏る場合があった。
本発明は上述した背景に鑑みてなされたものであり、複数の通信端末を用いて遠隔会議等を行う際に、発言者が偏ることを軽減することのできる技術を提供することを目的とする。
本発明は上述した背景に鑑みてなされたものであり、複数の通信端末を用いて遠隔会議等を行う際に、発言者が偏ることを軽減することのできる技術を提供することを目的とする。
上記課題を解決するために、本発明は、複数の端末のそれぞれについて、各端末の利用者の音声を収音する収音手段によって収音された音声を表す音声データを、通信ネットワークを介して受信する音声データ受信手段と、前記音声データ受信手段により受信された音声データの音圧を検出する音圧検出手段と、前記音圧検出手段により検出された音圧の時間的な変化を解析し、解析結果に応じて、前記端末毎の発言時間を算出する算出手段と、前記算出手段により算出された前記端末毎の算出結果から、発言時間の割合を前記端末毎に算出する割合算出手段と、前記割合算出手段による算出結果に基づいたデータを出力する出力手段とを具備することを特徴とする会議支援装置を提供する。
本発明の好ましい態様において、前記出力手段は、前記割合算出手段によって算出された割合を示す画像データを、表示手段に出力してもよい。
また、本発明の更に好ましい態様において、前記割合算出手段によって算出された割合の時間的な遷移を示す遷移データを生成し、生成した遷移データを出力する遷移データ出力手段を具備してもよい。
また、本発明の更に好ましい態様において、前記割合算出手段は、予め定められた単位時間毎に前記割合を算出し、前記出力手段は、前記割合算出手段によって前記割合が算出される毎に前記算出結果に基づいたデータを出力してもよい。
また、本発明の別の好ましい態様において、前記出力手段は、前記割合算出手段によって算出された割合が予め定められた条件を満たす端末に対して、所定のメッセージを出力してもよい。
また、本発明の別の好ましい態様において、前記出力手段は、前記割合算出手段によって算出された割合が予め定められた条件を満たす端末に対して、所定のメッセージを出力してもよい。
また、本発明の更に好ましい態様において、前記音圧検出手段によって検出された音圧の時間的な変化を解析して、前記検出された音圧が予め定められた閾値以下の時間が所定時間長以上継続している端末を特定する端末特定手段を具備し、前記出力手段は、前記端末特定手段によって特定された端末を示すメッセージを出力してもよい。
また、本発明の更に好ましい態様において、前記出力手段は、前記音圧検出手段によって検出された音圧のレベルに応じて、前記データの出力の態様を異ならせてもよい。
また、本発明の更に好ましい態様において、前記割合算出手段は、前記算出手段により算出された発言時間のうちの、最近の所定時間内の算出結果を用いて、前記各利用者の発言時間の割合を算出してもよい。
また、本発明の更に好ましい態様において、前記音圧検出手段によって検出された音圧に応じて、複数の利用者が同時に発言しているか否かを判定する判定手段を具備し、前記出力手段は、前記判定手段による判定結果が肯定的である場合に、前記判定手段によって同時に発言していると判定された複数の利用者のうちの、前記割合算出手段によって算出された割合が小さい利用者に対して発言を優先させる旨のメッセージを出力してもよい。
また、本発明の更に好ましい態様において、前記複数の端末のそれぞれから受信されるデータに応じて、前記端末がマイクミュート設定されているか否かを前記端末毎に判定するマイクミュート判定手段を具備し、前記割合算出手段は、前記マイクミュート判定手段による判定結果が肯定的である端末を除いた端末の発言時間の算出結果を用いて前記割合を算出してもよい。
また、本発明の更に好ましい態様において、前記割合算出手段によって算出された割合が予め定められた閾値以上である端末に対して、マイクミュート設定を指示するマイクミュート指示手段を具備してもよい。
また、本発明の更に好ましい態様において、前記複数の端末から、映像を表す映像データを受信する映像データ受信手段と、前記映像データ受信手段により受信された映像データを解析して、各端末に対応する利用者の発言の有無を判定する映像判定手段と、前記割合算出手段によって算出された前記端末毎の割合を予め定められた閾値と比較することによって、各端末に対応する利用者の発言の有無を判定する音声判定手段と、前記映像判定手段による判定結果と前記音声判定手段による判定結果とが一致しない端末がある場合に、その旨を報知する報知手段とを具備してもよい。
また、本発明の更に好ましい態様において、前記端末を識別する識別情報と利用者の属性を示す属性情報とを対応付けて記憶するとともに、前記属性と前記データの出力の態様との対応関係を記憶する記憶手段を具備し、前記出力手段は、前記端末に対応する属性情報に応じて前記データの出力の態様を異ならせてもよい。
本発明によれば、複数の通信端末を用いて遠隔会議等を行う際に、発言者の偏りを軽減することができる。
<第1実施形態>
<構成>
図1は、この発明の一実施形態である遠隔会議システム1の構成を示すブロック図である。この遠隔会議システム1は、複数の拠点のそれぞれに設置された複数の端末10a,10b,10c,10dが、インターネット等の通信ネットワーク20に接続されて構成される。なお、図1においては4つの端末10a,10b,10c,10dを図示しているが、端末の数は4に限定されるものではなく、これより多くても少なくてもよい。また、以下の説明においては、説明の便宜上、端末10a,10b,10c,10dを各々区別する必要がない場合には、これらを「端末10」と称して説明する。遠隔会議の参加者Sが端末10を用いて通信を行うことで、遠隔会議が実現される。
<構成>
図1は、この発明の一実施形態である遠隔会議システム1の構成を示すブロック図である。この遠隔会議システム1は、複数の拠点のそれぞれに設置された複数の端末10a,10b,10c,10dが、インターネット等の通信ネットワーク20に接続されて構成される。なお、図1においては4つの端末10a,10b,10c,10dを図示しているが、端末の数は4に限定されるものではなく、これより多くても少なくてもよい。また、以下の説明においては、説明の便宜上、端末10a,10b,10c,10dを各々区別する必要がない場合には、これらを「端末10」と称して説明する。遠隔会議の参加者Sが端末10を用いて通信を行うことで、遠隔会議が実現される。
図2は、端末10の構成の一例を示すブロック図である。図において、制御部11は、CPU(Central Processing Unit)やROM(Read Only Memory)、RAM(Random Access Memory)を備え、ROM又は記憶部12に記憶されているコンピュータプログラムを読み出して実行することにより、バスBUSを介して端末10の各部を制御する。記憶部12は、制御部11によって実行されるコンピュータプログラムやその実行時に使用されるデータを記憶するための記憶手段であり、例えばハードディスク装置である。表示部13は、液晶パネルを備え、制御部11による制御の下に各種の画像を表示する。操作部14は、端末10の利用者による操作に応じた信号を出力する。マイクロホン15は、収音し、収音した音声を表す音声信号(アナログ信号)を出力する。音声処理部16は、マイクロホン15が出力する音声信号(アナログ信号)をA/D変換によりデジタルデータに変換する。また、音声処理部16は、供給されるデジタルデータをD/A変換によりアナログ信号に変換してスピーカ17に供給する。スピーカ17は、音声処理部16から出力されるアナログ信号に応じた強度で放音する。通信部18は、他の端末10との間で通信ネットワーク20を介して通信を行うための通信手段である。撮影部19は、撮影し、撮影した映像を表す映像データを出力する。
なお、この実施形態では、マイクロホン15とスピーカ17とが端末10に含まれている場合について説明するが、音声処理部16に入力端子及び出力端子を設け、オーディオケーブルを介してその入力端子に外部マイクロホンを接続する構成としても良い。同様に、オーディオケーブルを介してその出力端子に外部スピーカを接続する構成としてもよい。また、この実施形態では、マイクロホン15から音声処理部16へ入力されるオーディオ信号及び音声処理部16からスピーカ17へ出力されるオーディオ信号がアナログオーディオ信号である場合について説明するが、デジタルオーディオデータを入出力するようにしても良い。このような場合には、音声処理部16にてA/D変換やD/A変換を行う必要はない。表示部13についても同様であり、外部出力端子を設け、外部モニタを接続する構成としても良い。
次に、端末10の機能的構成について図面を参照しつつ説明する。図3は、端末10の機能的構成の一例を示す図である。図において、分析部111,合成部112,通信ブロック部113,割合表示作成部114は、制御部11が記憶部12に記憶されたコンピュータプログラムを読み出して実行することによって実現される。なお、図中の矢印はデータの流れを概略的に示すものである。
分析部111は、音声処理部16から供給される音声データ(すなわちマイクロホン15によって収音された音声を表す音声データ)の音圧を検出する。また、分析部111は、検出した音圧の時間的な変化を解析し、解析結果に応じて、利用者の発言時間を算出する。分析部111は、算出結果を示す発言時間データを合成部112に供給する。また、分析部111は、操作部14から出力される信号に応じて、マイクミュート設定がONであるか否かを判定し、判定結果を示すミュート設定データを合成部112に供給する。
合成部112はマイクロホン15によって収音された音声を表す音声データと、分析部111から供給される発言時間データとミュート設定データとを通信ブロック部113に供給する。通信ブロック部113は、合成部112から供給されるデータをパケット化して、通信部18を介して他の端末10へ送信する。また、通信ブロック部113は、他の端末10から送信されてくる音声データ、発言時間データ及びミュート設定データを受信する。
割合表示作成部114は、自端末10で算出した発言時間データと、他の端末10から受信される発言時間データから、端末10毎の発言時間の割合(以下「発言割合」という)を予め定められた単位時間毎に算出する。また、割合表示作成部114は、算出した発言割合を示す画像データを、発言割合を算出する毎に逐次生成し、表示部13に逐次出力する。表示部13は、割合表示作成部114から供給される画像データに応じて、発言時間の割合を示す画面を表示する。
<動作>
次に、本実施形態の動作について説明する。端末10は、マイクロホン15で収音した音声を表す音声データと撮影部19で撮影した映像を表す映像データとを含むデータ(以下「会議データ」と称する)を、他の端末10に送信する。また、端末10は、複数の他の端末10のそれぞれについて、各端末10の利用者の音声を収音するマイクロホン15によって収音された音声を表す音声データと、撮影部19によって撮影された映像を表す映像データとを含む会議データを、通信ネットワーク20を介して受信し、受信した会議データに含まれる音声データをスピーカ17から音として放音するとともに、受信した会議データに含まれる映像データを表示部13に出力して映像を表示させる。これにより遠隔会議が実現される。
次に、本実施形態の動作について説明する。端末10は、マイクロホン15で収音した音声を表す音声データと撮影部19で撮影した映像を表す映像データとを含むデータ(以下「会議データ」と称する)を、他の端末10に送信する。また、端末10は、複数の他の端末10のそれぞれについて、各端末10の利用者の音声を収音するマイクロホン15によって収音された音声を表す音声データと、撮影部19によって撮影された映像を表す映像データとを含む会議データを、通信ネットワーク20を介して受信し、受信した会議データに含まれる音声データをスピーカ17から音として放音するとともに、受信した会議データに含まれる映像データを表示部13に出力して映像を表示させる。これにより遠隔会議が実現される。
このとき、各端末10の制御部11は、マイクロホン15の入力レベルをモニタリングし、発言があればその割合(発言時間/経過時間)を逐次計算し、計算結果を示す割合データを他の端末10へ送信する。より具体的には、端末10の制御部11は、マイクロホン15で収音された音声を表す音声データの音圧を検出する。制御部11は、検出した音圧の時間的な変化を解析し、解析結果に応じて、各端末10の利用者の発言時間を算出する。この動作例では、制御部11は、検出した音圧が予め定められた閾値以上である場合に、その端末10の利用者が発言していると判定する一方、それ以外の場合には、その端末10の利用者が発言していないと判定する。制御部11は、音圧に基づいた判定結果に応じて、各端末10の利用者の発言時間を算出する。
また、制御部11は、自端末で算出した発言時間データと他の端末10から受信される発言時間データとから、全体の発言時間を算出し、算出した全体の発言時間に対する端末10毎の発言割合を算出する。次いで、制御部11は、算出した発言割合を示す画像データを生成し、生成した画像データを表示部13に出力する。表示部13は、制御部11から供給されるデータに応じて、発言割合を示す画像を表示する。図4は、表示部13に表示される画面の一例を示す図である。図4に示す例では、会議開始から現在の時間までの間における各端末10の発言割合を示す円グラフG1と、最近10分間における各端末10の発言割合を示す円グラフG2とが表示されている。図4に示す例では、制御部11は、発言時間データの示す発言時間を用いて、会議開始からの全体の時間における発言割合を端末10毎に算出し、算出結果を示す円グラフG2を表すデータを生成して表示部13に出力する。また、制御部11は、発言時間データの示す発言時間のうちの、最近の所定時間における算出結果を用いて、端末10毎の発言割合を算出し、算出結果を示す円グラフG1を表すデータを生成して表示部13に出力する。
制御部11は、所定単位時間毎に発言割合の算出処理を行い、発言割合を算出する毎に表示部13の表示内容を更新する。すなわち、会議が行われている最中において、表示部13に表示される発言割合を表す画像がリアルタイムに更新される。
会議の参加者は、表示部13に表示された画面を見ながら会議を行うことができる。例えば遠隔会議時において、バランスよく会話が出来ているかどうかは重要な要因になる。特に他拠点の会議の場合、発言を多くしている拠点、少ない拠点、全く喋っていない拠点等が分かると、司会がバランスよく発言してもらえるように誘導もしやすくなるし、自分の会話量が多い・適正・少ないということにも気付いてアクションを起こし易い。本実施形態によれば、会議の参加者が表示部13に表示された画面をみることで参加者の発言割合を把握することができ、これにより、発言者が偏ることを軽減することができる。
さて、遠隔会議を終えると、会議の参加者は、操作部14を用いて、会議が終了した旨を入力する。制御部11は、操作部14から出力される信号に応じて、会議が終了したか否かを判定する。会議が終了したと判定すると、制御部11は、算出した発言割合の時間的な遷移を示す画像データを生成し、生成した画像データを表示部13に供給する。表示部13は、供給される画像データに応じて、発言割合の遷移を表す画像を表示する。図5は、表示部13に表示される画面の一例を示す図である。図5に示す例では、端末10毎の発言割合を所定単位時間毎(15分毎)に示す図G11,G12,G13,…G19が表示されている。会議の司会者や参加者は、図5に示す画面をみることで、拠点毎(端末10毎)の発言割合の遷移を把握することができる。
また、発言割合の遷移を表示部13に表示するに限らず、印刷出力して参加者に配布してもよい。この場合は、制御部11が、図5に例示するような画像を表すデータを外部接続されたプリンタ等に出力することによって用紙に印刷出力し、会議の司会者等が印刷出力された用紙を参加者に配布する。このようにすることによって、会議の参加者や管理者は、誰が(どの拠点が)主に話していてそれが決まったのか等を確認することが出来る。
以上説明したように本実施形態によれば、制御部11が、マイクロホン15で収音される音声の音圧を検出し、検出結果に応じて発言割合を算出し、算出した発言割合を表示部13に表示することによって会議の参加者に報知する。このようにすることにより、会議の参加者は、それぞれの参加者の発言割合を確認することができる。
また、本実施形態によれば、端末10が、割合遷移表を作成して表示部13に表示することによって、会議の参加者は、会議の発言状況を確認することができる。
また、本実施形態によれば、端末10が、割合遷移表を作成して表示部13に表示することによって、会議の参加者は、会議の発言状況を確認することができる。
<変形例>
以上、本発明の実施形態について説明したが、本発明は上述した実施形態に限定されることなく、他の様々な形態で実施可能である。以下にその例を示す。なお、以下の各態様を適宜に組み合わせてもよい。
(1)上述の実施形態では、本発明に係る通信端末を用いて遠隔会議を行う場合について説明したが、本発明はこれに限らず、例えば、通信ネットワークを介して講義や講演を行う場合においても本発明を適用することができる。
以上、本発明の実施形態について説明したが、本発明は上述した実施形態に限定されることなく、他の様々な形態で実施可能である。以下にその例を示す。なお、以下の各態様を適宜に組み合わせてもよい。
(1)上述の実施形態では、本発明に係る通信端末を用いて遠隔会議を行う場合について説明したが、本発明はこれに限らず、例えば、通信ネットワークを介して講義や講演を行う場合においても本発明を適用することができる。
(2)上述の実施形態では、複数の端末10のそれぞれが発言割合の算出処理を行ったが、これに代えて、図6に示すような、端末10間の遠隔会議を管理するサーバ装置30を設ける構成とし、サーバ装置30が、各端末10の発言割合を算出し、算出結果を端末10のそれぞれに送信するようにしてもよい。この場合は、端末10のそれぞれは、自端末のマイクロホン15で収音された音声を表す音声データと撮影部19で撮影された映像を表す映像データとをサーバ装置30に送信する。サーバ装置30は、複数の端末10から送信されてくる音声データと映像データとを受信し、各端末10に配信するとともに、端末10から送信される音声データを解析して発言時間を端末10毎に算出する。サーバ装置30は、算出した端末10毎の発言時間から発言割合を算出し、算出した発言割合を示す割合データを各端末10に送信する。端末10は、サーバ装置30から送信されてくる割合データに応じて、各端末10の発言割合を示す画像を表示部13に表示する。
また、上述の実施形態では、端末10は、自端末のマイクロホン15で収音された音声を表す音声データを解析して発言時間を算出し、算出した発言時間を示す発言時間データを他の端末10に送信するとともに、他の端末10から発言時間データを受信した。他の端末10から発言時間データを受信するに代えて、端末10が、他の端末10から送信されてくる音声データを受信し、受信した音声データの音圧を検出し、検出される音圧の時間的な変化を解析して発言時間を算出するようにしてもよい。この場合は、端末10は、算出した端末10毎の発言時間の算出結果に応じて、端末10毎の発言割合を算出する。
(3)上述の実施形態では、制御部11が、拠点毎(端末10毎)の発言割合を円グラフで表示するようにしたが、表示の態様はこれに限らず、例えば、発言割合を示す画像を半透明にして各参加者の画像に重畳して表示するようにしてもよい。また、例えば、拠点毎の発言割合を個別に表示するようにしてもよい。また、表示に限らず、音声メッセージを放音することによって参加者に発言割合を報知するようにしてもよい。また、発言割合を示すデータを電子メール形式で参加者のメール端末に送信するといった形態であってもよい。また、発言割合を示す情報を記録媒体に出力して記憶させるようにしてもよく、この場合、参加者はコンピュータを用いてこの記録媒体から情報を読み出させることで、それらを参照することができる。また、発言割合を所定の用紙に印刷出力してもよい。要は参加者に対して何らかの手段でメッセージ乃至情報を伝えられるように、発言割合を示す情報を出力するものであればよい。
(4)また、制御部11が行う発言割合の算出処理において、割合を算出する際の分母となる時間は、会議会議からの全体の累積時間(図4の円グラフG1参照)であってもよく、また、例えば、直近10分などの最近の所定時間を用いて発言割合を算出する(図4のグラフG2参照)ようにしてもよい。
(5)また、上述の実施形態において、会議を取り仕切る端末10を一台予め決めておき、その端末10が自動で発言者を奨めるようにしてもよい。例えば、発言が少なくなってきた場合に、参加者の画面へ「○○拠点(一番少ない拠点)の方、発言はありませんでしょうか?」という表示を出すようにしてもよい。具体的には、例えば、端末10が、受信される音声データを解析して、発言が少なくなったか否か(音圧レベルが閾値以下の時間が所定時間以上継続したか否か、等)を判定し、発言が少なくなったと判定された場合に、算出した発言割合が予め定められた条件(発言割合が所定の閾値以下、等)を満たす端末10に対して、「発言はありませんか?」といったメッセージを表すデータを送信するようにすればよい。
また、例えば、会話が被った場合に、注意音(画面に目を向けさせるための音)を出し、発言の少ない方を優先するような表示を出すようにしてもよい。この場合は、具体的には、例えば、端末10の制御部11が、他の端末10から受信される音声データの音圧を検出し、検出した音圧が閾値以上であるか否かを端末10毎に判定し、判定結果が肯定的である(利用者が発言している)端末10が複数あるか否かを判定する。端末10は、利用者が発言している端末10が複数ある(すなわち、複数の利用者が同時に発言している)と判定した場合に、同時に発言していると判定された複数の端末10のうちの、発言割合が小さい端末10に対して発言を優先させる旨のメッセージを表すデータを出力する。このようにすることによって、参加者に対して満遍なく発言を行わせることが容易になる。
(6)上述の実施形態において、マイクミュートをしている利用者に対してその旨をフィードバックするようにしてもよい。この場合は、端末10の制御部11が、音声データの音圧を検出し、検出した音圧の時間的な変化を解析して、音圧が予め定められた閾値以下の時間が所定時間長以上継続している端末10を特定する。そして、制御部11が、特定した端末10を示すメッセージを出力する。
(7)上述の実施形態において、制御部11が、他の端末10から受信される音声データの音圧を検出し、検出した音圧のレベルに応じてメッセージの出力の態様を異ならせるようにしてもよい。この場合は、具体的には、例えば、制御部11が、検出される音圧が予め定められた閾値よりも大きい(議論が白熱している)場合に、表示する画像の色を赤色にすることによって表示を強調するようにしてもよい。
(8)上述の実施形態において、マイクミュート時間を考慮し、マイクミュート時間は除いて割合算出を行うようにしてもよい。この場合は、制御部11は、操作部14から出力される信号に応じて自端末がマイクミュート設定されているか否かを判定し、判定結果を示すミュート設定データを他の端末10へ送信するとともに、他の端末10からミュート設定データを受信する。制御部11は、他の端末10からミュート設定データを受信すると、受信したミュート設定データに応じて、他の端末10がマイクミュート設定されているか否かを端末10毎に判定する。制御部11は、マイクミュート設定されている端末10を除いて割合算出処理を行う。なお、マイクミュート設定されているか否かの判定は、操作部14から出力される信号に応じて判定するに限らず、記憶部12の所定の記憶領域に記憶されたマイクミュート設定の設定値を示すデータを参照することによって、マイクミュート設定のON/OFFを判定するようにしてもよい。
マイクミュート設定を行うということは発言意思がないと考えられるため、そのような拠点(端末10)を割合算出対象から除くことによって、割合算出処理をより好適に行うことができる。
マイクミュート設定を行うということは発言意思がないと考えられるため、そのような拠点(端末10)を割合算出対象から除くことによって、割合算出処理をより好適に行うことができる。
(9)上述の実施形態において、発言割合が多すぎる端末10をミュートするようにしてもよい。この場合は、端末10の制御部11が、算出した発言割合が予め定められた閾値以上である端末10に対して、マイクミュート設定を指示する指示データを送信するようにすればよい。例えば、会議においては、或る特定の参加者のみが発言し続けることによって、他の参加者が発言しづらくなる場合がある。このような場合に、発言割合が多すぎる端末10をミュートすることによって、発言者が偏るのを軽減することができる。
(10)上述の実施形態において、話者毎に属性情報(役職(部長、等)、司会、上司、中間管理職、当事者、等)を付与し、制御部11が、属性情報に応じてメッセージの出力態様(出力頻度、出力内容)を異ならせるようにしてもよい。この場合は、端末10の記憶部12に、端末10を識別する端末IDと端末とその端末の利用者の属性を示す属性情報とを対応付けて記憶するとともに、属性とメッセージの出力の態様との対応関係を記憶しておき、制御部11が、端末10に対応する属性情報に応じてメッセージの出力の態様を異ならせるようにすればよい。また、特定の属性の利用者に対応する端末については、割合算出からはずすようにしてもよい。
また、会議毎に属性(演説、ブレインストーミング、打ち合わせ、報告、等)を付与し、属性に応じて割合算出制御やメッセージ出力制御を行うようにしてもよい。この場合は、属性とメッセージの出力の態様との対応関係を記憶部12の所定の記憶領域に予め記憶しておく。会議の参加者が、端末10の操作部14を用いて会議の属性を入力し、制御部11が、操作部14から出力される信号に応じて会議の属性を特定し、特定した属性に対応する出力の態様でメッセージを出力するようにしてもよい。
(11)また、上述の実施形態において、実際に発言しているのに割合が上がらない参加者に対して、その旨を報知するようにしてもよい。実際に発言しているか否かの判定は、例えば、制御部11が、他の端末10から受信される映像データを解析して、各端末10に対応する参加者の発言の有無を判定してもよい。具体的には、制御部11が、映像データを解析して顔画像の検出を行い、検出された顔画像の口の動きの有無を検出することによって発言の有無を判定してもよい。また、実際に発言しているか否かの他の判定方法として、例えば、制御部11が、マイクロホン15の収音音圧レベルを検出し、検出結果に応じて判定してもよい。そして、制御部11が、発言割合が所定閾値以下であって、かつ、映像解析によって発言有りと判定された端末10(すなわち、実際に発言しているのに割合が上がらない利用者の端末)がある場合に、その旨を報知するようにしてもよい。
例えば、参加者がマイクミュート設定をONにしたまま発言した場合や、参加者とマイクロホン15との位置関係が不適切であるために参加者の音声がマイクロホン15で適切に収音されない場合があり得る。そのような場合であっても、この態様によれば、参加者にその旨を報知することができる。
例えば、参加者がマイクミュート設定をONにしたまま発言した場合や、参加者とマイクロホン15との位置関係が不適切であるために参加者の音声がマイクロホン15で適切に収音されない場合があり得る。そのような場合であっても、この態様によれば、参加者にその旨を報知することができる。
(12)上述の実施形態において、制御部11が、発言者の遷移を時系列に監視し、ブランクが検出された場合に、最初の発言者に戻すようにしてもよい。この場合は、端末10の制御部11が、他の端末10から受信される音声データの音圧を検出し、検出した音圧が所定閾値以上である端末10の利用者を発言者として特定する。制御部11は、所定単位時間毎に発言者の特定処理を行い、発言者の遷移を示す遷移データを時系列に記憶する。また、制御部11は、他の端末10から受信される音声データの音圧が所定閾値以下の期間が所定時間長以上継続した場合に、記憶された遷移に基づいてその議題についての最初の発言者を特定し、特定した発言者に対して発言を促すメッセージを出力する。この場合、最初の発言者の特定方法としては、例えば、制御部11が、会議が開始されてから最初に発言した者を特定するようにしてもよく、また、例えば、議題を変更するタイミングで会議の参加者が操作部14を用いてその旨を入力するようにし、制御部11が操作部14から出力される信号に応じて議題の変更タイミングを検出し、議題の変更が検出されてから最初に発言した者を特定するようにしてもよい。また、例えば、制御部11が、ブランク(音声データの音圧が所定閾値以下の期間が所定時間以上継続した時間)を検出し、ブランクが検出されたタイミングを議題が変更されたタイミングであると判定するようにしてもよい。
(13)上述の実施形態において、端末10の制御部11によって実行されるプログラムは、磁気記録媒体(磁気テープ、磁気ディスクなど)、光記録媒体(光ディスクなど)、光磁気記録媒体、半導体メモリなどのコンピュータが読取可能な記録媒体に記録した状態で提供し得る。また、インターネットのようなネットワーク経由で端末10にダウンロードさせることも可能である。
1…遠隔会議システム、10…端末、11…制御部、12…記憶部、13…表示部、14…操作部、15…マイクロホン、16…音声処理部、17…スピーカ、18…通信部、19…撮影部、20…通信ネットワーク、30…サーバ装置、111…分析部、112…合成部、113…通信ブロック部、114…割合表示作成部。
Claims (4)
- 複数の端末のそれぞれについて、各端末の利用者の音声を収音する収音手段によって収音された音声を表す音声データを、通信ネットワークを介して受信する音声データ受信手段と、
前記音声データ受信手段により受信された音声データの音圧を検出する音圧検出手段と、
前記音圧検出手段により検出された音圧の時間的な変化を解析し、解析結果に応じて、前記端末毎の発言時間を算出する算出手段と、
前記算出手段により算出された前記端末毎の算出結果から、発言時間の割合を前記端末毎に算出する割合算出手段と、
前記割合算出手段による算出結果に基づいたデータを出力する出力手段と
を具備することを特徴とする会議支援装置。 - 前記出力手段は、前記割合算出手段によって算出された割合を示す画像データを、表示手段に出力する
ことを特徴とする請求項1に記載の会議支援装置。 - 前記割合算出手段によって算出された割合の時間的な遷移を示す遷移データを生成し、生成した遷移データを出力する遷移データ出力手段
を具備することを特徴とする請求項1又は2に記載の会議支援装置。 - 前記割合算出手段は、予め定められた単位時間毎に前記割合を算出し、
前記出力手段は、前記割合算出手段によって前記割合が算出される毎に前記算出結果に基づいたデータを出力する
ことを特徴とする請求項1乃至3のいずれか1項の記載の会議支援装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008239247A JP2010074494A (ja) | 2008-09-18 | 2008-09-18 | 会議支援装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008239247A JP2010074494A (ja) | 2008-09-18 | 2008-09-18 | 会議支援装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010074494A true JP2010074494A (ja) | 2010-04-02 |
Family
ID=42205872
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008239247A Pending JP2010074494A (ja) | 2008-09-18 | 2008-09-18 | 会議支援装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010074494A (ja) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016001996A1 (ja) * | 2014-06-30 | 2016-01-07 | 楽天株式会社 | 情報処理装置、情報処理方法、および、情報処理装置用プログラム |
JP2016189532A (ja) * | 2015-03-30 | 2016-11-04 | 日本電気株式会社 | テレビ会議システム、テレビ会議制御装置、及びテレビ会議制御方法 |
JP2017112545A (ja) * | 2015-12-17 | 2017-06-22 | 株式会社イトーキ | 会議支援システム |
JP6589042B1 (ja) * | 2018-01-16 | 2019-10-09 | ハイラブル株式会社 | 音声分析装置、音声分析方法、音声分析プログラム及び音声分析システム |
JP2019211962A (ja) * | 2018-06-04 | 2019-12-12 | 株式会社東芝 | 会議生産性可視化システム、会議生産性可視化装置、可視化方法およびプログラム |
JP2020005030A (ja) * | 2018-06-25 | 2020-01-09 | シャープ株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP2020016893A (ja) * | 2018-01-16 | 2020-01-30 | ハイラブル株式会社 | 音声分析装置、音声分析方法、音声分析プログラム及び音声分析システム |
JP2021140570A (ja) * | 2020-03-06 | 2021-09-16 | 株式会社日立製作所 | 発話支援装置、発話支援方法、および発話支援プログラム |
JP2021140569A (ja) * | 2020-03-06 | 2021-09-16 | 株式会社日立製作所 | 発話支援装置、発話支援方法、および発話支援プログラム |
JP2022017527A (ja) * | 2018-01-16 | 2022-01-25 | ハイラブル株式会社 | 音声分析装置、音声分析方法、音声分析プログラム及び音声分析システム |
JP2022174241A (ja) * | 2021-11-08 | 2022-11-22 | ハイラブル株式会社 | 音声分析装置、音声分析方法、音声分析プログラム及び音声分析システム |
WO2022264220A1 (ja) * | 2021-06-14 | 2022-12-22 | 株式会社I’mbesideyou | 動画像分析システム |
-
2008
- 2008-09-18 JP JP2008239247A patent/JP2010074494A/ja active Pending
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2016001996A1 (ja) * | 2014-06-30 | 2017-04-27 | 楽天株式会社 | 情報処理装置、情報処理方法、および、情報処理装置用プログラム |
WO2016001996A1 (ja) * | 2014-06-30 | 2016-01-07 | 楽天株式会社 | 情報処理装置、情報処理方法、および、情報処理装置用プログラム |
JP2016189532A (ja) * | 2015-03-30 | 2016-11-04 | 日本電気株式会社 | テレビ会議システム、テレビ会議制御装置、及びテレビ会議制御方法 |
JP2017112545A (ja) * | 2015-12-17 | 2017-06-22 | 株式会社イトーキ | 会議支援システム |
JP6589042B1 (ja) * | 2018-01-16 | 2019-10-09 | ハイラブル株式会社 | 音声分析装置、音声分析方法、音声分析プログラム及び音声分析システム |
JP2020016893A (ja) * | 2018-01-16 | 2020-01-30 | ハイラブル株式会社 | 音声分析装置、音声分析方法、音声分析プログラム及び音声分析システム |
JP2022017527A (ja) * | 2018-01-16 | 2022-01-25 | ハイラブル株式会社 | 音声分析装置、音声分析方法、音声分析プログラム及び音声分析システム |
JP7214372B2 (ja) | 2018-06-04 | 2023-01-30 | 株式会社東芝 | 会議生産性可視化システム、会議生産性可視化装置、可視化方法およびプログラム |
JP2019211962A (ja) * | 2018-06-04 | 2019-12-12 | 株式会社東芝 | 会議生産性可視化システム、会議生産性可視化装置、可視化方法およびプログラム |
JP2020005030A (ja) * | 2018-06-25 | 2020-01-09 | シャープ株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP7220525B2 (ja) | 2018-06-25 | 2023-02-10 | シャープ株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP2021140570A (ja) * | 2020-03-06 | 2021-09-16 | 株式会社日立製作所 | 発話支援装置、発話支援方法、および発話支援プログラム |
JP7154245B2 (ja) | 2020-03-06 | 2022-10-17 | 株式会社日立製作所 | 発話支援装置、発話支援方法、および発話支援プログラム |
JP2021140569A (ja) * | 2020-03-06 | 2021-09-16 | 株式会社日立製作所 | 発話支援装置、発話支援方法、および発話支援プログラム |
WO2022264220A1 (ja) * | 2021-06-14 | 2022-12-22 | 株式会社I’mbesideyou | 動画像分析システム |
JP2022174241A (ja) * | 2021-11-08 | 2022-11-22 | ハイラブル株式会社 | 音声分析装置、音声分析方法、音声分析プログラム及び音声分析システム |
JP7414319B2 (ja) | 2021-11-08 | 2024-01-16 | ハイラブル株式会社 | 音声分析装置、音声分析方法、音声分析プログラム及び音声分析システム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2010074494A (ja) | 会議支援装置 | |
US8878678B2 (en) | Method and apparatus for providing an intelligent mute status reminder for an active speaker in a conference | |
EP2814244A1 (en) | A method and a system for improving communication quality of a video conference | |
JP6420514B1 (ja) | 会話ロボット | |
US11606465B2 (en) | Systems and methods to automatically perform actions based on media content | |
US11595278B2 (en) | Systems and methods to automatically perform actions based on media content | |
US11290684B1 (en) | Systems and methods to automatically perform actions based on media content | |
TW201543902A (zh) | 視訊會議靜音技術 | |
US20220191263A1 (en) | Systems and methods to automatically perform actions based on media content | |
JP2009267621A (ja) | 通信装置 | |
JP2010176544A (ja) | 会議支援装置 | |
US11463501B2 (en) | Method of determining the speech in a Web-RTC audio or video communication and/or collaboration session and communication system | |
JP5217877B2 (ja) | 会議支援装置 | |
JP2010086356A (ja) | 意識関与度測定装置、意識関与度測定方法および意識関与度測定プログラム | |
US20220208216A1 (en) | Two-way communication support system and storage medium | |
US11749079B2 (en) | Systems and methods to automatically perform actions based on media content | |
US20220013128A1 (en) | Conversation support system, conversation support method and computer readable storage medium | |
US11755278B2 (en) | Source-based sound quality adjustment tool | |
US11783837B2 (en) | Transcription generation technique selection | |
JP5432805B2 (ja) | 発言機会均等化方法、発言機会均等化装置及び発言機会均等化プログラム | |
JP2000083229A (ja) | 会議システム、話者表示方法及び記録媒体 | |
JP2009302824A (ja) | 音声通信システム | |
JP2010226377A (ja) | 遠隔会議支援装置、及び方法 | |
JP4768578B2 (ja) | テレビ会議システム、及び、テレビ会議システムにおける制御方法 | |
JP2004112511A (ja) | 表示制御装置および方法 |