Nothing Special   »   [go: up one dir, main page]

JP7240596B2 - 会話分析装置および会話分析システム - Google Patents

会話分析装置および会話分析システム Download PDF

Info

Publication number
JP7240596B2
JP7240596B2 JP2019032833A JP2019032833A JP7240596B2 JP 7240596 B2 JP7240596 B2 JP 7240596B2 JP 2019032833 A JP2019032833 A JP 2019032833A JP 2019032833 A JP2019032833 A JP 2019032833A JP 7240596 B2 JP7240596 B2 JP 7240596B2
Authority
JP
Japan
Prior art keywords
conversation
analysis device
subject
conversation analysis
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019032833A
Other languages
English (en)
Other versions
JP2020135826A (ja
Inventor
宏 杉原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Document Solutions Inc
Original Assignee
Kyocera Document Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Document Solutions Inc filed Critical Kyocera Document Solutions Inc
Priority to JP2019032833A priority Critical patent/JP7240596B2/ja
Priority to US16/794,624 priority patent/US11462234B2/en
Publication of JP2020135826A publication Critical patent/JP2020135826A/ja
Application granted granted Critical
Publication of JP7240596B2 publication Critical patent/JP7240596B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01PMEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
    • G01P13/00Indicating or recording presence, absence, or direction, of movement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0631Resource planning, allocation, distributing or scheduling for enterprises or organisations
    • G06Q10/06311Scheduling, planning or task assignment for a person or group
    • G06Q10/063114Status monitoring or status determination for a person or group
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0639Performance analysis of employees; Performance analysis of enterprise or organisation operations
    • G06Q10/06398Performance of employee with respect to a job function
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/01Social networking
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/32Multiple recognisers used in sequence or in parallel; Score combination systems therefor, e.g. voting systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/08Mouthpieces; Microphones; Attachments therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2420/00Details of connection covered by H04R, not provided for in its groups
    • H04R2420/07Applications of wireless loudspeakers or wireless microphones

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • General Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Development Economics (AREA)
  • Marketing (AREA)
  • Educational Administration (AREA)
  • Tourism & Hospitality (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Game Theory and Decision Science (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Telephonic Communication Services (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は、会話分析装置および会話分析システムに関するものである。
種々の目的でグループ内のメンバー間のコミュニケーションを測定するシステムが提案されている。
あるシステムでは、状況情報取得サーバーが、特定の場所ごとに配置されたセンサーで、被験者の無線タグを検出し、被験者の現在位置を特定し、対話行動評価装置が、特定された被験者の現在位置に基づき、その被験者の対話事象を検出し、対話頻度表を更新している(例えば特許文献1参照)。
別のシステムは、被験者に付与されているRFID(Radio Frequency IDentifier)を利用して被験者の現在位置を特定してその現在位置の履歴に基づいて被験者の移動を検出するとともに、被験者に付与されている加速度センサーで被験者のジェスチャーを検出し、その移動やジェスチャーに基づいて、被験者間のコミュケーションが発生したか否かを判定している(例えば特許文献2参照)。
特開2006-260102号公報 特開2008-301290号公報
しかしながら、上述のシステムでは、被験者の現在位置が特定されてしまうため、被験者が常に監視されているように感じ、被験者の心理的抵抗が大きく、そのようなシステムの導入は現実的には難しい。
本発明は、上記の問題に鑑みてなされたものであり、被験者の心理的抵抗を軽減しつつ被験者間の会話を分析する会話分析装置および会話分析システムを得ることを目的とする。
本発明に係る会話分析装置は、当該会話分析装置を所持する第1被験者の会話音声を検出するマイクロフォンと、当該会話分析装置の移動を検知する加速度センサーと、(a)別の第2被験者が所持する別の会話分析装置を検出し、(b)前記加速度センサーに基づく当該会話分析装置の移動の履歴を移動履歴情報として、別の会話分析装置へ送信するとともに、前記別の会話分析装置から移動履歴情報を受信する無線通信部と、前記第1被験者の会話音声が検出された場合、(a)当該会話分析装置の移動の履歴、(b)前記別の会話分析装置の検出の有無、および(c)前記別の会話分析装置が検出された場合に受信された前記別の会話分析装置の移動履歴情報に基づいて、前記会話音声を所定の複数の会話ケースのいずれかに分類する会話分析部とを備える。
本発明に係る会話分析システムは、複数の被験者に対応する複数の上述の会話分析装置と、管理サーバーとを備える。そして、前記管理サーバーは、前記複数の被験者の前記会話分析装置から前記会話音声ごとの前記会話ケースを取得し、前記複数の被験者についての前記会話ケースに基づき、前記複数の被験者の間の関係性を特定する。
本発明によれば、被験者の心理的抵抗を軽減しつつ被験者間の会話を分析する会話分析装置および会話分析システムが得られる。
本発明の上記又は他の目的、特徴および優位性は、添付の図面とともに以下の詳細な説明から更に明らかになる。
図1は、本発明の実施の形態に係る会話分析システムの構成を示すブロック図である。 図2は、図1における各会話分析装置1-iの構成を示すブロック図である。 図3は、会話分析装置1-p,q,r,s,t,uの移動と会話ケースとの対応関係を説明する図である。 図4は、図1および図2に示す各会話分析装置1-iの動作について説明するフローチャートである。
以下、図に基づいて本発明の実施の形態を説明する。
図1は、本発明の実施の形態に係る会話分析システムの構成を示すブロック図である。図1に示す会話分析システムは、複数の被験者101-1~101-N(N>1)にそれぞれ所持される複数の会話分析装置1-1~1-Nと、管理サーバー2とを備える。
図1に示すように、例えばオフィスなどにおいて、各被験者101-i(i=1,・・・,N)は自席を有し、特定のグループに所属する複数の被験者101-iの自席は隣接して設置されている。例えば図1では、1つのグループに属する被験者101-1~101-4の自席が互いに隣接して配置されており、別のグループに属する被験者101-5~101-7の自席が互いに隣接して配置されている。なお、グループに属する被験者101-iの数は特に限定されない。
各被験者101-iは、通常、自席で作業を行っており、必要に応じて、(a)自席にて電話で会話したり(会話ケース#1)、(b)グループ内の別の被験者101-jと自席で会話をしたり(会話ケース#2)、(c)移動してきた別の被験者101-jと自席で会話したり(会話ケース#3)、(d)別の被験者101-jのところへ移動して会話をしたり(会話ケース#4)、(e)会議室などで会議中に会話をしたり(会話ケース#5)、(f)フリースペースや休憩場所などで休憩中に会話をしたり(会話ケース#6)する。なお、各被験者101-iが移動する際には、会話分析装置1-iを携帯して移動する。
各会話分析装置1-iは、被験者101-iの会話音声を検出すると、その会話音声を上述の会話ケース#1~#6のいずれに分類し、各会話ケース#iの会話音声の検出回数をカウントする。
図2は、図1における各会話分析装置1-iの構成を示すブロック図である。
具体的には、各会話分析装置1-iは、マイクロフォン11、加速度センサー12、無線通信部13、会話分析部14、フラッシュメモリーなどといった不揮発性の記憶装置15などを備えるポータブルデバイスである。例えば、会話分析装置1-iは、当該被験者101-iの会話音声を検出しやすいように胸元に配置される。
マイクロフォン11は、当該会話分析装置1-iを所持する被験者101-iの会話音声を検出する。
加速度センサー12は、当該会話分析装置1-i(つまり、被験者101-i)の移動を検知する。
無線通信部13は、(a)別の被験者101-jが所持する別の会話分析装置1-jを検出し、(b)加速度センサー12に基づく当該会話分析装置1-iの移動の履歴を移動履歴情報として、別の会話分析装置1-jへ送信するとともに、別の会話分析装置1-jから別の会話分析装置1-jの移動履歴情報を受信する。つまり、会話分析装置1-i,1-jが互いに接近したときに、移動履歴情報が交換される。
例えば、無線通信部13は、数メートルの通信可能エリアを有する近距離無線通信インターフェイス(例えばブルートゥース(登録商標)など)であり、通信可能エリア内にある別の会話分析装置1-j(具体的には別の会話分析装置1-jの無線通信部13)を検出し、通信可能エリア外の会話分析装置1-jを検出しない。
会話分析部14は、例えばマイクロコンピューターなどで実現され、(a)移動履歴の記録、および(b)会話音声の分類を行う。
具体的には、会話分析部14は、加速度センサー12で移動が検出されると、移動のタイミング(日時など)を移動履歴情報として記憶装置15に蓄積していく。移動履歴情報としては、所定回数分あるいは所定時間内の移動タイミングが記憶される。その際、被験者101-i(会話分析装置1-i)の現在位置は記録されない。そして、会話分析部14は、当該被験者101-iの会話音声が検出された場合、(a)当該会話分析装置1-iの移動の履歴、(b)無線通信部13による別の会話分析装置1-jの検出の有無、および(c)別の会話分析装置1-jが検出された場合に受信された別の会話分析装置1-jの移動履歴情報に基づいて、当該会話音声を所定の複数の会話ケースのいずれかに分類する。
図3は、会話分析装置1-p,q,r,s,t,uの移動と会話ケースとの対応関係を説明する図である。
例えば図3に示すように、会話ケース#1(電話での会話)の場合、当該被験者101-pの会話分析装置1-pの移動がなく、別の被験者の会話音声が検出されない。
例えば図3に示すように、会話ケース#2(自席でのグループ内会話)の場合、当該被験者101-qの会話分析装置1-qおよび別の会話分析装置1-rの移動がなく、別の被験者101-rの会話音声が検出される。
例えば図3に示すように、会話ケース#3(他者が移動してきての会話)の場合、当該被験者101-qの会話分析装置1-qの移動がなく、別の会話分析装置1-sの移動がある。
例えば図3に示すように、会話ケース#4(他者のところへ移動しての会話)の場合、当該被験者101-qの会話分析装置1-qの移動があり、別の会話分析装置1-tの移動がない。
例えば図3に示すように、会話ケース#5(会議での会話)の場合、会話分析装置1-qおよび別の会話分析装置1-uの移動があり、かつ、(集合時刻が定められているため )両者の移動タイミングが互いに近い。
例えば図3に示すように、会話ケース#6(休憩中の会話)の場合、会話分析装置1-qおよび別の会話分析装置1-sの移動があり、かつ、(集合時刻が定められていないため)両者の移動タイミングが互いに近くない。
したがって、具体的には、会話分析部14は、当該会話分析装置1-iの移動履歴と、別の会話分析装置1-jの検出の有無と、別の会話分析装置1-jの移動履歴とに基づいて、以下のように会話音声を会話ケース#1~#6のいずれかに分類する。
会話分析部14は、被験者101-iの会話音声が検出された場合、当該会話分析装置1-iの移動がなく、かつ別の会話分析装置1-jの移動がなく、かつ、マイクロフォン11により被験者101-iの会話音声とともに被験者101-jの会話音声が検出されなかったときには、被験者101-iの当該会話音声を、会話ケース#1(電話での会話)に分類する。
また、会話分析部14は、被験者101-iの会話音声が検出された場合、(a)当該会話分析装置1-iの移動がなく、かつ(b)別の会話分析装置1-jの移動がなく、かつ(c)マイクロフォン11により被験者101-iの会話音声とともに被験者101-jの会話音声が検出されたときには、被験者101-iの当該会話音声を、会話ケース#2(自席でのグループ内会話)に分類する。
なお、会話分析部14は、当該被験者101-iの会話音声と別の被験者101-jとを、例えば、音源方向、音声の音圧レベルなどに基づいて区別する。また、被験者101-i,101-jの移動の有無は、移動履歴情報に直近の所定時間内の移動が記録されているか否かで判定される。
また、会話分析部14は、被験者101-iの会話音声が検出された場合、(a)当該会話分析装置1-iの移動がなく、かつ(b)別の会話分析装置1-jの移動があるときには、被験者101-iの当該会話音声を、会話ケース#3(他者が移動してきての会話)に分類する。
また、会話分析部14は、被験者101-iの会話音声が検出された場合、(a)当該会話分析装置1-iの移動があり、かつ(b)別の会話分析装置1-jの移動がないときには、被験者101-iの当該会話音声を、会話ケース#4(他者のところへ移動しての会話)に分類する。
また、会話分析部14は、被験者101-iの会話音声が検出された場合、(a)当該会話分析装置1-iの移動があり、かつ(b)別の会話分析装置1-jの移動があり、かつ(c)当該会話分析装置1-iの移動の履歴に基づく移動タイミングと別の会話分析装置1-jの移動履歴情報に基づく移動タイミングとの差が所定未満であるときには、被験者101-iの当該会話音声を、会話ケース#5(会議での会話)に分類する。
また、会話分析部14は、被験者101-iの会話音声が検出された場合、(a)当該会話分析装置1-iの移動があり、かつ(b)別の会話分析装置1-jの移動があり、かつ(c)当該会話分析装置1-iの移動の履歴に基づく移動タイミングと別の会話分析装置1-jの移動履歴情報に基づく移動タイミングとの差が所定未満ではないときには、被験者101-iの当該会話音声を、会話ケース#6(休憩中の会話)に分類する。
このように、会話分析部14は、GPS(Global Positioning System)などの位置検出デバイス、RFIDなどで被験者の現在位置を監視せずに、会話音声を分類している。
また、管理サーバー2は、複数の被験者101-1~101-Nの会話分析装置1-1~1-Nから会話音声ごとの会話ケース(つまり、会話分類結果)を取得し、複数の被験者101-1~101-Nについての会話ケースに基づき、複数の被験者101-1~101-Nの間の関係性を特定する。例えば、各会話分析装置1-iの無線通信部13は、無線LAN(Local Area Network)インターフェイスを備え、無線LANを介して管理サーバー2へ会話分類結果を送信する。
また、各会話分析装置1-iまたは管理サーバー2は、会話分類結果に基づいて、各被験者101-iの会話(コミュニケーション)の量(過不足など)や傾向(業務上の会話の量、業務外の会話の量など)を所定の基準(判定式など)で判定するようにしてもよい。さらに、各会話分析装置1-iまたは管理サーバー2は、その判定結果を各被験者101-iに呈示するようにしてもよい。例えば、その判定結果は、会話分析装置1-iの図示せぬ表示装置に表示されたり、被験者101-i宛ての電子メールで通知されたりする。
次に、上記システムにおける各会話分析装置1-iの動作について説明する。図4は、図1および図2に示す各会話分析装置1-iの動作について説明するフローチャートである。
会話分析装置1-iにおいて、会話分析部14は、マイクロフォン11で当該被験者101-iの会話音声が検出されたか否かを監視しており(ステップS1)、当該被験者101-iの会話音声が検出されると、以下の処理を実行する。
まず、会話分析部14は、無線通信部13で通信可能エリア内に別の会話分析装置1-jが存在するか否かを判定する(ステップS2)。
別の会話分析装置1-jが存在する場合、会話分析部14は、無線通信部13を使用して、別の会話分析装置1-jから別の会話分析装置1-jの移動履歴情報を取得する(ステップS3)。
そして、会話分析部14は、記憶装置15に記憶されている当該会話分析装置1-iの移動履歴情報に基づいて、当該会話分析装置1-iが直前(つまり、会話音声の検出までの所定時間内)に移動した否かを判定する(ステップS4)。
当該会話分析装置1-iが直前に移動していない場合、会話分析部14は、別の会話分析装置1-jから取得した移動履歴情報に基づいて、別の会話分析装置1-jが直前(つまり、会話音声の検出までの所定時間内)に移動した否かを判定する(ステップS5)。
別の会話分析装置1-jが直前に移動していない場合(および別の会話分析装置1-jが検出されなかった場合)、会話分析部14は、マイクロフォン11で、別の被験者101-jの会話音声が検出されたか否かを判定する(ステップS6)。
そして、別の被験者101-jの会話音声が検出されなかった場合、会話分析部14は、被験者101-iの当該会話音声を、会話ケース#1(電話での会話)に分類する(ステップS7)。
一方、別の被験者101-jの会話音声が検出された場合、会話分析部14は、被験者101-iの当該会話音声を、会話ケース#2(自席でのグループ内会話)に分類する(ステップS8)。
また、ステップS5において別の会話分析装置1-jが直前に移動していると判定した場合、会話分析部14は、被験者101-iの当該会話音声を、会話ケース#3(他者が移動してきての会話)に分類する(ステップS9)。
また、ステップS4において会話分析装置1-iが直前に移動していると判定した場合、会話分析部14は、ステップS5と同様にして別の会話分析装置1-jが直前に移動した否かを判定する(ステップS10)。
そして、別の会話分析装置1-jが直前に移動していない場合、会話分析部14は、被験者101-iの当該会話音声を、会話ケース#4(他者のところへ移動しての会話)に分類する(ステップS11)。
他方、別の会話分析装置1-jが直前に移動している場合、会話分析部14は、両方の会話分析装置1-i,1-jの移動履歴情報に基づいて、直前の移動の移動タイミングの差が所定値未満であるか否かを判定する(ステップS12)。
両者の差が所定値未満である場合、会話分析部14は、被験者101-iの当該会話音声を、会話ケース#5(会議での会話)に分類する(ステップS13)。
両者の差が所定値未満ではない場合、会話分析部14は、被験者101-iの当該会話音声を、会話ケース#6(休憩中の会話)に分類する(ステップS14)。
そして、このようにして、会話分析部14は、ステップS1で検出された被験者101-iの当該会話音声を会話ケース#1~#6のいずれかに分類すると、その会話分類結果をログとして記憶装置15に記憶する(ステップS15)。その後、ステップS1に戻り、会話分析部14は、当該被験者101-iの会話音声の監視を再開する。
その後、例えば定期的に、会話分析部14または管理サーバー2は、会話分類結果に基づいて、各被験者101-iについての会話ケースごとの会話回数を集計し、その集計結果から、各被験者101-iの会話の量や傾向などを評価し、評価結果を各被験者101-iに呈示したり、記録したりする。
この評価結果は、例えば、従業員の生産性管理やメンタルケアに使用可能である。例えば、会話ケース#2の割合が高い場合、会話ケース#3,#4の会話をするように促すことが可能となる。また、例えば、会話ケース#2の割合が低い場合、グループ内のコミュニケーションが不足していることが想定されるので、会話ケース#2の会話を増やすように促すことが可能となる。また、例えば、会話ケース#6の割合が所定範囲内である場合、適度に気分転換ができていると判断することができ、会話ケース#6の割合が高すぎる場合、業務に集中できていない可能性があると判断することができる。
以上のように、上記実施の形態によれば、各会話分析装置1-iでは、マイクロフォン11が当該会話分析装置1-iを所持する第1被験者101-iの会話音声を検出し、加速度センサー12が当該会話分析装置1-iの移動を検知し、無線通信部13が(a)別の第2被験者101-jが所持する別の会話分析装置1-jを検出し、(b)加速度センサー12に基づく当該会話分析装置1-iの移動の履歴を移動履歴情報として、別の会話分析装置1-jへ送信するとともに、別の会話分析装置1-jから移動履歴情報を受信する。そして、会話分析部14は、第1被験者101-iの会話音声が検出された場合、(a)当該会話分析装置1-iの移動の履歴、(b)別の会話分析装置1-jの検出の有無、および(c)別の会話分析装置1-jが検出された場合に受信された別の会話分析装置1-jの移動履歴情報に基づいて、当該会話音声を所定の複数の会話ケースのいずれかに分類する。
これにより、被験者の心理的抵抗を軽減しつつ被験者間の会話が分析される。
なお、上述の実施の形態に対する様々な変更および修正については、当業者には明らかである。そのような変更および修正は、その主題の趣旨および範囲から離れることなく、かつ、意図された利点を弱めることなく行われてもよい。つまり、そのような変更および修正が請求の範囲に含まれることを意図している。
例えば、上記の実施の形態において、ある会話分析装置1-iの会話分析部14が、上述の無線LANインターフェイスを使用して、他の会話分析装置1-jから会話分類結果を取得し、管理サーバー2の代わりに、管理サーバー2と同様に、複数の会話分析装置1-iについての会話ケースごとの会話回数を集計し、その集計結果から、複数の被験者101-iのそれぞれについての会話の量や傾向などを評価するようにしてもよい。
本発明は、例えば、各被験者のコミュニケーションの頻度や被験者間の関係性などを把握するシステムに適用可能である。
1-1~1-N 会話分析装置
2 管理サーバー
11 マイクロフォン
12 加速度センサー
13 無線通信部
14 会話分析部

Claims (9)

  1. 会話分析装置において、
    当該会話分析装置を所持する第1被験者の会話音声を検出するマイクロフォンと、
    当該会話分析装置の移動を検知する加速度センサーと、
    (a)別の第2被験者が所持する別の会話分析装置を検出し、(b)前記加速度センサーに基づく当該会話分析装置の移動の履歴を移動履歴情報として、別の会話分析装置へ送信するとともに、前記別の会話分析装置から移動履歴情報を受信する無線通信部と、
    前記第1被験者の会話音声が検出された場合、(a)当該会話分析装置の移動の履歴、(b)前記別の会話分析装置の検出の有無、および(c)前記別の会話分析装置が検出された場合に受信された前記別の会話分析装置の移動履歴情報に基づいて、前記会話音声を所定の複数の会話ケースのいずれかに分類する会話分析部と、
    を備えることを特徴とする会話分析装置。
  2. 前記会話分析部は、前記第1被験者の会話音声が検出された場合、当該会話分析装置の移動がなく、かつ前記別の会話分析装置の移動がなく、かつ、前記マイクロフォンにより前記第1被験者の会話音声とともに前記第2被験者の会話音声が検出されなかったときには、前記第1被験者の会話音声を、前記会話ケースとしての「電話での会話」に分類することを特徴とする請求項1記載の会話分析装置。
  3. 前記会話分析部は、前記第1被験者の会話音声が検出された場合、(a)当該会話分析装置の移動がなく、かつ(b)前記別の会話分析装置の移動がなく、かつ(c)前記マイクロフォンにより前記第1被験者の会話音声とともに前記第2被験者の会話音声が検出されたときには、前記第1被験者の会話音声を、前記会話ケースとしての「自席でのグループ内会話」に分類することを特徴とする請求項1記載の会話分析装置。
  4. 前記会話分析部は、前記第1被験者の会話音声が検出された場合、(a)当該会話分析装置の移動がなく、かつ(b)前記別の会話分析装置の移動があるときには、前記第1被験者の会話音声を、前記会話ケースとしての「他者が移動してきての会話」に分類することを特徴とする請求項1記載の会話分析装置。
  5. 前記会話分析部は、前記第1被験者の会話音声が検出された場合、(a)当該会話分析装置の移動があり、かつ(b)前記別の会話分析装置の移動がないときには、前記第1被験者の会話音声を、前記会話ケースとしての「他者のところへ移動しての会話」に分類することを特徴とする請求項1記載の会話分析装置。
  6. 前記会話分析部は、前記第1被験者の会話音声が検出された場合、(a)当該会話分析装置の移動があり、かつ(b)前記別の会話分析装置の移動があり、かつ(c)当該会話分析装置の移動の履歴に基づく移動タイミングと前記別の会話分析装置の移動履歴情報に基づく移動タイミングとの差が所定未満であるときには、前記第1被験者の会話音声を、前記会話ケースとしての「会議での会話」に分類することを特徴とする請求項1記載の会話分析装置。
  7. 前記会話分析部は、前記第1被験者の会話音声が検出された場合、(a)当該会話分析装置の移動があり、かつ(b)前記別の会話分析装置の移動があり、かつ(c)当該会話分析装置の移動の履歴に基づく移動タイミングと前記別の会話分析装置の移動履歴情報に基づく移動タイミングとの差が所定未満ではないときには、前記第1被験者の会話音声を、前記会話ケースとしての「休憩中の会話」に分類することを特徴とする請求項1記載の会話分析装置。
  8. 前記会話分析部は、前記被験者の現在位置を監視せずに、前記会話音声を分類することを特徴とする請求項1から請求項7のうちのいずれか1項記載の会話分析装置。
  9. 複数の被験者に対応する、請求項1から請求項8のうちのいずれか1項記載の会話分析装置と、
    管理サーバーとを備え、
    前記管理サーバーは、前記複数の被験者の前記会話分析装置から前記会話音声ごとの前記会話ケースを取得し、前記複数の被験者についての前記会話ケースに基づき、前記複数の被験者の間の関係性を特定すること、
    を特徴とする会話分析システム。
JP2019032833A 2019-02-26 2019-02-26 会話分析装置および会話分析システム Active JP7240596B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019032833A JP7240596B2 (ja) 2019-02-26 2019-02-26 会話分析装置および会話分析システム
US16/794,624 US11462234B2 (en) 2019-02-26 2020-02-19 Conversation analyzing device and conversation analyzing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019032833A JP7240596B2 (ja) 2019-02-26 2019-02-26 会話分析装置および会話分析システム

Publications (2)

Publication Number Publication Date
JP2020135826A JP2020135826A (ja) 2020-08-31
JP7240596B2 true JP7240596B2 (ja) 2023-03-16

Family

ID=72140314

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019032833A Active JP7240596B2 (ja) 2019-02-26 2019-02-26 会話分析装置および会話分析システム

Country Status (2)

Country Link
US (1) US11462234B2 (ja)
JP (1) JP7240596B2 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008210363A (ja) 2007-01-31 2008-09-11 Hitachi Ltd ビジネス顕微鏡システム
JP2009230286A (ja) 2008-03-19 2009-10-08 Fuji Xerox Co Ltd 組織活動分析装置およびプログラム

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7426197B2 (en) * 2004-11-24 2008-09-16 Qualcomm Incorporated Method and apparatus for location determination of a wireless device within an environment
JP2006260102A (ja) 2005-03-16 2006-09-28 Fuji Xerox Co Ltd 対話行動評価装置および方法
US20070260684A1 (en) * 2006-05-05 2007-11-08 Sharma Heeral R Managing conference call participants in a roster
JP2008301290A (ja) 2007-05-31 2008-12-11 Toshiba Corp コミュニケーション判定装置、及び方法
US9661139B2 (en) * 2008-09-18 2017-05-23 Koninklijke Philips N.V. Conversation detection in an ambient telephony system
WO2012075099A2 (en) * 2010-11-30 2012-06-07 Google Inc. Use of location tagging in data communications
US20120274445A1 (en) * 2011-04-27 2012-11-01 Microsoft Corporation Aggregating location with presence information
US8538402B2 (en) * 2012-02-12 2013-09-17 Joel Vidal Phone that prevents texting while driving
US9582755B2 (en) * 2012-05-07 2017-02-28 Qualcomm Incorporated Aggregate context inferences using multiple context streams
US10096316B2 (en) * 2013-11-27 2018-10-09 Sri International Sharing intents to provide virtual assistance in a multi-person dialog
US9740773B2 (en) * 2012-11-02 2017-08-22 Qualcomm Incorporated Context labels for data clusters
IN2013DE02965A (ja) * 2013-10-04 2015-04-10 Samsung India Electronics Pvt Ltd
US20160267422A1 (en) * 2015-03-10 2016-09-15 24/7 Customer, Inc. System and method for facilitating social recognition of agents
US9947364B2 (en) * 2015-09-16 2018-04-17 Google Llc Enhancing audio using multiple recording devices
US9877128B2 (en) * 2015-10-01 2018-01-23 Motorola Mobility Llc Noise index detection system and corresponding methods and systems
US10338939B2 (en) * 2015-10-28 2019-07-02 Bose Corporation Sensor-enabled feedback on social interactions
US20180165589A1 (en) * 2016-12-13 2018-06-14 Microsoft Technology Licensing, Llc Wearable device control with inferred insights
US10733575B2 (en) * 2017-06-06 2020-08-04 Cisco Technology, Inc. Automatic generation of reservations for a meeting-space for disturbing noise creators
US11307764B2 (en) * 2017-08-07 2022-04-19 Microsoft Technology Licensing, Llc Contextually inferred talking points for improved communication
US10855952B1 (en) * 2018-02-02 2020-12-01 Mado Labs, Inc. User engagement computer system and method of using same
EP3752959A4 (en) * 2018-02-15 2021-10-27 DMAI, Inc. SCENE DEDUCTION SYSTEM AND METHOD BASED ON A GRAMMAR MODEL WITHOUT A VISUAL CONTEXT
US10891436B2 (en) * 2018-03-09 2021-01-12 Accenture Global Solutions Limited Device and method for voice-driven ideation session management
US20210264376A1 (en) * 2018-03-16 2021-08-26 Well Fargo Bank, N.A. Meeting location and time scheduler
US10782986B2 (en) * 2018-04-20 2020-09-22 Facebook, Inc. Assisting users with personalized and contextual communication content
US10943308B1 (en) * 2018-05-03 2021-03-09 Wells Fargo Bank, N.A. Systems and methods for pervasive advisor for major expenditures
US20190355352A1 (en) * 2018-05-18 2019-11-21 Honda Motor Co., Ltd. Voice and conversation recognition system
US11314475B2 (en) * 2018-11-21 2022-04-26 Kyndryl, Inc. Customizing content delivery through cognitive analysis
US11240313B2 (en) * 2018-12-05 2022-02-01 International Business Machines Corporation Contextually assigning user input to personal electronic devices
US11238148B2 (en) * 2019-02-12 2022-02-01 Cisco Technology, Inc. Location-based, context-aware challenge-response authentication

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008210363A (ja) 2007-01-31 2008-09-11 Hitachi Ltd ビジネス顕微鏡システム
JP2009230286A (ja) 2008-03-19 2009-10-08 Fuji Xerox Co Ltd 組織活動分析装置およびプログラム

Also Published As

Publication number Publication date
JP2020135826A (ja) 2020-08-31
US11462234B2 (en) 2022-10-04
US20200273482A1 (en) 2020-08-27

Similar Documents

Publication Publication Date Title
US11409816B2 (en) Methods and systems for determining an action to be taken in response to a user query as a function of pre-query context information
CN107924506B (zh) 用于推断用户可用性的方法、系统及计算机存储介质
US9641664B2 (en) System, apparatus, and method for utilizing sensor data
EP3121771A1 (en) Indoor positioning systems and meeting room occupancy
EP3656104B1 (en) Method and device for responding to an audio inquiry
KR20170018401A (ko) 예측적인 응급 출동 위험 평가를 갖춘 개인 응급 대응 시스템
US20190050238A1 (en) Prioritizing digital assistant responses
US20200151841A1 (en) System, device, and method for recommending public safety resource allocation
AU2012236649A1 (en) Methods and systems for searching utilizing acoustical context
EP3804287B1 (en) Call management system for a dispatch center
US20220285036A1 (en) Systems and methods for intelligent and privacy-centric contact tracing
US11627442B2 (en) Prioritizing digital assistant responses
Gips et al. Mapping human networks
JP7240596B2 (ja) 会話分析装置および会話分析システム
US20200380839A1 (en) Interpreting reactions of other people for physically impaired during an emergency situation
US12125480B2 (en) System and method for encouraging group discussion participation
US20140045523A1 (en) Methods and apparatus for tracking location of portable electronic device
US11889019B2 (en) Categorizing calls using early call information systems and methods
JP2010176558A (ja) グループ情報監視システムおよびグループ情報監視方法
US20230089720A1 (en) Systems and methods for providing assistance in an emergency
KR102294573B1 (ko) 응답 데이터와 모바일 컨텍스트 데이터를 연관시켜 심리 상태를 예측하는 방법 및 이를 구현하는 장치
JP2009224909A (ja) 対話検出装置、対話検出システム、および対話検出プログラム
CN117916752A (zh) 精神负担检测装置以及精神负担检测程序
JP2016187078A (ja) 通信端末特定装置、情報収集装置および方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220128

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230202

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230215

R150 Certificate of patent or registration of utility model

Ref document number: 7240596

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150