Nothing Special   »   [go: up one dir, main page]

JP2013020338A - Face-to-face detection system - Google Patents

Face-to-face detection system Download PDF

Info

Publication number
JP2013020338A
JP2013020338A JP2011151651A JP2011151651A JP2013020338A JP 2013020338 A JP2013020338 A JP 2013020338A JP 2011151651 A JP2011151651 A JP 2011151651A JP 2011151651 A JP2011151651 A JP 2011151651A JP 2013020338 A JP2013020338 A JP 2013020338A
Authority
JP
Japan
Prior art keywords
face
determination
sensor terminal
organization
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011151651A
Other languages
Japanese (ja)
Other versions
JP5907549B2 (en
Inventor
Yoshihiro Wakizaka
義博 脇坂
Michio Okubo
教夫 大久保
Miki Hayakawa
幹 早川
Norihiko Moriwaki
紀彦 森脇
Kazuo Yano
和男 矢野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2011151651A priority Critical patent/JP5907549B2/en
Priority to PCT/JP2012/066938 priority patent/WO2013008673A1/en
Publication of JP2013020338A publication Critical patent/JP2013020338A/en
Application granted granted Critical
Publication of JP5907549B2 publication Critical patent/JP5907549B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Information Transfer Between Computers (AREA)
  • Telephonic Communication Services (AREA)

Abstract

PROBLEM TO BE SOLVED: To detect a face-to-face state by a sensor terminal worn on a user himself/herself even when the other person wears no sensor terminal.SOLUTION: A sensor terminal (TR) is worn on each employee in an organization for detecting a physically face-to-face state between employees in the organization who are the employees belonging to the organization. The sensor terminal (TR) includes: a face-to-face determination unit (TRID) that determines presence/absence of the physically face-to-face state between employees in the organization on the basis of the communication/non-communication with another sensor terminal (TR); a voice detection unit (TRMI) that detects voice and creates voice data; an utterance determination unit (TRSD) that analyzes the voice data and determines the utterance/non-utterance; and a behavior determination unit (TRAD) determining that a certain employee performs either behavior of facing an employee in the organization, facing an employee who does not wear the sensor terminal (TR), and facing no one, on the basis of a determination result of the face-to-face determination unit (TRID) and a determination result of the utterance determination unit (TRSD).

Description

本発明は、各ユーザがセンサ端末を着用して、各センサ端末が互いに通信を行うことにより、センサ端末着用者同士の対面を検出し、組織のコミュニケーションの実態を定量的に検出するシステムに関し、特にセンサ端末着用同士の対面の検出以外に、センサ端末非着用の相手との対面も検出可能とする技術に関する。   The present invention relates to a system in which each user wears a sensor terminal and each sensor terminal communicates with each other, thereby detecting the face-to-face between the sensor terminal wearers and quantitatively detecting the actual state of organizational communication. In particular, the present invention relates to a technique capable of detecting a face-to-face partner who is not wearing a sensor terminal in addition to the detection of the face-to-face wearing sensor terminals.

あらゆる組織において生産性の向上は必須の課題となっており、職場環境の改善及び業務の効率化のために多くの試行錯誤がなされている。工場等の組立又は搬送を業務とする組織に限定した場合には、部品又は製品の移動経路を追跡することでそのプロセスや成果を客観的に分析することができる。一方、知識労働者から成る組織に関しては、モノではなく電子的な文書やIT機器の使用ログを用いることによって、業務プロセスを可視化するものが既に知られている。   Improving productivity is an essential issue in every organization, and many trials and errors have been made to improve the work environment and streamline operations. When the assembly or transportation of a factory or the like is limited to an organization that handles business, the process and results can be objectively analyzed by tracking the movement path of parts or products. On the other hand, regarding an organization composed of knowledge workers, there is already known an organization that visualizes business processes by using electronic documents instead of things and usage logs of IT devices.

そもそも組織とは複数の人間が力を合わせることによって、個人ではできない大掛かりな業務を達成するために形成されたものである。よって、どのような組織においても2人又はそれ以上の人物間での意思決定及び合意のためには必ずコミュニケーションが行われている。コミュニケーションの手段としては、電話やファックス、電子メールなどが挙げられるが、最も頻繁に行われ、かつ最も強い影響力を持つものはフェイス・トゥ・フェイス(対面)による対面コミュニケーションである。対面コミュニケーションでは、身振りや視線、表情、声の調子など人間の身体を最大限に生かすことができる。このため、日常の挨拶による好意的な関係の形成、複雑に利益の絡む交渉の場での歩み寄りなど、組織において欠かせないコミュニケーションの多くが、対面コミュニケーションによって当然のように実現されているのである。   In the first place, an organization is formed in order to achieve large-scale work that cannot be done by individuals by combining multiple people. Therefore, in any organization, communication is always performed for decision making and agreement between two or more persons. Examples of communication means include telephone, fax, and e-mail. The most frequently used and most influential means is face-to-face face-to-face communication. In face-to-face communication, you can make the most of the human body, such as gestures, gaze, facial expressions, and tone of voice. For this reason, many of the indispensable communications in the organization, such as the formation of favorable relationships through daily greetings and the compromise in negotiations involving complicated profits, are naturally realized through face-to-face communication. .

また、対面コミュニケーションでは、関わる2人またはそれ以上の人間がリアルタイムで会話のリズムや場の雰囲気を生み出す。そのため、予測できないところから感情の共鳴やアイデアの創発が起こることがある。知識労働が中心である組織の成果において、このようにして生まれた創造的なアイデアによってもたらされている部分は大きい。その重要性に気づき、座席のフリーアドレス制や横断プロジェクトの編成などの試みを導入する組織は近年増加する傾向にある。これらは、どちらも多様なバックグラウンドを持つ人同士が接する機会を用意することで、新しい価値が創発することを期待したものである。   In face-to-face communication, two or more people involved create a conversation rhythm and atmosphere in real time. As a result, emotional resonance and the emergence of ideas can occur from places that cannot be predicted. There is a big part of the results of the creative ideas born in this way in the results of the organization centered on knowledge labor. The number of organizations that have become aware of its importance and have introduced attempts such as free seating for seats and organizing cross-sectional projects have been increasing in recent years. Both of these are expected to create new value by providing opportunities for people with diverse backgrounds to come into contact with each other.

従来の方法では、いずれも作業を主体として分析をしているが、知識労働については人を主体としなくてはその本質をつかむことはできない。なぜなら、作業別の手順や時間のみを切り出し効率化を目指すだけでは最大限の結果を引き出すことはできないからである。よって知識労働において良い結果を引き出すには、個人個人の特性に焦点を当てる、特にワークスタイルを知ることが必要となってくる。ワークスタイルとは、いつ、どこで、何を行うかという個人の業務の進め方のパターンである。ワークスタイルは、外的要因である業務の内容と内的要因である本人の性格の両者が反映されたものであり、知識労働のプロフェッショナルはそれぞれのワークスタイルを確立している。議論しながらアイデアを得る人もいれば、一人になってじっくり考える人もいる。また外に出て歩き回る人、机の前に座って雑誌をめくる人もおり、そのスタイルは多種多様である。知識労働はとりわけ精神的なものである分、最も効果を上げるための方法は、個人の資質、担っている役割などに依存してそれぞれ異なるものになる。しかし従来の作業を主体とした分析方法では直接的に業務の成果物に反映されていない事柄、例えば読書や散歩、雑談などが与える影響については全く考慮されることがない。よって人を主体とし、メンバ一人一人の実際の行動を観察することによってワークスタイルを捉えることが必要である。そして個人のワークスタイルを互いに把握し尊重し合うことで、組織全体としてのワークスタイルが確立され、生産性の向上に結びつくと考えられる。   All of the conventional methods analyze work as the subject, but knowledge labor cannot be grasped without knowledge. This is because it is not possible to obtain the maximum result only by cutting out only the procedure and time for each work and aiming at efficiency improvement. Therefore, in order to obtain good results in knowledge labor, it is necessary to focus on the characteristics of individuals and especially to know the work style. A work style is a pattern of how to proceed with personal work, when, where, and what to do. Work style reflects both the contents of work, which is an external factor, and the personality, which is an internal factor. Knowledge work professionals have established their own work styles. Some people get ideas while discussing, while others think alone. There are also people who go out and walk around, and those who sit at the desk and turn magazines, and the styles are diverse. As knowledge work is particularly spiritual, the method of achieving the most effect depends on the individual qualities and roles they play. However, conventional analysis methods mainly do not take into account the effects of matters that are not directly reflected in the work product, such as reading, walking, chatting, etc. Therefore, it is necessary to capture the work style by observing the actual behavior of each member based on the person. And by grasping and respecting each other's work styles, it is thought that the work style of the entire organization is established, leading to improved productivity.

このような目的のため、社員がセンサ端末を着用し、センサ端末同士が通信をすることによって、センサ端末を着用した社員同士の対面を検出するシステムが知られている。このシステムにおいては、社員がどのメンバとどのように対面コミュニケーションを行なっているかを定量的に取得することが可能であり、組織におけるコミュニケーションの実態をとらえることができる。   For such a purpose, a system is known in which employees wear sensor terminals and the sensor terminals communicate with each other to detect the faces of employees wearing sensor terminals. In this system, it is possible to quantitatively acquire which member the face-to-face communication is made with which member, and can grasp the actual state of communication in the organization.

特許文献1には、ブルートゥース(登録商標)等の近距離通信可能な装置と長距離通信インターフェースとを備えた携帯電話等の携帯型電子機器を各人が所持していて、特定の人同士の接近が検出されると通知を発する技術が開示される。ある二人が所持している携帯型電子機器同士が互いに近距離通信可能な距離にまで近づくと、それらの機器同士で固有のIDコードが近距離通信によってやりとりされ、その結果が長距離通信インターフェースを介してサーバに送られる。これらの二人に関して、所定の関係にあることをサーバが検出すると、当該の二人が近距離に位置することを知らせる通知が両方または一方の人に発せられる。   In Patent Document 1, each person has a portable electronic device such as a mobile phone provided with a device capable of short-distance communication such as Bluetooth (registered trademark) and a long-distance communication interface. A technique for issuing a notification when an approach is detected is disclosed. When portable electronic devices owned by two people approach each other to a distance at which short-distance communication is possible, a unique ID code is exchanged between the devices via short-range communication, and the result is a long-distance communication interface. Sent to the server. When the server detects that these two people are in a predetermined relationship, a notification is sent to both or one of them to inform them that they are in close proximity.

非特許文献1には、RFIDを用い、また、無線センサ・ネットワーク技術を用いて遠隔データ集収をし、それによりリアルタイムな状況モニタリングをする技術について説明されている。空間的に配置された多くのRFIDや、ユーザが身に付けるRFIDには、それぞれIDが付与されており、RFIDリーダがそのRFIDを読取ることによって、その接近を検出し、例えば公園での子供の消息の追跡を行うことができる。   Non-Patent Document 1 describes a technique for collecting remote data using RFID and using wireless sensor network technology, thereby performing real-time status monitoring. Many spatially arranged RFIDs and RFIDs worn by users are assigned IDs, and the RFID reader reads the RFID to detect the approach, for example, children in a park Information can be tracked.

米国特許出願公開第2005/0250552号明細書US Patent Application Publication No. 2005/0250552 Chao Chen, "Design of a Child Localization System on RFID and Wireless Sensor Networks," Journal of Sensors, Volume 2010, Article ID 450392, 8 pagesChao Chen, "Design of a Child Localization System on RFID and Wireless Sensor Networks," Journal of Sensors, Volume 2010, Article ID 450392, 8 pages

組織における知識創造においては、上述のように様々な人とのコミュニケーションがある。そのなかでも、内部者と外部者とのコミュニケーションは大事な位置を占めており、その検出およびその識別はきわめて重要である。外部者とのコミュニケーションからは新しい知識・知見が取得され、内部者とのコミュニケーションはメンバ間の意識共有・認識深化などの機能を果たす。よって、内部者・外部者とのコミュニケーションの識別・網羅的取得により、組織における「知の流れ」のプロセスを定量化し、組織の創造性向上に寄与することが可能となる。   In knowledge creation in an organization, there is communication with various people as described above. Among them, communication between insiders and outsiders occupies an important position, and its detection and identification are extremely important. New knowledge and knowledge are acquired from communication with outsiders, and communication with insiders fulfills functions such as sharing awareness and deepening recognition among members. Therefore, by identifying and comprehensively acquiring communication with insiders and outsiders, it is possible to quantify the “flow of knowledge” process in the organization and contribute to improving the creativity of the organization.

しかし、上述したシステムや特許文献1に開示されるものにおいては、各人が携帯型電子機器を所持している必要がある。したがって、一方が携帯型電子機器を所持していても、他方がそれを所持していないと、その機能を発揮することができない。そのため、この方式では、組織におけるコミュニケーションの実態を必ずしも十分網羅的に検出可能であるとは言えない。   However, in the system described above and the one disclosed in Patent Document 1, each person needs to have a portable electronic device. Therefore, even if one of them has a portable electronic device, the function cannot be exhibited unless the other has it. For this reason, it cannot be said that this method can sufficiently detect the actual state of communication in an organization.

本発明は上記に鑑みてなされたものであり、相手がセンサ端末を着用していない場合でも、自身が着用しているセンサ端末によって対面コミュニケーションを検出可能な技術を提供することを目的とする。   The present invention has been made in view of the above, and an object of the present invention is to provide a technology capable of detecting face-to-face communication with a sensor terminal worn by the partner even when the other party does not wear the sensor terminal.

本発明の代表的な一例を示せば以下の通りである。すなわち、組織に属する人員である組織内人員の間の物理的対面を検出するために前記組織内人員のそれぞれに装着されるセンサ端末装置が、
他のセンサ端末装置との通信の成否に基づいて前記組織内人員の間の物理的対面の有無を判定する対面判定部と、
音声を検出して音声データを生成する音声検出部と、
前記音声検出部で生成された前記音声データを解析し、発話の有無を判定する発話判定部と、
前記対面判定部による判定結果と、前記発話判定部による判定結果とに基づき、前記組織内人員との対面、前記センサ端末装置を装着していない人員との対面、および非対面を含む行動のうち、いずれかの行動が行われたことを判定する行動判定部と
を備える。
A typical example of the present invention is as follows. That is, a sensor terminal device mounted on each of the in-organization personnel in order to detect physical facing between the in-organization personnel who are members belonging to the organization,
A face-to-face determination unit that determines the presence or absence of physical face-to-face between personnel in the organization based on the success or failure of communication with other sensor terminal devices;
A voice detection unit that detects voice and generates voice data;
An utterance determination unit that analyzes the voice data generated by the voice detection unit and determines the presence or absence of an utterance;
Based on the determination result by the face-to-face determination unit and the determination result by the utterance determination unit, among the actions including face-to-face with the organization personnel, face-to-face with the person not wearing the sensor terminal device, and non-face-to-face And an action determination unit that determines that any action has been performed.

本発明によれば、センサ端末装置を装着した組織内人員間の対面と、センサ端末装置を装着していない組織外人員との対面状態と、誰とも対面していない非対面の状態のうち、いずれかの行動が行われたことが判定可能となる。   According to the present invention, between the face-to-face between the personnel within the organization wearing the sensor terminal device, the face-to-face state with the non-organization personnel not wearing the sensor terminal device, and the state of non-face-to-face not facing anyone, It can be determined that any action has been performed.

本発明が適用される業務管理支援システムの全体構成を説明するブロック図である。It is a block diagram explaining the whole structure of the business management support system to which this invention is applied. 図1に示されるシステム中、第1の実施の形態で重要な働きをする部分のみを示すブロック図である。It is a block diagram which shows only the part which plays an important role in 1st Embodiment in the system shown by FIG. 対面判定処理の手順例を説明するフローチャートである。It is a flowchart explaining the example of a procedure of a face-to-face determination process. 音声データにFFT処理をし、人の声に由来する基本周波数を検出する処理をする際の手順例を説明するフローチャートである。It is a flowchart explaining the example of a procedure at the time of carrying out the FFT process to audio | voice data, and the process which detects the fundamental frequency originating in a human voice. 第1の実施の形態において、センサ端末によって発話判定および行動判定の処理が行われる様子を概念的に示す図である。In 1st Embodiment, it is a figure which shows notionally a mode that the process of speech determination and action determination is performed by the sensor terminal. 図1に示されるシステム中、第2の実施の形態で重要な働きをする部分のみを示すブロック図である。It is a block diagram which shows only the part which plays an important role in 2nd Embodiment in the system shown by FIG. 第2の実施の形態において、センサ端末によって発話判定および行動判定の処理が行われる様子を概念的に示す図である。It is a figure which shows notionally a mode that the process of speech determination and action determination is performed by the sensor terminal in 2nd Embodiment. 図1に示されるシステム中、第3の実施の形態で重要な働きをする部分のみを示すブロック図である。It is a block diagram which shows only the part which plays an important role in 3rd Embodiment in the system shown by FIG. 第3の実施の形態において、センサ端末で取得され、処理されて送信される音声データをもとにアプリケーションサーバで発話判定および行動判定の処理を行う様子を概念的に示す図である。In 3rd Embodiment, it is a figure which shows notionally a mode that the process of speech determination and action determination is performed in an application server based on the audio | voice data acquired and processed and transmitted with a sensor terminal. 図1に示されるシステム中、第4の実施の形態で重要な働きをする部分のみを示すブロック図である。It is a block diagram which shows only the part which plays an important role in 4th Embodiment in the system shown by FIG. 第4の実施の形態において、センサ端末で取得され、処理されて送信される音声データをもとにアプリケーションサーバで発話判定および行動判定の処理を行う様子を概念的に示す図である。In 4th Embodiment, it is a figure which shows notionally a mode that the process of speech determination and action determination is performed in an application server based on the audio | voice data acquired by the sensor terminal, processed, and transmitted. 図1に示されるシステム中、第5の実施の形態で重要な働きをする部分のみを示すブロック図である。It is a block diagram which shows only the part which plays an important role in 5th Embodiment in the system shown by FIG. 第5の実施の形態において、センサ端末によって発話判定および行動判定の処理が行われる様子を概念的に示す図である。In 5th Embodiment, it is a figure which shows notionally a mode that the process of speech determination and action determination is performed by the sensor terminal. 図1に示されるシステム中、第6の実施の形態で重要な働きをする部分のみを示すブロック図である。It is a block diagram which shows only the part which plays an important role in 6th Embodiment in the system shown by FIG. 第6の実施の形態において、センサ端末で取得され、処理されて送信される音声データをもとにアプリケーションサーバで発話判定および行動判定の処理を行う様子を概念的に示す図である。In 6th Embodiment, it is a figure which shows notionally a mode that the process of speech determination and action determination is performed in an application server based on the audio | voice data acquired and processed and transmitted with a sensor terminal. 業務管理支援システムを構成する要素間で連携して行われる処理シーケンスの概略を説明する図であり、第1、第2、および第5の実施の形態で行われる処理シーケンスを説明する図である。It is a figure explaining the outline of the processing sequence performed in cooperation between the elements which comprise a business management support system, and is a figure explaining the processing sequence performed in 1st, 2nd, and 5th embodiment. . 業務管理支援システムを構成する要素間で連携して行われる処理シーケンスの概略を説明する図であり、第3、第4、および第6の実施の形態で行われる処理シーケンスを説明する図である。It is a figure explaining the outline of the processing sequence performed in cooperation between the elements which comprise a business management support system, and is a figure explaining the processing sequence performed in 3rd, 4th, and 6th embodiment. .

− システムの全体構成 −
図1は、本発明が適用される業務管理支援システムの全体構成を説明する図である。業務管理支援システムは、アプリケーションサーバ(AS)と、クライアント(CL)と、業務情報管理サーバ(GS)と、センサネットサーバ(SS)と、基地局(GW)と、センサ端末(TR)とを備える。これらの構成要素のうち、センサ端末(TR)を除く構成要素は、電子計算機とその電子計算機で実行されるソフトウェアとによって実現されてもよいし、専用のハードウェアによって実現されてもよい。また、業務管理支援システムの設置される組織の規模に応じて、複数の構成要素が1台の電子計算機等で実現されてもよい。逆に、複数の電子計算機等によって一つの構成要素が実現されてもよい。また、組織の規模に応じて基地局(GW)、クライアント(CL)を複数設けることも可能である。図1においては三つの基地局(GW、GW2、GW3)と二つのクライアント(CL、CL2)が備えられる例が示されている。以下では個別に参照する必要のない限り、基地局(GW)、クライアント(CL)と称する。
− Overall system configuration −
FIG. 1 is a diagram illustrating the overall configuration of a business management support system to which the present invention is applied. The business management support system includes an application server (AS), a client (CL), a business information management server (GS), a sensor network server (SS), a base station (GW), and a sensor terminal (TR). Prepare. Among these components, the components other than the sensor terminal (TR) may be realized by an electronic computer and software executed by the electronic computer, or may be realized by dedicated hardware. In addition, a plurality of components may be realized by one electronic computer or the like according to the scale of the organization where the business management support system is installed. Conversely, one component may be realized by a plurality of electronic computers or the like. It is also possible to provide a plurality of base stations (GW) and clients (CL) according to the scale of the organization. FIG. 1 shows an example in which three base stations (GW, GW2, GW3) and two clients (CL, CL2) are provided. Hereinafter, unless individually referred to, they are referred to as a base station (GW) and a client (CL).

アプリケーションサーバ(AS)、クライアント(CL)、センサネットサーバ(SS)、業務管理サーバ(GS)、基地局(GW)は、有線または無線のネットワーク(NW)を介して接続される。   The application server (AS), client (CL), sensor network server (SS), business management server (GS), and base station (GW) are connected via a wired or wireless network (NW).

センサ端末(TR)は、組織に属する人員、すなわち組織内人員のそれぞれが一つずつ装着するものであり、したがって複数のセンサ端末(TR)が業務管理支援システムには含まれるが、図1では一つだけ示されている。以下では、センサ端末(TR)を装着した組織内人員をユーザと称する。   The sensor terminal (TR) is worn by each of the personnel belonging to the organization, that is, the personnel within the organization. Therefore, a plurality of sensor terminals (TR) are included in the business management support system, but in FIG. Only one is shown. Hereinafter, the in-organization personnel wearing the sensor terminal (TR) are referred to as users.

− センサ端末(TR) −
センサ端末(TR)は、電源を内蔵していて、その電源によって動作可能であるので、センサ端末(TR)を装着したユーザは組織内を自由に移動可能である。電源としては、一次電池や二次電池、キャパシタ等を用いることが可能である。また、電源として太陽電池パネルやワイヤレス給電システムにより受電可能な構成を備えていても良い。
− Sensor terminal (TR) −
Since the sensor terminal (TR) has a built-in power supply and can be operated by the power supply, the user wearing the sensor terminal (TR) can freely move in the organization. As a power source, a primary battery, a secondary battery, a capacitor, or the like can be used. Moreover, you may provide the structure which can be received by a solar cell panel or a wireless power feeding system as a power supply.

センサ端末(TR)は、センシング部(TRSE)と、送信・受信部(TRSR)と、入出力部(TRIO)と、制御部(TRCO)と、記録部(TRME)とを備える。   The sensor terminal (TR) includes a sensing unit (TRSE), a transmission / reception unit (TRSR), an input / output unit (TRIO), a control unit (TRCO), and a recording unit (TRME).

センシング部(TRSE)は、センサ端末(TR)の状態を示す物理量をセンシングする。具体的には、センシング部(TRSE)は、種々の物理量をセンシングする一つ以上のセンサを備える。例えば、赤外線送信器(TRIS)、赤外線受信器(TRIR)、加速度センサ(TRAC)、照度センサ(TRIL)、温度センサ(TRTE)、音声センサ(TRMI)を備える。   The sensing unit (TRSE) senses a physical quantity indicating the state of the sensor terminal (TR). Specifically, the sensing unit (TRSE) includes one or more sensors that sense various physical quantities. For example, an infrared transmitter (TRIS), an infrared receiver (TRIR), an acceleration sensor (TRAC), an illuminance sensor (TRIL), a temperature sensor (TRTE), and a sound sensor (TRMI) are provided.

赤外線送信器(TRIS)は、赤外光信号を所定のタイミング(時間間隔)で出力する。赤外線受信器(TRIR)もまた、所定のタイミング(時間間隔)で赤外光を検出する。あるユーザが装着したセンサ端末(TR)の赤外線送信器(TRIS)から発せられた赤外光信号を、他のユーザが装着したセンサ端末(TR)の赤外線受信器(TRIR)が検出すると、両センサ端末(TR)の間で通信が行われ、通信に成功すると両センサ端末(TR)を装着したユーザ間の対面が検出される。このとき、二人のユーザが単に接近しただけでなく、互いに向き合う位置関係にあることをセンサ端末(TR)が検出可能に構成されることが、対面の検出を高精度に行う上で望ましい。すなわち、単に背中合わせで着席しただけであったり、隣り合う席に座っただけであったりした場合と、実際に向き合ってコミュニケーションが図られた場合とを弁別可能とすることが望ましい。   The infrared transmitter (TRIS) outputs an infrared light signal at a predetermined timing (time interval). The infrared receiver (TRIR) also detects infrared light at a predetermined timing (time interval). When an infrared light signal emitted from an infrared transmitter (TRIS) of a sensor terminal (TR) worn by a user is detected by an infrared receiver (TRIR) of a sensor terminal (TR) worn by another user, Communication is performed between the sensor terminals (TR), and when communication is successful, a face-to-face contact between users wearing both sensor terminals (TR) is detected. At this time, it is desirable that the sensor terminal (TR) can detect that the two users not only approach but also face each other so as to detect the meeting with high accuracy. That is, it is desirable to be able to discriminate between the case where the user simply sits back-to-back or just sits in the adjacent seat and the case where communication is actually performed while facing each other.

上述のような弁別を可能とするための一つの方法として、センサ端末(TR)は、人物の正面部に装着される形態のものとすることができる。例えば、センサ端末(TR)を名札型にし、紐によって人物の首からぶら下げるものとすることができる。あるいは、クリップ等によって胸などに装着するものであってもよい。着帽や保護帽の着用が必要な環境においては、帽子やヘルメット等の正面にセンサ端末(TR)を固定ないしは埋め込んだものとすることができる。センサ端末(TR)が人物の正面部に装着されていると、それらのセンサ端末(TR)を装着した人物が対面する、すなわち正面を向き合ったときに、センサ端末(TR)もまた他方のセンサ端末(TR)と向き合う。   As one method for enabling discrimination as described above, the sensor terminal (TR) can be configured to be attached to the front of a person. For example, the sensor terminal (TR) can be a name tag type and can be hung from a person's neck by a string. Alternatively, it may be worn on the chest by a clip or the like. In an environment where it is necessary to wear a cap or a protective cap, a sensor terminal (TR) may be fixed or embedded in front of the cap or helmet. When the sensor terminal (TR) is attached to the front part of a person, when the person wearing the sensor terminal (TR) faces, that is, when the front faces each other, the sensor terminal (TR) also has the other sensor. Facing the terminal (TR).

図1において、赤外線受信器(TRIR)は、TRIR1からTRIR4までの四つを備えるものとして示されている。これらの複数の赤外線受信器(TRIR1〜TRIR4)は、センサ端末(TR)を装着するユーザ同士が完全に正面を向き合う位置関係になくても、対面相手のセンサ端末(TR)の赤外線送信器(TRIS)から発せられる赤外光をいずれかの赤外線受信器(TRIR1〜TRIR4)で受信することができるように配置されている。   In FIG. 1, the infrared receiver (TRIR) is shown as comprising four from TRIR1 to TRIR4. These infrared receivers (TRIR1 to TRIR4) do not have a positional relationship in which the users who wear the sensor terminals (TR) completely face each other, but the infrared transmitters ( It is arranged so that infrared light emitted from TRIS can be received by any of the infrared receivers (TRIR1 to TRIR4).

また、組織内の要所には赤外線送信器(TRIS)が設置されており、赤外線受信器(TRIR)は赤外線送信器(TRIS)から発せられる赤外線を検出することができる。赤外線送信器(TRIS)のそれぞれにはIDが一意に割り振られており、赤外線送信器(TRIS)はそのID情報を含む赤外光信号を所定の時間間隔で出力する。センサ端末(TR)の赤外線受信器(TRIR)がこの赤外光信号を受信したときに、受信時刻と受信したID情報とを記録することにより、センサ端末(TR)がいつ、どのあたりに位置していたかを特定することが可能となる。つまり、赤外線送信機(TRIS)は、ビーコンとして機能する。   In addition, infrared transmitters (TRIS) are installed at important points in the tissue, and the infrared receiver (TRIR) can detect infrared rays emitted from the infrared transmitter (TRIS). Each infrared transmitter (TRIS) is uniquely assigned an ID, and the infrared transmitter (TRIS) outputs an infrared light signal including the ID information at a predetermined time interval. When the infrared receiver (TRIR) of the sensor terminal (TR) receives this infrared light signal, the time and position of the sensor terminal (TR) are recorded by recording the reception time and the received ID information. It becomes possible to specify whether or not it was done. That is, the infrared transmitter (TRIS) functions as a beacon.

なお、本明細書ではセンサ端末(TR)が赤外光を発光、受光して対面を検出する例について説明するが、ブルートゥース(登録商標)やその他の近距離無線通信技術、あるいは超音波等のトランスデューサとセンサとを用いるものであってもよい。その場合も、指向性を狭めたり、センサ端末(TR)の方位を検出するセンサからの信号を利用したりする等の工夫をして、向かい合うことを伴わない単なる接近と、実際の対面とを弁別可能に構成することが望ましい。   In this specification, an example in which a sensor terminal (TR) emits and receives infrared light to detect a face-to-face is described. However, Bluetooth (registered trademark), other short-range wireless communication technologies, or ultrasonic waves are used. A transducer and a sensor may be used. Even in such a case, the mere approach without facing each other and the actual facing, such as narrowing the directivity or using the signal from the sensor that detects the orientation of the sensor terminal (TR) It is desirable to be able to discriminate.

加速度センサ(TRAC)は、X、Y及びZ軸方向の加速度をセンシングする。後述するように、センシングされた加速度の情報は、センサ端末(TR)を装着した人物の動作の激しさ(活発度)や行動(例えば、歩行又は静止等)を判断するために使用される。   The acceleration sensor (TRAC) senses acceleration in the X, Y, and Z axis directions. As will be described later, the sensed acceleration information is used to determine the intensity (activity) of the person wearing the sensor terminal (TR) and behavior (for example, walking or standing still).

照度センサ(TRIL)、温度センサ(TRTE)はそれぞれ、照度、温度をセンシングする。これらの照度センサ(TRIL)、温度センサ(TRTE)でセンシングして得られたセンシングデータは、例えば、センサ端末(TR)が置かれている環境の変化等を判断するために使用される。照度センサ(TRIL)については、センサ端末(TR)の正面側と裏面側とに設けてセンシングデータを比較することにより、センサ端末(TR)が裏返しで装着されているか否かを判定することができる。   The illuminance sensor (TRIL) and the temperature sensor (TRTE) sense illuminance and temperature, respectively. Sensing data obtained by sensing with these illuminance sensors (TRIL) and temperature sensors (TRTE) is used, for example, to determine changes in the environment in which the sensor terminal (TR) is placed. As for the illuminance sensor (TRIL), it is possible to determine whether the sensor terminal (TR) is mounted upside down by providing it on the front side and the back side of the sensor terminal (TR) and comparing the sensing data. it can.

音声センサ(TRMI)は、音声をセンシングする。センシングして得られた音声データは、例えば、センサ端末(TR)を装着した人物が会話しているか否かを判別するために使用することができる。   The sound sensor (TRMI) senses sound. The voice data obtained by sensing can be used, for example, to determine whether a person wearing a sensor terminal (TR) is talking.

センシング部(TRSE)としては、上述したセンサのうち、任意の一つ以上を備えてもよいし、上述した以外の種類のセンサを備えてもよい。さらに、図1に示される外部入力(TROU)には、外付け式の外部センサ(EXTS)を接続可能に構成され、これにより新たなセンサを追加可能となる。また、この外部入力(TROU)を介して、他の装置から位置情報、温度情報、湿度情報等、様々な情報を無線または有線で取得可能に構成されていてもよい。   The sensing unit (TRSE) may include any one or more of the sensors described above, or may include a sensor of a type other than those described above. Further, the external input (TROU) shown in FIG. 1 is configured so that an external external sensor (EXTS) can be connected, whereby a new sensor can be added. In addition, various information such as position information, temperature information, humidity information, and the like may be acquired wirelessly or by wire from another device via the external input (TROU).

送信・受信部(TRSR)は、基地局(GW)との間でデータを送信及び受信する。送信・受信部(TRSR)と基地局(GW)との接続形態は有線および無線のうち、いずれかであってもよいし、両方であってもよい。例えば、ユーザが自席に戻ってデスクワークを開始する際、あるいは一日の仕事を終えて帰宅する際に、ユーザがセンサ端末(TR)をクレードル等に装着したとき、送信・受信部(TRSR)と基地局(GW)との間の有線接続を確立することが可能となる。その場合、送信・受信部(TRSR)は、例えば基地局(GW)から送られてきた制御コマンド(データ転送要求コマンド)に応答し、上述した各センサにてセンシングして得られた計測結果(センシングデータ)を、センサ端末(TR)を特定可能なID情報とともに基地局(GW)に送信する。   The transmission / reception unit (TRSR) transmits and receives data to and from the base station (GW). The connection form between the transmission / reception unit (TRSR) and the base station (GW) may be either wired or wireless, or both. For example, when the user returns to his / her desk and starts desk work or when he / she comes home after finishing his day's work, the user attaches the sensor terminal (TR) to a cradle or the like, and the transmission / reception unit (TRSR) It becomes possible to establish a wired connection with the base station (GW). In this case, the transmission / reception unit (TRSR) responds to, for example, a control command (data transfer request command) transmitted from the base station (GW), and the measurement result obtained by sensing with each sensor described above ( Sensing data) is transmitted to the base station (GW) together with ID information that can identify the sensor terminal (TR).

送信・受信部(TRSR)と基地局(GW)との間が無線で接続される場合、センシングデータを定期的に送信してもよいし、各センサでセンシングが行われた時にセンシングデータを随時送信してもよい。送信・受信部(TRSR)はまた、センシングデータを送信するだけでなく、基地局(GW)から送られる制御コマンドを受信してもよい。受信した制御コマンドに従って、センサ端末(TR)に関する制御情報の変更が行われる。   When the transmission / reception unit (TRSR) and the base station (GW) are connected wirelessly, the sensing data may be transmitted periodically, or when sensing is performed by each sensor, the sensing data may be transmitted as needed. You may send it. The transmission / reception unit (TRSR) may not only transmit the sensing data but also receive a control command transmitted from the base station (GW). The control information regarding the sensor terminal (TR) is changed according to the received control command.

入出力部(TRIO)は、センサ端末(TR)とユーザとの間のインターフェースとして機能する。例えば、入出力部(TRIO)は、ボタン等の入力装置と、液晶ディスプレイ等の出力装置とを備え、ユーザが所望する情報の取得及びセンシングデータの表示を行うことが可能に構成される。出力装置としては、LEDインジケータ、スピーカ、ブザー、振動モータ等を備えていてもよい。入力装置としては、液晶ディスプレイ等の表示部上に設けられるタッチパネル等を用いることも可能である。   The input / output unit (TRIO) functions as an interface between the sensor terminal (TR) and the user. For example, the input / output unit (TRIO) includes an input device such as a button and an output device such as a liquid crystal display, and is configured to be able to acquire information desired by the user and display sensing data. The output device may include an LED indicator, a speaker, a buzzer, a vibration motor, and the like. As the input device, a touch panel provided on a display unit such as a liquid crystal display can be used.

送信・受信部(TRSR)を介して基地局(GW)から制御コマンドを受信し、その制御コマンドに基づいて入出力部(TRIO)の出力装置への出力(表示、発光、発音、振動発生等)が実行される。また、入出力部(TRIO)の入力装置をユーザが操作した場合に、送信・受信部(TRSR)は、入力装置をユーザが操作することによって選択された事項を、制御コマンドとして基地局(GW)へ送信する。   A control command is received from the base station (GW) via the transmission / reception unit (TRSR), and output to the output device of the input / output unit (TRIO) based on the control command (display, light emission, sound generation, vibration generation, etc.) ) Is executed. In addition, when the user operates the input device of the input / output unit (TRIO), the transmission / reception unit (TRSR) uses the base station (GW) as a control command based on the item selected by the user operating the input device. ).

制御部(TRCO)は、CPU(図示省略)を備える。CPUが記録部(TRME)に格納されているプログラムを実行することによって、センサ情報の取得、取得したセンサ情報の基地局(GW)への出力等の処理が行われる。また、後で様々な実施の形態で説明するように、取得したセンサ情報に基づく様々な判定、あるは取得したセンサ情報の解析や、解析結果に基づく判定等を行うことも可能に構成される。   The control unit (TRCO) includes a CPU (not shown). When the CPU executes a program stored in the recording unit (TRME), processing such as acquisition of sensor information and output of the acquired sensor information to the base station (GW) is performed. Further, as described later in various embodiments, various determinations based on the acquired sensor information, or analysis of the acquired sensor information, determination based on the analysis result, and the like can be performed. .

記録部(TRME)は、ハードディスクや内蔵メモリ等を備える。記録部(TRME)はまた、SD(登録商標)メモリカード等の外部記録装置を装着可能に構成されていてもよい。記録部(TRME)には、プログラム、センシングデータ、そして以下に説明する情報等が格納される。   The recording unit (TRME) includes a hard disk, a built-in memory, and the like. The recording unit (TRME) may also be configured so that an external recording device such as an SD (registered trademark) memory card can be attached. The recording unit (TRME) stores a program, sensing data, information described below, and the like.

データ形式(TRDFI)には、各センサから取得したデータ及び時刻情報を送信する際のフォーマットを指定する情報が記録されている。   In the data format (TRDFI), information specifying the format for transmitting data acquired from each sensor and time information is recorded.

バッテリ残量(TRBA)には、センサ端末(TR)の電源の残量が記録される。時計(TRTI)には、センサ端末(TR)が内蔵するタイマで計測された現在の時刻が格納される。現在の時刻は、定期的に基地局(GW)から送信される情報に基づいて修正される。基地局(GW)から出力される時刻の情報に基づき、センサ端末(TR)の時刻を定期的に修正することによって、複数のセンサ端末(TR)間における時刻を同期可能となる。これによって、異なるセンサ端末(TR)から得られたデータを時刻(タイムスタンプ)に基づいて整列させ、照らし合わせることが可能になる。コミュニケーションは必ず複数のメンバによって行われるため、双方の視点からデータを分析するためには時刻を同期させることは必須となる。なお、時刻修正は基地局(GW)をトリガとするのではなく、他の装置、例えばセンサネットサーバ(SS)がトリガとなって基地局(GW)を介してセンサ端末(TR)に時刻を送信してもよい。   The remaining battery level (TRBA) records the remaining power level of the sensor terminal (TR). The clock (TRTI) stores the current time measured by a timer built in the sensor terminal (TR). The current time is corrected based on information periodically transmitted from the base station (GW). By periodically correcting the time of the sensor terminal (TR) based on the time information output from the base station (GW), the time among the plurality of sensor terminals (TR) can be synchronized. This makes it possible to align and collate data obtained from different sensor terminals (TR) based on time (time stamp). Since communication is always performed by a plurality of members, it is essential to synchronize the time in order to analyze data from both viewpoints. The time correction is not triggered by the base station (GW), but is triggered by another device, for example, the sensor network server (SS), to the sensor terminal (TR) via the base station (GW). You may send it.

端末情報(TRTR)には、センサ端末(TR)を一意に識別するために使用されるセンサ端末固有の情報が記録される。この情報は、固有ID、端末IDとも称される。   In the terminal information (TRTR), information unique to the sensor terminal used for uniquely identifying the sensor terminal (TR) is recorded. This information is also referred to as a unique ID and a terminal ID.

− 基地局 −
基地局(GW)は、組織を適宜分割して形成されるエリアごとに設置される。図1には、基地局(GW)の他に、基地局2(GW2)および基地局3(GW3)が図示されている。これらの基地局(GW2、GW3)に関する説明は基地局(GW)と同様であるため以降省略する。なお、同様の基地局が任意の数存在する場合にも、本発明を適用することができる。いずれの基地局も、無線を使用した場合は、無線の到達可能圏内に存在する0から複数個のセンサ端末(TR)とコネクションを確立し、データのやり取りを行う。つまり、コネクションを確立したセンサ端末(TR)から無線または有線によって送信されてくるセンシングデータを基地局(GW)は受信する。基地局(GW)は、受信したセンシングデータを、ネットワーク(NW)を介してセンサネットサーバ(SS)へ送信する。
− Base station −
A base station (GW) is installed for each area formed by appropriately dividing an organization. FIG. 1 illustrates a base station 2 (GW2) and a base station 3 (GW3) in addition to the base station (GW). Since the description regarding these base stations (GW2, GW3) is the same as that of the base station (GW), it will be omitted hereinafter. Note that the present invention can also be applied when there are an arbitrary number of similar base stations. When any base station uses radio, it establishes connections with 0 to a plurality of sensor terminals (TR) existing within the radio reachable range, and exchanges data. That is, the base station (GW) receives sensing data transmitted from the sensor terminal (TR) that has established the connection wirelessly or by wire. The base station (GW) transmits the received sensing data to the sensor network server (SS) via the network (NW).

基地局(GW)は、送信・受信部(GWSR)、制御部(GWCO)、入出力部(GWIO)、および記録部(GWME)を備える。送信・受信部(GWSR)は、センサ端末(TR)との間でデータを送信及び受信する。例えば、送信・受信部(GWSR)は、センサ端末(TR)に対して制御コマンドを送信してもよいし、センシングデータをセンサ端末(TR)から定期的に受信してもよい。また、センサ端末(TR)がセンシングデータを取得した時点で、そのセンシングデータが直ちにセンサ端末(TR)から送信・受信部(GWSR)に送信されてもよい。さらに、送信・受信部(GWSR)は、センサ端末(TR)から送られてきた制御コマンドに従って、センサネットサーバ(SS)へ要求を送信し、その要求に応じてセンサネットサーバ(SS)から出力されたデータをセンサ端末(TR)へ送信してもよい。また、送信・受信部(GWSR)は、入出力部(GWIO)に備えられる入力装置によって選択された事項を、制御コマンドとしてセンサ端末(TR)やセンサネットサーバ(SS)に送信してもよい。逆に、送信・受信部(GWSR)は、センサネットサーバ(SS)から送られてきた制御コマンドを受信してもよい。受信した制御コマンドに従って出力装置の表示が変更される。   The base station (GW) includes a transmission / reception unit (GWSR), a control unit (GWCO), an input / output unit (GWIO), and a recording unit (GWME). The transmission / reception unit (GWSR) transmits and receives data to and from the sensor terminal (TR). For example, the transmission / reception unit (GWSR) may transmit a control command to the sensor terminal (TR), or may periodically receive sensing data from the sensor terminal (TR). In addition, when the sensor terminal (TR) acquires sensing data, the sensing data may be immediately transmitted from the sensor terminal (TR) to the transmission / reception unit (GWSR). Further, the transmission / reception unit (GWSR) transmits a request to the sensor network server (SS) according to the control command sent from the sensor terminal (TR), and outputs from the sensor network server (SS) in response to the request. The processed data may be transmitted to the sensor terminal (TR). Further, the transmission / reception unit (GWSR) may transmit the item selected by the input device provided in the input / output unit (GWIO) to the sensor terminal (TR) or the sensor network server (SS) as a control command. . Conversely, the transmission / reception unit (GWSR) may receive a control command sent from the sensor network server (SS). The display of the output device is changed according to the received control command.

制御部(GWCO)は、CPU(図示省略)を備える。CPUが記録部(GWME)に格納されているプログラムを実行することによって、センサ端末(TR)からのセンサ情報の取得、取得したセンサ情報をセンサネットサーバ(SS)へ送信する処理等が行われる。   The control unit (GWCO) includes a CPU (not shown). When the CPU executes a program stored in the recording unit (GWME), processing such as acquisition of sensor information from the sensor terminal (TR) and transmission of the acquired sensor information to the sensor network server (SS) is performed. .

入出力部(GWIO)は、ボタン又はキーボード等の入力装置と、液晶ディスプレイ等の出力装置とを備え、対象となるエリア内の状況等の情報やセンシングデータを表示する。入出力部(GWIO)として、入力装置と出力装置を統合したものであるタッチパネルが用いられてもよい。   The input / output unit (GWIO) includes an input device such as a button or a keyboard and an output device such as a liquid crystal display, and displays information such as a situation in a target area and sensing data. As the input / output unit (GWIO), a touch panel that integrates an input device and an output device may be used.

記録部(GWME)は、ハードディスクや内蔵メモリ等を備える。記録部(GWME)は、SDメモリカード等の外部記録装置を装着可能に構成されていてもよい。記録部(GWME)には、プログラムやセンシングデータが格納される。センシングデータには、赤外線送信器(TRIS)や他のセンサ端末(TR)から送信したIDを受信したデータを含む。さらに、記録部(GWME)は、データ形式(GWDFI)及び内部情報部(GWIN)を含む。   The recording unit (GWME) includes a hard disk, a built-in memory, and the like. The recording unit (GWME) may be configured so that an external recording device such as an SD memory card can be attached. The recording unit (GWME) stores programs and sensing data. The sensing data includes data that has received an ID transmitted from an infrared transmitter (TRIS) or another sensor terminal (TR). Furthermore, the recording unit (GWME) includes a data format (GWDFI) and an internal information unit (GWIN).

データ形式(GWDFI)は、センサ端末(TR)から受信したデータ及び時刻情報の記録形式に関する情報を含み、この形式に基づいてデータが各要素に分解される。   The data format (GWDFI) includes information received from the sensor terminal (TR) and information related to the recording format of the time information, and the data is decomposed into each element based on this format.

内部情報部(GWIN)は、基地局(GW)に関する情報を格納する。基地局(GW)に関する情報としては、例えば、時計(GWTI)(すなわち時刻情報)や、各基地局(GW)に対して一意に割り当てられる識別情報である基地局情報(GWBA)が含まれる。   The internal information unit (GWIN) stores information related to the base station (GW). The information regarding the base station (GW) includes, for example, a clock (GWTI) (that is, time information) and base station information (GWBA) that is identification information uniquely assigned to each base station (GW).

− ネットワーク −
ネットワーク(NW)は、基地局(GW)、センサネットサーバ(SS)、アプリケーションサーバ(AS)及びクライアント(CL)を無線または有線の形態で相互に接続する。ネットワーク(NW)は、Local Area Network(LAN)、Wide Area Network(WAN)又はその他の任意のネットワークであってよい。
− Network −
The network (NW) connects a base station (GW), a sensor network server (SS), an application server (AS), and a client (CL) to each other in a wireless or wired form. The network (NW) may be a local area network (LAN), a wide area network (WAN), or any other network.

− センサネットサーバ −
センサネットサーバ(SS)は、基地局(GW)から送られてくるセンシングデータを受信して格納し、また、アプリケーションサーバ(AS)からの要求に基づいてセンシングデータを送信する。センサネットサーバ(SS)はまた、基地局(GW)からの制御コマンドを受信し、その制御コマンドに対応する情報や応答信号等を基地局(GW)に送信する。
− Sensor net server −
The sensor network server (SS) receives and stores sensing data sent from the base station (GW), and transmits sensing data based on a request from the application server (AS). The sensor network server (SS) also receives a control command from the base station (GW), and transmits information corresponding to the control command, a response signal, and the like to the base station (GW).

センサネットサーバ(SS)は、データベース部(SSDB)と、制御部(SSCO)と、送信・受信部(SSSR)と、記録部(SSME)とを備える。   The sensor network server (SS) includes a database unit (SSDB), a control unit (SSCO), a transmission / reception unit (SSSR), and a recording unit (SSME).

データベース部(SSDB)は、センサ端末(TR)から基地局(GW)を介して送られてきたセンシングデータを格納する。センシングデータには、赤外線送信器(TRIS)や他のセンサ端末(TR)から送信されたIDをセンサ端末(TR)の赤外線受信器(TRIR)で受信したデータを含む。さらに、データベース部(SSDB)は、基地局(GW)から出力される制御コマンドに対する応答手順等を格納する。データベース部(SSDB)は、後述する記録部(SSME)が備えるハードディスクドライブ(図示省略)等に格納されてもよい。   The database unit (SSDB) stores sensing data transmitted from the sensor terminal (TR) via the base station (GW). The sensing data includes data obtained by receiving an ID transmitted from an infrared transmitter (TRIS) or another sensor terminal (TR) with an infrared receiver (TRIR) of the sensor terminal (TR). Further, the database unit (SSDB) stores a response procedure for a control command output from the base station (GW). The database unit (SSDB) may be stored in a hard disk drive (not shown) provided in a recording unit (SSME) described later.

制御部(SSCO)は、CPU(図示省略)を備える。CPUが記録部(SSME)に格納されているプログラムを実行することによって、データベース部(SSDB)の管理、及び、アプリケーションサーバ(AS)及び基地局(GW)から送信される情報の処理を行う。より具体的には、基地局(GW)から受信したデータをデータベース部(SSDB)に格納する。   The control unit (SSCO) includes a CPU (not shown). The CPU executes a program stored in the recording unit (SSME), thereby managing the database unit (SSDB) and processing information transmitted from the application server (AS) and the base station (GW). More specifically, data received from the base station (GW) is stored in the database unit (SSDB).

送信・受信部(SSSR)は、基地局(GW)及びアプリケーションサーバ(AS)との間でデータの送信および受信を行う。具体的には、送信・受信部(SSSR)は、基地局(TR)から送られてきたセンシングデータを受信し、アプリケーションサーバ(AS)へはアプリケーションサーバ(AS)から送信要求のあったセンシングデータを送信する。また、送信・受信部(SSSR)は、基地局(GW)から制御コマンドを受信した場合、データベース部(SSDB)から抽出した結果を基地局(GW)に送信する。   The transmission / reception unit (SSSR) transmits and receives data between the base station (GW) and the application server (AS). Specifically, the transmission / reception unit (SSSR) receives the sensing data transmitted from the base station (TR), and the sensing data requested to be transmitted from the application server (AS) to the application server (AS). Send. Moreover, a transmission / reception part (SSSR) transmits the result extracted from the database part (SSDB) to a base station (GW), when a control command is received from a base station (GW).

記録部(SSME)は、ハードディスクドライブや内蔵メモリ等を備える。記録部(SSME)はまた、SDメモリカード等の外部記録装置を装着可能に構成されていてもよい。記録部(SSME)には、プログラムや他の情報が格納される。先にも説明したように、記録部(SSME)内にデータベース部(SSDB)が設けられていてもよい。記録部(SSME)は、データ形式(SSDFI)の情報を含む。データ形式(SSDFI)は、基地局(GW)から送信されるセンシングデータや時刻情報を含むファイルの形式に関する情報を含み、この形式に基づいてデータが各要素に分解され、データベース部(SSDB)内に蓄積される際に適切な要素に振り分けられる。   The recording unit (SSME) includes a hard disk drive and a built-in memory. The recording unit (SSME) may also be configured so that an external recording device such as an SD memory card can be attached. The recording unit (SSME) stores programs and other information. As described above, a database unit (SSDB) may be provided in the recording unit (SSME). The recording unit (SSME) includes data format (SSDFI) information. The data format (SSDFI) includes information on the format of a file including sensing data and time information transmitted from the base station (GW), and the data is decomposed into each element based on this format, and is stored in the database unit (SSDB). When it is accumulated, it is assigned to the appropriate element.

なお、図ではセンサネットサーバ(SS)は、基地局(GW)と分離した構成で記述しているが、実際には基地局(GW)内に組み込まれていてもよい。   In the figure, the sensor network server (SS) is described as being separated from the base station (GW), but may actually be incorporated in the base station (GW).

− 業務情報管理サーバ −
業務情報管理サーバ(GS)は、組織内人員それぞれの業務活動に関連する情報(以下ではこれを業務情報と称する)を集約し、処理するためのサーバである。業務情報としては、来客申請、会議室使用申し込み、電話記録等の情報を含む。来客申請には、組織内の誰が外部組織の誰の来訪を受けて何日の何時から何時まで打ち合わせ等を行うか、等の情報が含まれる。会議室使用申し込みには、会議室の部屋番号、何日の何時から何時まで使用するか、会議室の使用者、組織外の人員が会議に参加する場合には、その人の属する組織や名前等が含まれる。電話記録には、何日の何時から何時まで、組織内のどの電話機が用いられて何処との間で通話が行われていたかの情報が含まれる。相手先電話番号と組織名や人名との関係を特定可能なデータベースを構築することにより、通話相手の組織名や人名を特定することも可能となる。以上の情報から、組織内人員と、センサ端末(TR)を装着していない人員との対面活動を抽出することが可能となる。本明細書では、組織内の人員とセンサ端末(TR)を装着していない人員との対面活動を抽出可能な情報を対面活動情報と称する。
− Business information management server −
The business information management server (GS) is a server for collecting and processing information (hereinafter referred to as business information) related to business activities of individual personnel in the organization. The business information includes information such as visitor application, conference room use application, and telephone record. The visitor application includes information such as who in the organization receives the visit from the external organization and from what time to what time of the day. When applying for a conference room, the room number of the conference room, what time of day from what time to what time, when the conference room user or outside personnel join the conference, the organization or name to which the person belongs Etc. are included. The telephone record includes information on what day of the week from what time to what time, which telephone in the organization was used and where the telephone call was made. By constructing a database capable of specifying the relationship between the destination telephone number and the organization name or person name, it becomes possible to specify the organization name or person name of the call partner. From the above information, it is possible to extract the face-to-face activity between the personnel in the organization and the personnel who are not wearing the sensor terminal (TR). In the present specification, information capable of extracting the face-to-face activity between a person in the organization and a person not wearing the sensor terminal (TR) is referred to as face-to-face activity information.

− アプリケーションサーバ −
アプリケーションサーバ(AS)は、業務情報管理サーバ(GS)から業務情報を受信し、センサネットサーバ(SS)からセンシングデータを受信する。アプリケーションサーバ(AS)は、受信したこれらの業務情報およびセンシングデータを処理及び解析し、クライアント(CL)を通してユーザ(US)に提示するためのコンテンツ情報を生成する。コンテンツ情報は、多くは画像であるが、動画やテキストデータ、音声データなど、他のデータまたはそれらのデータの組み合わせでもよい。
− Application server −
The application server (AS) receives business information from the business information management server (GS) and receives sensing data from the sensor network server (SS). The application server (AS) processes and analyzes the received business information and sensing data, and generates content information to be presented to the user (US) through the client (CL). The content information is mostly an image, but may be other data such as a moving image, text data, audio data, or a combination of these data.

アプリケーションサーバ(AS)は、送信・受信部(ASSR)と、制御部(ASCO)と、記録部(ASME)とを備える。なお、アプリケーションサーバ(AS)は、他の装置、例えばクライアント(CL)やセンサネットサーバ(SS)と一体化されていてもよい。   The application server (AS) includes a transmission / reception unit (ASSR), a control unit (ASCO), and a recording unit (ASME). Note that the application server (AS) may be integrated with another device such as a client (CL) or a sensor network server (SS).

送信・受信部(ASSR)は、ネットワーク(NW)を介してクライアント(CL)、センサネットサーバ(SS)、そして業務管理サーバ(GS)との間で情報を送受信する。   The transmission / reception unit (ASSR) transmits / receives information to / from the client (CL), the sensor network server (SS), and the business management server (GS) via the network (NW).

記録部(ASME)は、ハードディスクドライブや内蔵メモリ等を備える。記録部(ASME)はまた、SDメモリカード等の外部記録装置を装着可能に構成されていてもよい。記録部(ASME)には、業務管理サーバ(GS)から受信した業務情報や、センサネットサーバ(SS)から受信したセンシングデータを処理するためのプログラム、コンテンツ作成のためのプログラム、作成したコンテンツ、その他コンテンツ作成に関係するデータ等が格納される。   The recording unit (ASME) includes a hard disk drive, a built-in memory, and the like. The recording unit (ASME) may also be configured so that an external recording device such as an SD memory card can be attached. The recording unit (ASME) includes business information received from the business management server (GS), a program for processing sensing data received from the sensor network server (SS), a program for creating content, created content, Other data related to content creation is stored.

制御部(ASCO)はCPU(図示省略)を備える。CPUが記録部(ASME)に格納されているプログラムを実行することによって、センシングデータの処理および判定、コンテンツの生成等の処理が行われる。アプリケーションサーバ(AS)は、基地局(GW)やセンサネットサーバ(SS)と一体に構成されていてもよい。   The control unit (ASCO) includes a CPU (not shown). When the CPU executes a program stored in the recording unit (ASME), processing such as sensing data processing and determination, content generation, and the like are performed. The application server (AS) may be configured integrally with the base station (GW) or the sensor network server (SS).

− クライアント −
クライアント(CL)は、ユーザからの依頼に基づいてデータ処理要求をアプリケーションサーバ(AS)に送信し、処理結果をアプリケーションサーバ(AS)から受信し、受信した処理結果を画面に表示する。クライアント(CL)は、送信・受信部(CLSR)と、制御部(CLCO)と、記録部(CLME)と、入出力部(CLIO)とを備える。
− Client −
The client (CL) transmits a data processing request to the application server (AS) based on the request from the user, receives the processing result from the application server (AS), and displays the received processing result on the screen. The client (CL) includes a transmission / reception unit (CLSR), a control unit (CLCO), a recording unit (CLME), and an input / output unit (CLIO).

入出力部(CLIO)は、マウス(CLIM)やキーボード(CLIK)などの入力装置と、ディスプレイ(CLWD)などの出力装置とを備え、対象となるエリアに属するユーザの行動や対面状況等の情報やセンシングデータ等を表示する。入出力部(CLIO)として、入力装置と出力装置を統合したものであるタッチパネルが用いられてもよい。またそれ以外の入出力装置を接続するために外部入出力(CLOU)が備えられていてもよい。   The input / output unit (CLIO) includes an input device such as a mouse (CLIM) and a keyboard (CLIK), and an output device such as a display (CLWD), and information such as user behavior and face-to-face status belonging to the target area. And sensing data are displayed. As the input / output unit (CLIO), a touch panel that integrates an input device and an output device may be used. An external input / output (CLOU) may be provided to connect other input / output devices.

記録部(CLME)は、ハードディスクドライブや内蔵メモリ等を備える。記録部(CLME)はまた、SDメモリカード等の外部記録装置を装着可能に構成されていてもよい。記録部(CLME)には、プログラム、センシングデータ等が記録される。記録部(CLME)にはまた、アプリケーションサーバ(AS)から送られてきた表示コンテンツや、制御部(CLCO)による処理結果が格納される。記録部(CLME)にはさらに、初期条件設定(CLISI)に関する情報が保存される。この初期条件設定(CLISI)は、画面の大きさなどの条件が記録される。ユーザによって設定された内容もまた初期条件設定(CLISI)として記録される。   The recording unit (CLME) includes a hard disk drive and a built-in memory. The recording unit (CLME) may also be configured so that an external recording device such as an SD memory card can be attached. The recording unit (CLME) records programs, sensing data, and the like. The recording unit (CLME) also stores display contents sent from the application server (AS) and processing results by the control unit (CLCO). The recording unit (CLME) further stores information related to initial condition setting (CLISI). In this initial condition setting (CLISI), conditions such as the screen size are recorded. The contents set by the user are also recorded as the initial condition setting (CLISI).

制御部(CLCO)は、記録部(CLME)に格納されているプログラムを実行するCPU(図示省略)を備える。制御部(CLCO)は、ユーザからの要求、すなわち入出力部(CLIO)のユーザ操作に基づいて、アプリケーションサーバ(AS)に対して情報を要求する。制御部(CLCO)は、アプリケーションサーバ(AS)から受信した処理結果、例えば表示コンテンツの表示サイズを調整し、入出力部(CLIO)のディスプレイ(CLWD)などの出力装置に表示することによってユーザに提供する。   The control unit (CLCO) includes a CPU (not shown) that executes a program stored in the recording unit (CLME). The control unit (CLCO) requests information from the application server (AS) based on a request from the user, that is, a user operation of the input / output unit (CLIO). The control unit (CLCO) adjusts the processing result received from the application server (AS), for example, the display size of the display content, and displays it on the output device such as the display (CLWD) of the input / output unit (CLIO) to the user. provide.

送信・受信部(CLSR)は、ネットワーク(NW)を介してアプリケーションサーバ(AS)との間で情報を送受信する。   The transmission / reception unit (CLSR) transmits / receives information to / from the application server (AS) via the network (NW).

図1を参照して以上に説明した業務管理支援システムにおいて、センサ端末(TR)でセンシングして得られたセンシングデータ等をもとに、組織内人員であるユーザの、他の組織内人員や組織外の人員との対面や発話の有無等が判定され、それらの判定結果をもとにユーザの行動判定が行われる。以下ではユーザの行動判定が行われる際の複数の例について説明する。   In the business management support system described above with reference to FIG. 1, based on the sensing data obtained by sensing with the sensor terminal (TR), Face-to-face with personnel outside the organization, presence / absence of utterances, and the like are determined, and the user's behavior is determined based on the determination results. Hereinafter, a plurality of examples when user behavior determination is performed will be described.

− 第1の実施の形態 −
第1の実施の形態では、センサ端末(TR)のセンシング部(TRSE)中、赤外線送信器(TRIS)、赤外線受信器(TRIR)、音声センサ(TRMI)によるセンシング情報がユーザの行動判定に際して参照される。また、行動判定自体がセンサ端末(TR)内で行われ、その行動判定結果が他のセンシング情報とともにセンサ端末(TR)から基地局(GW)を経由してセンサネットサーバ(SS)に送信される。
− First embodiment −
In the first embodiment, sensing information from the infrared transmitter (TRIS), infrared receiver (TRIR), and voice sensor (TRMI) in the sensing unit (TRSE) of the sensor terminal (TR) is referred to when determining the user's behavior. Is done. The behavior determination itself is performed in the sensor terminal (TR), and the behavior determination result is transmitted from the sensor terminal (TR) to the sensor network server (SS) via the base station (GW) together with other sensing information. The

図2は、図1における全体システム構成において、第1の実施の形態で重要な働きをする部分のみを示すブロック図である。図2に示される以外のシステム構成要素は図1に示されるものと同様である。図2において、図1を参照して説明したのと同様の構成要素には同じ符号を付し、その詳細な説明を省略する。   FIG. 2 is a block diagram showing only the part that plays an important role in the first embodiment in the overall system configuration shown in FIG. System components other than those shown in FIG. 2 are the same as those shown in FIG. 2, the same components as those described with reference to FIG. 1 are denoted by the same reference numerals, and detailed description thereof is omitted.

図2に示すセンサ端末(TR)の構成においては、制御部(TRCO)が対面判定(TRID)、FFT処理(TRFT)、発話判定(TRSD)、および行動判定(TRAD)の各処理部を有する点が特徴である。   In the configuration of the sensor terminal (TR) shown in FIG. 2, the control unit (TRCO) has processing units for face-to-face determination (TRID), FFT processing (TRFT), speech determination (TRSD), and action determination (TRAD). The point is a feature.

対面判定(TRID)は、赤外線送信機(TRIS)および赤外線受信器(TRIR)によって、他のセンサ端末(TR)に備えられる赤外線送信機および赤外線受信器との間の通信を試みた結果に基づいて、当該センサ端末(TR)を装着するユーザと組織内の他のユーザとの対面の有無を判定する。   Face-to-face determination (TRID) is based on the result of an attempt to communicate with an infrared transmitter and an infrared receiver provided in another sensor terminal (TR) by an infrared transmitter (TRIS) and an infrared receiver (TRIR). Then, it is determined whether or not the user wearing the sensor terminal (TR) is facing another user in the organization.

図3は、対面判定(TRID)の処理例を示すフローチャートである。S3−1では、赤外線送信器(TRIS)から赤外光が発せられる。この赤外光は輝度変調されていて、センサ端末(TR)のID情報が搬送される。つまり、S3−1で赤外線IDの送信が行われる。近くに別のセンサ端末(TR)が存在するとこの赤外光が別のセンサ端末(TR)に備えられる赤外線受信器(TRIR)によって検出される。以下では自端末(TR)と別のセンサ端末(TR)とを区別する際に、別のセンサ端末(TR)を相手端末(TR)と称する。S3−1で送信された赤外線IDを相手端末(TR)が受信すると、相手端末(TR)からは相手端末(TR)のIDを含む応答信号が出力される。この応答信号(赤外線ID)を受信する試みがS3−2で行われる。   FIG. 3 is a flowchart illustrating a processing example of face-to-face determination (TRID). In S3-1, infrared light is emitted from the infrared transmitter (TRIS). The infrared light is luminance-modulated and carries ID information of the sensor terminal (TR). That is, the infrared ID is transmitted in S3-1. When another sensor terminal (TR) is present nearby, this infrared light is detected by an infrared receiver (TRIR) provided in the other sensor terminal (TR). Below, when distinguishing a self-terminal (TR) and another sensor terminal (TR), another sensor terminal (TR) is called a partner terminal (TR). When the counterpart terminal (TR) receives the infrared ID transmitted in S3-1, the counterpart terminal (TR) outputs a response signal including the ID of the counterpart terminal (TR). An attempt to receive this response signal (infrared ID) is made in S3-2.

以上に説明したS3−1、S3−2の処理が一定時間にわたって繰り返し行われ、S3−4では同一の赤外線ID(これは相手端末(TR)から出力された赤外線IDである)を所定の時間(T秒間)に検出した回数がΛ回以上であるか否かが判定される。S3−4の判定が肯定されるとS3−5に進み、当該のT秒間に対面が行われていた、すなわち当該のT秒間は対話区間であると判定される。一方、S3−4での判定が否定されるとS3−6に分岐し、当該のT秒間は非対面区間であると判定される。   The processes of S3-1 and S3-2 described above are repeatedly performed over a predetermined time, and in S3-4, the same infrared ID (this is the infrared ID output from the counterpart terminal (TR)) is set for a predetermined time. It is determined whether or not the number of times detected in (T seconds) is Λ times or more. If the determination in S3-4 is affirmed, the process proceeds to S3-5, and it is determined that the meeting has been performed for the T seconds, that is, the T seconds are the conversation section. On the other hand, if the determination in S3-4 is negative, the process branches to S3-6, and it is determined that the T second is a non-face-to-face section.

S3−5またはS3−6の処理が終わると対面判定が完了し、リターンする。図3に例示する対面判定処理により、相手端末(TR)と単にすれ違っただけの場合と、実際に対面があった場合とを、より正確に弁別することが可能となる。   When the process of S3-5 or S3-6 ends, the face-to-face determination is completed and the process returns. The face-to-face determination process illustrated in FIG. 3 makes it possible to more accurately discriminate between the case of simply passing the counterpart terminal (TR) and the case of actually meeting.

FFT処理(TRFT)は、音声センサ(TRMI)でセンシングして得られた音声信号に高速フーリエ変換の処理をして周波数スペクトルを導出する。例えば、音声センサ(TRMI)では8kHzのサンプリングレートでサンプリングが行われ、こうして得られた一連の音声信号を128ミリ秒のタイムウィンドウで区切り、得られた1024個(=8,000×0.128)の音声信号に対してFFTの処理が行われる。その結果、サンプリングした対象の音が純音ではない限り、複数のスペクトルピークが得られる。   The FFT process (TRFT) derives a frequency spectrum by performing a fast Fourier transform process on an audio signal obtained by sensing with an audio sensor (TRMI). For example, in a voice sensor (TRMI), sampling is performed at a sampling rate of 8 kHz, and a series of voice signals obtained in this way are separated by a time window of 128 milliseconds, and 1024 obtained (= 8,000 × 0.128). ) Is subjected to FFT processing. As a result, a plurality of spectral peaks are obtained unless the sampled target sound is a pure tone.

発話判定(TRSD)は、FFT処理(TRFT)で処理して得られたスペクトルピークの組をもとに、人の声に特有のスペクトル成分の検出を試みる。その検出を繰り返し行い、人の声に特有のスペクトル成分が一定の時間(例えば数秒)以上にわたって検出されたとき、発話があったと判定することができる。   Speech determination (TRSD) attempts to detect spectral components peculiar to human voice based on a set of spectral peaks obtained by processing by FFT processing (TRFT). The detection is repeated, and when a spectral component peculiar to a human voice is detected over a certain time (for example, several seconds) or more, it can be determined that an utterance has occurred.

図4には、センシング(サンプリング)して得られた音声データをFFT処理し、人の声に特有のスペクトル成分の検出を試みるまでの処理の一例が示されている。   FIG. 4 shows an example of processing until the speech data obtained by sensing (sampling) is subjected to FFT processing and attempting to detect spectral components peculiar to human voice.

S4−1では、音声センサ(TRMI)による音声のサンプリングが行われ、音声データが記録部(TRME)に一時的に記録される。S4−2では、音声データがFFT処理される。その結果、スペクトルピークの組が抽出される。S4−2での処理がFFT処理(TRFT)での処理に相当する。   In S4-1, audio sampling is performed by the audio sensor (TRMI), and audio data is temporarily recorded in the recording unit (TRME). In S4-2, the audio data is subjected to FFT processing. As a result, a set of spectral peaks is extracted. The process in S4-2 corresponds to the process in the FFT process (TRFT).

S4−2の処理で得られたスペクトルピークの組には、様々なスペクトルピークが含まれている。これらのうち、S4−3の処理によってエネルギー値(強度)の大きいものから上位の所定個数(X個)のスペクトルピークがその周波数値とともに抽出される。人の声は、センサ端末(TR)の近傍で発せられるので、音声センサ(TRMI)では、人の声が比較的大きな音として捉えられる。したがって、S4−3の処理により、センサ端末(TR)がユーザの衣服と擦れて生じる音や空調音等の影響を減じることが可能となる。   The set of spectral peaks obtained by the process of S4-2 includes various spectral peaks. Among these, by the process of S4-3, a predetermined upper number (X) of spectral peaks are extracted together with their frequency values from those having a large energy value (intensity). Since a human voice is emitted in the vicinity of the sensor terminal (TR), the voice sensor (TRMI) captures the human voice as a relatively loud sound. Therefore, by the process of S4-3, it becomes possible to reduce the influence of the sound generated by rubbing the sensor terminal (TR) with the user's clothes, the air conditioning sound, and the like.

抽出されたスペクトルピークの周波数の単位をヘルツ[Hz]に変換する処理がS4−4で行われる。これらのスペクトルピークのうち、所定の周波数(Y[Hz])未満のスペクトルピークが破棄される。この処理により、人の声の周波数成分として想定される帯域のスペクトルピークのみが抽出されるので、後の処理に要する処理負荷を軽減するとともに人の声の検出精度を高めることが可能となる。このとき、所定の周波数を超すスペクトルピークを破棄するようにしてもよい。   A process of converting the frequency unit of the extracted spectrum peak into hertz [Hz] is performed in S4-4. Among these spectrum peaks, spectrum peaks less than a predetermined frequency (Y [Hz]) are discarded. By this process, only the spectrum peak in the band assumed as the frequency component of the human voice is extracted, so that it is possible to reduce the processing load required for the subsequent processing and to increase the human voice detection accuracy. At this time, a spectrum peak exceeding a predetermined frequency may be discarded.

以上の処理を経て残されたスペクトルピークに対してS4−6以降の処理が行われ、人の声に特有のスペクトルパターンの検出が試みられる。S4−6では、S4−5の処理の結果残されたスペクトルピークのうち、周波数が最も小さい(最も低い)スペクトルピークの周波数に2を乗じたものと、二番目に小さい(周波数が低い)スペクトルピークの周波数との差の絶対値が所定の判定基準[ε]よりも小さいか否かが判定される。つまり、最も低い周波数のスペクトルピークが人の声の基本周波数に対応するものと仮定して、その基本周波数の2倍近くのスペクトルピークがあるか否かがS4−6で判定される。S4−6での判定が肯定されると処理はS4−7に進み、否定されるとS4−9に進む。   The processing after S4-6 is performed on the spectrum peak left after the above processing, and detection of a spectrum pattern peculiar to human voice is attempted. In S4-6, among the spectrum peaks left as a result of the processing in S4-5, the frequency of the spectrum peak having the lowest frequency (lowest) is multiplied by 2, and the spectrum having the second smallest frequency (low frequency). It is determined whether or not the absolute value of the difference from the peak frequency is smaller than a predetermined determination criterion [ε]. That is, assuming that the spectrum peak of the lowest frequency corresponds to the fundamental frequency of the human voice, it is determined in S4-6 whether or not there is a spectrum peak close to twice the fundamental frequency. If the determination in S4-6 is affirmative, the process proceeds to S4-7, and if negative, the process proceeds to S4-9.

S4−6での判定が肯定された場合の分岐先であるS4−7において、S4−5の処理の結果残されたスペクトルピークのうち、周波数が最も小さい(最も低い)スペクトルピークの周波数に3を乗じたものと、三番目に小さい(三番目に低い)スペクトルピークの周波数との差の絶対値が所定の判定基準[ε]よりも小さいか否かが判定される。つまり、最も低い周波数のスペクトルピークが人の声の基本周波数に対応するものと仮定して、その基本周波数の3倍近くのスペクトルピークがあるか否かがS4−7で判定される。S4−7での判定が肯定されると処理はS4−8に進み、否定されるとS4−9に進む。   In S4-7, which is a branch destination when the determination in S4-6 is affirmed, among the spectrum peaks left as a result of the processing in S4-5, the frequency of the spectrum peak having the lowest (lowest) frequency is 3 It is determined whether or not the absolute value of the difference between the value obtained by multiplying by and the frequency of the third smallest (third lowest) spectrum peak is smaller than a predetermined criterion [ε]. That is, assuming that the spectrum peak of the lowest frequency corresponds to the fundamental frequency of human voice, it is determined in S4-7 whether there is a spectrum peak close to three times the fundamental frequency. If the determination in S4-7 is affirmed, the process proceeds to S4-8, and if not, the process proceeds to S4-9.

S4−7での判定が肯定された場合の分岐先であるS4−8において、S4−5の処理の結果残されたスペクトルピークのうち、周波数が最も小さい(最も低い)スペクトルピークの周波数が基本周波数である、すなわち人の声特有のスペクトルパターンが含まれていると判定される。人の声には、最も低い基本周波数、その二倍および三倍の周波数が含まれるので、S4−6およびS4−7の判定処理により、人の声特有のスペクトルパターンを検出することが可能となる。S4−8の処理の後、基本周波数検出の処理を終えてリターンする。   In S4-8, which is a branch destination when the determination in S4-7 is affirmed, the frequency of the spectrum peak having the lowest frequency (lowest) among the spectrum peaks left as a result of the processing in S4-5 is basically the same. It is determined that a spectrum pattern that is a frequency, that is, a human voice-specific spectral pattern is included. Since human voice includes the lowest fundamental frequency, twice and three times that frequency, it is possible to detect a spectral pattern peculiar to human voice by the determination process of S4-6 and S4-7. Become. After the process of S4-8, the fundamental frequency detection process is completed and the process returns.

S4−6およびS4−7での判定が否定された場合の分岐先であるS4−9において、S4−5の処理の結果残されたスペクトルピークのうち、周波数が二番目に小さい(二番目に低い)スペクトルピークの周波数に3を乗じたものと、三番目に小さい(三番目に低い)スペクトルピークの周波数との差の絶対値が所定の判定基準[ε]よりも小さいか否かが判定される。つまり、二番目に低い周波数のスペクトルピークが人の声の基本周波数に対応するものと仮定して、その基本周波数の2倍近くのスペクトルピークがあるか否かがS4−9で判定される。S4−9での判定が肯定されると処理はS4−10に進み、否定されるとS4−12に進む。   In S4-9, which is the branch destination when the determinations in S4-6 and S4-7 are denied, the frequency is the second smallest among the spectrum peaks left as a result of the processing in S4-5 (second. Determines whether the absolute value of the difference between the frequency of the (low) spectral peak multiplied by 3 and the frequency of the third smallest (third lowest) spectral peak is smaller than a predetermined criterion [ε] Is done. That is, assuming that the spectrum peak of the second lowest frequency corresponds to the fundamental frequency of the human voice, it is determined in S4-9 whether there is a spectrum peak close to twice the fundamental frequency. If the determination in S4-9 is affirmed, the process proceeds to S4-10, and if not, the process proceeds to S4-12.

S4−9での判定が肯定された場合の分岐先であるS4−10において、S4−5の処理の結果残されたスペクトルピークのうち、周波数が二番目に小さい(二番目に低い)スペクトルピークの周波数に3を乗じたものと、四番目に小さい(四番目に低い)スペクトルピークの周波数との差の絶対値が所定の判定基準[ε]よりも小さいか否かが判定される。つまり、二番目に低い周波数のスペクトルピークが人の声の基本周波数に対応するものと仮定して、その基本周波数の3倍近くのスペクトルピークがあるか否かがS4−10で判定される。S4−10での判定が肯定されると処理はS4−11に進み、否定されるとS4−12に進む。   In S4-10, which is the branch destination when the determination in S4-9 is affirmed, among the spectrum peaks left as a result of the processing in S4-5, the spectrum peak having the second lowest frequency (second lowest) It is determined whether or not the absolute value of the difference between the frequency obtained by multiplying 3 by 3 and the frequency of the fourth smallest (fourth lowest) spectrum peak is smaller than a predetermined criterion [ε]. That is, assuming that the spectrum peak of the second lowest frequency corresponds to the fundamental frequency of human voice, it is determined in S4-10 whether or not there is a spectrum peak close to three times the fundamental frequency. If the determination in S4-10 is affirmed, the process proceeds to S4-11. If the determination is negative, the process proceeds to S4-12.

S4−10での判定が肯定された場合の分岐先であるS4−11において、S4−5の処理の結果残されたスペクトルピークのうち、周波数が二番目に小さい(二番目に低い)スペクトルピークの周波数が基本周波数である、すなわち人の声特有のスペクトルパターンが含まれていると判定される。S4−11の処理の後、基本周波数検出の処理を終えてリターンする。   In S4-11 which is a branch destination when the determination in S4-10 is affirmed, the spectrum peak having the second lowest frequency (second lowest) among the spectrum peaks left as a result of the processing in S4-5. Is a fundamental frequency, that is, it is determined that a spectrum pattern peculiar to human voice is included. After the process of S4-11, the basic frequency detection process is finished and the process returns.

S4−9およびS4−10での判定が否定された場合の分岐先であるS4−12において、S4−5の処理の結果残されたスペクトルピーク中には基本周波数はない、すなわち人の声特有のスペクトルパターンが含まれていないと判定される。S4−12の処理の後、基本周波数検出の処理を終えてリターンする。   In S4-12, which is a branch destination when the determinations in S4-9 and S4-10 are denied, there is no fundamental frequency in the spectrum peak left as a result of the processing in S4-5, that is, it is peculiar to human voice. It is determined that the spectrum pattern is not included. After the process of S4-12, the basic frequency detection process is finished and the process returns.

以上の処理において、S4−6、S4−7、S4−9、およびS4−10の判定処理における判定基準[ε]は、全て同じ値が設定されていても、異なる値が設定されていてもよい。また、S4−9およびS4−10の判定が共に否定された場合、基本周波数検出の処理が打ち切られる例について説明したが、上述したのと同様の判定処理を繰り返し行うことも可能である。   In the above processing, the determination criteria [ε] in the determination processes of S4-6, S4-7, S4-9, and S4-10 are all set to the same value or different values. Good. Further, although an example has been described in which the fundamental frequency detection process is aborted when the determinations of S4-9 and S4-10 are both denied, it is also possible to repeatedly perform the same determination process as described above.

ところで、S4−6の判定処理において、S4−5の処理の結果残されたスペクトルピークのうち、周波数が最も低いスペクトルピークの周波数に2を乗じたものと、二番目に周波数が低いスペクトルピークの周波数との差の絶対値が所定の判定基準[ε]よりも小さいか否かを判定する例について説明した。解析対象の音声が人の声であったものの、たまたま人の声に近い周波数帯域のノイズが混入していると、二番目に周波数の低いスペクトルピークが人の声由来のものではなく、ノイズ由来のものである可能性がある。その場合、S4−6の判定が否定されて人の声由来のスペクトルピークを検出できない事が考えられる。この点について説明すると、センサ端末(TR)はユーザが装着しているので、ユーザの声は比較的大きく収音することが可能である。つまり、音声センサ(TRMI)でセンシングされる人(ユーザ)の声の大きさは、他の音(ノイズ)に比べて大きめとなる。したがって、S4−3からS4−5までの処理により、人の声由来のスペクトルピークを残し、ノイズ成分を排除できるので、S4−6、S4−7、S4−9、そしてS4−10の判定で人の声由来のスペクトルピークを検出できる可能性が増す。   By the way, in the determination process of S4-6, among the spectrum peaks left as a result of the process of S4-5, the frequency of the spectrum peak with the lowest frequency multiplied by 2 and the spectrum peak with the second lowest frequency. The example in which it is determined whether or not the absolute value of the difference from the frequency is smaller than the predetermined determination criterion [ε] has been described. If the voice to be analyzed is a human voice, but it happens to have noise in a frequency band close to that of a human voice, the spectrum peak with the second lowest frequency is not from the human voice, but from the noise. May be. In that case, it is conceivable that the determination of S4-6 is denied and a spectrum peak derived from a human voice cannot be detected. Explaining this point, since the user wears the sensor terminal (TR), the voice of the user can be collected relatively loudly. That is, the loudness of a person (user) voice sensed by the voice sensor (TRMI) is larger than that of other sounds (noise). Accordingly, the processing from S4-3 to S4-5 leaves a spectrum peak derived from the human voice and eliminates noise components. Therefore, in the determinations of S4-6, S4-7, S4-9, and S4-10 The possibility of detecting spectral peaks derived from human voice increases.

もし、音声センサ(TRMI)の指向性や感度等の影響で、人の声以外の音も収音しやすい傾向がある場合、S4−6の処理を以下のように変更すればよい。すなわち、上述した周波数が最も低いスペクトルピークの周波数に2を乗じたものに近い周波数のスペクトルピークを、S4−5の処理の結果残されたスペクトルピーク中から探索する処理をすればよい。具体的には、S4−6において、[2×(最小の周波数)との差の絶対値がε未満の周波数であるスペクトルピークがあるか]の判定をすればよい。このようにすれば、基本周波数のスペクトルピークと、基本周波数の2倍の周波数のスペクトルピークとの間にノイズ由来のスペクトルピークが存在していても、それを無視することができる。S4−7、S4−9、S4−10での判定処理も同様である。   If the sound sensor (TRMI) tends to pick up sounds other than human voice due to the directivity and sensitivity of the sound sensor (TRMI), the process of S4-6 may be changed as follows. That is, a process of searching for a spectrum peak having a frequency close to the one obtained by multiplying the frequency of the spectrum peak having the lowest frequency by 2 from the spectrum peaks left as a result of the process of S4-5 may be performed. Specifically, in S4-6, it may be determined [whether there is a spectrum peak whose frequency is less than ε with an absolute value of a difference from 2 × (minimum frequency)]. In this way, even if there is a noise-derived spectrum peak between the spectrum peak at the fundamental frequency and the spectrum peak at twice the fundamental frequency, it can be ignored. The determination process in S4-7, S4-9, and S4-10 is the same.

以上の処理の結果、音声センサ(TRMI)で検出して得られた音声データ中に人の声特有のスペクトルパターンが存在するか否かが判定される。この判定は、上述した例では128ミリ秒というタイムウィンドウの中でFFTを行って得られたスペクトルピークに対して行われる。図4に示す処理が繰り返し行われ、基本周波数が所定の時間長の中で一定数以上、まとまって存在していれば、その時間帯は発話の行われた時間区間であると判定可される。つまり、発話判定(TRSD)が行われる。   As a result of the above processing, it is determined whether or not a spectrum pattern peculiar to a human voice exists in the sound data obtained by detection with the sound sensor (TRMI). This determination is performed on a spectrum peak obtained by performing FFT in a time window of 128 milliseconds in the above-described example. If the process shown in FIG. 4 is repeatedly performed and the fundamental frequency is present in a certain number of times within a predetermined time length, it is possible to determine that the time zone is a time section in which speech is performed. . That is, speech determination (TRSD) is performed.

行動判定(TRAD)は、対面判定(TRID)での判定結果と発話判定(TRSD)での判定結果とに基づき、センサ端末(TR)を装着しているユーザの行動判定を行う。   The action determination (TRAD) determines the action of the user wearing the sensor terminal (TR) based on the determination result in the face-to-face determination (TRID) and the determination result in the utterance determination (TRSD).

図5は、本発明の第1の実施形態においてセンサ端末(TR)内部で行われる処理を概念的に示す図である。   FIG. 5 is a diagram conceptually showing processing performed inside the sensor terminal (TR) in the first embodiment of the present invention.

赤外線受信器(TRIR)で赤外線受信(IRD)が行われ、その検出結果をもとに、図3を参照して説明した対面判定(FJ)が行われて、対面有(Fe)または対面無(Fn)の判定結果が得られる。   Infrared light reception (IRD) is performed by the infrared receiver (TRIR), and based on the detection result, the face-to-face determination (FJ) described with reference to FIG. 3 is performed, and face-to-face presence (Fe) or no face-to-face A determination result of (Fn) is obtained.

対面無(Fn)の判定が得られた場合、音声センサ(TRMI)で音声の検出(VCD)が行われて得られた音声データがFFT処理(FFTC)され、スペクトルピーク値が取得(FFTP)される。FFT処理(FFTC)は図4のS4−2の処理に対応し、スペクトルピーク値取得(FFTP)の処理は図4のS4−3の処理に対応する。なお、音声検出(VCD)の処理は、対面判定(FJ)の結果によらず、常に行われるものであってもよい。   When the determination of no-face-to-face (Fn) is obtained, the voice data obtained by voice detection (VCD) by the voice sensor (TRMI) is subjected to FFT processing (FFTC), and a spectrum peak value is obtained (FFTP) Is done. The FFT process (FFTC) corresponds to the process of S4-2 in FIG. 4, and the spectrum peak value acquisition (FFTP) process corresponds to the process of S4-3 in FIG. Note that the voice detection (VCD) process may always be performed regardless of the result of the face-to-face determination (FJ).

続いて基本周波数検出(FF)の処理が行われる。この処理は、図4のS4−4からS4−12までの処理に対応する。基本周波数検出(FF)の処理が継続的に行われて、発話が行われたと判定される時間区間の存否、その長さ、連続性等をもとに発話判定(VJ)が行われ、発話無(Vn)または発話有(Ve)と判定される。   Subsequently, fundamental frequency detection (FF) processing is performed. This processing corresponds to the processing from S4-4 to S4-12 in FIG. An utterance determination (VJ) is performed based on the presence / absence, length, continuity, etc. of the time interval in which it is determined that the utterance has been performed by continuously performing the fundamental frequency detection (FF) process. It is determined that there is no (Vn) or speech is present (Ve).

以上の判定の組み合わせ、すなわち
(1) 対面無(Fn)かつ発話無(Vn)か、
(2) 対面無(Fn)かつ発話有(Ve)か、
(3) 対面有(Fe)か、
のそれぞれに対応し、行動判定(AJ)では、センサ端末(TR)を装着したユーザが、非対面状態(Fnn)であるか、外部者と対面(OFe)しているか、内部者と対面しているか(IFe)の判定が行われる。つまり、赤外線受信器(TRIR)によって対面が検出された(Fe)ときには、発話判定(VJ)の結果によらず、内部者との対面(IFe)と判定される。一方、赤外線受信器(TRIR)による対面が検出されない状態(Fn)で発話有(Ve)と判定された場合には、部外者との対面(OFe)と判定される。そして、赤外線受信器(TRIR)による対面が検出されない状態(Fn)で発話無(Vn)と判定された場合には対面無(Fnn)と判定される。なお、発話判定(JV)や行動判定(AJ)に係る処理は、必ずしもリアルタイムで行われる必要はなく、過去に蓄積されたデータをもとに、必要を生じたときに行うことが可能である。
A combination of the above judgments, that is, (1) no meeting (Fn) and no speech (Vn),
(2) Face-to-face (Fn) and speech present (Ve)
(3) Or facing (Fe)
In the action determination (AJ), the user wearing the sensor terminal (TR) is in a non-face-to-face state (Fnn), faces an outsider (OFe), or faces an insider Whether (IFe) is present is determined. That is, when the meeting is detected by the infrared receiver (TRIR) (Fe), it is determined that the person is facing the insider (IFe) regardless of the result of the speech determination (VJ). On the other hand, when it is determined that there is an utterance (Ve) in a state where no facing by the infrared receiver (TRIR) is detected (Fn), it is determined that it is facing an outsider (OFe). Then, when it is determined that there is no speech (Vn) in a state where no facing by the infrared receiver (TRIR) is detected (Fn), it is determined that there is no facing (Fnn). Note that the processing related to speech determination (JV) and behavior determination (AJ) does not necessarily have to be performed in real time, and can be performed when necessary based on data accumulated in the past. .

以上に説明したように、本発明の第1の実施の形態によれば、センサ端末(TR)を装着したユーザ同士の対面に加えて、音声データを解析して発話の有無を判定した結果も参照することにより、センサ端末(TR)を装着したユーザ同士、すなわち組織内人員同士の対面に加え、組織内人員と組織外人員との対面を含む行動判定を行うことが可能となる。   As described above, according to the first embodiment of the present invention, in addition to the faces of users wearing sensor terminals (TR), the result of analyzing the voice data and determining the presence or absence of utterances By referring to it, it is possible to perform a behavior determination including the face-to-face contact between the in-organization personnel and the non-organization personnel in addition to the face-to-face contact between the users wearing the sensor terminals (TR).

− 第2の実施の形態 −
第2の実施の形態では、センサ端末(TR)のセンシング部(TRSE)中、赤外線送信器(TRIS)、赤外線受信器(TRIR)、音声センサ(TRMI)、および加速度センサ(TRAC)を用いて得られるセンシング情報がユーザの行動判定に際して参照される。また、行動判定自体がセンサ端末(TR)内で行われ、その行動判定結果が他のセンシング情報とともにセンサ端末(TR)から基地局(GW)を経由してセンサネットサーバ(SS)に送信される。
− Second Embodiment −
In the second embodiment, an infrared transmitter (TRIS), an infrared receiver (TRIR), a sound sensor (TRMI), and an acceleration sensor (TRAC) are used in the sensing unit (TRSE) of the sensor terminal (TR). The obtained sensing information is referred to when determining the user's behavior. The behavior determination itself is performed in the sensor terminal (TR), and the behavior determination result is transmitted from the sensor terminal (TR) to the sensor network server (SS) via the base station (GW) together with other sensing information. The

図6は、図1における全体システム構成において、第2の実施の形態で重要な働きをする部分のみを示すブロック図である。図6に示される以外のシステム構成要素は図1に示されるものと同様である。図6において、図1、図2を参照して説明したのと同様の構成要素には同じ符号を付し、その詳細な説明を省略する。   FIG. 6 is a block diagram showing only the part that plays an important role in the second embodiment in the overall system configuration in FIG. System components other than those shown in FIG. 6 are the same as those shown in FIG. In FIG. 6, the same components as those described with reference to FIGS. 1 and 2 are denoted by the same reference numerals, and detailed description thereof is omitted.

図6に示すセンサ端末(TR)の構成においては、制御部(TRCO)が対面判定(TRID)、FFT処理(TRFT)、発話判定(TRSD)、動き判定(TRMD)、および行動判定(TRAD)の各処理部を有する点が特徴である。   In the configuration of the sensor terminal (TR) shown in FIG. 6, the control unit (TRCO) has face-to-face determination (TRID), FFT processing (TRFT), speech determination (TRSD), motion determination (TRMD), and action determination (TRAD). The feature is that each processing section is provided.

対面判定(TRID)は、赤外線送信機(TRIS)および赤外線受信器(TRIR)によって、他のセンサ端末(TR)に備えられる赤外線送信機(TRIS)および赤外線受信器(TRIR)との間の通信を試みた結果に基づいて、当該センサ端末(TR)を装着するユーザと組織内の他のユーザ(内部者)との対面の有無を判定する。その処理手順は第1の実施の形態で図3を参照して説明したのと同様である。   Face-to-face determination (TRID) is a communication between an infrared transmitter (TRIS) and an infrared receiver (TRIR) provided in another sensor terminal (TR) by an infrared transmitter (TRIS) and an infrared receiver (TRIR). Based on the result of the attempt, whether or not the user wearing the sensor terminal (TR) and the other user (inside person) in the organization face each other is determined. The processing procedure is the same as that described with reference to FIG. 3 in the first embodiment.

FFT処理(TRFT)、発話判定(TRSD)では、第1の実施の形態で図4を参照して説明したのと同様の処理が行われる。動き判定(TRMD)は、加速度センサ(TRAC)で検出される加速度の変化をもとに、センサ端末(TR)を装着したユーザの動きを判定する。先にも説明したように、加速度センサ(TRAC)は3次元の動きを検出可能である。例えば、ユーザの前後、左右、上下に沿う方向に生じる加速度変化の大きさ、変化パターンや、加速度変化を生じる方向等を解析することにより、ユーザが歩行しているのか、デスクワークをしているのか、あるいは活発に動いているのか等を弁別することが可能となる。また、ユーザが対面状態にあるときに動き判定(TRMD)をすることにより、それが積極対面であるのか、消極対面であるのかを判定することも可能となる。   In FFT processing (TRFT) and speech determination (TRSD), processing similar to that described with reference to FIG. 4 in the first embodiment is performed. The motion determination (TRMD) determines the motion of the user wearing the sensor terminal (TR) based on the change in acceleration detected by the acceleration sensor (TRAC). As described above, the acceleration sensor (TRAC) can detect a three-dimensional movement. For example, whether the user is walking or desk work by analyzing the magnitude, change pattern, direction of acceleration change, etc. that occur in the direction along the user's front, back, left, right, up and down It is possible to discriminate whether it is moving actively or the like. In addition, by performing motion determination (TRMD) when the user is in a face-to-face state, it is also possible to determine whether it is a positive face-to-face or a negative face-to-face.

図7は、本発明の第2の実施形態においてセンサ端末(TR)内部で行われる処理を概念的に示す図である。   FIG. 7 is a diagram conceptually showing processing performed inside the sensor terminal (TR) in the second embodiment of the present invention.

赤外線受信器(TRIR)で赤外線受信(IRD)が行われ、その検出結果をもとに、図3を参照して説明した対面判定(FJ)が行われて、対面有(Fe)または対面無(Fn)の判定結果が得られる。   Infrared light reception (IRD) is performed by the infrared receiver (TRIR), and based on the detection result, the face-to-face determination (FJ) described with reference to FIG. 3 is performed, and face-to-face presence (Fe) or no face-to-face A determination result of (Fn) is obtained.

対面無(Fn)の判定が得られた場合、音声センサ(TRMI)で音声の検出(VCD)が行われて得られた音声データがFFT処理(FFTC)され、スペクトルピーク値が取得(FFTP)される。FFT処理(FFTC)は図4のS4−2の処理に対応し、スペクトルピーク値取得(FFTP)の処理は図4のS4−3の処理に対応する。音声検出(VCD)が対面判定(FJ)の結果によらずに行われてもよいのは第1の実施の形態で説明したのと同様である。   When the determination of no-face-to-face (Fn) is obtained, the voice data obtained by voice detection (VCD) by the voice sensor (TRMI) is subjected to FFT processing (FFTC), and a spectrum peak value is obtained (FFTP) Is done. The FFT process (FFTC) corresponds to the process of S4-2 in FIG. 4, and the spectrum peak value acquisition (FFTP) process corresponds to the process of S4-3 in FIG. The voice detection (VCD) may be performed regardless of the result of the face-to-face determination (FJ), as described in the first embodiment.

続いて基本周波数検出(FF)の処理が行われる。この処理は、図4のS4−4からS4−12までの処理に対応する。基本周波数検出(FF)の処理が継続的に行われて、発話の行われた時間区間の存否をもとに発話判定(VJ)が行われ、発話無(Vn)または発話有(Ve)と判定される。   Subsequently, fundamental frequency detection (FF) processing is performed. This processing corresponds to the processing from S4-4 to S4-12 in FIG. The basic frequency detection (FF) process is continuously performed, and the speech determination (VJ) is performed based on the presence or absence of the time period in which the speech is performed, and there is no speech (Vn) or speech is present (Ve). Determined.

以上の判定の組み合わせ、すなわち
(1) 対面無(Fn)かつ発話無(Vn)か、
(2) 対面無(Fn)かつ発話有(Ve)か、
(3) 対面有(Fe)か、
のそれぞれに対応し、対面無(Fnn)、外部者との対面(OFe)、内部者との対面(IFe)の区分けが可能となる。つまり、赤外線受信器(TRIR)によって対面が検出された(Fe)ときには、発話判定(VJ)の結果によらず、内部者との対面(IFe)と判定される。一方、赤外線受信器(TRIR)による対面が検出されない状態(Fn)で発話有(Ve)と判定された場合には、部外者との対面(OFe)と判定される。そして、赤外線受信器(TRIR)による対面が検出されない状態(Fn)で発話無(Vn)と判定された場合には対面無(Fnn)と判定される。
A combination of the above judgments, that is, (1) no meeting (Fn) and no speech (Vn),
(2) Face-to-face (Fn) and speech present (Ve)
(3) Or facing (Fe)
It is possible to classify the face-to-face (OFn), the face-to-face (OFe), and the face-to-face (IFe). That is, when the meeting is detected by the infrared receiver (TRIR) (Fe), it is determined that the person is facing the insider (IFe) regardless of the result of the speech determination (VJ). On the other hand, when it is determined that there is an utterance (Ve) in a state where no facing by the infrared receiver (TRIR) is detected (Fn), it is determined that it is facing an outsider (OFe). Then, when it is determined that there is no speech (Vn) in a state where no facing by the infrared receiver (TRIR) is detected (Fn), it is determined that there is no facing (Fnn).

さらに、加速度センサ(TRAC)で検出された加速度の変化をもとに、センサ端末(TR)を装着したユーザの動きを判定する処理、すなわち動き判定処理(MJ)が行われる。動き判定(MJ)は、例えば一定時間の間に加速度または加速度の変化が閾値以上であるか否かで行なわれる。この加速度または加速度の変化が閾値以上である場合、動き有(Me)と判定され、閾値未満であれば動き無(Mn)と判定される。動き有(Me)と判定されるのは、ユーザが活発に動いている場合である。一方、ユーザが対面相手の話を静かに聞いていたり、一人で集中していたりする場合には、動き無(Mn)と判定される。   Furthermore, based on the change in acceleration detected by the acceleration sensor (TRAC), a process for determining the movement of the user wearing the sensor terminal (TR), that is, a movement determination process (MJ) is performed. The motion determination (MJ) is performed based on, for example, whether or not an acceleration or a change in acceleration is greater than or equal to a threshold value during a certain time. If this acceleration or change in acceleration is greater than or equal to a threshold, it is determined that there is motion (Me), and if it is less than the threshold, it is determined that there is no motion (Mn). It is determined that the user is moving actively (Me). On the other hand, when the user is quietly listening to the face-to-face partner or is concentrated alone, it is determined that there is no movement (Mn).

上述した対面無(Fnn)、外部者との対面(OFe)、および内部者との対面(IFe)の区分けと、動き判定(MJ)の判定結果との組み合わせに基づき、センサ端末(TR)を装着したユーザの行動判定(AJ)が行われる。そして、
(1) 内部者との対面があり(IFe)、動き判定(MJ)結果が動き有(Me)であるときには内部者と積極対面状態(IFMe)と判定され、
(2) 外部者との対面があり(OFe)、動き判定(MJ)結果が動き有(Me)であるときには外部者との積極対面状態(OFMe)と判定され、
(3) 内部者との対面があり(IFe)、動き判定(MJ)結果が動き無(Mn)であるときには内部者との消極対面状態(IFMn)と判定され、
(4) 外部者との対面があり(OFe)、動き判定(MJ)結果が動き無(Mn)であるときには外部者との消極対面状態(OFMn)と判定され、
(5) 対面は無く(Fnn)、動き判定(MJ)結果が動き有(Me)であるときには個人作業状態(Lme)と判定され、
(6) 対面は無く(Fnn)、動き判定(MJ)結果が動き無(Mn)であるときには集中状態(Lmn)と判定される。
The sensor terminal (TR) is based on the combination of the above-mentioned classification of face-to-face (Fnn), face-to-face (OFe), face-to-face (IFe) with the insider, and the judgment result of motion judgment (MJ). The action determination (AJ) of the user who wears is performed. And
(1) When there is a meeting with an insider (IFe) and the motion determination (MJ) result is a movement present (Me), it is determined that the insider is actively facing (IFMe),
(2) When there is a meeting with an outsider (OFe) and the movement determination (MJ) result is a movement present (Me), it is determined that the person is actively facing (OFMe) with the outsider,
(3) When there is a meeting with an insider (IFe) and the motion determination (MJ) result is no movement (Mn), it is determined as a negative facing state (IFMn) with the insider,
(4) When there is a meeting with an outsider (OFe) and the motion determination (MJ) result is no movement (Mn), it is determined as a negative facing state (OFMn) with the outsider,
(5) When there is no meeting (Fnn) and the motion determination (MJ) result is motion present (Me), it is determined as the personal work state (Lme),
(6) When there is no meeting (Fnn) and the result of motion determination (MJ) is no motion (Mn), it is determined to be in a concentrated state (Lmn).

以上に説明したように、本発明の第2の実施の形態によれば、センサ端末(TR)を装着したユーザ同士の対面に加えて、音声データを解析して発話の有無を判定した結果も参照することにより、センサ端末(TR)を装着したユーザ同士、すなわち組織内人員同士の対面に加え、組織内人員と組織外人員との対面を含む行動判定を行うことが可能となる。加えて、加速度センサ(TRAC)での検出結果も参照することにより、対面自体の積極性を判定したり、対面が無いときの組織内人員の行動を判定したりすることが可能となる。   As described above, according to the second embodiment of the present invention, in addition to the faces of users wearing sensor terminals (TR), the result of analyzing the voice data and determining the presence or absence of utterances By referring to it, it is possible to perform a behavior determination including the face-to-face contact between the in-organization personnel and the non-organization personnel in addition to the face-to-face contact between the users wearing the sensor terminals (TR). In addition, by referring to the detection result of the acceleration sensor (TRAC), it is possible to determine the aggressiveness of the meeting itself or to determine the behavior of the personnel in the organization when there is no meeting.

以上の第1および第2の実施の形態において、発話判定(VJ)および行動判定(AJ)をセンサ端末(TR)で行う例について説明したが、これらの発話判定(VJ)および行動判定(AJ)についてはセンサ端末(TR)以外の情報処理装置、例えばセンサネットサーバ(SS)やアプリケーションサーバ(AS)等のいずれか、もしくは複数の情報処理装置内で分散処理されて行われるようにしてもよい。その際、発話判定(VJ)はセンサ端末(TR)で行い、行動判定(AJ)はセンサ端末(TR)以外の情報処理装置で行う、ということも可能である。また、第2の実施の形態における動き判定(MJ)についても、センサ端末(TR)以外の情報処理装置で行われても良い。   In the first and second embodiments described above, the example in which the speech determination (VJ) and the behavior determination (AJ) are performed by the sensor terminal (TR) has been described. However, the speech determination (VJ) and the behavior determination (AJ) are described. ) May be performed in a distributed manner within an information processing device other than the sensor terminal (TR), for example, a sensor network server (SS) or an application server (AS), or a plurality of information processing devices. Good. At that time, the speech determination (VJ) may be performed by the sensor terminal (TR), and the behavior determination (AJ) may be performed by an information processing apparatus other than the sensor terminal (TR). Also, the motion determination (MJ) in the second embodiment may be performed by an information processing apparatus other than the sensor terminal (TR).

− 第3の実施の形態 −
第3の実施の形態では、センサ端末(TR)のセンシング部(TRSE)中、赤外線送信器(TRIS)、赤外線受信器(TRIR)、および音声センサ(TRMI)を用いて得られるセンシング情報がユーザの行動判定に際して参照される。その他、必要に応じて外部入力(TROU)を介して外部センサ(EXTS)からセンシングデータを得てもよい。また、赤外線送信機(ITR)から出力される赤外線信号を赤外線受信器(TRIR)が受信してもよい。
− Third embodiment −
In the third embodiment, sensing information obtained by using an infrared transmitter (TRIS), an infrared receiver (TRIR), and a voice sensor (TRMI) in the sensing unit (TRSE) of the sensor terminal (TR) is the user. It is referred to when determining the action. In addition, sensing data may be obtained from an external sensor (EXTS) via an external input (TROU) as necessary. Further, an infrared receiver (TRIR) may receive an infrared signal output from an infrared transmitter (ITR).

行動判定(ASAD)は、アプリケーションサーバ(AS)の側で行われる。このとき、アプリケーションサーバ(AS)は、業務管理サーバ(GS)に保管される対面活動情報を取得し、この対面活動情報を行動判定(ASAD)の処理に際して参照する。対面活動情報は、先にも説明したように、組織内の人員とセンサ端末(TR)を装着していない人員との対面活動を抽出可能な情報である。   The action determination (ASAD) is performed on the application server (AS) side. At this time, the application server (AS) acquires the face-to-face activity information stored in the business management server (GS), and refers to the face-to-face activity information in the action determination (ASAD) process. The face-to-face activity information is information that can extract the face-to-face activity between the personnel in the organization and the personnel who are not wearing the sensor terminal (TR), as described above.

行動判定結果は、ネットワーク(NW)を介してセンサネットサーバ(SS)に送信され、保管されてもよいし、クライアント(CL)からの要求に基づいてアプリケーションサーバ(AS)内でコンテンツを生成する際にこの行動判定結果が参照された後、破棄されてもよい。   The action determination result may be transmitted to the sensor network server (SS) via the network (NW) and stored, or content is generated in the application server (AS) based on a request from the client (CL). In some cases, the behavior determination result may be referred to and then discarded.

図8は、図1における全体システム構成において、第3の実施の形態で重要な働きをする部分のみを示すブロック図である。図8に示される以外のシステム構成要素は図1に示されるものと同様である。図8において、図1、図2を参照して説明したのと同様の構成要素には同じ符号を付し、その詳細な説明を省略する。   FIG. 8 is a block diagram showing only the part that plays an important role in the third embodiment in the overall system configuration shown in FIG. System components other than those shown in FIG. 8 are the same as those shown in FIG. In FIG. 8, the same components as those described with reference to FIGS. 1 and 2 are denoted by the same reference numerals, and detailed description thereof is omitted.

センサ端末(TR)の構成において、制御部(TRCO)が対面判定(TRID)、FFT処理(TRFT)の各処理部を有する点が特徴である。また、アプリケーションサーバ(AS)の構成において、制御部(ASCO)が活動情報取得(ASAR)、発話判定(ASSD)、行動判定(ASAD)の各処理部を有する点が特徴である。   The configuration of the sensor terminal (TR) is characterized in that the control unit (TRCO) has processing units for face-to-face determination (TRID) and FFT processing (TRFT). Further, the configuration of the application server (AS) is characterized in that the control unit (ASCO) has processing units for activity information acquisition (ASAR), speech determination (ASSD), and action determination (ASAD).

まず、センサ端末(TR)の構成の特徴部分について説明すると、対面判定(TRID)は、赤外線送信機(TRIS)および赤外線受信器(TRIR)によって、他のセンサ端末(TR)に備えられる赤外線送信機(TRIS)および赤外線受信器(TRIR)との間の通信を試みた結果に基づいて、当該センサ端末(TR)を装着するユーザと組織内の他のユーザとの対面の有無を判定する。その処理手順は第1の実施の形態で図3を参照して説明したのと同様である。   First, the characteristic part of the configuration of the sensor terminal (TR) will be described. In-person determination (TRID) is performed by infrared transmission provided in another sensor terminal (TR) by an infrared transmitter (TRIS) and an infrared receiver (TRIR). Based on the result of attempting communication between the machine (TRIS) and the infrared receiver (TRIR), it is determined whether or not the user wearing the sensor terminal (TR) and other users in the organization are facing each other. The processing procedure is the same as that described with reference to FIG. 3 in the first embodiment.

FFT処理(TRFT)は、第1の実施の形態で図4を参照して説明した処理中、S4−2およびS4−3の処理を行う。対面判定(TRID)、FFT処理(TRFT)での処理結果は、基地局(GW)を介してセンサネットサーバ(SS)に送信されて保管される。   The FFT process (TRFT) performs the processes of S4-2 and S4-3 during the process described with reference to FIG. 4 in the first embodiment. The processing results in the face-to-face determination (TRID) and FFT processing (TRFT) are transmitted to the sensor network server (SS) via the base station (GW) and stored.

次に、アプリケーションサーバ(AS)の構成の特徴部分について説明する。活動情報取得(ASAR)は、業務管理サーバ(GS)にアクセスし、行動を解析する対象の組織内人員の対面活動情報を取得する。具体的には、行動を解析する対象の組織内人員を特定するID情報(氏名でもよい)、情報を必要とする期間(年月日、時間)、必要な対面活動情報の種類等がアプリケーションサーバ(AS)から業務管理サーバ(GS)に出力される。業務管理サーバ(GS)は、該当する情報を抽出し、アプリケーションサーバ(AS)に送信する。   Next, features of the configuration of the application server (AS) will be described. The activity information acquisition (ASAR) accesses the business management server (GS) and acquires the face-to-face activity information of the personnel in the organization whose behavior is to be analyzed. Specifically, the ID information (may be a name) for identifying the personnel within the organization whose behavior is to be analyzed, the period (year / month / day, time) for which information is required, the type of necessary face-to-face activity information, etc. (AS) to the business management server (GS). The business management server (GS) extracts relevant information and transmits it to the application server (AS).

発話判定(ASSD)は、必要とする音声データをセンサネットサーバ(SS)から取得し、図4を参照して説明した処理中、S4−4からS4−12までの処理を行い、人の声に特有のスペクトル成分(基本周波数)の検出を試みる。その検出を繰り返し行い、人の声に特有のスペクトル成分が一定の時間(例えば数秒)以上にわたって連続的あるいは断続的に存在することが検出されたとき、発話があったと判定する。   The speech determination (ASSD) acquires necessary voice data from the sensor network server (SS), performs the processes from S4-4 to S4-12 during the process described with reference to FIG. Attempts to detect spectral components (fundamental frequency) peculiar to The detection is repeated, and when it is detected that a spectral component peculiar to a human voice exists continuously or intermittently for a certain time (for example, several seconds) or more, it is determined that an utterance has occurred.

行動判定(ASAD)は、必要とする対面データをセンサネットサーバ(SS)から取得する。そして、発話判定(ASSD)での発話判定結果と、活動情報取得(ASAR)が業務情報管理サーバ(GS)から取得した対面活動情報とを、上記対面データとともに参照して行動判定の処理を行う。   In the action determination (ASAD), necessary face-to-face data is acquired from the sensor network server (SS). Then, the action determination process is performed by referring to the utterance determination result in the utterance determination (ASSD) and the face-to-face activity information acquired by the activity information acquisition (ASAR) from the business information management server (GS) together with the face-to-face data. .

図9は、本発明の第3の実施形態において、センサ端末(TR)およびアプリケーションサーバ(AS)で行われる処理を概念的に示す図である。図9において、水平方向に引かれた二本の平行な破線で区切られたところから上側の部分がセンサ端末(TR)の側で行われる処理を、下側の部分がアプリケーションサーバ(AS)の側で行われる処理を示す。   FIG. 9 is a diagram conceptually showing processing performed in the sensor terminal (TR) and the application server (AS) in the third embodiment of the present invention. In FIG. 9, processing performed on the side of the sensor terminal (TR) from the portion separated by two parallel broken lines drawn in the horizontal direction is performed on the side of the application server (AS). The processing performed on the side is shown.

まず、センサ端末(TR)の側で行われる処理を説明すると、赤外線受信器(TRIR)で赤外線受信(IRD)が行われ、その検出結果をもとに、図3を参照して説明した対面判定(FJ)が行われて、対面有(Fe)または対面無(Fn)の判定結果が得られる。対面判定結果は対面データとして、ユーザIDまたは端末ID、対面検出日時等の情報とともにセンサネットサーバ(SS)に送信される(DTF)。   First, the processing performed on the sensor terminal (TR) side will be described. Infrared reception (IRD) is performed by the infrared receiver (TRIR), and the meeting described with reference to FIG. 3 based on the detection result. Determination (FJ) is performed, and a determination result of facing (Fe) or not facing (Fn) is obtained. The face-to-face determination result is sent to the sensor network server (SS) as face-to-face data together with information such as the user ID or terminal ID and the face-to-face detection date and time (DTF).

対面無(Fn)の判定が得られた場合、音声センサ(TRMI)で音声の検出(VCD)が行われて得られた音声データがFFT処理(FFTC)され、スペクトルピーク値が取得(FFTP)される。FFT処理(FFTC)は図4のS4−2の処理に対応し、スペクトルピーク値取得(FFTP)の処理は図4のS4−3の処理に対応する。得られたスペクトルピーク値の組は、音声データとして、ユーザIDまたは端末ID、音声検出日時等の情報とともにセンサネットサーバ(SS)に送信される(DTV)。   When the determination of no-face-to-face (Fn) is obtained, the voice data obtained by voice detection (VCD) by the voice sensor (TRMI) is subjected to FFT processing (FFTC), and a spectrum peak value is obtained (FFTP) Is done. The FFT process (FFTC) corresponds to the process of S4-2 in FIG. 4, and the spectrum peak value acquisition (FFTP) process corresponds to the process of S4-3 in FIG. The obtained set of spectrum peak values is transmitted as audio data to the sensor network server (SS) together with information such as the user ID or terminal ID and the audio detection date (DTV).

続いて、アプリケーションサーバ(AS)側で行われる処理について説明する。クライアント(CL)から発せられるコンテンツの要求に基づき、所望のユーザの所望の日時に対応する音声データがセンサネットサーバ(SS)から取得され(DRV)、その音声データに対して基本周波数検出(FF)の処理が行われる。この処理は、図4のS4−4からS4−12までの処理に対応する。基本周波数検出(FF)の処理が継続的に行われて、発話の行われたと判定される時間区間の存否、その長さ、連続性等をもとに発話判定(VJ)が行われ、発話無(Vn)または発話有(Ve)と判定される。   Next, processing performed on the application server (AS) side will be described. Based on the content request issued from the client (CL), audio data corresponding to the desired date and time of the desired user is acquired from the sensor network server (SS) (DRV), and the basic frequency detection (FF) is performed on the audio data. ) Is performed. This processing corresponds to the processing from S4-4 to S4-12 in FIG. An utterance determination (VJ) is performed based on the presence / absence, length, continuity, etc. of the time interval in which it is determined that the utterance has been performed by continuously performing the fundamental frequency detection (FF) process. It is determined that there is no (Vn) or speech is present (Ve).

また、所望のユーザの所望の日時に対応する対面データがセンサネットサーバ(SS)から取得される(DRF)。そして、上記の発話判定(VJ)の結果(Vn、Ve)と、対面データ受信(DRF)で取得した対面データの内容(Fe、Fn)とに基づき、対面状態を以下のように区分けすることが可能となる。すなわち、
(1) 対面無(Fn)かつ発話無(Vn)か、
(2) 対面無(Fn)かつ発話有(Ve)か、
(3) 対面有(Fe)か、
のそれぞれに対応し、対面無(Fnn)、外部者との対面(OFe)、内部者との対面(IFe)の区分けが可能となる。
Further, face-to-face data corresponding to a desired date and time of a desired user is acquired from the sensor network server (SS) (DRF). Then, based on the result (Vn, Ve) of the speech determination (VJ) and the content (Fe, Fn) of the face-to-face data acquired by the face-to-face data reception (DRF), the face-to-face state is classified as follows. Is possible. That is,
(1) No meeting (Fn) and no utterance (Vn)
(2) Face-to-face (Fn) and speech present (Ve)
(3) Or facing (Fe)
It is possible to classify the face-to-face (OFn), the face-to-face (OFe), and the face-to-face (IFe).

さらに、業務情報管理サーバ(GS)からは対面活動情報として来社データ(OD)、会議室使用データ(RD)、および電話データ(TD)が取得され(DRAI)、これらの情報と上述した区分け(Fnn、OFe、IFe)とに基づいて行動判定(AJ)の処理が行われる。来社データ(OD)には、組織を訪れた来訪者(外部者)の氏名、所属、来訪時刻、退出時刻、応対者氏名等の情報が含まれる。会議室使用データ(RD)には、会議室番号、使用者名、使用日、使用時間帯等の情報が含まれる。電話データ(TD)には、組織内のある電話を用いて行われた通話の開始日時、使用時間、通話先等の情報が含まれる。これらの情報を追加情報として用い、より詳細な行動判定(AJ)を行うことが可能となる。   In addition, visit information (OD), conference room usage data (RD), and telephone data (TD) are acquired from the business information management server (GS) as face-to-face activity information (DRAI). Based on (Fnn, OFe, IFe), action determination (AJ) processing is performed. The visit data (OD) includes information such as the name, affiliation, visit time, exit time, name of the visitor who visited the organization (external). The conference room use data (RD) includes information such as a conference room number, a user name, a use date, and a use time zone. The telephone data (TD) includes information such as the start date / time, usage time, and destination of a telephone call made using a certain telephone in the organization. Using these pieces of information as additional information, more detailed action determination (AJ) can be performed.

図9に示される例では、行動判定(AJ)が行われた結果、他の行動(OA)、内部者と対面(IFe)、外部者と対面(OFe)、または非対面状態(Fnn)と判定される。行動判定(AJ)の処理に際して、来社データ(OD)を参照し、対面が検出されない時間帯に外部者の来訪を受けていたことが分かれば、外部者との対面(OFe)があったと判定可能となる。ユーザがセンサ端末(TR)の装着を忘れて部内の会議に出席したような場合、内部者との対面を検出することはできない。しかし、会議室使用データ(RD)を参照することにより、内部者との対面があったものと判定することが可能となる。また、電話データ(TD)を参照し、対面無(Fn)と判定されている時間帯に外部者との通話をしていたことが分かれば、電話中であった、すなわち他の行動(OA)をしていたと判定することが可能となる。   In the example shown in FIG. 9, as a result of the action determination (AJ), another action (OA), an insider face-to-face (IFe), an outsider face-to-face (OFe), or a non-face-to-face state (Fnn) Determined. When processing the action determination (AJ), refer to the company data (OD), and if it is found that an outsider's visit was received during a time period when no meeting was detected, there was a meeting with an outsider (OFe) Judgment is possible. When the user forgets to wear the sensor terminal (TR) and attends a meeting in the department, the meeting with the insider cannot be detected. However, by referring to the conference room usage data (RD), it can be determined that there is a meeting with an insider. In addition, referring to the telephone data (TD), if it is found that a call is made with an outsider during a time period determined to be non-face-to-face (Fn), the telephone call is in progress, that is, another action (OA). ) Can be determined.

以上に説明したように、本発明の第3の実施の形態によれば、センサ端末(TR)を装着するユーザ同士、すなわち組織内人員同士の対面に加え、組織内人員と組織外人員との対面を含む行動判定を行うことが可能となる。加えて、対面活動情報を行動判定に際して参照することにより、行動判定をより詳細に行うことが可能となる。   As described above, according to the third embodiment of the present invention, in addition to facing each other of users wearing sensor terminals (TR), that is, in-organization personnel, there is a relationship between in-organization personnel and non-organization personnel. It is possible to perform action determination including face-to-face. In addition, it is possible to perform the action determination in more detail by referring to the face-to-face activity information when determining the action.

また、発話判定の処理をアプリケーションサーバ(AS)の側で行うことにより、センサ端末(TR)の処理負荷を減じて電池寿命を延ばすことが可能となる。このとき、音声データとしてFFT処理(FFTC)したものをセンサネットサーバ(SS)に送信することにより、音声データをそのまま送信する場合に比べてデータ通信量を大幅に減じることが可能となる。   Further, by performing the speech determination processing on the application server (AS) side, it is possible to reduce the processing load on the sensor terminal (TR) and extend the battery life. At this time, it is possible to significantly reduce the amount of data communication compared to the case where audio data is transmitted as it is by transmitting the audio data subjected to FFT processing (FFTC) to the sensor network server (SS).

− 第4の実施の形態 −
第4の実施の形態では、センサ端末(TR)のセンシング部(TRSE)中、赤外線送信器(TRIS)、赤外線受信器(TRIR)、加速度センサ(TRAC)、および音声センサ(TRMI)を用いて得られるセンシング情報がユーザの行動判定に際して参照される。その他、必要に応じて外部入力(TROU)を介して外部センサ(EXTS)からセンシングデータを得てもよい。また、赤外線送信機(ITR)から出力される赤外線信号を赤外線受信器(TRIR)が受信してもよい。
-Fourth embodiment-
In the fourth embodiment, an infrared transmitter (TRIS), an infrared receiver (TRIR), an acceleration sensor (TRAC), and an audio sensor (TRMI) are used in the sensing unit (TRSE) of the sensor terminal (TR). The obtained sensing information is referred to when determining the user's behavior. In addition, sensing data may be obtained from an external sensor (EXTS) via an external input (TROU) as necessary. Further, an infrared receiver (TRIR) may receive an infrared signal output from an infrared transmitter (ITR).

行動判定は、アプリケーションサーバ(AS)の側で行われる。このとき、アプリケーションサーバ(AS)は業務管理サーバ(GS)に保管される、対面活動情報を取得し、行動判定の処理に際して対面活動情報を参照する。   The behavior determination is performed on the application server (AS) side. At this time, the application server (AS) acquires face-to-face activity information stored in the business management server (GS), and refers to the face-to-face activity information in the action determination process.

行動判定結果は、ネットワーク(NW)を介してセンサネットサーバ(SS)に送信され、保管されてもよいし、クライアント(CL)からの要求に基づいてアプリケーションサーバ(AS)内でコンテンツを生成する際にこの行動判定結果が参照された後、破棄されてもよい。   The action determination result may be transmitted to the sensor network server (SS) via the network (NW) and stored, or content is generated in the application server (AS) based on a request from the client (CL). In some cases, the behavior determination result may be referred to and then discarded.

図10は、図1における全体システム構成において、第4の実施の形態で重要な働きをする部分のみを示すブロック図である。図10に示される以外のシステム構成要素は図1に示されるものと同様である。図10において、図1、図2を参照して説明したのと同様の構成要素には同じ符号を付し、その詳細な説明を省略する。   FIG. 10 is a block diagram showing only a portion that plays an important role in the fourth embodiment in the overall system configuration shown in FIG. System components other than those shown in FIG. 10 are the same as those shown in FIG. 10, the same components as those described with reference to FIGS. 1 and 2 are denoted by the same reference numerals, and detailed description thereof is omitted.

センサ端末(TR)の構成において、制御部(TRCO)が対面判定(TRID)、FFT処理(TRFT)の各処理部を有する点が特徴である。また、アプリケーションサーバ(AS)の構成において、制御部(ASCO)が活動情報取得(ASAR)、発話判定(ASSD)、動き判定(ASMD)、行動判定(ASAD)の各処理部を有する点が特徴である。   The configuration of the sensor terminal (TR) is characterized in that the control unit (TRCO) has processing units for face-to-face determination (TRID) and FFT processing (TRFT). In addition, the configuration of the application server (AS) is characterized in that the control unit (ASCO) has processing units for activity information acquisition (ASAR), speech determination (ASSD), motion determination (ASMD), and behavior determination (ASAD). It is.

まず、センサ端末(TR)の構成の特徴部分について説明すると、対面判定(TRID)は、赤外線送信機(TRIS)および赤外線受信器(TRIR)によって、他のセンサ端末(TR)に備えられる赤外線送信機(TRIS)および赤外線受信器(TRIR)との間の通信を試みた結果に基づいて、当該センサ端末(TR)を装着するユーザと組織内の他のユーザとの対面の有無を判定する。その処理手順は第1の実施の形態で図3を参照して説明したのと同様である。   First, the characteristic part of the configuration of the sensor terminal (TR) will be described. In-person determination (TRID) is performed by infrared transmission provided in another sensor terminal (TR) by an infrared transmitter (TRIS) and an infrared receiver (TRIR). Based on the result of attempting communication between the machine (TRIS) and the infrared receiver (TRIR), it is determined whether or not the user wearing the sensor terminal (TR) and other users in the organization are facing each other. The processing procedure is the same as that described with reference to FIG. 3 in the first embodiment.

FFT処理(TRFT)は、第1の実施の形態で図4を参照して説明した処理中、S4−2およびS4−3の処理を行う。対面判定(TRID)、FFT処理(TRFT)での処理結果は、加速度センサ(TRAC)で検出された加速度検出結果とともに基地局(GW)を介してセンサネットサーバ(SS)に送信されて保管される。   The FFT process (TRFT) performs the processes of S4-2 and S4-3 during the process described with reference to FIG. 4 in the first embodiment. The processing result in the face-to-face determination (TRID) and FFT processing (TRFT) is transmitted to the sensor network server (SS) via the base station (GW) and stored together with the acceleration detection result detected by the acceleration sensor (TRAC). The

次に、アプリケーションサーバ(AS)の構成の特徴部分について説明する。活動情報取得(ASAR)は、業務管理サーバ(GS)にアクセスし、行動を解析する対象の組織内人員の対面活動情報を取得する。具体的には、行動を解析する対象の組織内人員を特定するID情報(氏名でもよい)、情報を必要とする期間(年月日、時間)、必要な対面活動情報の種類がアプリケーションサーバ(AS)から業務管理サーバ(GS)に出力される。業務管理サーバ(GS)は、該当する情報をアプリケーションサーバ(AS)に送信する。   Next, features of the configuration of the application server (AS) will be described. The activity information acquisition (ASAR) accesses the business management server (GS) and acquires the face-to-face activity information of the personnel in the organization whose behavior is to be analyzed. Specifically, ID information (may be a name) that identifies personnel in the organization whose behavior is to be analyzed, a period (year / month / day, time) for which information is required, and the type of face-to-face activity information required by the application server ( AS) to the business management server (GS). The business management server (GS) transmits the corresponding information to the application server (AS).

発話判定(ASSD)は、必要とする音声データをセンサネットサーバ(SS)から取得し、図4を参照して説明した処理中、S4−4からS4−12までの処理を行い、人の声に特有のスペクトル成分(基本周波数)の検出を試みる。その検出を繰り返し行い、人の声に特有のスペクトル成分が一定の時間(例えば数秒)以上にわたって連続的あるいは断続的に存在することが検出されたとき、発話があったと判定する。   The speech determination (ASSD) acquires necessary voice data from the sensor network server (SS), performs the processes from S4-4 to S4-12 during the process described with reference to FIG. Attempts to detect spectral components (fundamental frequency) peculiar to The detection is repeated, and when it is detected that a spectral component peculiar to a human voice exists continuously or intermittently for a certain time (for example, several seconds) or more, it is determined that an utterance has occurred.

動き判定(ASMD)は、必要とする加速度データをセンサネットサーバ(SS)から取得し、解析対象の時間帯におけるユーザの動きを判定する。例えば一定時間の間に加速度または加速度の変化が閾値以上であるか否かで動き判定が行われる。この加速度または加速度の変化が閾値以上である場合、動き有と判定され、閾値未満であれば動き無と判定される。動き有と判定されるのは、ユーザが活発に動いている場合である。一方、ユーザが対面相手の話を静かに聞いていたり、一人で集中していたりする場合には、動き無(Mn)と判定される。なお、センサ端末(TR)の側で動き判定を行い、その結果をセンサネットサーバ(SS)に送信することもできる。その場合、動き判定(ASMD)は、センサネットサーバから取得した動き判定結果のログを参照し、所与の時間帯におけるユーザの動きの有無を判定することが可能となる。   The motion determination (ASMD) acquires necessary acceleration data from the sensor network server (SS), and determines the motion of the user in the analysis target time zone. For example, the motion determination is performed based on whether or not an acceleration or a change in acceleration is greater than or equal to a threshold value during a certain time. If this acceleration or change in acceleration is greater than or equal to a threshold, it is determined that there is motion, and if it is less than the threshold, it is determined that there is no motion. It is determined that the user is moving when the user is actively moving. On the other hand, when the user is quietly listening to the face-to-face partner or is concentrated alone, it is determined that there is no movement (Mn). It is also possible to make a motion determination on the sensor terminal (TR) side and send the result to the sensor network server (SS). In that case, the motion determination (ASMD) can determine the presence or absence of the user's motion in a given time zone by referring to the log of the motion determination result acquired from the sensor network server.

行動判定(ASAD)は、必要とする対面データをセンサネットサーバ(SS)から取得する。そして、発話判定(ASSD)での発話判定結果と、動き判定(ASMD)での動き判定結果と、活動情報取得(ASAR)が業務情報管理サーバ(GS)から取得した対面活動情報とを、上記対面データとともに参照して行動判定の処理を行う。   In the action determination (ASAD), necessary face-to-face data is acquired from the sensor network server (SS). Then, the speech determination result in the speech determination (ASSD), the motion determination result in the motion determination (ASMD), and the face activity information acquired by the activity information acquisition (ASAR) from the business information management server (GS) The action determination process is performed with reference to the face-to-face data.

図11は、本発明の第4の実施形態において、センサ端末(TR)およびアプリケーションサーバ(AS)で行われる処理を概念的に示す図である。図11において、水平方向に引かれた二本の平行な破線で区切られたところから上側の部分がセンサ端末(TR)の側で行われる処理を、下側の部分がアプリケーションサーバ(AS)の側で行われる処理を示す。   FIG. 11 is a diagram conceptually showing processing performed in the sensor terminal (TR) and the application server (AS) in the fourth embodiment of the present invention. In FIG. 11, processing performed on the side of the sensor terminal (TR) from the portion separated by two parallel broken lines drawn in the horizontal direction is performed on the side of the application server (AS). The processing performed on the side is shown.

まず、センサ端末(TR)の側で行われる処理を説明すると、赤外線受信器(TRIR)で赤外線受信(IRD)が行われ、その検出結果をもとに、図3を参照して説明した対面判定(FJ)が行われて、対面有(Fe)または対面無(Fn)の判定結果が得られる。対面判定結果は対面データとして、ユーザIDまたは端末ID、対面検出日時等の情報とともにセンサネットサーバ(SS)に送信される(DTF)。   First, the processing performed on the sensor terminal (TR) side will be described. Infrared reception (IRD) is performed by the infrared receiver (TRIR), and the meeting described with reference to FIG. 3 based on the detection result. Determination (FJ) is performed, and a determination result of facing (Fe) or not facing (Fn) is obtained. The face-to-face determination result is sent to the sensor network server (SS) as face-to-face data together with information such as the user ID or terminal ID and the face-to-face detection date and time (DTF).

対面無(Fn)の判定が得られた場合、音声センサ(TRMI)で音声の検出(VCD)が行われて得られた音声データがFFT処理(FFTC)され、スペクトルピーク値が取得(FFTP)される。FFT処理(FFTC)は図4のS4−2の処理に対応し、スペクトルピーク値取得(FFTP)の処理は図4のS4−3の処理に対応する。得られたスペクトルピーク値の組は、音声データとして、ユーザIDまたは端末ID、音声検出日時等の情報とともにセンサネットサーバ(SS)に送信される(DTV)。音声検出(VCD)が対面判定(FJ)の結果によらずに行われてもよいのは第1の実施の形態で説明したのと同様である。   When the determination of no-face-to-face (Fn) is obtained, the voice data obtained by voice detection (VCD) by the voice sensor (TRMI) is subjected to FFT processing (FFTC), and a spectrum peak value is obtained (FFTP) Is done. The FFT process (FFTC) corresponds to the process of S4-2 in FIG. 4, and the spectrum peak value acquisition (FFTP) process corresponds to the process of S4-3 in FIG. The obtained set of spectrum peak values is transmitted as audio data to the sensor network server (SS) together with information such as the user ID or terminal ID and the audio detection date (DTV). The voice detection (VCD) may be performed regardless of the result of the face-to-face determination (FJ), as described in the first embodiment.

加速度センサ(TRAC)では加速度の検出(ACD)が行われ、得られた加速度データにユーザIDまたは端末ID、加速度検出日時等の情報とともにセンサネットサーバ(SS)に送信される(DTA)。   In the acceleration sensor (TRAC), acceleration detection (ACD) is performed, and the obtained acceleration data is transmitted to the sensor network server (SS) together with information such as a user ID or a terminal ID and an acceleration detection date (DTA).

続いて、アプリケーションサーバ(AS)側で行われる処理について説明する。クライアント(CL)から発せられるコンテンツの要求等に基づき、所望のユーザの所望の日時に対応する音声データがセンサネットサーバ(SS)から取得され(DRV)、その音声データに対して基本周波数検出(FF)の処理が行われる。この処理は、図4のS4−4からS4−12までの処理に対応する。基本周波数検出(FF)の処理が継続的に行われて、発話の行われた時間区間の存否をもとに発話判定(VJ)が行われ、発話無(Vn)または発話有(Ve)と判定される。   Next, processing performed on the application server (AS) side will be described. Audio data corresponding to a desired date and time of a desired user is acquired from the sensor network server (SS) based on a content request issued from the client (CL) (DRV), and a basic frequency detection ( FF) is performed. This processing corresponds to the processing from S4-4 to S4-12 in FIG. The basic frequency detection (FF) process is continuously performed, and the speech determination (VJ) is performed based on the presence or absence of the time period in which the speech is performed, and there is no speech (Vn) or speech is present (Ve). Determined.

一方、所望のユーザの所望の日時に対応する対面データがセンサネットサーバ(SS)から取得される(DRF)。また、当該ユーザおよび日時に対応する加速度データがセンサネットサーバ(SS)から取得される(DRA)。   Meanwhile, face-to-face data corresponding to a desired date and time of a desired user is acquired from the sensor network server (SS) (DRF). Further, acceleration data corresponding to the user and the date and time is acquired from the sensor network server (SS) (DRA).

まず、上記の発話判定(VJ)の結果(Vn、Ve)と、対面データ受信(DRF)で取得した対面データの内容(Fe、Fn)とに基づき、対面状態を以下のように区分けすることが可能となる。すなわち、
(1) 内部者との対面無(Fn)かつ発話無(Vn)か、
(2) 内部者との対面無(Fn)かつ発話有(Ve)か、
(3) 内部者との対面有(Fe)か、
のそれぞれに対応し、対面無(Fnn)、外部者との対面(OFe)、内部者との対面(IFe)の区分けが可能となる。
First, based on the result (Vn, Ve) of the above speech determination (VJ) and the content (Fe, Fn) of the face-to-face data acquired by face-to-face data reception (DRF), the face-to-face state is classified as follows: Is possible. That is,
(1) No meeting with insider (Fn) and no utterance (Vn)
(2) No face-to-face with insiders (Fn) and utterances (Ve)
(3) Facing with insiders (Fe)
It is possible to classify the face-to-face (OFn), the face-to-face (OFe), and the face-to-face (IFe).

続いて、加速度データをもとに、判定対象の日時において動き有(Me)または動き無(Mn)の動き判定(MJ)が行われる。   Subsequently, based on the acceleration data, a motion determination (MJ) with motion (Me) or no motion (Mn) is performed at the date and time of determination.

また、業務情報管理サーバ(GS)からは対面活動情報として来社データ(OD)、会議室使用データ(RD)、および電話データ(TD)が取得され(DRAI)、これらの情報と、上述した区分け(Fnn、OFe、IFe)と、動き判定結果(Me、Mn)とに基づいて行動判定(AJ)の処理が行われる。   In addition, visit information (OD), conference room usage data (RD), and telephone data (TD) are acquired from the business information management server (GS) as face-to-face activity information (DRAI). Action determination (AJ) processing is performed based on the classification (Fnn, OFe, IFe) and the motion determination result (Me, Mn).

図11に示される例では、行動判定(AJ)が行われた結果、他の行動(OA)、内部者と積極対面(IFMe)、外部者と積極対面(OFMe)、内部者と消極対面(IFMn)、外部者と消極対面(OFMn)、個人作業(Lme)、または集中状態(Lmn)と判定される。このとき、第3の実施の形態で説明したように、行動判定(AJ)の処理に際して、来社データ(OD)、会議室使用データ(RD)、電話データ(TD)も参照することにより、センサ端末(TR)からだけでは得ることのできない情報も参照してより詳細な行動判定をすることが可能となる。   In the example shown in FIG. 11, as a result of the action determination (AJ), other actions (OA), insider positively facing (IFMe), outsider positively facing (OFMe), insider negatively facing ( IFMn), negative face-to-face (OFMn), personal work (Lme), or concentrated state (Lmn). At this time, as described in the third embodiment, by referring to the visit data (OD), the conference room usage data (RD), and the telephone data (TD) in the action determination (AJ) processing, It is possible to make a more detailed action determination with reference to information that cannot be obtained only from the sensor terminal (TR).

以上に説明したように、本発明の第4の実施の形態によれば、センサ端末(TR)を装着するユーザ同士、すなわち内部者同士の対面に加え、内部者と外部者との対面を含む行動判定を行うことが可能となる。加えて、加速度データや対面活動情報を行動判定に際して参照することにより、行動判定をより詳細に行うことが可能となる。   As described above, according to the fourth embodiment of the present invention, in addition to the faces of users wearing sensor terminals (TR), that is, the faces of insiders, the faces of insiders and outsiders are included. It becomes possible to perform action determination. In addition, the behavior determination can be performed in more detail by referring to the acceleration data and the face-to-face activity information when determining the behavior.

また、発話判定の処理や動き判定の処理をアプリケーションサーバ(AS)の側で行うことにより、センサ端末(TR)の処理負荷を減じて電池寿命を延ばすことが可能となる。さらに、音声データとしてFFT処理(FFTC)したものをセンサネットサーバ(SS)に送信することにより、音声データをそのまま送信する場合に比べてデータ通信量を大幅に減じることが可能となるのも第3の実施の形態と同様である。   Further, by performing the speech determination process and the motion determination process on the application server (AS) side, it is possible to reduce the processing load of the sensor terminal (TR) and extend the battery life. Further, by transmitting the FFT data (FFTC) as the voice data to the sensor network server (SS), it is possible to significantly reduce the data communication amount as compared with the case of transmitting the voice data as it is. This is the same as the third embodiment.

以上、第4および第5の実施の形態において、発話判定および行動判定がアプリケーションサーバ(AS)で行われる例について説明したが、他の情報処理装置でこれらの処理が行われてもよい。また、複数の情報処理装置が用いられて、一方の情報処理装置で発話判定が、他方の情報処理装置で行動判定が、それぞれ行われても良い。   As described above, in the fourth and fifth embodiments, the example in which the utterance determination and the behavior determination are performed by the application server (AS) has been described. However, these processes may be performed by another information processing apparatus. Further, a plurality of information processing apparatuses may be used, and utterance determination may be performed by one information processing apparatus and behavior determination may be performed by the other information processing apparatus.

− 第5の実施の形態 −
第5の実施の形態では、センサ端末(TR)のセンシング部(TRSE)中、音声センサ(TRMI)によるセンシング情報がユーザの行動判定に際して参照される。また、行動判定自体がセンサ端末(TR)内で行われ、その行動判定結果がセンサ端末(TR)から基地局(GW)を経由してセンサネットサーバ(SS)に送信される。
-Fifth embodiment-
In the fifth embodiment, sensing information by the voice sensor (TRMI) is referred to when determining the user's behavior in the sensing unit (TRSE) of the sensor terminal (TR). Further, the behavior determination itself is performed in the sensor terminal (TR), and the behavior determination result is transmitted from the sensor terminal (TR) to the sensor network server (SS) via the base station (GW).

図12は、図1における全体システム構成において、第5の実施の形態で重要な働きをする部分のみを示すブロック図である。図12に示される以外のシステム構成要素は図1に示されるものと同様である。図12において、図1を参照して説明したのと同様の構成要素には同じ符号を付し、その詳細な説明を省略する。   FIG. 12 is a block diagram showing only a part that plays an important role in the fifth embodiment in the overall system configuration shown in FIG. The system components other than those shown in FIG. 12 are the same as those shown in FIG. In FIG. 12, the same components as those described with reference to FIG. 1 are denoted by the same reference numerals, and detailed description thereof is omitted.

図12に示すセンサ端末(TR)の構成においては、制御部(TRCO)がFFT処理(TRFT)、発話判定(TRSD)、および行動判定(TRAD)の各処理部を有する点が特徴である。センシング部(TRSE)は、音声センサ(TRMI)以外のセンサを備えていても良い。例えば、何らかの事情等によって音声センサ(TRMI)以外のセンサは動作させることができない、といった状況にも本実施の形態は対応可能となる。   The configuration of the sensor terminal (TR) shown in FIG. 12 is characterized in that the control unit (TRCO) has processing units for FFT processing (TRFT), speech determination (TRSD), and behavior determination (TRAD). The sensing unit (TRSE) may include a sensor other than the voice sensor (TRMI). For example, the present embodiment can cope with a situation in which a sensor other than the voice sensor (TRMI) cannot be operated for some reason.

FFT処理(TRFT)、発話判定(TRSD)では、第1の実施の形態で図4を参照して説明したのと同様の処理が行われる。行動判定(TRAD)では、発話判定(TRSD)での判定結果に基づき、センサ端末(TR)を装着しているユーザの行動判定が行われる。   In FFT processing (TRFT) and speech determination (TRSD), processing similar to that described with reference to FIG. 4 in the first embodiment is performed. In the action determination (TRAD), the action determination of the user wearing the sensor terminal (TR) is performed based on the determination result in the utterance determination (TRSD).

図13は、本発明の第5の実施形態においてセンサ端末(TR)内部で行われる処理を概念的に示す図である。   FIG. 13 is a diagram conceptually showing processing performed inside the sensor terminal (TR) in the fifth embodiment of the present invention.

音声センサ(TRMI)で音声の検出(VCD)が行われ、得られた音声データがFFT処理(FFTC)され、スペクトルピーク値が取得(FFTP)される。FFT処理(FFTC)は図4のS4−2の処理に対応し、スペクトルピーク値取得(FFTP)の処理は図4のS4−3の処理に対応する。   Voice detection (VCD) is performed by a voice sensor (TRMI), the obtained voice data is subjected to FFT processing (FFTC), and a spectrum peak value is acquired (FFTP). The FFT process (FFTC) corresponds to the process of S4-2 in FIG. 4, and the spectrum peak value acquisition (FFTP) process corresponds to the process of S4-3 in FIG.

続いて基本周波数検出(FF)の処理が行われる。この処理は、図4のS4−4からS4−12までの処理に対応する。基本周波数検出(FF)の処理が継続的に行われて、発話の行われたと判定される時間区間の存否、その長さ、連続性をもとに発話判定(VJ)が行われ、発話無(Vn)または発話有(Ve)と判定される。   Subsequently, fundamental frequency detection (FF) processing is performed. This processing corresponds to the processing from S4-4 to S4-12 in FIG. Based on the presence / absence, length, and continuity of the time interval in which it is determined that the utterance is performed, the fundamental frequency detection (FF) process is continuously performed, and the utterance is not detected. It is determined that (Vn) or speech is present (Ve).

上記の発話判定(VJ)の結果(Vn、Ve)をもとに行動判定(AJ)が行われる。
発話有(Ve)と判定された場合、その時間、発声を伴うコミュニケーションをユーザが行なったと推定される。よって、この場合、対面有(Fe)、と判定される。ただし、赤外線センサによる対面の検出が行われていない。したがって、対面はあったが、その対面相手は内部者か外部者かは不明、または外部者との対面と判定される。発話無(Vn)と判定された場合、対面無(Fn)と判定される。
Action determination (AJ) is performed based on the result (Vn, Ve) of the speech determination (VJ).
When it is determined that there is a speech (Ve), it is estimated that the user has performed communication with speech during that time. Therefore, in this case, it is determined that there is facing (Fe). However, the face-to-face detection by the infrared sensor is not performed. Therefore, although there is a meeting, it is unknown whether the meeting partner is an insider or an outsider, or it is determined to meet with an outsider. When it is determined that there is no speech (Vn), it is determined that there is no meeting (Fn).

以上に説明したように、本発明の第5の実施の形態によれば、ユーザの行動判定として、対面の有無を音声センサ(TRMI)での音声検出結果をもとに行うことが可能となる。   As described above, according to the fifth embodiment of the present invention, it is possible to perform presence / absence of face-to-face based on the sound detection result of the sound sensor (TRMI) as the user's action determination. .

− 第6の実施の形態 −
第6の実施の形態では、センサ端末(TR)のセンシング部(TRSE)中、音声センサ(TRMI)によるセンシング情報がユーザの行動判定に際して参照される。また、行動判定は、アプリケーションサーバ(AS)の側で行われる。
-Sixth embodiment-
In the sixth embodiment, sensing information by the voice sensor (TRMI) is referred to when determining the user's behavior in the sensing unit (TRSE) of the sensor terminal (TR). The behavior determination is performed on the application server (AS) side.

行動判定結果は、ネットワーク(NW)を介してセンサネットサーバ(SS)に送信され、保管されてもよいし、クライアント(CL)からの要求に基づいてアプリケーションサーバ(AS)内でコンテンツを生成する際に参照され、その後破棄されてもよい。   The action determination result may be transmitted to the sensor network server (SS) via the network (NW) and stored, or content is generated in the application server (AS) based on a request from the client (CL). It may be referred to at the time and then discarded.

図14は、図1における全体システム構成において、第6の実施の形態で重要な働きをする部分のみを示すブロック図である。図14に示される以外のシステム構成要素は図1に示されるものと同様である。図14において、図1、図2を参照して説明したのと同様の構成要素には同じ符号を付し、その詳細な説明を省略する。   FIG. 14 is a block diagram showing only a part that plays an important role in the sixth embodiment in the overall system configuration shown in FIG. The system components other than those shown in FIG. 14 are the same as those shown in FIG. 14, the same components as those described with reference to FIGS. 1 and 2 are denoted by the same reference numerals, and detailed description thereof is omitted.

センサ端末(TR)の構成において、制御部(TRCO)がFFT処理(TRFT)を有する点が特徴である。また、アプリケーションサーバ(AS)の構成において、制御部(ASCO)が発話判定(ASSD)および行動判定(ASAD)の各処理部を有する点が特徴である。   The configuration of the sensor terminal (TR) is characterized in that the control unit (TRCO) has an FFT process (TRFT). In addition, the configuration of the application server (AS) is characterized in that the control unit (ASCO) has processing units for speech determination (ASSD) and action determination (ASAD).

まず、センサ端末(TR)の構成の特徴部分について説明すると、FFT処理(TRFT)は、第1の実施の形態で図4を参照して説明した処理中、S4−2およびS4−3の処理を行う。FFT処理(TRFT)での処理結果は、基地局(GW)を介してセンサネットサーバ(SS)に送信されて保管される。   First, the characteristic part of the configuration of the sensor terminal (TR) will be described. The FFT process (TRFT) is the process of S4-2 and S4-3 during the process described with reference to FIG. 4 in the first embodiment. I do. The processing result in the FFT processing (TRFT) is transmitted to the sensor network server (SS) via the base station (GW) and stored.

次に、アプリケーションサーバ(AS)の構成の特徴部分について説明する。発話判定(ASSD)は、必要とする音声データをセンサネットサーバ(SS)から取得し、図4を参照して説明した処理中、S4−4からS4−12までの処理を行い、人の声に特有のスペクトル成分(基本周波数)の検出を試みる。その検出を繰り返し行い、人の声に特有のスペクトル成分が一定の時間(例えば数秒)以上にわたって検出されたとき、発話があったと判定することができる。   Next, features of the configuration of the application server (AS) will be described. The speech determination (ASSD) acquires necessary voice data from the sensor network server (SS), performs the processes from S4-4 to S4-12 during the process described with reference to FIG. Attempts to detect spectral components (fundamental frequency) peculiar to The detection is repeated, and when a spectral component peculiar to a human voice is detected over a certain time (for example, several seconds) or more, it can be determined that an utterance has occurred.

行動判定(ASAD)は、発話判定(ASSD)での判定結果(Vn、Ve)を参照して行動判定の処理を行う。   In the action determination (ASAD), the action determination process is performed with reference to the determination result (Vn, Ve) in the utterance determination (ASSD).

図15は、本発明の第6の実施形態において、センサ端末(TR)およびアプリケーションサーバ(AS)で行われる処理を概念的に示す図である。図15において、水平方向に引かれた二本の平行な破線で区切られたところから上側の部分がセンサ端末(TR)の側で行われる処理を、下側の部分がアプリケーションサーバ(AS)の側で行われる処理を示す。   FIG. 15 is a diagram conceptually showing processing performed in the sensor terminal (TR) and the application server (AS) in the sixth embodiment of the present invention. In FIG. 15, processing performed on the sensor terminal (TR) side from the upper part of the area separated by two parallel broken lines drawn in the horizontal direction, and the lower part of the application server (AS). The processing performed on the side is shown.

まず、センサ端末(TR)の側で行われる処理を説明すると、音声センサ(TRMI)で音声の検出(VCD)が行われて得られた音声データがFFT処理(FFTC)され、スペクトルピーク値が取得(FFTP)される。FFT処理(FFTC)は図4のS4−2の処理に対応し、スペクトルピーク値取得(FFTP)の処理は図4のS4−3の処理に対応する。得られたスペクトルピーク値の組は、音声データとして、ユーザIDまたは端末ID、音声検出日時等の情報とともにセンサネットサーバ(SS)に送信される(DTV)。   First, the process performed on the sensor terminal (TR) side will be described. The voice data obtained by voice detection (VCD) by the voice sensor (TRMI) is subjected to FFT processing (FFTC), and the spectrum peak value is calculated. Acquired (FFTP). The FFT process (FFTC) corresponds to the process of S4-2 in FIG. 4, and the spectrum peak value acquisition (FFTP) process corresponds to the process of S4-3 in FIG. The obtained set of spectrum peak values is transmitted as audio data to the sensor network server (SS) together with information such as the user ID or terminal ID and the audio detection date (DTV).

続いて、アプリケーションサーバ(AS)側で行われる処理について説明する。クライアント(CL)から発せられるコンテンツの要求に基づき、所望のユーザの所望の日時に対応する音声データがセンサネットサーバ(SS)から取得され(DRV)、その音声データに対して基本周波数検出(FF)の処理が行われる。この処理は、図4のS4−4からS4−12までの処理に対応する。基本周波数検出(FF)の処理が継続的に行われて、発話の行われたと判定される時間区間の存否、その長さ、連続性等をもとに発話判定(VJ)が行われ、発話無(Vn)または発話有(Ve)と判定される。   Next, processing performed on the application server (AS) side will be described. Based on the content request issued from the client (CL), audio data corresponding to the desired date and time of the desired user is acquired from the sensor network server (SS) (DRV), and the basic frequency detection (FF) is performed on the audio data. ) Is performed. This processing corresponds to the processing from S4-4 to S4-12 in FIG. An utterance determination (VJ) is performed based on the presence / absence, length, continuity, etc. of the time interval in which it is determined that the utterance has been performed by continuously performing the fundamental frequency detection (FF) process. It is determined that there is no (Vn) or speech is present (Ve).

上記の発話判定(VJ)の結果(Vn、Ve)をもとに行動判定(AJ)が行われる。
発話有(Ve)と判定された場合、その時間、発声を伴うコミュニケーションをユーザが行なったと推定される。したがって、この場合、対面有(Fe)、と判定される。ただし、赤外線センサによる対面の検出が行われていない。そのため、対面はあったが、その対面相手は内部者か外部者かは不明、または外部者との対面と判定される。発話無(Vn)と判定された場合、対面無(Fn)と判定される。
Action determination (AJ) is performed based on the result (Vn, Ve) of the speech determination (VJ).
When it is determined that there is a speech (Ve), it is estimated that the user has performed communication with speech during that time. Therefore, in this case, it is determined that there is facing (Fe). However, the face-to-face detection by the infrared sensor is not performed. Therefore, although there was a meeting, it is unknown whether the meeting partner is an insider or an outsider, or it is determined to meet with an outsider. When it is determined that there is no speech (Vn), it is determined that there is no meeting (Fn).

以上に説明したように、本発明の第6の実施の形態によれば、ユーザの行動判定として、対面の有無を音声センサ(TRMI)での音声検出結果をもとに行うことが可能となる。   As described above, according to the sixth embodiment of the present invention, it is possible to perform presence / absence of face-to-face based on the sound detection result of the sound sensor (TRMI) as the user's action determination. .

以上、第6の実施の形態において、発話判定および行動判定がアプリケーションサーバ(AS)で行われる例について説明したが、他の情報処理装置でこれらの処理が行われてもよい。また、複数の情報処理装置が用いられて、一方の情報処理装置で発話判定が、他方の情報処理装置で行動判定が、それぞれ行われても良い。   As described above, in the sixth embodiment, the example in which the speech determination and the behavior determination are performed by the application server (AS) has been described. However, these processes may be performed by another information processing apparatus. Further, a plurality of information processing apparatuses may be used, and utterance determination may be performed by one information processing apparatus and behavior determination may be performed by the other information processing apparatus.

− 音声データ取得から行動判定までの処理シーケンス(その1) −
以上、第1の実施の形態から第6の実施の形態によって、取得された音声データをもとに発話判定、行動判定がセンサ端末(TR)で行われる例と、アプリケーションサーバ(AS)で行われる例とについて説明した。図16は、業務管理支援システムを構成する要素間で連携して行われる処理シーケンスのうち、取得した音声データを処理して発話判定および行動判定をする処理を抽出して示したものであり、第1、第2、および第5の実施の形態で説明したものに対応するシーケンス図である。
-Processing sequence from voice data acquisition to action determination (part 1)-
As described above, according to the first embodiment to the sixth embodiment, an example in which the speech determination and behavior determination are performed by the sensor terminal (TR) based on the acquired voice data and the application server (AS) are performed. An example is given. FIG. 16 shows an extracted processing sequence for processing the acquired voice data and performing speech determination and action determination, among processing sequences performed in cooperation between elements constituting the business management support system. It is a sequence diagram corresponding to what was described in the first, second, and fifth embodiments.

センサ端末(TR)は音声を記録(S16−1)し、FFT処理(S16−2)を行う。つまり、図4を参照して説明したS4−1、S4−2の処理を行う。センサ端末(TR)は続いて、スペクトルピーク値取得の処理(S16−3)、基本周波数抽出(S16−4)の処理を行う。これが、図4を参照して説明したS4−3からS4−12までの処理に対応する。そして、発話判定(S16−5)では、人の声由来のスペクトルピークがまとまって存在する時間帯の有無に基づいて発話判定が行われる。さらに、各実施の形態に対応してセンシング部(TRSE)で得られたセンシングデータが適宜参照されて行動判定(S16−6)が行われ、これらの判定結果が基地局(GW)に送信される(S16−7)。   The sensor terminal (TR) records voice (S16-1) and performs FFT processing (S16-2). That is, the processing of S4-1 and S4-2 described with reference to FIG. 4 is performed. Subsequently, the sensor terminal (TR) performs processing for obtaining a spectrum peak value (S16-3) and processing for extracting a fundamental frequency (S16-4). This corresponds to the processing from S4-3 to S4-12 described with reference to FIG. In utterance determination (S16-5), utterance determination is performed based on the presence or absence of a time zone in which spectrum peaks derived from human voice are present together. Furthermore, the sensing data obtained by the sensing unit (TRSE) corresponding to each embodiment is appropriately referred to, and action determination (S16-6) is performed, and these determination results are transmitted to the base station (GW). (S16-7).

基地局(GW)はそのデータを受信(S16−8)し、センサネットサーバ(SS)に転送(S16−9)する。センサネットサーバ(SS)は、そのデータを受信(S16−10)し、データベース部(SSDB)に蓄積する(S16−11)。   The base station (GW) receives the data (S16-8) and transfers it to the sensor network server (SS) (S16-9). The sensor network server (SS) receives the data (S16-10) and accumulates it in the database unit (SSDB) (S16-11).

一方、クライアント(CL)からの要求に基づいてコンテンツの生成を開始したアプリケーションサーバ(AS)は、当該コンテンツを生成するのに必要な情報を得るため、クエリ要求をセンサネットサーバ(SS)に向けて発する(S16−12)。つまり、誰の(単数または複数)、いつからいつにかけての、どのような情報が必要であるかを特定可能な情報をアプリケーションサーバ(AS)はクエリとしてセンサネットサーバ(SS)に出力する。   On the other hand, the application server (AS) that has started generating content based on a request from the client (CL) sends a query request to the sensor network server (SS) in order to obtain information necessary to generate the content. (S16-12). In other words, the application server (AS) outputs to the sensor network server (SS) information that can specify who (single or plural) and what information is needed from when to when.

センサネットサーバ(SS)はこのクエリを受信(S16−13)し、対応する情報をデータベース部(SSDB)から抽出してアプリケーションサーバ(AS)に送信(S16−14)する。アプリケーションサーバ(AS)はこの情報を受信(S16−15)し、クライアント(CL)からの要求に基づくコンテンツを生成する。   The sensor network server (SS) receives this query (S16-13), extracts the corresponding information from the database unit (SSDB), and transmits it to the application server (AS) (S16-14). The application server (AS) receives this information (S16-15), and generates content based on the request from the client (CL).

図16に示される例では、センサ端末(TR)の側で基本周波数抽出、発話判定、および行動判定が行われる分、センサ端末(TR)の処理負荷は増す。しかし、システムの各構成要素間でやりとりされるデータは減じられるので、各構成要素間で行われるデータ通信における輻輳の発生を抑制可能となる。   In the example shown in FIG. 16, the processing load on the sensor terminal (TR) increases as the fundamental frequency extraction, speech determination, and action determination are performed on the sensor terminal (TR) side. However, since data exchanged between the components of the system is reduced, it is possible to suppress the occurrence of congestion in data communication performed between the components.

− 音声データ取得から行動判定までの処理シーケンス(その2) −
図17は、業務管理支援システムを構成する要素間で連携して行われる処理シーケンスのうち、取得した音声データを処理して発話判定および行動判定をする処理を抽出して示したものであり、第3、第4、および第6の実施の形態で説明したものに対応するシーケンス図である。
− Processing sequence from voice data acquisition to action determination (Part 2) −
FIG. 17 shows an extracted process of processing the acquired voice data to determine the utterance and the action among the processing sequences performed in cooperation between the elements constituting the business management support system. It is a sequence diagram corresponding to what was demonstrated in 3rd, 4th, and 6th embodiment.

センサ端末(TR)は音声を記録(S17−1)し、FFT処理(S17−2)を行う。つまり、図4を参照して説明したS4−1、S4−2の処理を行う。センサ端末(TR)は続いて、スペクトルピーク値取得の処理(S17−3)を行う。このようにして得られたスペクトルピークを、センサ端末(TR)は各実施の形態に対応してセンシング部(TRSE)で得られるセンシングデータとともに基地局(GW)に送信する(S17−4)。   The sensor terminal (TR) records voice (S17-1) and performs FFT processing (S17-2). That is, the processing of S4-1 and S4-2 described with reference to FIG. 4 is performed. Subsequently, the sensor terminal (TR) performs a spectrum peak value acquisition process (S17-3). The sensor terminal (TR) transmits the spectrum peak thus obtained to the base station (GW) together with the sensing data obtained by the sensing unit (TRSE) corresponding to each embodiment (S17-4).

基地局(GW)はこのデータを受信(S17−5)し、センサネットサーバ(SS)に転送(S17−6)する。センサネットサーバ(SS)はこのデータを受信(S17−7)し、各データに含まれる端末ID、タイムスタンプをもとに分類してデータベース部(SSDB)に蓄積する(S17−8)。   The base station (GW) receives this data (S17-5) and transfers it to the sensor network server (SS) (S17-6). The sensor network server (SS) receives this data (S17-7), classifies it based on the terminal ID and time stamp included in each data, and stores it in the database unit (SSDB) (S17-8).

一方、クライアント(CL)からの要求に基づいてコンテンツの生成を開始したアプリケーションサーバ(AS)は、当該コンテンツを生成するのに必要な情報を得るため、クエリ要求をセンサネットサーバ(SS)に向けて発する(S17−9)。つまり、誰の(単数または複数)、いつからいつにかけての、どのような情報が必要であるかを特定可能な情報をアプリケーションサーバ(AS)はクエリとしてセンサネットサーバ(SS)に出力する。   On the other hand, the application server (AS) that has started generating content based on a request from the client (CL) sends a query request to the sensor network server (SS) in order to obtain information necessary to generate the content. (S17-9). In other words, the application server (AS) outputs to the sensor network server (SS) information that can specify who (single or plural) and what information is needed from when to when.

センサネットサーバ(SS)はこのクエリを受信(S17−10)し、対応する情報をデータベース部(SSDB)から抽出してアプリケーションサーバ(AS)に送信(S17−11)する。アプリケーションサーバ(AS)は、この情報を受信(S17−12)し、基本周波数抽出(S17−13)、発話判定(17−14)、行動判定(S17−15)の処理を行い、クライアント(CL)からの要求に基づくコンテンツを生成する。   The sensor network server (SS) receives this query (S17-10), extracts the corresponding information from the database unit (SSDB), and transmits it to the application server (AS) (S17-11). The application server (AS) receives this information (S17-12), performs basic frequency extraction (S17-13), speech determination (17-14), action determination (S17-15), and client (CL ) To generate content based on the request from.

図17に示される例では、センサ端末(TR)の側での処理負荷が減じられるので、センサ端末(TR)が電池駆動される場合等に消費電力が減じられて電池寿命を延ばすことが可能となる。また、センサ端末(TR)の処理能力に比して一般的に処理能力の高いアプリケーションサーバ(AS)等の側で処理をする場合には、より高度で複雑な処理を行い、発話判定や行動判定の判定精度を増すことも可能となる。さらに、センサ端末(TR)の側では得ることの難しい対面活動情報等を他の情報処理装置から取得して処理をすることにより、行動判定の精度を高めたり、より細かい行動の分類をしたりすることも可能となる。   In the example shown in FIG. 17, since the processing load on the sensor terminal (TR) side is reduced, the power consumption can be reduced and the battery life can be extended when the sensor terminal (TR) is battery driven. It becomes. In addition, when processing is performed on the side of the application server (AS) or the like, which generally has a higher processing capacity than the processing capacity of the sensor terminal (TR), more advanced and complicated processing is performed, and utterance determination and behavior It is also possible to increase the determination accuracy of the determination. Furthermore, by acquiring and processing face-to-face activity information that is difficult to obtain on the sensor terminal (TR) side from other information processing devices, the accuracy of action determination can be improved, or more detailed action classification can be performed. It is also possible to do.

以上、本発明の実施の形態について説明したが、本発明は上記実施の形態に限定されるものではなく、種々変形実施可能であり、上述した各実施の形態を適宜組み合わせることが可能であることは、当業者に理解されよう。   Although the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and various modifications can be made and the above-described embodiments can be appropriately combined. Will be understood by those skilled in the art.

TR センサ端末
GW、GW2、GW3 基地局
GS 業務情報管理サーバ
SS センサネットサーバ
CL、CL2 クライアント
AS アプリケーションサーバ
NW ネットワーク
TR Sensor terminal GW, GW2, GW3 Base station GS Business information management server SS Sensor network server CL, CL2 Client AS Application server NW Network

Claims (12)

組織に属する人員である組織内人員の間の物理的対面を検出するために前記組織内人員のそれぞれに装着されるセンサ端末装置であって、
他のセンサ端末装置との通信の成否に基づいて前記組織内人員の間の物理的対面の有無を判定する対面判定部と、
音声を検出して音声データを生成する音声検出部と、
前記音声検出部で生成された前記音声データを解析し、発話の有無を判定する発話判定部と、
前記対面判定部による判定結果と、前記発話判定部による判定結果とに基づき、前記組織内人員との対面、前記センサ端末装置を装着していない人員との対面、および非対面を含む行動のうち、いずれかの行動が行われたことを判定する行動判定部と
を備えることを特徴とするセンサ端末装置。
A sensor terminal device attached to each of the in-organization personnel to detect a physical meeting between the in-organization personnel who are members of the organization,
A face-to-face determination unit that determines the presence or absence of physical face-to-face between personnel in the organization based on the success or failure of communication with other sensor terminal devices;
A voice detection unit that detects voice and generates voice data;
An utterance determination unit that analyzes the voice data generated by the voice detection unit and determines the presence or absence of an utterance;
Based on the determination result by the face-to-face determination unit and the determination result by the utterance determination unit, among the actions including face-to-face with the organization personnel, face-to-face with the person not wearing the sensor terminal device, and non-face-to-face A sensor terminal device comprising: an action determination unit that determines that any action has been performed.
請求項1において、
前記行動判定部は、
前記物理的対面が有ると前記対面判定部が判定したときに前記組織内人員との対面が有ると判定し、
前記物理的対面が無いと前記対面判定部が判定し、かつ、発話が有ると前記発話判定部が判定したときに、前記センサ端末装置を装着していない人員との対面が有ると判定し、
前記物理的対面が無いと前記対面判定部が判定し、かつ、発話が無いと前記発話判定部が判定したときに、非対面であると判定する
ことを特徴とするセンサ端末装置。
In claim 1,
The behavior determination unit
It is determined that there is a face-to-face with the organization personnel when the face-to-face determination unit determines that the physical face-to-face is present,
The face determination unit determines that there is no physical meeting, and when the utterance determination unit determines that there is an utterance, it is determined that there is a face with a person who is not wearing the sensor terminal device,
A sensor terminal device, wherein when the face-to-face determination unit determines that there is no physical meeting and when the utterance determination unit determines that there is no utterance, the sensor terminal device is determined to be non-face-to-face.
請求項1または2において、
当該センサ端末装置を装着した前記組織内人員の動きを検出する加速度検出部をさらに備え、
前記行動判定部はさらに、前記加速度検出部によって検出された前記動きも参照して前記いずれかの行動が行われたことを判定する
ことを特徴とするセンサ端末装置。
In claim 1 or 2,
An acceleration detection unit for detecting movement of the personnel in the tissue wearing the sensor terminal device;
The behavior determination unit further determines that any one of the behaviors has been performed with reference to the movement detected by the acceleration detection unit.
請求項1から3のいずれか一つにおいて、
前記センサ端末装置が、その内部に備えられる電源により動作可能に構成される
ことを特徴とするセンサ端末装置。
In any one of Claim 1 to 3,
The sensor terminal device is configured to be operable by a power supply provided therein.
組織に属する人員である組織内人員の間の物理的対面を検出するために前記組織内人員のそれぞれに装着されたセンサ端末装置から出力されるセンサ情報を処理し、前記組織内人員の対面状態を検出する対面状態検出装置であって、
前記センサ情報は、
他のセンサ端末装置との通信の成否に基づいて前記組織内人員の間の物理的対面の有無を判定した結果に対応する対面判定情報と、
音声を検出して得られた音声データと
を含み、
前記対面状態検出装置は、
前記センサ情報に含まれる前記音声データを解析し、発話の有無を判定する発話判定部と、
前記発話判定部による判定結果と、前記センサ情報に含まれる前記対面判定情報とに基づき、前記組織内人員との対面、前記センサ端末装置を装着していない人員との対面、および非対面を含む行動のうち、いずれかの行動が行われたことを判定する行動判定部と
を備えることを特徴とする対面状態検出装置。
The sensor information output from the sensor terminal device attached to each of the personnel in the organization is processed in order to detect a physical meeting between the personnel in the organization who are members belonging to the organization, and the facing state of the personnel in the organization A face-to-face detection device for detecting
The sensor information is
Face-to-face determination information corresponding to the result of determining the presence or absence of physical face-to-face between personnel in the organization based on the success or failure of communication with other sensor terminal devices;
Including voice data obtained by detecting voice,
The facing state detection device is:
An utterance determination unit that analyzes the voice data included in the sensor information and determines the presence or absence of an utterance;
Based on the determination result by the utterance determination unit and the face-to-face determination information included in the sensor information, the face-to-face contact with the personnel in the organization, the face-to-face with the person not wearing the sensor terminal device, and the non-face-to-face are included. A face-to-face state detection apparatus comprising: an action determination unit that determines that any of the actions is performed.
請求項5において、
前記行動判定部は、
前記対面判定情報が、前記物理的対面が有るとの判定結果に対応するときに、前記組織内人員との対面が有りと判定し、
前記対面判定情報が、前記物理的対面が無いとの判定結果に対応し、かつ、発話有りと前記発話判定部が判定したときに、前記センサ端末装置を装着していない人員との対面が有りと判定し、
前記対面判定情報が、前記物理的対面が無いとの判定結果に対応し、かつ、発話が無いと前記発話判定部が判定したときに、非対面であると判定する
ことを特徴とする対面状態検出装置。
In claim 5,
The behavior determination unit
When the face-to-face determination information corresponds to a determination result that the physical face-to-face is present, it is determined that there is a face-to-face with the personnel in the organization,
The face-to-face determination information corresponds to a determination result that there is no physical face-to-face, and when the utterance determination unit determines that there is an utterance, there is a face-to-face with a person who is not wearing the sensor terminal device And
The face-to-face state is characterized in that the face-to-face determination information corresponds to a determination result that there is no physical face-to-face, and when the utterance determination unit determines that there is no utterance, it is determined to be non-face-to-face Detection device.
請求項5または6において、
前記センサ情報は、前記センサ端末装置を装着した前記組織内人員の動きを検出した結果である動き検出結果をさらに含み、
前記行動判定部はさらに、前記動きを検出した結果も参照して前記いずれかの行動が行われたことを判定する
ことを特徴とする対面状態検出装置。
In claim 5 or 6,
The sensor information further includes a motion detection result that is a result of detecting a motion of the personnel within the organization wearing the sensor terminal device,
The face-to-face state detection apparatus further determines that any one of the actions has been performed with reference to a result of detecting the movement.
請求項5から7のいずれか一つにおいて、
前記組織内人員と、前記センサ端末装置を装着していない人員との対面活動を抽出可能な情報である対面活動情報を取得する対面活動情報取得部をさらに備え、
前記行動判定部はさらに、前記対面活動情報も参照して前記いずれかの行動が行われたことを判定する
ことを特徴とする対面状態検出装置。
In any one of Claims 5-7,
A face-to-face activity information acquisition unit for acquiring face-to-face activity information, which is information that can extract face-to-face activities between the in-organization personnel and personnel not wearing the sensor terminal device,
The face-to-face state detection apparatus further determines that any one of the actions has been performed with reference to the face-to-face activity information.
組織に属する人員である組織内人員の間の物理的対面を検出するために前記組織内人員のそれぞれに装着されたセンサ端末装置を用いて前記組織内人員の対面状態を対面状態検出装置が検出する対面状態検出方法であって、
前記センサ端末装置に備えられる対面検出装置が、他のセンサ端末装置との通信の成否に基づいて前記物理的対面の有無を判定し、
前記センサ端末装置に備えられる音声検出部が、音声を検出して音声データを生成し、
前記対面状態検出装置が、前記音声データを解析して発話の有無を判定し、
前記対面状態検出装置が、前記物理的対面の有無の判定の結果と、前記発話の有無の判定の結果との組み合わせに基づき、前記組織内人員との対面、前記センサ端末装置を装着していない人員との対面、および非対面を含む行動のうち、いずれの行動が行われたかを判定することを特徴とする対面状態検出方法。
The face-to-face state detection device detects the face-to-face state of the in-organization personnel using a sensor terminal device attached to each of the in-organization personnel in order to detect physical facing between the in-organization personnel who are members of the organization A face-to-face detection method
The meeting detection device provided in the sensor terminal device determines the presence or absence of the physical meeting based on the success or failure of communication with other sensor terminal devices,
A voice detection unit provided in the sensor terminal device detects voice and generates voice data;
The face-to-face detection device analyzes the voice data to determine the presence or absence of speech,
The face-to-face state detection device does not wear the sensor terminal device, face-to-face with the person in the organization, based on a combination of the result of the physical presence / absence determination and the result of the speech presence / absence determination A face-to-face state detection method, comprising: determining which action has been performed among actions including face-to-face and non-face-to-face.
請求項9において、
前記いずれの行動が行われたかの判定はさらに、
前記物理的対面が有りと判定されたときに、前記組織内人員との対面が有りと判定し、
前記物理的対面が無いと判定され、かつ、前記発話有りと判定されたときに、前記センサ端末装置を装着していない人員との対面が有りと判定し、
前記物理的対面が無いと判定され、かつ、前記発話は無いと判定されたときに、非対面であると判定する
ことを特徴とする対面状態検出方法。
In claim 9,
The determination of which action has been performed is further
When it is determined that the physical meeting exists, it is determined that there is a meeting with the personnel in the organization,
When it is determined that there is no physical meeting and it is determined that there is an utterance, it is determined that there is a meeting with a person who is not wearing the sensor terminal device,
When it is determined that there is no physical meeting and it is determined that there is no utterance, it is determined that the person is not facing.
前期請求項9または10において、
前記センサ端末装置に備えられる加速度検出部により、当該センサ端末装置を装着した前記組織内人員の動きを検出し、
前記いずれの行動が行われたかの判定では、さらに、前記組織内人員の動きの検出結果も参照して判定する
ことを特徴とする対面状態検出方法。
In the previous claim 9 or 10,
The acceleration detection unit provided in the sensor terminal device detects the movement of the person in the tissue wearing the sensor terminal device,
In the determination of which action has been performed, the face-to-face detection method is further characterized by referring to the detection result of the movement of the personnel in the organization.
請求項9から11のいずれか一つにおいて、
前記対面状態検出装置が、前記組織内人員と、前記センサ端末装置を装着していない人員との対面活動を抽出可能な情報である対面活動情報を取得し、
前記いずれかの行動が行われたかの判定では、さらに、前記対面活動情報も参照する
ことを特徴とする対面状態検出方法。
In any one of claims 9 to 11,
The face-to-face state detection device acquires face-to-face activity information, which is information that enables extraction of face-to-face activities between personnel in the organization and personnel not wearing the sensor terminal device,
In the determination as to whether any of the actions has been performed, the face-to-face activity detection method further refers to the face-to-face activity information.
JP2011151651A 2011-07-08 2011-07-08 Face-to-face detection method Active JP5907549B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2011151651A JP5907549B2 (en) 2011-07-08 2011-07-08 Face-to-face detection method
PCT/JP2012/066938 WO2013008673A1 (en) 2011-07-08 2012-07-03 Sensor terminal device, interaction status detection device, and interaction status detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011151651A JP5907549B2 (en) 2011-07-08 2011-07-08 Face-to-face detection method

Publications (2)

Publication Number Publication Date
JP2013020338A true JP2013020338A (en) 2013-01-31
JP5907549B2 JP5907549B2 (en) 2016-04-26

Family

ID=47505965

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011151651A Active JP5907549B2 (en) 2011-07-08 2011-07-08 Face-to-face detection method

Country Status (2)

Country Link
JP (1) JP5907549B2 (en)
WO (1) WO2013008673A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018003986A1 (en) * 2016-06-30 2018-01-04 国立大学法人筑波大学 Face-to-face interaction device, wearable device using same, and interaction facilitation method
JP2021012530A (en) * 2019-07-05 2021-02-04 清水建設株式会社 Communication instrumentation system
JP7508160B1 (en) 2024-03-21 2024-07-01 アイオーテック合同会社 Transportation temperature monitoring device and transportation temperature monitoring system

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11721415B2 (en) 2016-08-02 2023-08-08 Canon Medical Systems Corporation Medical information system, information processing terminal, medical information server and medical information providing method

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009145187A1 (en) * 2008-05-26 2009-12-03 株式会社日立製作所 Human behavior analysis system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009145187A1 (en) * 2008-05-26 2009-12-03 株式会社日立製作所 Human behavior analysis system

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6015022726; 岡本 昌之 Masayuki OKAMOTO: '端末音声の相互相関に基づくアドホック会話の検出 Adhoc-Meeting Detection Using Cross-Correlation of T' Journal of the DBSJ Vol.7 No.1 第7巻, 20080627, 163-168 ページ, 日本データベース学会 The Database Society of Japa *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018003986A1 (en) * 2016-06-30 2018-01-04 国立大学法人筑波大学 Face-to-face interaction device, wearable device using same, and interaction facilitation method
JP2021012530A (en) * 2019-07-05 2021-02-04 清水建設株式会社 Communication instrumentation system
JP7316856B2 (en) 2019-07-05 2023-07-28 清水建設株式会社 Communication measurement system
JP7508160B1 (en) 2024-03-21 2024-07-01 アイオーテック合同会社 Transportation temperature monitoring device and transportation temperature monitoring system

Also Published As

Publication number Publication date
WO2013008673A1 (en) 2013-01-17
JP5907549B2 (en) 2016-04-26

Similar Documents

Publication Publication Date Title
AU2016200905B2 (en) A system and method for identifying and analyzing personal context of a user
JP5764473B2 (en) Event data processing device
JP2009211574A (en) Server and sensor network system for measuring quality of activity
US20170337842A1 (en) Sensor data analysis system and sensor data analysis method
US10049336B2 (en) Social sensing and behavioral analysis system
JP6423017B2 (en) Psychological state measurement system
CN108536099A (en) A kind of information processing method, device and mobile terminal
JP5907549B2 (en) Face-to-face detection method
CN207676159U (en) A kind of household endowment management system
JP2021114338A (en) Business activity analysis device, business activity analysis method, and program
JP2013031009A (en) Information processor, digest generating method, and digest generating program
Hossain et al. Activity recognition by using lorawan sensor
JP6728863B2 (en) Information processing system
JP5396537B2 (en) Information processing system, server, and information processing method
US12094313B2 (en) Environment sensing for care systems
JPWO2019049356A1 (en) Information processing system
CN209606794U (en) A kind of wearable device, sound-box device and intelligent home control system
Dissanayake et al. Indolabel: Predicting indoor location class by discovering location-specific sensor data motifs
Ghosh et al. Humansense: a framework for collective human activity identification using heterogeneous sensor grid in multi-inhabitant smart environments
WO2014197176A9 (en) Social sensing and behavioral analysis system
Darbar et al. Surfacesense: Smartphone can recognize where it is kept
JP6533868B1 (en) Communication evaluation system and communication evaluation method
WO2014038014A1 (en) Interaction data generation device and method for generating interaction data
JP6594512B2 (en) Psychological state measurement system
Brahim et al. A New Semantic-based Multi-Level Classification Approach for Activity Recognition Using Smartphones

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150609

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150710

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160223

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160317

R150 Certificate of patent or registration of utility model

Ref document number: 5907549

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150