JP6648435B2 - Discrimination device, discrimination method, program, model generation device, and model generation method - Google Patents
Discrimination device, discrimination method, program, model generation device, and model generation method Download PDFInfo
- Publication number
- JP6648435B2 JP6648435B2 JP2015145545A JP2015145545A JP6648435B2 JP 6648435 B2 JP6648435 B2 JP 6648435B2 JP 2015145545 A JP2015145545 A JP 2015145545A JP 2015145545 A JP2015145545 A JP 2015145545A JP 6648435 B2 JP6648435 B2 JP 6648435B2
- Authority
- JP
- Japan
- Prior art keywords
- evaluation value
- feature amount
- motion
- moving object
- movement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Radar Systems Or Details Thereof (AREA)
Description
本発明は、判別装置、判別方法、プログラム、モデル生成装置、及びモデル生成方法に関する。 The present invention relates to a determination device, a determination method, a program, a model generation device, and a model generation method.
近年、非接触のセンサにより検出された人物等の動体の動きに由来する信号に基づいて、動体の動きを判別する技術が開発されている。例えば、下記特許文献1には、センサにより検出された信号の処理において、センサの感度補正を行う感度補正手段を少なくとも一つ備えた制御回路に係る発明が開示されている。なお、感度補正手段は、例えば、制御回路内の増幅回路の増幅率を調整したり、1次遅れフィルタを用いて比較的早い動きの周波数成分を抑制したり、また、2次遅れフィルタを用いて比較的緩慢な動きの周波数成分を抑制する機能を含む。かかる構成において、上記の感度補正手段を切り替えることにより、人物の存在の有無について判別するための感度を調整することができる。
2. Description of the Related Art In recent years, a technique has been developed for determining the movement of a moving object based on a signal derived from the movement of a moving object such as a person detected by a non-contact sensor. For example,
上記特許文献1に開示された技術によれば、動体の動きや動体の環境に応じて感度を調整することにより、人の存在の有無の判別の精度を向上させることができる。しかし、センサが設置されている環境においては、センサは、人の複雑な動きのみならず、様々な外乱(例えば、電気的なノイズや機械的な動き)も検出し得る。センサにより検出された信号には、複数の外乱が含まれ得る。そのため、上記特許文献1に開示されている感度補正手段を単に切り替えて感度を調整するのみでは、様々な外乱を含み得る環境において動体の動きを判別することに限界がある。
According to the technology disclosed in
そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、様々な外乱を含む信号からより高精度で動体の動きを判別することが可能な、新規かつ改良された判別装置を提供することにある。 Therefore, the present invention has been made in view of the above-described problem, and an object of the present invention is to provide a new and highly accurate moving object that can determine the motion of a moving object from signals including various disturbances. An object of the present invention is to provide an improved discriminating apparatus.
上記課題を解決するために、本発明のある観点によれば、センサにより検出された動体の動きを示すセンサ信号に基づいて、上記動体の動きの特徴量を算出する特徴量算出部と、所定の動きの特徴量と、上記所定の動きに対応する評価値とを組とする複数のデータに基づいて生成された回帰学習モデルを用いて、上記特徴量算出部により算出された上記動体の動きの特徴量に応じて、上記動体の動きに対応する評価値を算出する評価値算出部と、上記動体の動きの判別のために上記動体の動きに対応する上記評価値と比較される閾値を調整する調整部と、を備え、前記所定の動きに対応する評価値は、前記所定の動きの特徴量と、前記所定の動きに対応して予め設定された評価値とを組とする複数のデータに基づいて生成された複数の回帰学習モデルを用いて判別された前記所定の動きに対応する複数の判別結果間における誤差に応じて決定される、判別装置が提供される。
In order to solve the above problem, according to an aspect of the present invention, based on a sensor signal indicating a movement of a moving body detected by a sensor, a feature amount calculating unit that calculates a feature amount of the movement of the moving body, Using a regression learning model generated based on a plurality of data pairs of a feature amount of the motion and an evaluation value corresponding to the predetermined motion, the motion of the moving object calculated by the feature amount calculation unit An evaluation value calculation unit that calculates an evaluation value corresponding to the movement of the moving object, and a threshold value that is compared with the evaluation value corresponding to the movement of the moving object to determine the movement of the moving object according to the feature amount of And an adjustment unit for adjusting , wherein the evaluation value corresponding to the predetermined movement is a plurality of pairs of a characteristic amount of the predetermined movement and an evaluation value set in advance corresponding to the predetermined movement. Multiple regressions generated based on data Depending on the error between a plurality of determination results corresponding to the predetermined motion is determined using a model is determined, the determination device is provided.
上記回帰学習モデルは、サポートベクタ回帰により生成される回帰学習モデルであり、上記評価値算出部は、上記サポートベクタ回帰により生成される上記回帰学習モデルを構成するサポートベクタと、上記動体の動きの特徴量とを用いて、上記動体の動きに対応する評価値を算出してもよい。 The regression learning model is a regression learning model generated by support vector regression, and the evaluation value calculation unit includes a support vector that configures the regression learning model generated by the support vector regression, and a motion vector of the moving object. An evaluation value corresponding to the movement of the moving object may be calculated using the feature amount.
上記特徴量算出部は、上記センサ信号の波形に基づいて上記特徴量を算出してもよい。 The feature amount calculating unit may calculate the feature amount based on a waveform of the sensor signal.
上記特徴量算出部は、上記センサ信号の振幅の大きさを上記特徴量として算出してもよい。 The feature amount calculation unit may calculate the magnitude of the amplitude of the sensor signal as the feature amount.
上記特徴量算出部は、所定区間における上記センサ信号の波形の周波数を上記特徴量として算出してもよい。 The feature amount calculation unit may calculate a frequency of the waveform of the sensor signal in a predetermined section as the feature amount.
上記調整部は、上記閾値を段階的に調整してもよい。 The adjustment unit may adjust the threshold value stepwise.
上記所定の動きは、生体の動きを含み、上記動体の動きの判別は、上記動体の動きが上記生体の動きであるか否かの判別を含んでもよい。 The predetermined movement may include a movement of a living body, and the determination of the movement of the moving body may include determining whether the movement of the moving body is the movement of the living body.
上記センサはドップラーセンサであってもよい。 The sensor may be a Doppler sensor.
また、上記課題を解決するために、本発明の別の観点によれば、センサにより検出された動体の動きを示すセンサ信号に基づいて、上記動体の動きの特徴量を算出するステップと、所定の動きの特徴量と、上記所定の動きに対応する評価値とを組とする複数のデータに基づいて生成された回帰学習モデルを用いて、上記動体の動きの特徴量に応じて、上記動体の動きに対応する評価値を算出するステップと、上記動体の動きの判別のために上記動体の動きに対応する上記評価値と比較される閾値を調整するステップと、を含み、前記所定の動きに対応する評価値は、前記所定の動きの特徴量と、前記所定の動きに対応して予め設定された評価値とを組とする複数のデータに基づいて生成された複数の回帰学習モデルを用いて判別された前記所定の動きに対応する複数の判別結果間における誤差に応じて決定される、判別方法が提供される。
According to another embodiment of the present invention, there is provided a method for solving the above-mentioned problem, comprising: calculating a feature amount of the movement of a moving object based on a sensor signal indicating the movement of the moving object detected by a sensor; Using a regression learning model generated based on a plurality of data pairs of the feature amount of the motion and the evaluation value corresponding to the predetermined motion, the moving object is determined in accordance with the feature amount of the motion of the moving object. in calculating the evaluation value that corresponds to the motion, see contains the steps of: adjusting the threshold to be compared with the evaluation value corresponding to the movement of the moving object for determination of movement of the moving object, the predetermined The evaluation value corresponding to the motion is a plurality of regression learning models generated based on a plurality of data sets each of which is a combination of the feature amount of the predetermined motion and an evaluation value set in advance corresponding to the predetermined motion. The location determined using Is determined according to the error between a plurality of determination results corresponding to the motion determination method is provided.
また、上記課題を解決するために、本発明の別の観点によれば、コンピュータを、センサにより検出された動体の動きを示すセンサ信号に基づいて、上記動体の動きの特徴量を算出する特徴量算出部と、所定の動きの特徴量と、上記所定の動きに対応する評価値とを組とする複数のデータに基づいて生成された回帰学習モデルを用いて、上記特徴量算出部により算出された上記動体の動きの特徴量に応じて、上記動体の動きに対応する評価値を算出する評価値算出部と、上記動体の動きの判別のために上記動体の動きに対応する上記評価値と比較される閾値を調整する調整部と、として機能させ、前記所定の動きに対応する評価値は、前記所定の動きの特徴量と、前記所定の動きに対応して予め設定された評価値とを組とする複数のデータに基づいて生成された複数の回帰学習モデルを用いて判別された前記所定の動きに対応する複数の判別結果間における誤差に応じて決定される、プログラムが提供される。
According to another embodiment of the present invention, there is provided a computer configured to calculate a feature amount of the motion of a moving object based on a sensor signal indicating the motion of the moving object detected by a sensor. An amount calculator, and a regression learning model generated based on a plurality of data sets each of which includes a feature amount of the predetermined motion and an evaluation value corresponding to the predetermined motion, and is calculated by the feature amount calculator. An evaluation value calculation unit that calculates an evaluation value corresponding to the motion of the moving object according to the feature amount of the motion of the moving object, and the evaluation value corresponding to the motion of the moving object for determining the motion of the moving object And an adjustment unit that adjusts a threshold value to be compared with, the evaluation value corresponding to the predetermined movement is a feature amount of the predetermined movement, and an evaluation value set in advance corresponding to the predetermined movement. And multiple data Is determined according to the error between a plurality of determination results corresponding to the predetermined motion is determined using a plurality of regression learning model generated Zui, the program is provided.
また、上記課題を解決するために、本発明の別の観点によれば、センサにより検出された動体による所定の動きを示すセンサ信号に基づいて、上記所定の動きの特徴量を算出する特徴量算出部と、前記所定の動きの特徴量と、前記所定の動きに対応して予め設定された参考評価値とを組とする複数のデータに基づいて生成された複数の回帰学習モデルを用いて判別された前記所定の動きに対応する複数の判別結果間における誤差に応じて、前記所定の動きに対応する評価値を決定する、回帰学習モデル評価値決定部と、上記所定の動きの特徴量と、上記所定の動きに対応する評価値とを組とする複数のデータに基づいて回帰学習モデルを生成するモデル生成部と、を備えるモデル生成装置が提供される。
According to another embodiment of the present invention, there is provided a feature value for calculating a feature value of a predetermined motion based on a sensor signal indicating a predetermined motion of a moving object detected by a sensor. A calculation unit, using a plurality of regression learning models generated based on a plurality of data pairs of a feature amount of the predetermined motion and a reference evaluation value set in advance corresponding to the predetermined motion. A regression learning model evaluation value determination unit that determines an evaluation value corresponding to the predetermined motion in accordance with an error between a plurality of determination results corresponding to the determined predetermined motion; and a feature amount of the predetermined motion. And a model generation unit configured to generate a regression learning model based on a plurality of data sets each of which includes an evaluation value corresponding to the predetermined motion.
また、上記課題を解決するために、本発明の別の観点によれば、センサにより検出された動体による所定の動きを示すセンサ信号に基づいて、上記所定の動きの特徴量を算出するステップと、前記所定の動きの特徴量と、前記所定の動きに対応して予め設定された参考評価値とを組とする複数のデータに基づいて生成された複数の回帰学習モデルを用いて判別された前記所定の動きに対応する複数の判別結果間における誤差に応じて、前記所定の動きに対応する評価値を決定するステップと、上記所定の動きの特徴量と、上記所定の動きに対応する評価値とを組とする複数のデータに基づいて回帰学習モデルを生成するステップと、を含む、モデル生成方法が提供される。 To solve the above problem, according to another aspect of the present invention, a step of calculating a feature amount of the predetermined movement based on a sensor signal indicating a predetermined movement by a moving object detected by a sensor; It is determined using a plurality of regression learning models generated based on a plurality of data pairs of the feature amount of the predetermined motion and a reference evaluation value set in advance corresponding to the predetermined motion. Determining an evaluation value corresponding to the predetermined motion according to an error between a plurality of determination results corresponding to the predetermined motion; a characteristic amount of the predetermined motion; and an evaluation value corresponding to the predetermined motion. Generating a regression learning model based on a plurality of data pairs of values.
以上説明したように本発明によれば、様々な外乱を含む信号からより高精度で動体の動きを判別することが可能である。 As described above, according to the present invention, it is possible to determine the motion of a moving object with higher accuracy from signals including various disturbances.
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the specification and the drawings, components having substantially the same functional configuration are denoted by the same reference numerals, and redundant description is omitted.
<1.判別システムの概要>
本発明の一実施形態に係る判別システム1は、予めモデル生成装置10により所定の動きに基づいて生成された回帰学習モデルを判別装置20に適用させ、センサ2により検出された動体の動きを判別装置20により判別するシステムである。以下、判別システム1の概要について説明する。
<1. Overview of discrimination system>
A discriminating
図1は、本発明の一実施形態に係る判別システム1の概要を示す図である。判別システム1においては、実施される処理に応じて構成が異なる。例えば、図1を参照すると、回帰学習モデルを生成するモデル生成処理を実施する際は、判別システム1は、センサ2、およびモデル生成装置10を備える構成を有する。一方、動体の動きの判別処理を実施する際は、判別システム1は、センサ2、および判別装置20を備える構成を有する。なお、センサ2、およびモデル生成装置10は、一体となってモデル生成装置を構成してもよいし、センサ2、および判別装置20は、一体となって判別装置を構成してもよい。
FIG. 1 is a diagram showing an outline of a
(センサ)
センサ2は、図1に示すように、部屋の天井等に設置される非接触型のセンサである。センサ2は、例えば、検出エリアである部屋の屋内に向けて、光、電磁波、または音波等の放射波を放射し、動体(例えば図1においては人物P、エアコンAC、またはカーテンCU等)により反射された反射波を受信する電波センサであってもよい。電波センサは、例えばドップラーセンサであってもよい。このとき、反射波の周波数は、物体の振動等の運動により生じるドップラー効果により、放射波の周波数から変化する。センサ2は、放射波の周波数と反射波の周波数との差分の周波数を有する信号を生成する。センサ2は、例えば直交検波方式を搭載してもよい。この場合、センサ2は、余弦波成分(I成分)および正弦波成分(Q成分)の2種類の信号を生成してもよい。センサ2は、生成した信号を、モデル生成装置10、または判別装置20のいずれかに出力する。
(Sensor)
The
なお、センサ2は、動体の動きが検出可能であれば任意の位置に設置可能である。また、図1に示した例では、センサ2は放射波の送信部と反射波の受信部とが一体となって構成されているが、センサ2は、送信部と受信部とを分離した構成により実現されてもよい。また、センサ2が放射する放射波は、物体の振動によりドップラー効果を生じさせることが可能であれば、任意の周波数帯の波であってもよい。例えば、放射波は、人の動きを検出可能な周波数帯の波であることが好ましい。また、センサ2は、モデル生成処理と判別処理とにおいて設置される環境が異なってもよい。例えば、モデル生成処理においては、動体の単一の動きの信号を検出する必要があるため、センサ2は、防音室等、外乱を遮断可能な部屋に設けられてもよい。一方、判別処理においては、人物等の動体の動きを検出することが求められる場所であれば、センサ2の設置場所は特に限定されない。例えば、センサ2は、部屋のみならず、パーティションや柵等で仕切られた区画に設置されてもよい。また、センサ2は、運動施設、医療施設、介護施設、養護施設、アトラクション施設、刑事施設、家、ホテル、マンション、ビル、自動車、鉄道車両、船舶等の建造物や車体の内部に設置されてもよい。また、動体の種類も、上述したような人物、家具、または家電等に限定されない。
The
なお、本実施形態においては、センサ2は電波センサ(ドップラーセンサ)であることが好ましい。例えば、センサ2が赤外線センサである場合、動体の動きを検出することは出来るが、動体が静止している場合に、その動体の検出が困難となる。一方で、センサ2が電波センサである場合、動体が静止している場合においても、動体の呼吸等による体幹の振動を検出することができる。そのため、動体が静止している状態の検出も容易である。
In the present embodiment, the
(モデル生成装置)
モデル生成装置10は、所定の動体の動きのモデル生成処理に用いられる装置である。モデル生成装置10は、例えば、ネットワーク上の一または複数の情報処理装置によって実現されてもよい。より具体的には、モデル生成装置10は、サーバやPC(Personal Computer)等により実現されてもよい。モデル生成装置10は、所定の動体の動きに由来する信号をセンサ2から取得するとともに、所定の動体の動きに対応する評価値を生成する。そして、モデル生成装置10は、各所定の動体の動きの信号と各動体の動きに対応する評価値とに基づいて回帰学習モデルを生成する。生成された回帰学習モデルは、判別装置20において用いられる。
(Model generation device)
The
ここで、本明細書において動体の動きには、人物の動きのみならず、例えば、家電の動き、地面の振動や風による家具の振動等、人物以外の動きも含まれる。また、人物の動きもさらに細分化されてもよい。例えば、寝ているときの動きや、座っているときの動きも、人物の動きに含まれてよい。また、評価値とは、動体の動きの判別のために用いられる値であり、各々の動体の動きとひも付けられる。 Here, in this specification, the movement of a moving object includes not only the movement of a person, but also movement of a person other than a person, such as movement of a home appliance, vibration of the ground, or vibration of furniture due to wind. Further, the movement of the person may be further subdivided. For example, a motion while sleeping or a motion while sitting may be included in the motion of the person. The evaluation value is a value used for determining the motion of a moving object, and is associated with the motion of each moving object.
(判別装置)
判別装置20は、特定の動体の動きの判別処理に用いられる装置である。判別装置20は、例えば、ネットワーク上の一または複数の情報処理装置によって実現されてもよい。より具体的には、判別装置20は、サーバやPC等により実現されてもよい。判別装置20は、センサ2により検出された動体の動きに由来する信号と、モデル生成装置10により生成された回帰学習モデルとを用いることにより、動体の動きを判別する。例えば、判別装置20は、センサ2により検出された動体の動きについて回帰学習モデルを用いることにより得られた評価値と、調整可能な閾値とを比較することにより、動体の動きについて判別してもよい。判別装置20は、例えば、不図示の通信部を介して、判別結果を有線または無線により外部装置等に送信することが可能である。これにより、例えば、上記外部装置において、判別結果を用いた処理を行うことが可能となる。判別結果を用いた処理により、例えば、人物Pの存在の有無を把握することが可能となる。なお、判別結果を用いた処理については、上記のような外部装置ではなく、判別装置20本体において行うことも可能である。
(Determination device)
The discriminating
なお、従来においても、人物の有無を判別する技術について開発が進められていた。例えば、特開2010−230492号公報に開示された発明によれば、人物の有無の判別のための感度を調整することができるが、温度の変化や動体の動きの速さなど、特定の外乱の要因を含む信号に対してしか感度を調整することができなかった。そのため、様々な外乱を含む複雑な信号について、判別精度を向上させるための感度調整は困難であった。 Heretofore, technology for determining the presence or absence of a person has been developed in the past. For example, according to the invention disclosed in Japanese Patent Application Laid-Open No. 2010-230492, the sensitivity for determining the presence or absence of a person can be adjusted. The sensitivity could only be adjusted for signals containing the above factors. Therefore, it has been difficult to adjust the sensitivity for improving the discrimination accuracy for complex signals including various disturbances.
本発明の判別システム1においては、モデル生成装置10が複数の所定のシナリオに基づいて回帰学習モデルを生成し、判別装置20が回帰学習モデルを用いて動体の動きを判別する。かかる構成において、回帰学習モデルに動体の動きを当てはめることにより、動体の動きと、回帰学習モデルの構成要素である所定のシナリオとの類似度(評価値)を算出する。つまり、複数の外乱を含む信号についても、回帰学習モデルを適用させることにより、どのような動きと類似しているかを連続的な評価値として表すことができる。そのため、例えば、判別のための閾値を感度の調整要素として評価値の取り得る値の範囲内で設定することにより、動体の動きがある所定の動きか否かを閾値との比較により行うことができる。評価値が連続値であれば閾値も連続的に設定することが可能であるので、上記所定の動きの判別に係る感度を細かく調整することができる。したがって、従来においては判別の感度調整ができなかった複数の外乱が混在している信号についても、感度調整を行うことができる。よって、動体の動きの判別精度をより向上させることができる。
In the
<2.第1の実施形態>
以下、本発明の第1の実施形態に係るモデル生成装置10、および判別装置20について説明する。
<2. First Embodiment>
Hereinafter, the
[2.1.モデル生成装置]
(1)構成
図2は、本発明の第1の実施形態に係るモデル生成装置10の構成例を示すブロック図である。図2を参照すると、モデル生成装置10は、信号取得部110、信号DB(データベース)111、フィルタ部120、特徴量算出部130、評価値生成部140、評価値DB141、モデル生成部150、および回帰学習モデルDB151を備える。モデル生成装置10は、センサ2により検出される既知の所定の動きに由来する信号から算出される特徴ベクトルから構成される特徴空間と上記所定の動きに対応する評価値とを組とする複数のデータから、回帰学習モデルを生成する。生成された回帰学習モデルは、判別装置20において用いられる。以下、本実施形態に係るモデル生成装置10について説明する。
[2.1. Model generation device]
(1) Configuration FIG. 2 is a block diagram illustrating a configuration example of the
(信号取得部)
信号取得部110は、不図示の通信部または入力部等を介して、センサ2から出力される信号データを取得する。本実施形態において、センサ2はドップラーセンサである。センサ2から出力される信号データは、時系列のデジタル信号からなるデータであり、I成分であるI(n)とQ成分であるQ(n)の2成分を有する。信号データは、センサ2により規定の時間収集される。規定の時間は、例えば10分間であってもよい。また、信号データのサンプリング周波数は特に限定されないが、人物の動きを判別するためには、100Hz以上であることが好ましい。信号取得部110は、所定の動きを検出した信号を信号データとして取得し、取得した信号データを信号DB111に出力する。
(Signal acquisition unit)
The
(信号DB)
信号DB111は、信号取得部110より取得した信号データを格納するデータベースである。データベースは複数のデータリストを有し、データリストは複数のデータセットにより構成される。図3は、信号DB111に格納されているデータリストの一例を示す図である。図3を参照すると、データリスト1000には、信号取得部110より取得した所定の動きに由来する信号データのデータファイル(A1.dat、B2.dat、・・・、C6.dat)が、ID、属性、およびシナリオとともにデータセットとして記憶されている。IDは、取得された信号データごとに割り振られるインデックスである。属性は、動体の動きの種類を示す項目であり、一のデータリストに複数の属性が設定され得る。図3に示したデータリスト1000においては、例として、「無人(外乱なし)」、「無人(外乱あり)」、および「有人」の3種類の属性が設定されている。ここで、「無人(外乱なし)」とは、人物を含めた動体による動きが全く検出されない状態であることを意味する。「無人(外乱あり)」とは、人物は存在しないが、他の動体の動きが検出され得る状態であることを意味する。また、「有人」とは、人物による動きのみが検出され得る状態であることを意味する。
(Signal DB)
The
シナリオは、各属性において予め設定された具体的な動体、および動体の動きを示す項目である。シナリオとして設定された所定の動きは、予めモデル生成装置10のユーザ等により選択される動きである。図3に示したデータリスト1000においては、属性「無人(外乱あり)」には、「エアコン」、および「カーテン」がシナリオとして設定されている。これは、「無人(外乱あり)」の属性として取得された信号データは、エアコン、およびカーテンの振動に由来する信号データであることを意味する。同様に、属性「有人」には、「座る」、「寝る」、および「歩く」がシナリオとして設定されている。これは、「有人」のシナリオとして取得された信号データは、人物の座る動き、寝る動き、および歩く動きに由来する信号データであることを意味する。
The scenario is an item indicating a specific moving object set in advance in each attribute and the movement of the moving object. The predetermined movement set as the scenario is a movement selected in advance by a user of the
このように、信号DB111は、ID、属性、シナリオ、およびシナリオに対応する信号データを含む複数のデータセットからなるデータリストを格納する。なお、これらのデータセットおよびデータリストは、不図示の入力部や通信部などを介して、モデル生成装置10のユーザ等により適宜追加、修正、または削除されてもよい。生成されたデータリストは、フィルタ部120に出力される。
As described above, the
(フィルタ部)
フィルタ部120は、信号DB111から取得したデータリストに含まれている信号データにフィルタ処理を実施する。データリストに含まれている信号データには、動体の動きとは無関係の、高周波成分のノイズが多く含まれている。そのため、フィルタ部120は、LPF(Low Pass Filter:ローパスフィルタ)処理を実施することにより、これらのノイズを除去または低減する。
(Filter section)
The
フィルタ部120は、まず、データリストに格納されているID=mの信号データIm(n)およびQm(n)を取得する(n=1〜N)。ここで、Nは、信号データに含まれるサンプリング数を示す。
First, the
ここで、Im(n)およびQm(n)は、2次のIIR(Infinite Impulse Response:無限インパルス応答)フィルタによるLPF処理が実施されてもよい。LPF処理におけるカットオフ周波数は、例えば50Hzであってもよい。かかるLPF処理により、信号データに含まれる高周波のノイズ成分を除去または減少することができる。ここで、IIRフィルタによるLPF処理が実施された後の信号データを、それぞれIm’(n)およびQm’(n)とする。 Here, I m (n) and Q m (n) is second-order IIR (Infinite Impulse Response: Infinite Impulse Response) LPF processing by the filter may be performed. The cutoff frequency in the LPF processing may be, for example, 50 Hz. By such LPF processing, high-frequency noise components included in signal data can be removed or reduced. Here, the signal data after the LPF processing by the IIR filter is performed is referred to as I m ′ (n) and Q m ′ (n), respectively.
IIRフィルタによるLPF処理は、下記式(1)および式(2)を、n=1からNまで順に繰り返し計算を行うことにより実施される。ここで、x(n)は入力値、y(n)は出力値である。例えば、下記式(1)において、x(n)にはIm(n)およびQm(n)が代入される。また、下記式(2)において、Im’(n)およびQm’(n)がy(n)として出力される。また、k、a0、a1、a2、b1、およびb2は、周波数帯域に応じて設計の段階で設定される係数である。 The LPF processing by the IIR filter is performed by repeatedly performing the following equations (1) and (2) in order from n = 1 to N. Here, x (n) is an input value and y (n) is an output value. For example, in the following formula (1), the x (n) I m (n) and Q m (n) is substituted. In the following equation (2), I m ′ (n) and Q m ′ (n) are output as y (n). Further, k, a 0 , a 1 , a 2 , b 1 , and b 2 are coefficients set in the design stage according to the frequency band.
なお、A(0)=A(−1)=0である。 Note that A (0) = A (-1) = 0.
Im’(n)およびQm’(n)が出力された後、A(n−2)にはA(n−1)の値が代入され、A(n−1)にはA(n)の値が代入される。この代入処理をn=1からNまで実施することにより、LPF処理が完了する。LPF処理が完了した信号データを含むデータリストは、特徴量算出部130に出力される。
After I m '(n) and Q m' (n) is output, the A (n-2) is assigned the value of A (n-1), the A (n-1) A ( n ) Is substituted. The LPF processing is completed by performing this substitution processing from n = 1 to N. The data list including the signal data on which the LPF processing has been completed is output to the feature
なお、本実施形態にかかるフィルタ部120は、LPF処理としてIIRフィルタを用いたが、本発明はかかる例に限定されない。例えば、フィルタ部120は、信号をフーリエ変換により周波数領域に変換し、所定外の周波数帯域の周波数を除去したのち、逆フーリエ変換により再度時間領域に信号を変換することにより、LPF処理を行ってもよい。また、フィルタ部120は、上述した手法以外の公知の技術を用いてLPF処理を行ってもよい。
Although the
(特徴量算出部)
特徴量算出部130は、フィルタ部120から取得したデータリストに格納されているLPF処理後の信号データの特徴量を算出する。ここで、特徴量とは、信号データの波形に基づいて算出される特徴量である。例えば、特徴量には、信号データの波形の振幅や、波形の周波数成分等により算出される特徴量が含まれる。本実施形態においては、特徴量算出部130は、信号データの波形の振幅特徴量、および周波数特徴量を特徴量として算出する。
(Feature calculation unit)
The feature
本実施形態において、振幅特徴量は、LPF処理後の信号データの時刻nにおける振幅の値である。振幅特徴量Vm(n)は、下記式(3)により算出される。また、振幅特徴量Vm(n)は、時刻nを先頭とする単位期間における各サンプリングデータの振幅の値の平均値や最大値等の統計量であってもよい。 In the present embodiment, the amplitude feature amount is an amplitude value at time n of the signal data after the LPF processing. The amplitude feature amount V m (n) is calculated by the following equation (3). Further, the amplitude feature amount V m (n) may be a statistic such as an average value or a maximum value of the amplitude values of the respective sampling data in the unit period starting from the time n.
周波数特徴量は、例えば、単位期間における信号データの波形のゼロ交差数であってもよい。図4は、信号データの波形のゼロ交差数について説明するための図である。図4に丸印で示したように、ゼロ交差数は、信号データIm’(n)またはQm’(n)の波形が、単位期間Taにおいて時間軸(振幅=ゼロ値)と交差する回数である。具体的には、ゼロ交差数は、時刻nを先頭とする単位期間TaにおけるL個のサンプリングデータのうち、下記式(4)および式(5)を満たす数である。単位区間Taは、例えば1秒間であってもよく、その場合、Lは100(つまり、センサ2から出力される時系列デジタル信号データのサンプリング周波数=100Hz)であってもよい。 The frequency feature quantity may be, for example, the number of zero crossings of the waveform of the signal data in the unit period. FIG. 4 is a diagram for explaining the number of zero crossings of the waveform of the signal data. As indicated by a circle in FIG. 4 crossing, zero crossing number, the waveform of the signal data I m '(n) or Q m' (n) is the time axis in the unit period T a and (amplitude = zero value) It is the number of times to do. Specifically, the zero crossing number, among the L sampling data in the unit period T a for the time n and the top is a number satisfying the following formulas (4) and (5). Unit interval T a may be, for example, one second, in which case, L is 100 (i.e., sampling frequency = 100 Hz of the time-series digital signal data outputted from the sensor 2) may be used.
時刻nを先頭とする単位期間Taにおいて上記式(4)および式(5)を満たすiの数をそれぞれf1m(n)およびf2m(n)とすると、ゼロ交差数fm(n)は、f1m(n)+f2m(n)である。 In the above formula unit period T a for the time n and the top (4) and Formula (5) the number of i satisfying each f 1 m When (n) and f 2m (n), the zero crossing number f m (n) Is f 1m (n) + f 2m (n).
なお、特徴量算出部130は、上記の振幅特徴量Vm(n)およびゼロ交差数fm(n)の他に、さらに信号データIm’(n)またはQm’(n)の波形に基づく特徴量を算出してもよい。例えば、特徴量算出部130は、単位期間における波形の極大点もしくは極小点の数、複数の単位期間における極大点もしくは極小点のばらつきや平均値等の統計量、または周波数領域におけるパワースペクトル等を、特徴量として算出してもよい。特徴量の種類を増やすことにより、信号データの波形の特徴をより細かく抽出することができる。
The
特徴量算出部130は、まず、信号データから単位区間Taに含まれるL個のサンプリングデータをJ組抽出し、単位区間Taのサンプリングデータごとに特徴量をそれぞれ算出する。つまり、一の信号データから、特徴量がC×J個抽出される(Cは特徴量の種類数)。次に、特徴量算出部130は、取得したデータリストに含まれるすべての信号データについて、特徴量を算出する。そして、特徴量算出部130は、算出した特徴量を成分とする特徴ベクトルを生成する。特徴ベクトルは、Fm(j)=[Vm(j),fm(j)]というベクトルを構成する。ここで、jは、上述したようなL個のサンプリングデータのうち、最もサンプリング時刻の古い時刻を示す。特徴量算出部130は、データリストに格納された全ての信号データに対して上記の処理を行い、信号データごとに特徴ベクトルFm(j)を生成する。そして、特徴量算出部130は、生成した特徴ベクトルFm(j)をモデル生成部150に出力する。
Feature
(評価値決定部)
評価値生成部140は、信号DB111に格納されたデータリストのシナリオごとに対応する評価値を生成する。ここで、評価値とは、特定の動体による動きを判別するために用いられるパラメータである。例えば、評価値を0から1の範囲で設定する場合、特定の動体による動き(ここでは人物の動きとする)であるシナリオについては、評価値として1が設定され、人物の動きでないシナリオについては、評価値として1以外の値が設定され得る。ここで、例えば、明らかに人物の動きでないシナリオについては、評価値として0が設定され得るが、人物の動きと紛らわしい動きであるシナリオについては、評価値として0と1の中間値が設定され得る。また、同じ属性であっても、シナリオごとに異なる評価値が設定されてもよい。このように、評価値をシナリオと対応させて設定することにより、のちの判別処理において、人物等の特定の動体による動きと紛らわしい動きを判別するための調整が容易となる。
(Evaluation value determination unit)
The evaluation
評価値生成部140は、例えば、信号DB111に格納されたデータリストの属性に応じて、規定の評価値を割り振ってもよい。図5は、図3に示されたデータリスト1000に格納された各データセットに対する評価値生成部140による評価値の割り振り処理フローの例を示す図である。図5を参照すると、まず、評価値生成部140は、信号DB111に格納されたデータリストを取得する(S101)。評価値生成部140は、データリストの属性を全てのシナリオについて読み込み、読み込んだ属性に応じて評価値を設定する。
The evaluation
評価値生成部140は、読み込んだ属性が「無人(外乱なし)」か否かを判定する(S103)。読み込んだ属性が「無人(外乱なし)」である場合(S103/YES)、評価値生成部140は、かかるデータセットについての評価値を0.0と設定する(S105)。次に、評価値生成部140は、読み込んだ属性が「無人(外乱あり)」か否かを判定する(S107)。読み込んだ属性が「無人(外乱あり)」である場合(S107/YES)、評価値生成部140は、かかるデータセットについての評価値を0.5と設定する(S109)。読み込んだ属性が「無人(外乱なし)」でも「無人(外乱あり)」でもない場合(図3に示した例においては「有人」)(S107/NO)、評価値生成部140は、かかるデータセットについての評価値を1.0と設定する(S101)。以上の処理フローに基づいて、評価値生成部140は、各データセットについて評価値を割り振ることができる。シナリオがM個ある場合、m番目のシナリオに対応する評価値Ym(j)には、ステップS105、S109、またはS111において設定される値が代入される。
The evaluation
なお、本実施形態において評価値生成部140により評価値が各シナリオに対して割り振られたが、本発明はかかる例に限定されない。例えば、評価値生成部140は、不図示の入力部により入力された評価値の値を各シナリオに対して割り振ってもよい。これにより、モデル生成装置10のユーザ等が各シナリオに対する評価値の値を自由に設定することができる。また、評価値の範囲は、上記で示した範囲(0.0〜1.0)に限定されず、自由に設定され得る。
In the present embodiment, the evaluation value is assigned to each scenario by the evaluation
評価値生成部140は、各シナリオに対して評価値を割り振ったのち、各シナリオのIDと評価値をひも付けて、評価値リストとして評価値DB141に出力する。
After allocating the evaluation value to each scenario, the evaluation
(評価値DB)
評価値DB141は、評価値生成部140より取得した評価値リストを記憶するデータベースである。図6は、評価値DB141に格納されている評価リストの一例を示す図である。図6を参照すると、評価値DB141に格納されている評価リスト2000において、評価値が、ID、属性、およびシナリオとともにデータセットとして記憶されている。ID、属性、およびシナリオの意味は、信号DB111に格納されているデータリストに含まれる各要素と同一であるため、説明を省略する。評価値DB141に格納された評価値リストは、モデル生成部150に出力される。なお、各データセットに記憶されている評価値の値は、不図示の入力部や通信部等を介して、モデル生成装置10のユーザ等により設定、追加、修正、または削除されてもよい。その場合、モデル生成装置10は、必ずしも評価値生成部140を含まなくてもよい。
(Evaluation value DB)
The
(モデル生成部)
モデル生成部150は、特徴量算出部130から出力された特徴ベクトルと、評価値DB141より取得した評価値リストに含まれる評価値とを組とする複数のデータに基づいて、回帰学習モデルを生成する。具体的には、まず、モデル生成部150は、J個の抽出データおよびM個のシナリオに対応する特徴ベクトルF1(j)〜FM(j)からなる特徴空間を生成し、M個のシナリオに対応する評価値Y1(j)〜YM(j)組とするデータに基づいて回帰学習モデルを生成する。なお、評価値は対応するシナリオごとに評価値生成部140において割り振られるので、同一のシナリオ(つまり信号データ)に対応する評価値Ym(j)の値は、jの値によらず同一である。
(Model generation unit)
The
ここで、本実施形態において、回帰学習モデルは、例えば、SVR(Support Vector Regression:サポートベクタ回帰)を用いて生成され得る。SVRは、例えば、SMOLA,Alex J. and Bernhard SCHOELKOPF,“A Tutorial on Support Vector Regression”,1998に開示されている内容に基づいて実現され得る。なお、回帰学習モデルは、上記の例に限定されず、例えば、カーネル法や重回帰分析等の公知の回帰分析手法により生成されてもよい。 Here, in the present embodiment, the regression learning model can be generated using, for example, SVR (Support Vector Regression). The SVR can be realized based on, for example, the contents disclosed in SMOLA, Alex J. and Bernhard SCHOELKOPF, “A Tutorial on Support Vector Regression”, 1998. The regression learning model is not limited to the above example, and may be generated by a known regression analysis method such as a kernel method or a multiple regression analysis.
SVRにより生成された回帰学習モデルは、K個の要素からなるサポートベクタ行列sと、それらの重みベクトルc、および閾値bにより構成される。具体的には、サポートベクタ行列sは下記式(6)で示す行列により定義され、重みベクトルcは下記式(7)で示すベクトルにより定義される。また、閾値bは一意に定まる値である。また、サポートベクタ行列sの要素の数Kは、SVRによる計算の過程において一意に定まる。 The regression learning model generated by the SVR is composed of a support vector matrix s composed of K elements, their weight vectors c, and thresholds b. Specifically, the support vector matrix s is defined by a matrix represented by the following equation (6), and the weight vector c is defined by a vector represented by the following equation (7). The threshold b is a value uniquely determined. Further, the number K of elements of the support vector matrix s is uniquely determined in the process of calculation by SVR.
なお、特徴空間および評価値により構成されるデータについて、カーネルトリックを用いて非線形空間に写像することにより、回帰学習モデルを生成することも可能である。本実施形態においては、カーネルトリックとして、下記式(8)で示すガウシアン型カーネル関数が用いられてもよい。この場合、ガウス関数の広がりを定義する係数σは、回帰学習モデルを構成する要素となる。 In addition, it is also possible to generate a regression learning model by mapping data constituted by the feature space and the evaluation value to a non-linear space by using a kernel trick. In the present embodiment, a Gaussian kernel function represented by the following equation (8) may be used as a kernel trick. In this case, the coefficient σ defining the spread of the Gaussian function is an element constituting the regression learning model.
モデル生成部150は、M個のシナリオに対応する特徴空間および評価値により構成されるデータからSVR等の回帰分析を用いて生成した回帰学習モデルを、回帰学習モデルDB151に出力する。
The
(回帰学習モデルDB)
回帰学習モデルDB151は、モデル生成部150より出力された回帰学習モデルを記憶するデータベースである。回帰学習モデルDB151には、例えば、上記式(6)〜式(8)により生成された回帰学習モデルのサポートベクタ行列s、重みベクトルc、閾値b、およびガウシアン型カーネル関数の係数σ等が記憶される。回帰学習モデルDB151には、一または複数の回帰学習モデルが記憶されてもよい。例えば、後述する判別装置20により判別される動体の種類や動体の動きの種類に応じた回帰学習モデルが回帰学習モデルDB151に記憶されてもよい。
(Regression learning model DB)
The regression
回帰学習モデルDB151に記憶された回帰学習モデルに係るデータは、判別装置20の回帰学習モデルDB231に複製されて記憶される。これにより、判別装置20は、モデル生成装置10により生成された回帰学習モデルを用いて、動体の動きの判別を実施することができる。
The data related to the regression learning model stored in the regression
(2)動作
図7は、本発明の第1の実施形態に係るモデル生成装置10の動作例を示すフローチャートである。まず、信号取得部110は、センサ2が検出した所定の動きに由来する信号を信号データとして取得する(S201)。信号取得部110は、複数の所定の動きに由来する複数の信号データを信号DB111に出力する。信号DB111は、複数の信号データを、ID、属性、パラメータとともに、データリストとして記憶し、フィルタ部120、および評価値生成部140に出力する(S203)。
(2) Operation FIG. 7 is a flowchart illustrating an operation example of the
次に、フィルタ部120は、データリストに含まれている各信号データについてLPF処理を実施する(S205)。LPF処理が実施された各信号データは、特徴量算出部130に出力される。特徴量算出部130は、LPF処理後の各信号データについて、特徴量を算出する(S207)。次に、特徴量算出部130は、算出した一または複数の特徴量により構成される特徴ベクトルを生成する(S209)。生成された特徴ベクトルを含むデータは、モデル生成部150に出力される。
Next, the
次に、モデル生成部150は、M個のシナリオに対応する特徴ベクトルからなる特徴空間を生成する(S211)。一方で、評価値生成部140は、評価値リストに含まれている属性に基づいて、各信号データについて評価値を決定する(S213)。なお、各信号データについて予め評価値が決定されている場合は、ステップS211は省略されてもよい。決定された評価値を含むデータは、モデル生成部150に出力される。
Next, the
そして、モデル生成部150は、生成した特徴空間および評価値とを組とするデータに基づき、回帰学習モデルを生成する(S215)。その後、モデル生成部150は、生成した回帰学習モデルを回帰学習モデルDB151に出力する(S217)。
Then, the
以上、本実施形態に係るモデル生成装置10について説明した。続いて、本実施形態に係る判別装置20について説明する。
The
[2.2.判別装置]
(1)構成
図8は、本発明の第1の実施形態に係る判別装置20の構成例を示すブロック図である。図8を参照すると、判別装置20は、信号取得部210、信号DB211、フィルタ部220、特徴量算出部230、評価値算出部240、回帰学習モデルDB241、判別部250、および調整部260を備える。
[2.2. Identification device]
(1) Configuration FIG. 8 is a block diagram illustrating a configuration example of the
(信号取得部)
信号取得部210は、不図示の通信部または入力部等を介して、センサ2から出力される信号データを取得する。取得した信号についてリアルタイムに判別処理を実施する場合は、信号取得部210は、取得した信号データをフィルタ部220に出力する。また、取得した信号データについて事後的に判別処理を実施する場合は、信号取得部210は、信号DB211に取得した信号データを出力してもよい。
(Signal acquisition unit)
The
(信号DB)
信号DB211は、信号取得部210が取得した信号データを逐次的に記憶するデータベースである。記憶された信号データについて判別処理を実施する場合は、信号DB211に記憶された信号データは、フィルタ部220に出力される。
(Signal DB)
The
(フィルタ部)
フィルタ部220は、信号取得部210、または信号DB211から取得した信号データにフィルタ処理を実施する。フィルタ部220により実施されるフィルタ処理は、モデル生成装置10のフィルタ部120と同様に、LPF処理であってもよい。この場合、LPF処理は、IIRフィルタによるものであってもよい。IIRフィルタについては、上述したIIRフィルタと同一であるので、説明を省略する。フィルタ部220は、LPF処理がされた信号データを、特徴量算出部230に出力する。
(Filter section)
The
(特徴量算出部)
特徴量算出部230は、フィルタ部220から取得した信号データの特徴量を算出する。特徴量算出部230が算出する特徴量は、モデル生成装置10の特徴量算出部130により算出される特徴量と同一である。例えば、特徴量算出部230は、信号データの波形の振幅特徴量と、周波数特徴量とを、特徴量として算出する。これらの特徴量の具体的な算出方法については、モデル生成装置10の特徴量算出部130による算出方法と同一であるため、説明を省略する。
(Feature calculation unit)
The feature
特徴量算出部230は、算出した特徴量を成分とする特徴ベクトルを生成する。具体的には、特徴量算出部230は、時刻kにおける信号データI(k)またはQ(k)から、F(k)=[V(k),f(k)]という2次元の特徴ベクトルを生成する。なお、V(k)は振幅特徴量であり、f(k)は単位期間におけるゼロ交差数である。上記の単位期間は、モデル生成装置10の特徴量算出部130によるゼロ交差数の算出の際に用いられる単位期間と同一である。特徴量算出部230は、生成した特徴ベクトルF(k)を評価値算出部240に出力する。
The feature
(評価値算出部)
評価値算出部240は、特徴量算出部230から取得した特徴ベクトルF(k)と、回帰学習モデルDB241に記憶されている一の回帰学習モデルを用いて、センサ2により検出された動体の動きに対応する評価値を算出する。回帰学習モデルDB241に記憶されている回帰学習モデルは、モデル生成装置10により生成された回帰学習モデルである。評価値算出部240は、例えば、下記式(9)に示される判別関数に特徴ベクトルF(k)を代入することにより得られる出力値z(k)の値を、評価値として算出する。なお、下記式(9)に示される関数g(xi,k,σ)は、上記式(8)に示されるカーネル関数である。
(Evaluation value calculation unit)
The evaluation
ここで、xi,kの値は下記式(10)により与えられる。なお、Viおよびfiは、上記式(6)で示されるサポートベクタ行列sのi成分の値である。 Here, the value of x i, k is given by the following equation (10). Note that V i and f i are the values of the i component of the support vector matrix s represented by the above equation (6).
評価値算出部240により算出される出力値z(k)は、評価値として、判別部250に出力される。
The output value z (k) calculated by the evaluation
(回帰学習モデルDB)
回帰学習モデルDB241は、モデル生成装置10により算出された少なくとも一の回帰学習モデルを記憶する。回帰学習モデルDB241は、モデル生成装置10の回帰学習モデルDB151に記憶されている回帰学習モデルの一部または全部を記憶する。回帰学習モデルDB241に記憶されている回帰学習モデルは、評価値算出部240に出力される。評価値算出部240に出力される回帰学習モデルの種類については、判別装置20のユーザ等により、自由に選択される。例えば、判別装置20が用いられる環境や建物の構造、材質等に適した回帰学習モデルが選択されてもよい。なお、回帰学習モデルDB241に記憶されている回帰学習モデルは、不図示の入力部または通信部を介して、適宜追加、変更、または削除され得る。
(Regression learning model DB)
The regression
(判別部)
判別部250は、評価値算出部240から算出される評価値(出力値)z(k)に基づいて、センサ2により検出された動体の動きを判別する。本実施形態においては、判別部250は、評価値z(k)に基づいて、センサ2により検出された動体の動きが人物の動きであるか否かを判別する。より具体的には、判別部250は、評価値z(k)と、感度閾値Thとを比較し、その大小関係に基づいて、動体の動きが人物の動きであるか否かを判別する。ここで、人物の動きであるか否かを示す判別結果値をdとすると、以下の比較式に基づいて、判別結果値をdの値が決定される。まず、z(k)≧Thの場合、d=1となる。d=1の場合、動体の動きは人物の動きであると判別される。一方、z(k)<Thの場合、d=0となる。d=0の場合、動体の動きは人物の動きではないと判別される。
(Discriminator)
The
判別部250は、判別結果値dの値を、外部装置や判別装置20に含まれる不図示の記憶部等に出力する。また、判別部250は、判別結果値dに代えて、または判別結果値dとともに、評価値z(k)を出力してもよい。例えば、判別装置20の較正において、後述する調整部260により調整される感度閾値Thの適正値を較正する際に、実際の評価値z(k)の値と動体の動きとを検証するために、評価値z(k)の値が出力され得る。
The
(調整部)
調整部260は、判別部250による動体の動きの判別のために、動体の動きに対応する評価値と比較される感度閾値Thを調整する。調整部260は、不図示の入力部または通信部を介して、感度閾値Thを調整する。感度閾値Thの対象となる評価値z(k)は、上記式(9)により示される判別関数により得られる連続値である。上記判別関数は、回帰学習モデルに含まれるサポートベクタ行列s、重みベクトルc、および閾値bにより構成される連続関数である。つまり、回帰学習モデルは、個々のシナリオに基づいて生成された連続関数を構成する。そのため、例えば、センサ2により検出される信号が複数の外乱が混在する信号であったとしても、上記判別関数により、個々のシナリオに対応する信号の特徴を反映させた、一次元の評価値が出力される。したがって、調整部260は、感度閾値Thを任意の値に設定するだけで、複数の外乱が存在する環境における動体の動きの判別に対する感度を調整することができる。
(Adjustment unit)
The
調整部260は、上記の判別関数により出力される評価値z(k)が取り得る値の範囲内において、任意の値を感度閾値Thとして設定する。感度閾値Thの値は、連続的に変化してもよいが、離散的に変化してもよい。例えば、調整部260は、感度閾値Thの値を段階的に調整してもよい。これにより、判別装置20を用いるユーザは、感度閾値Thの値の調整を容易に行うことができる。感度閾値Thの初期値として、予め所定の値が設定されてもよいし、判別装置20が用いられる環境に応じた値が設定されてもよい。また、感度閾値Thの値の調整は、判別装置20を用いるユーザによりマニュアルで設定されてもよいが、ロジスティック回帰分析や線形判別分析等の統計的手法を用いることにより、最適な感度閾値Thの値が設定されてもよい。設定された感度閾値Thの値は、判別部250に出力される。
The
(2)動作
図9は、本発明の第1の実施形態に係る判別装置20の動作例を示すフローチャートである。まず、信号取得部210は、センサ2が検出した動体の動きに由来する信号を信号データとして取得する(S301)。信号取得部210は、取得した信号データを信号DB211、またはフィルタ部220に出力する。
(2) Operation FIG. 9 is a flowchart showing an operation example of the
次に、フィルタ部220は、取得した信号データについてLPF処理を実施する(S303)。LPF処理が実施された信号データは、特徴量算出部230に出力される。特徴量算出部230は、LPF処理後の信号データについて、特徴量を算出する(S305)。次に、特徴量算出部230は、算出した一または複数の特徴量により構成される特徴ベクトルを生成する(S307)。生成された特徴ベクトルを含むデータは、評価値算出部240に出力される。
Next, the
評価値算出部240は、取得した特徴ベクトルと、回帰学習モデルDB241に記憶されている一の回帰学習モデルを用いて、上記動体の動きに対応する評価値を算出する(S309)。次に、判別部250は、評価値と、調整部260により調整された感度閾値との大小を比較することにより、動体の動きについて判別する(S311)。そして、判別部250は、判別結果を外部装置、または記憶部等に出力する(S313)。
The evaluation
[2.3.効果]
ここまで、図1〜図9を用いて、本発明の第1の実施形態について説明した。本発明の第1の実施形態によれば、モデル生成装置10は、複数の所定の動きの特徴量と所定の動きに対応する評価値とを組とする複数のデータに基づいて、SVR等による回帰学習モデルを生成する。そして、判別装置20は、モデル生成装置10により生成された回帰学習モデルを用いて、センサ2により検出された動体の動きについて判別を行う。回帰学習モデルは、連続的な関数である判別関数を構成し、判別装置20は、判別関数を用いて、動体の動きに対応する一次元の評価値を算出する。そして、判別装置20は、評価値と任意の値に調整可能な感度閾値とを比較することにより、動体の動きについて判別する。かかる構成において、複数の所定の動きを反映させた回帰学習モデルを用いることにより、センサ2により検出された動体の動きに付随する様々な外乱が信号に含まれる場合であっても、判別装置20は、それらの外乱の種類に依存せず、自由に感度閾値を設定することができる。これにより、動体の動きの判別に係る感度を、より細かく調整することができる。したがって、例えば、感度補正手段の対象とはなっていない外乱や、複数の外乱の混在など、従来では判別し得なかった外乱が含まれる信号についても、判別のための感度調整を行うことができる。よって、動体の動きの判別精度をより向上させることができる。
[2.3. effect]
So far, the first embodiment of the present invention has been described with reference to FIGS. According to the first embodiment of the present invention, the
<3.第2の実施形態>
続いて、本発明の第2の実施形態について説明する。本実施形態では、モデル生成装置10に含まれる評価値生成部140が、各シナリオに対応する評価値を適正に決定する機能を有する。本発明の第1の実施形態においては、シナリオ毎に予め所定の値が割り振られていたが、この所定の値は、モデル生成装置10のユーザ等の主観や経験により決定される値であった。そのため、回帰学習モデルを生成するにあたって、これらの評価値は必ずしも最適なモデルを生成するものではない。そこで、本実施形態に係る評価値生成部140は、複数の所定の動きに由来する信号データを含む複数のデータリストを用意し、各データリストごとに複数の参考回帰学習モデルを生成し、各参考回帰学習モデルを用いて、参考回帰学習モデルの生成に用いられた全てのデータリストについて判別処理を行う。そして、評価値生成部140は、各参考回帰学習モデルを用いて得られた判別結果について比較を行い、その比較結果に基づいて適正な評価値を決定する。これにより、所定の動きに対する評価値を、ユーザ等の主観を排し、機械的に決定することができる。したがって、モデル生成装置10による回帰学習モデルの質が向上し、判別装置20による判別結果の精度をさらに向上させることができる。以下、第2の実施形態に係るモデル生成装置10、および評価値生成部140について説明する。
<3. Second Embodiment>
Subsequently, a second embodiment of the present invention will be described. In the present embodiment, the evaluation
[3.1.モデル生成装置]
(1)構成
図10は、本発明の第2の実施形態に係るモデル生成装置10の構成例を示すブロック図である。図10を参照すると、モデル生成装置10は、信号取得部110、信号DB111、フィルタ部120、特徴量算出部130、特徴量DB131、評価値生成部140、評価値DB141、モデル生成部150、および回帰学習モデルDB151を備える。本実施形態に係る信号取得部110、信号DB111、フィルタ部120、特徴量算出部130、評価値DB141、モデル生成部150、および回帰学習モデルDB151は、第1の実施形態に係る各構成要素と同一の機能を有するので、説明を省略する。特徴量DB131は、特徴量算出部130により算出された信号データの特徴量を含むデータを、信号DB111に記憶されているデータセットにひも付けて記憶するデータベースである。特徴量DB131については、詳しくは後述する。以下、評価値生成部140の構成等について説明する。
[3.1. Model generation device]
(1) Configuration FIG. 10 is a block diagram illustrating a configuration example of a
[3.2.評価値生成部]
(1)構成
図11は、評価値生成部140および評価値生成部140において用いられる各種データを格納するデータベースの構成例を示すブロック図である。図11を参照すると、評価値生成部140は、参考モデル生成部410、判別検証部420、および評価値決定部430を含む。
[3.2. Evaluation value generator]
(1) Configuration FIG. 11 is a block diagram illustrating a configuration example of the evaluation
(参考モデル生成部)
参考モデル生成部410は、特徴量DB131に格納されている複数のデータリストに含まれる特徴量(特徴ベクトル)と、参考評価値DB151に格納されている、上記複数のデータリストの各々に対応する参考評価値リストに含まれる参考評価値を用いて、参考回帰学習モデルを生成する。参考回帰学習モデルとは、複数のデータリストの各々に含まれる特徴量と、参考評価値との組による複数のデータセットを用いて生成される回帰学習モデルである。本実施形態においては、データリストは2種類(データリスト1(外乱なし)、データリスト2(外乱あり))用意される。そのため、参考回帰学習モデルについて、データリスト1に対応するモデルと、データリスト2に対応するモデルの、2種類のモデルが生成される。なお、本実施形態においては、2種類の参考回帰学習モデルが生成されるが、本発明はかかる例に限定されず、3種類以上のデータリストを用いて、上記データリストにそれぞれ応じた参考回帰学習モデルが生成されてもよい。
(Reference model generator)
The reference
上記複数のデータリストの構成はそれぞれ異なる。図12および図13は、特徴量DB131に格納されているデータリスト1(外乱なし)3000、およびデータリスト2(外乱あり)4000の一例を示す図である。図12および図13を参照すると、各々のデータリストは、ID、属性、シナリオ、信号データを含む信号データファイル、および特徴量データを含む特徴量データファイルを含むデータセットにより構成される。なお、特徴量データファイルに含まれる特徴量データは、予め特徴量算出部130により算出された、所定の動きの特徴量を含む。ここで、データリスト1には、属性が「無人(外乱なし)」、および「有人」のデータセットが含まれている。一方で、データリスト2には、属性が「無人(外乱なし)」、「無人(外乱あり)」、および「有人」のデータセットが含まれている。なお、データリスト1、およびデータリスト2には同一の属性およびシナリオのデータセットが含まれているが、各データセットに含まれる信号データは必ずしも同一でなくてもよい。また、同一内容のシナリオについて、複数の信号データが含まれていてもよい。
Each of the plurality of data lists has a different configuration. FIGS. 12 and 13 are diagrams illustrating an example of the data list 1 (without disturbance) 3000 and the data list 2 (with disturbance) 4000 stored in the
図14および図15は、参考評価値DB151に格納されている参考評価値リスト1(外乱なし)5000、および参考評価値リスト2(外乱あり)の6000の構成を示す図である。図14および図15を参照すると、各々のデータリストは、ID、属性、シナリオ、および参考評価値を含むデータセットにより構成される。上記のデータリスト1およびデータリスト2と同様に、参考評価値リスト1には属性が「無人(外乱あり)」のデータセットが含まれていない一方で、参考評価値リスト2には属性が「無人(外乱あり)」のデータセットが含まれる。また、これらの参考評価値リストにおいて、属性が「無人」であるデータセットの参考評価値は0に設定され、属性が「有人」であるデータセットの参考評価値は1に設定される。データリスト1は参考評価値リスト1と対応しており、データリスト2は参考評価値リスト2と対応している。
FIGS. 14 and 15 are diagrams showing the configuration of the reference evaluation value list 1 (without disturbance) 5000 and the reference evaluation value list 2 (with disturbance) 6000 stored in the reference
データリスト1(および参考評価値リスト1)は、属性「無人(外乱あり)」のデータセットを含まない。そのため、データリスト1および参考評価値リスト1を用いて生成された参考回帰学習モデル(参考回帰学習モデル1と呼称する)を判別処理に適用させた場合、データリスト2および参考評価値リスト2を用いて生成された参考回帰学習モデル(参考回帰学習モデル2と呼称する)を判別処理に適用させた場合と比較して、人物以外の動きを人物の動きとして判別する確率が高くなると考えられる。一方で、参考評価値リスト2において属性「無人(外乱あり)」の参考評価値は0に設定されている。そのため、参考回帰学習モデル2を判別処理に適用させた場合、参考回帰学習モデル1を判別処理に適用させた場合と比較して、人物の動きを人物以外の動きとして判別する確率が高くなると考えられる。そこで、本実施形態に係る評価値生成部140は、参考回帰学習モデル間での判別結果の差異に応じて、全てのシナリオに対応する評価値を決定する。これにより、判別精度を向上させることが可能となる回帰学習モデルを生成することが可能となる。
Data list 1 (and reference evaluation value list 1) does not include a data set having the attribute “unmanned (with disturbance)”. Therefore, when the reference regression learning model (referred to as reference regression learning model 1) generated using the
参考モデル生成部410は、参考回帰学習モデル1および参考回帰学習モデル2を生成し、これらの参考回帰学習モデルを参考モデルDB161に格納する。
The reference
(判別検証部)
判別検証部420は、特徴量DB131に格納されているうちの、参考回帰学習モデルの生成に用いられた全てのデータリストに含まれる特徴量について、参考モデルDB161に格納されている参考回帰学習モデルの各々を用いて判別処理を行い、参考回帰学習モデル毎の判別結果について検証し、その検証結果に基づいて各シナリオに対応する評価値を決定する。具体的には、判別検証部420は、まず、データリスト1およびデータリスト2に含まれている全ての特徴量データから特徴量を取得する。そして、判別検証部420は、各々の特徴量について、参考回帰学習モデル1、および参考回帰学習モデル2を用いて、特定の動体の動きの有無(ここでは、人物の存在の有無)を判別する。判別検証部420は、人物の存在の有無の判別結果(無人率)について、各参考回帰学習モデル間における差を比較する。そして、判別検証部420は、上記差に基づいて、各シナリオに対応する評価値を決定する。以下、判別検証部420における処理について、順に説明する。
(Discrimination verification section)
The discriminating
まず、判別検証部420は、参考回帰学習モデルの生成に用いられた全てのデータリストに含まれている特徴量について、参考回帰学習モデルの各々を用いて判別処理を行う。判別検証部420による判別処理は、第1の実施形態に係る判別装置20の評価値算出部240、および判別部250による処理と同様の処理である。例えば、参考モデル生成部410により生成された一の参考回帰学習モデルが、以下のサポートベクタ行列s’、重みベクトルc’、および閾値b’によって構成されているとする。具体的には、サポートベクタ行列s’は下記式(11)で示す行列により定義され、重みベクトルc’は下記式(12)で示すベクトルにより定義される。また、閾値b’は一意に定まる値である。
First, the discriminating
また、第1の実施形態と同様に、特徴空間および評価値により構成されるデータについて、カーネルトリックを用いて非線形空間に写像することにより、回帰学習モデルを生成することも可能である。本実施形態においては、カーネルトリックとして、下記式(13)で示すガウシアン型カーネルが用いられてもよい。 Further, similarly to the first embodiment, it is also possible to generate a regression learning model by mapping data constituted by a feature space and an evaluation value onto a non-linear space using a kernel trick. In the present embodiment, a Gaussian kernel represented by the following equation (13) may be used as a kernel trick.
ここで、全てのデータリストに含まれているシナリオの数をMとし、m番目のシナリオに対応する特徴ベクトルをFm(k)とする。判別検証部420は、下記式(14)に示される判別関数に特徴ベクトルFm(k)を代入することにより得られる出力値zm(k)の値を、評価値として算出する。
Here, the number of scenarios included in all data lists is M, and the feature vector corresponding to the m-th scenario is F m (k). The
ただし、xi,kの値は下記式(15)により与えられる。ここで、Viおよびfiは、上記式(11)で示されるサポートベクタ行列sのi成分の値である。 Here, the value of x i, k is given by the following equation (15). Here, V i and f i are the values of the i component of the support vector matrix s represented by the above equation (11).
次に、判別検証部420は、上記式(14)で得られた評価値zm(k)に基づいて、m番目のシナリオが人体の動きか否かを判別する。より具体的には、判別検証部420は、評価値zm(k)が0以上であるか否かに基づいて、m番目のシナリオが人体の動きか否かを判別する。ここで、人体の動きであるか否かを示す判別結果値をdmとすると、以下の比較式に基づいて、判別結果値をdmの値が決定される。まず、zm(k)≧0の場合、dm=1となる。dm=1の場合、m番目のシナリオは人物の動きであると判別される。一方、zm(k)<0の場合、dm=0となる。dm=0の場合、m番目のシナリオは人物の動きではないと判別される。
Next, the
判別検証部420は、全てのデータリストに含まれるすべてのシナリオについてdmを算出する。そして、判別検証部420は、下記式(16)に従って、無人率eval[%]を算出する。
判別検証部420は、上記の判別処理、および無人率(eval)算出処理を、参考モデル生成部410により生成された複数の参考回帰学習モデルごとに実施する。本実施形態においては、判別検証部420は、参考回帰学習モデル1、および参考回帰学習モデル2の各々を用いて全てのシナリオについて判別処理を実施し、判別結果に基づいて無人率算出処理を実施する。そして、判別検証部420は、無人率の算出結果を評価値決定部430に出力する。
The
(評価値決定部)
評価値決定部430は、判別検証部420から取得した判別結果に基づいて、回帰学習モデルの生成処理に用いられる評価値を決定する。より具体的には、評価値決定部430は、判別検証部420から取得した無人率の参考回帰学習モデルごとの差に基づいて、評価値を決定する。以下、評価値決定部430による評価値決定処理について、図16を参照しながら説明する。
(Evaluation value determination unit)
The evaluation
図16は、評価値決定部430による評価値決定処理について説明するための図である。図16を参照すると、データリスト7000には、シナリオに対応するID、参考評価値、参考回帰学習モデル1での無人率、参考回帰学習モデル2での無人率、無人率の差、および評価値が含まれている。参考評価値は、参考評価値DB151に予め格納されている仮の評価値であり、属性が「無人」のシナリオは0に、また、属性が「有人」のシナリオは1に設定されている。参考回帰学習モデル1での無人率、および参考回帰学習モデル2での無人率は、各参考回帰学習モデルを用いて算出された無人率である。例えば、ID1001(属性「無人(外乱なし)」、シナリオ「なし」)では、両者とも無人率が100%を示している。この場合、評価値決定部430は、予め参考評価値として与えていた値(1)を、評価値として決定する。一方で、ID1004(属性「有人」、シナリオ「座る」)では、参考回帰学習モデル1での無人率は50%を示しているが、参考回帰学習モデル2での無人率は90%を示している。このように、シナリオによっては、算出される無人率が参考回帰学習モデルによって異なっている。そのため、判別が客観的に困難であるシナリオについて、想定する判別結果とは異なる結果を出力しないように評価値を決定する必要がある。
FIG. 16 is a diagram for explaining the evaluation value determination processing by the evaluation
図17は、各参考回帰学習モデルにより算出された無人率の分布を示すグラフである。図17のグラフにおいて、○はデータリスト1に含まれる属性「無人」を含むシナリオの無人率、□はデータリスト1に含まれる属性「有人」を含むシナリオの無人率、×はデータリスト2に含まれる属性「無人」を含むシナリオの無人率、および、△はデータリスト2に含まれる属性「有人」を含むシナリオの無人率である。図17に示したように、○や△は、参考回帰学習モデルによる無人率の差は小さいが、□や×など、参考回帰学習モデルによって無人率の差が大きくなる場合も存在する。そのため、評価値決定部430は、無人率の差が大きくなる場合には、参考回帰学習モデルの違いによる影響を抑えるため、中間的な値として、評価値の値を0.5と決定する。一方で、無人率の差が小さい場合には、参考回帰学習モデルの違いによる影響が小さいと考えられるので、参考評価値として与えていた値をそのまま評価値として決定する。このように、無人率の差に応じて評価値を柔軟に変更することにより、主観を排した回帰学習モデルを生成することが可能となる。
FIG. 17 is a graph showing the distribution of the unmanned rate calculated by each reference regression learning model. In the graph of FIG. 17, ○ indicates the unmanned rate of the scenario including the attribute “unmanned” included in the
図16を再度参照すると、評価値決定部430は、上記の無人率の差に基づいて、全てのシナリオに対して評価値の値を決定する。例えば、評価値決定部430は、参考回帰学習モデル1と参考回帰学習モデル2との同一のシナリオに対する無人率の差が所定の閾値Tha以上である場合に、評価値を0.5と決定する。本実施形態では、所定の閾値Thaは20%とする。無人率の差が20%以上である場合、評価値決定部430は、上記シナリオに対して評価値を0.5と決定する。一方で、無人率の差が20%を下回る場合、評価値決定部430は、参考評価値として与えていた値を評価値として決定する。
Referring to FIG. 16 again, the evaluation
なお、所定の閾値Thaの値は、回帰学習モデルの精度の調整のために自由に変更され得る。また、本実施形態においては、所定の閾値Thaにより3値の評価値が設定されるが、所定の閾値の数は複数であってもよい。また、無人率の差が大きい場合に評価値の中間値として0.5が設定されたが、中間値としての値については特に限定されない。例えば、上記のように所定の閾値が複数ある場合には、中間値として、閾値により設定される段階数に応じて種々の値が設定され得る。また、例えば、評価値決定部430により決定される評価値の値は、算出された無人率evalの値や統計量等に基づいて決定されてもよい。例えば、一のシナリオに対応する評価値の値は、複数の参考回帰学習モデルを用いて算出された無人率の平均値に応じた値であってもよい。
The value of the predetermined threshold Th a can be freely changed for precision adjustment of the regression learning model. Further, in the present embodiment, the evaluation value of the three values by a predetermined threshold value Th a is set, the number of the predetermined threshold may be plural. Further, when the difference between the unmanned rates is large, 0.5 is set as the intermediate value of the evaluation value, but the value as the intermediate value is not particularly limited. For example, when there are a plurality of predetermined thresholds as described above, various values may be set as intermediate values according to the number of steps set by the thresholds. Further, for example, the value of the evaluation value determined by the evaluation
評価値生成部140は、評価値決定部430により決定された評価値の値を含む評価値リストを、評価値DB141に出力する。
The
(2)動作
図18は、本発明の第2の実施形態に係る評価値生成部140の処理フローを示すフローチャートである。図18を参照すると、評価値生成部140は、まず参考モデル生成部410により各データリストに対応する参考回帰学習モデルを生成する(S400)。次に、評価値生成部140は、判別検証部420により各参考回帰学習モデルを用いた全シナリオに対する判別処理を行い、無人率を算出する(S500)。そして、評価値生成部140は、評価値決定部430により参考回帰学習モデル間の無人率の比較を行い、比較結果に応じた各シナリオの評価値を決定する(S600)。以下、上記の3つの処理について、順に説明する。
(2) Operation FIG. 18 is a flowchart illustrating a processing flow of the evaluation
図19は、本発明の第2の実施形態に係る参考モデル生成部410の処理フローを示すフローチャートである。図19を参照すると、参考モデル生成部410は、まず一のデータリストを特徴量DB131より取得する(S401)。次に、参考モデル生成部410は、上記データリストに含まれている全てのシナリオに対応する特徴ベクトルを含む特徴量データを抽出する(S403)。また、参考モデル生成部410は、上記データリストに対応する参考評価値リストを参考評価値DB151より取得する(S405)。そして、参考モデル生成部410は、上記複数の特徴ベクトルからなる特徴空間と、参考評価値リストに含まれる参考評価値とを組とするデータに基づいて参考回帰学習モデルを生成する(S407)。参考モデル生成部410は、上述した処理を複数のデータリスト(および参考評価値リスト)に対して実施し、複数の参考回帰学習モデルを生成する。
FIG. 19 is a flowchart illustrating a processing flow of the reference
図20は、本発明の第2の実施形態に係る判別検証部420の処理フローを示すフローチャートである。図20を参照すると、判別検証部420は、まず特徴量DB131に格納されている全てのデータリストから、各シナリオの特徴ベクトルを抽出する(S501)。次に、判別検証部420は、抽出した特徴ベクトルを一の参考回帰学習モデルにより構成される判別関数に代入することにより評価値を算出し、判別結果を出力する(S503)。そして、判別検証部420は、全てのシナリオに対応する判別結果を用いて、無人率を算出する(S505)。判別検証部420は、参考回帰学習モデル1および参考回帰学習モデル2を用いて、各々のモデルにおける無人率を全てのシナリオについて算出する。
FIG. 20 is a flowchart illustrating a processing flow of the
図21は、本発明の第2の実施形態に係る評価値決定部430の処理フローを示すフローチャートである。図21を参照すると、評価値決定部430は、まず一のシナリオに対応する参考評価値を参考評価値DB151から取得する(S601)。次に、評価値決定部430は、判別検証部420において算出された各参考回帰学習モデルにおける無人率を取得する(S603)。評価値決定部430は、取得した各々の無人率の差(diff)を算出し(S605)、上記無人率の差diffと所定の閾値Thaとの大小を比較する(S607)。無人率の差diffが閾値Tha以上である場合(S607/YES)、評価値決定部430は、上記シナリオに対応する評価値を0.5と決定する(S609)。一方で、無人率の差diffが閾値Thaを下回る場合、評価値決定部430は、上記シナリオに対応する参考評価値の値を評価値として決定する(S611)。評価値決定部430は、上述した評価値決定処理を全てのシナリオに対して実施する。
FIG. 21 is a flowchart illustrating a processing flow of the evaluation
[3.3.効果]
ここまで、図10〜図21を用いて、本発明の第2の実施形態について説明した。本発明の第2の実施形態によれば、評価値生成部140は、複数の異なるデータリストおよび参考評価値リストを組とする複数の参考回帰学習モデルを生成し、それらの参考回帰学習モデルを用いて、上記の複数のデータリストに含まれるシナリオについて、人物の存在の有無について判別する。そして、評価値生成部140は、各参考回帰学習モデル間における判別結果(無人率)の差に基づいて、各シナリオに対応する評価値を決定する。かかる構成において、回帰学習モデルの生成に用いられる評価値を回帰分析手法を用いて決定することにより、各シナリオに対応する評価値を、機械的に決定することができる。これにより、例えば、属性「無人(外乱あり)」や、シナリオ「座る」など、人物の動きか否かの判別が困難であるシナリオに対応する評価値を、ユーザ等の主観を排し、機械的に決定することができる。したがって、本実施形態に係るモデル生成装置10は、より適正な評価値を含む評価値リストを用いて回帰学習モデルを生成することができる。よって、動体の動きがある特定の動きであるか否かの判別精度をより向上させることができる。
[3.3. effect]
So far, the second embodiment of the present invention has been described with reference to FIGS. According to the second embodiment of the present invention, the evaluation
<4.ハードウェア構成例>
以上、本発明の各実施形態に係る判別システム1について説明した。次に、図22を参照して、本開示の実施形態に係る情報処理装置のハードウェア構成について説明する。図22は、本開示の実施形態に係る情報処理装置900のハードウェア構成例を示すブロック図である。図示された情報処理装置900は、例えば、上記の実施形態におけるモデル生成装置10、および判別装置20を実現しうる。
<4. Example of hardware configuration>
As above, the
図22を参照すると、情報処理装置900は、CPU(Central Processing Unit)901と、ROM(Read Only Memory)902と、RAM(Random Access Memory)903と、ホストバス904と、を備える。また、情報処理装置900は、ブリッジ905と、外部バス906と、インタフェース907と、入力装置908と、出力装置909と、ストレージ装置910と、ドライブ911と、ネットワークインタフェース912と、を備える。
Referring to FIG. 22, the
CPU901は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理装置900内の動作全般を制御する。また、CPU901は、マイクロプロセッサであってもよい。なお、CPU901は、情報処理装置900内の各機能部を含む機能の動作全般またはその一部を制御する。例えば、CPU901は、ROM902は、CPU901が使用するプログラムや演算パラメータ等を記憶する。RAM903は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。これらはCPUバスなどから構成されるホストバス904により相互に接続されている。
The
ホストバス904は、ブリッジ905を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス906に接続されている。なお、必ずしもホストバス904、ブリッジ905および外部バス906を分離構成する必要はなく、1つのバスにこれらの機能を実装してもよい。
The
入力装置908は、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、スイッチおよびレバーなどユーザが情報を入力するための入力手段と、ユーザによる入力に基づいて入力信号を生成し、CPU901に出力する入力制御回路などから構成されている。情報処理装置900のユーザは、当該入力装置908を操作することにより、情報処理装置900に対して各種のデータを入力したり処理動作を指示したりすることができる。なお、入力装置908は、不図示の入力部の機能を実現する。
An
出力装置909は、例えば、CRTディスプレイ装置、液晶ディスプレイ(LCD)装置、OLED装置およびランプなどの表示装置を含む。さらに、出力装置909は、スピーカ及びヘッドホンなどの音声出力装置を含む。出力装置909は、例えば、再生されたコンテンツを出力する。具体的には、表示装置は再生された映像データ等の各種情報をテキストまたはイメージで表示する。一方、音声出力装置は、再生された音声データや表示装置に表示されたテキストデータ等を音声に変換して出力する。なお、出力装置909は、不図示の表示部の機能を実現する。
The
ストレージ装置910は、本発明の実施形態に係る情報処理装置900におけるデータ格納用の装置である。ストレージ装置910は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読み出し装置および記憶媒体に記憶されたデータを削除する削除装置などを含んでも良い。ストレージ装置は、例えば、HDD(Hard Disc Drive)やSSD(Solid State Drive)で構成される。このストレージ装置910は、CPU901が実行するプログラムや各種データを格納する。なお、ストレージ装置910は、信号DB111など、各情報処理装置に備えられている各DBを格納する。なお、ストレージ装置910は、不図示の記憶部の機能を実現する。
The
ドライブ911は、記憶媒体用リーダライタであり、情報処理装置900に内蔵、あるいは外付けされる。ドライブ911は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記憶媒体96に記録されている情報を読みだして、RAM903に出力する。また、ドライブ911は、リムーバブル記憶媒体96に情報を書き込むこともできる。
The
ネットワークインタフェース912は、例えば、他の装置に接続するための通信デバイス等で構成された通信インタフェースである。また、ネットワークインタフェース912は、無線LAN(Local Area Network)対応通信装置、LTE(Long Term Evolution)対応通信装置、またはブルートゥース通信装置であってもよい。また、ネットワークインタフェース912は、有線による通信を行うワイヤー通信装置であってもよい。なお、ネットワークインタフェース912は、不図示の通信部の機能を実現する。
The
以上、情報処理装置900のハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。かかる構成は、実施する時々の技術レベルに応じて適宜変更され得る。
The example of the hardware configuration of the
<5.まとめ>
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
<5. Summary>
As described above, the preferred embodiments of the present invention have been described in detail with reference to the accompanying drawings, but the present invention is not limited to such examples. It is obvious that those skilled in the art to which the present invention pertains can conceive various changes or modifications within the scope of the technical idea described in the claims. It is understood that these also belong to the technical scope of the present invention.
例えば、上記実施形態では、人物がセンサ2による検知が可能なエリアに存在していることが想定されていたが、本発明はかかる例に限定されない。例えば、人物が椅子やベッドなどの位置にいる場合に限定してセンサが人物を検知することができるように、センサが設置されてもよい。これにより、判別対象となるエリアを限定することが可能となるので、動体の動きの判別精度が向上する。また、判別装置は、人物の有無の結果を、他の情報処理装置(例えば人物の運動量や姿勢等を計測する装置)に組み合わせて用いられてもよい。かかる構成において、人物が特定のエリアに存在している場合に限定して、他の情報処理装置による処理を実施することができる。したがって、生じ得る外乱の影響が小さくなるため、人物の運動量や姿勢等の計測精度を向上させることができる。
For example, in the above embodiment, it is assumed that a person is present in an area where the
また、判別装置は、モデル生成装置の有する各機能を含んでもよい。かかる構成において、判別装置は、回帰学習モデルDBに格納されている回帰学習モデルを用いて判別処理を行うだけではなく、外部から得られた信号データ等を用いて回帰学習モデルを生成することもできる。これにより、一般的な回帰学習モデルだけではなく、判別装置が適用される場所や場面に応じて特化された回帰学習モデルを生成することができる。したがって、判別したい動体の動きの判別精度をさらに向上させることができる。 Further, the determination device may include each function of the model generation device. In such a configuration, the discriminating apparatus not only performs the discriminating process using the regression learning model stored in the regression learning model DB, but also generates a regression learning model using signal data or the like obtained from outside. it can. This makes it possible to generate not only a general regression learning model but also a regression learning model specialized for a place or a scene to which the discriminating device is applied. Therefore, the accuracy of determining the motion of the moving object to be determined can be further improved.
また、上記実施形態では、人物の動きを判別対象とする例を説明したが、本発明はかかる例に限定されない。例えば、本発明は、他の生体、機械およびクランク等の運動など、多様な動体の動きに対して適用可能である。この場合、例えば、センサが電波式のセンサである場合、放射波の波長を判別対象の信号波形の変位に応じて適切に設定することにより、あらゆる動体の動きを表現する信号を抽出することが可能である。 Further, in the above-described embodiment, an example has been described in which a motion of a person is set as a determination target, but the present invention is not limited to such an example. For example, the present invention is applicable to various moving body movements such as movements of other living bodies, machines and cranks. In this case, for example, when the sensor is a radio wave type sensor, by appropriately setting the wavelength of the radiation wave in accordance with the displacement of the signal waveform to be determined, it is possible to extract a signal representing any motion of the moving object. It is possible.
また、本明細書の各装置および各機能部の処理における各ステップは、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はない。例えば、各装置および各機能部の処理における各ステップは、フローチャートとして記載した順序と異なる順序で処理されても、並列的に処理されてもよい。 In addition, each step in the processing of each device and each functional unit in this specification does not necessarily need to be processed in a time series in the order described in the flowchart. For example, each step in the processing of each device and each functional unit may be processed in an order different from the order described in the flowchart, or may be processed in parallel.
また、モデル生成装置10および判別装置20に内蔵されるCPU、ROMおよびRAMなどのハードウェアを、上記のモデル生成装置10および判別装置20の各構成と同等の機能を発揮させるためのコンピュータプログラムも作成可能である。また、該コンピュータプログラムを記憶させた記憶媒体も提供される。
Further, a computer program for causing hardware such as a CPU, a ROM, and a RAM built in the
1 判別システム
2 センサ
10 モデル生成装置
20 判別装置
110、210 信号取得部
120、220 フィルタ部
130、230 特徴量算出部
140 評価値生成部
150 モデル生成部
240 評価値算出部
250 判別部
260 調整部
410 参考モデル生成部
420 判別検証部
430 評価値決定部
Claims (12)
所定の動きの特徴量と、前記所定の動きに対応する評価値とを組とする複数のデータに基づいて生成された回帰学習モデルを用いて、前記特徴量算出部により算出された前記動体の動きの特徴量に応じて、前記動体の動きに対応する評価値を算出する評価値算出部と、
前記動体の動きの判別のために前記動体の動きに対応する前記評価値と比較される閾値を調整する調整部と、
を備え、
前記所定の動きに対応する評価値は、前記所定の動きの特徴量と、前記所定の動きに対応して予め設定された評価値とを組とする複数のデータに基づいて生成された複数の回帰学習モデルを用いて判別された前記所定の動きに対応する複数の判別結果間における誤差に応じて決定される、判別装置。 A feature amount calculation unit that calculates a feature amount of the movement of the moving object based on a sensor signal indicating the movement of the moving object detected by the sensor;
Using a regression learning model generated based on a plurality of data that is a set of a feature amount of a predetermined motion and an evaluation value corresponding to the predetermined motion, the moving object calculated by the feature amount calculation unit. An evaluation value calculation unit that calculates an evaluation value corresponding to the motion of the moving object according to the feature amount of the motion,
An adjustment unit that adjusts a threshold value to be compared with the evaluation value corresponding to the movement of the moving object for determination of the movement of the moving object,
Equipped with a,
The evaluation value corresponding to the predetermined motion is a plurality of pieces of data generated based on a plurality of sets of a feature amount of the predetermined motion and an evaluation value set in advance corresponding to the predetermined motion. A discriminating apparatus , which is determined according to an error between a plurality of determination results corresponding to the predetermined motion determined using a regression learning model .
前記評価値算出部は、前記サポートベクタ回帰により生成される前記回帰学習モデルを構成するサポートベクタと、前記動体の動きの特徴量とを用いて、前記動体の動きに対応する評価値を算出する、請求項1に記載の判別装置。 The regression learning model is a regression learning model generated by support vector regression,
The evaluation value calculation unit calculates an evaluation value corresponding to the motion of the moving object by using a support vector included in the regression learning model generated by the support vector regression and a feature amount of the motion of the moving object. The discriminating apparatus according to claim 1.
前記動体の動きの判別は、前記動体の動きが前記生体の動きであるか否かの判別を含む、請求項1〜6のいずれか1項に記載の判別装置。 The predetermined movement includes movement of a living body,
The determination device according to any one of claims 1 to 6 , wherein the determination of the movement of the moving object includes determination of whether the movement of the moving object is the movement of the living body.
所定の動きの特徴量と、前記所定の動きに対応する評価値とを組とする複数のデータに基づいて生成された回帰学習モデルを用いて、前記動体の動きの特徴量に応じて、前記動体の動きに対応する評価値を算出するステップと、
前記動体の動きの判別のために前記動体の動きに対応する前記評価値と比較される閾値を調整するステップと、
を含み、
前記所定の動きに対応する評価値は、前記所定の動きの特徴量と、前記所定の動きに対応して予め設定された評価値とを組とする複数のデータに基づいて生成された複数の回帰学習モデルを用いて判別された前記所定の動きに対応する複数の判別結果間における誤差に応じて決定される、判別方法。 Calculating a feature amount of the motion of the moving object based on a sensor signal indicating the motion of the moving object detected by the sensor;
Using a regression learning model generated based on a plurality of data pairs of a predetermined motion feature amount and an evaluation value corresponding to the predetermined motion, according to the motion feature amount of the moving object, Calculating an evaluation value corresponding to the movement of the moving object;
Adjusting a threshold value to be compared with the evaluation value corresponding to the movement of the moving object for determination of the movement of the moving object;
Only including,
The evaluation value corresponding to the predetermined motion is a plurality of pieces of data generated based on a plurality of sets of a feature amount of the predetermined motion and an evaluation value set in advance corresponding to the predetermined motion. A discrimination method , wherein the discrimination method is determined according to an error between a plurality of determination results corresponding to the predetermined motion determined using a regression learning model .
センサにより検出された動体の動きを示すセンサ信号に基づいて、前記動体の動きの特徴量を算出する特徴量算出部と、
所定の動きの特徴量と、前記所定の動きに対応する評価値とを組とする複数のデータに基づいて生成された回帰学習モデルを用いて、前記特徴量算出部により算出された前記動体の動きの特徴量に応じて、前記動体の動きに対応する評価値を算出する評価値算出部と、
前記動体の動きの判別のために前記動体の動きに対応する前記評価値と比較される閾値を調整する調整部と、
として機能させ、
前記所定の動きに対応する評価値は、前記所定の動きの特徴量と、前記所定の動きに対応して予め設定された評価値とを組とする複数のデータに基づいて生成された複数の回帰学習モデルを用いて判別された前記所定の動きに対応する複数の判別結果間における誤差に応じて決定される、プログラム。 Computer
A feature amount calculation unit that calculates a feature amount of the movement of the moving object based on a sensor signal indicating the movement of the moving object detected by the sensor;
Using a regression learning model generated based on a plurality of data that is a set of a feature amount of a predetermined motion and an evaluation value corresponding to the predetermined motion, the moving object calculated by the feature amount calculation unit. An evaluation value calculation unit that calculates an evaluation value corresponding to the motion of the moving object according to the feature amount of the motion,
An adjustment unit that adjusts a threshold value to be compared with the evaluation value corresponding to the movement of the moving object for determination of the movement of the moving object,
To function as,
The evaluation value corresponding to the predetermined motion is a plurality of pieces of data generated based on a plurality of sets of a feature amount of the predetermined motion and an evaluation value set in advance corresponding to the predetermined motion. A program that is determined according to an error between a plurality of determination results corresponding to the predetermined movement determined using a regression learning model .
前記所定の動きの特徴量と、前記所定の動きに対応して予め設定された参考評価値とを組とする複数のデータに基づいて生成された複数の回帰学習モデルを用いて判別された前記所定の動きに対応する複数の判別結果間における誤差に応じて、前記所定の動きに対応する評価値を決定する、回帰学習モデル評価値決定部と、
前記所定の動きの特徴量と、前記所定の動きに対応する評価値とを組とする複数のデータに基づいて回帰学習モデルを生成するモデル生成部と、
を備えるモデル生成装置。 A feature amount calculating unit that calculates a feature amount of the predetermined movement based on a sensor signal indicating a predetermined movement by the moving body detected by the sensor;
The feature amount of the predetermined motion and the plurality of regression learning models generated based on a plurality of data pairs of a reference evaluation value set in advance corresponding to the predetermined motion are determined. A regression learning model evaluation value determination unit that determines an evaluation value corresponding to the predetermined motion in accordance with an error between a plurality of determination results corresponding to the predetermined motion,
A model generation unit that generates a regression learning model based on a plurality of data sets each of which is a feature amount of the predetermined motion and an evaluation value corresponding to the predetermined motion;
A model generation device comprising:
前記所定の動きの特徴量と、前記所定の動きに対応して予め設定された参考評価値とを組とする複数のデータに基づいて生成された複数の回帰学習モデルを用いて判別された前記所定の動きに対応する複数の判別結果間における誤差に応じて、前記所定の動きに対応する評価値を決定するステップと、
前記所定の動きの特徴量と、前記所定の動きに対応する評価値とを組とする複数のデータに基づいて回帰学習モデルを生成するステップと、
を含む、モデル生成方法。
Calculating a characteristic amount of the predetermined movement based on a sensor signal indicating a predetermined movement by the moving body detected by the sensor;
The feature amount of the predetermined motion and the plurality of regression learning models generated based on a plurality of data pairs of a reference evaluation value set in advance corresponding to the predetermined motion are determined. Determining an evaluation value corresponding to the predetermined motion according to an error between a plurality of determination results corresponding to the predetermined motion;
A step of generating a regression learning model based on a plurality of data pairs of the feature amount of the predetermined motion and an evaluation value corresponding to the predetermined motion;
And a model generation method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015145545A JP6648435B2 (en) | 2015-07-23 | 2015-07-23 | Discrimination device, discrimination method, program, model generation device, and model generation method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015145545A JP6648435B2 (en) | 2015-07-23 | 2015-07-23 | Discrimination device, discrimination method, program, model generation device, and model generation method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017026475A JP2017026475A (en) | 2017-02-02 |
JP6648435B2 true JP6648435B2 (en) | 2020-02-14 |
Family
ID=57949557
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015145545A Active JP6648435B2 (en) | 2015-07-23 | 2015-07-23 | Discrimination device, discrimination method, program, model generation device, and model generation method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6648435B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9927519B1 (en) * | 2017-03-16 | 2018-03-27 | Cognitive Systems Corp. | Categorizing motion detected using wireless signals |
JP6944402B2 (en) * | 2018-03-08 | 2021-10-06 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | Absence determination method, program, sensor processing system, and sensor system |
CN112444785B (en) | 2019-08-30 | 2024-04-12 | 华为技术有限公司 | Target behavior recognition method, device and radar system |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080077015A1 (en) * | 2006-05-17 | 2008-03-27 | Olga Boric-Lubecke | Determining presence and/or physiological motion of one or more subjects with multiple receiver Doppler radar systems |
JP5708294B2 (en) * | 2011-06-22 | 2015-04-30 | 日本電気株式会社 | Signal detection apparatus, signal detection method, and signal detection program |
JP5333567B2 (en) * | 2011-11-28 | 2013-11-06 | 沖電気工業株式会社 | Data processing apparatus, motion recognition system, motion discrimination method, and program |
JP5523534B2 (en) * | 2012-10-22 | 2014-06-18 | 沖電気工業株式会社 | Feature amount calculation apparatus and program |
JP6127602B2 (en) * | 2013-03-13 | 2017-05-17 | 沖電気工業株式会社 | State recognition device, state recognition method, and computer program |
NL2012327B1 (en) * | 2013-12-13 | 2016-06-21 | Utc Fire & Security B V | Selective intrusion detection systems. |
-
2015
- 2015-07-23 JP JP2015145545A patent/JP6648435B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017026475A (en) | 2017-02-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Lee et al. | Sleep monitoring system using kinect sensor | |
CN108597617B (en) | Epidemic disease grading prediction method and device, computer device and readable storage medium | |
EP3346428A1 (en) | Sensor design support apparatus, sensor design support method and computer program | |
CN109414174B (en) | Method and system for probabilistically estimating pulse rate of an individual | |
JP6648435B2 (en) | Discrimination device, discrimination method, program, model generation device, and model generation method | |
JP6477199B2 (en) | Vibration state estimation device, vibration state estimation method, and program | |
US20220280098A1 (en) | Assessing parkinson's disease symptoms | |
JP7439004B2 (en) | Behavior recognition device, learning device, and behavior recognition method | |
JP6684339B1 (en) | Sound evaluation AI system and sound evaluation AI program | |
JP2019011916A (en) | Air conditioner, air conditioning system, control method, and program | |
US20150209000A1 (en) | Bioacoustic sound testing device and bioacoustic sound testing method | |
JP5718494B1 (en) | Impression estimation device, method thereof, and program | |
US11751800B2 (en) | Seizure detection using contextual motion | |
JP7006199B2 (en) | Data generator, data generator, data generator and sensor device | |
US11854369B2 (en) | Multi-computer processing system for compliance monitoring and control | |
CN111128216A (en) | Audio signal processing method, processing device and readable storage medium | |
Nienaber et al. | Validation, optimisation and comparison of carbon dioxide-based occupancy estimation algorithms | |
CN111684535A (en) | System and method for optimal sensor placement | |
EP3773225B1 (en) | Detecting subjects with disordered breathing | |
JP2017023449A (en) | Activity amount estimation device, activity amount estimation method, program, model generation device, and model generation method | |
Lin et al. | Ranking USRDS provider specific SMRs from 1998–2001 | |
JP7180819B1 (en) | predictor | |
JP2017196194A (en) | Sleep state analysis support device and sleep state analysis support program | |
WO2022097273A1 (en) | Apparatus control device, program, and apparatus control method | |
WO2020217494A1 (en) | Fitting assistance device, fitting assistance method, and computer-readable recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180515 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190320 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20190327 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190328 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190521 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190711 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191217 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191230 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6648435 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |