JP6844562B2 - アノテーション方法、アノテーション装置、アノテーションプログラム及び識別システム - Google Patents
アノテーション方法、アノテーション装置、アノテーションプログラム及び識別システム Download PDFInfo
- Publication number
- JP6844562B2 JP6844562B2 JP2018045861A JP2018045861A JP6844562B2 JP 6844562 B2 JP6844562 B2 JP 6844562B2 JP 2018045861 A JP2018045861 A JP 2018045861A JP 2018045861 A JP2018045861 A JP 2018045861A JP 6844562 B2 JP6844562 B2 JP 6844562B2
- Authority
- JP
- Japan
- Prior art keywords
- time
- time interval
- label
- sensor data
- interval
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1126—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/165—Evaluating the state of mind, e.g. depression, anxiety
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/167—Personality evaluation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7264—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
- A61B5/7267—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01D—MEASURING NOT SPECIALLY ADAPTED FOR A SPECIFIC VARIABLE; ARRANGEMENTS FOR MEASURING TWO OR MORE VARIABLES NOT COVERED IN A SINGLE OTHER SUBCLASS; TARIFF METERING APPARATUS; MEASURING OR TESTING NOT OTHERWISE PROVIDED FOR
- G01D9/00—Recording measured values
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Psychiatry (AREA)
- General Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Heart & Thoracic Surgery (AREA)
- Pathology (AREA)
- Veterinary Medicine (AREA)
- Surgery (AREA)
- Public Health (AREA)
- Animal Behavior & Ethology (AREA)
- Medical Informatics (AREA)
- Artificial Intelligence (AREA)
- Psychology (AREA)
- Theoretical Computer Science (AREA)
- Child & Adolescent Psychology (AREA)
- Developmental Disabilities (AREA)
- Social Psychology (AREA)
- Hospice & Palliative Care (AREA)
- Educational Technology (AREA)
- Mathematical Physics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Physiology (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Dentistry (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Fuzzy Systems (AREA)
- Recording Measured Values (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
まず、図1を用いて、本発明が適用される場面の一例について説明する。図1は、本実施形態に係る識別システム100の適用場面の一例を模式的に例示する。本実施形態に係る識別システム100は、工場の作業員の行動状態を監視するためのシステムであり、ネットワークを介してそれぞれ接続されるアノテーション装置1、学習装置2、及び識別装置4により構成されている。
[ハードウェア構成]
<アノテーション装置>
次に、図2を用いて、本実施形態に係るアノテーション装置1のハードウェア構成の一例について説明する。図2は、本実施形態に係るアノテーション装置1のハードウェア構成の一例を模式的に例示する。
次に、図3を用いて、本実施形態に係る学習装置2のハードウェア構成の一例について説明する。図3は、本実施形態に係る学習装置2のハードウェア構成の一例を模式的に例示する。
次に、図4を用いて、本実施形態に係る識別装置4のハードウェア構成の一例について説明する。図4は、本実施形態に係る識別装置4のハードウェア構成の一例を模式的に例示する。
<アノテーション装置>
次に、図5を用いて、本実施形態に係るアノテーション装置1のソフトウェア構成の一例を説明する。図5は、本実施形態に係るアノテーション装置1のソフトウェア構成の一例を模式的に例示する。
次に、図6を用いて、本実施形態に係る学習装置2のソフトウェア構成の一例を説明する。図6は、本実施形態に係る学習装置2のソフトウェア構成の一例を模式的に例示する。
ここで、図7Aを更に用いて、学習処理部212による教師あり学習の過程について説明する。図7Aは、本実施形態に係る学習処理部212によるニューラルネットワーク5の教師あり学習の過程を模式的に例示する。
次に、図7Bを更に用いて、性能評価部213による学習済みのニューラルネットワーク5に対する性能評価の過程について説明する。図7Bは、本実施形態に係る性能評価部213による学習済みのニューラルネットワーク5に対する性能評価の過程を模式的に例示する。
次に、図8を用いて、本実施形態に係る識別装置4のソフトウェア構成の一例を説明する。図8は、本実施形態に係る識別装置4のソフトウェア構成の一例を模式的に例示する。
アノテーション装置1、学習装置2、及び識別装置4の各ソフトウェアモジュールに関しては後述する動作例で詳細に説明する。なお、本実施形態では、アノテーション装置1、学習装置2、及び識別装置4の各ソフトウェアモジュールがいずれも汎用のCPUによって実現される例について説明している。しかしながら、以上の各ソフトウェアモジュールの一部又は全部が、1又は複数の専用のプロセッサにより実現されてもよい。また、アノテーション装置1、学習装置2、及び識別装置4それぞれのソフトウェア構成に関して、実施形態に応じて、適宜、ソフトウェアモジュールの省略、置換及び追加が行われてもよい。
[アノテーション処理]
次に、図9を用いて、アノテーション装置1によるアノテーション処理について説明する。図9は、アノテーション装置1によるアノテーション処理の手順の一例を例示するフローチャートである。なお、以下で説明する処理手順は、本発明の「アノテーション方法」の一例である。ただし、以下で説明する処理手順は一例に過ぎず、各処理は可能な限り変更されてよい。また、以下で説明する処理手順について、実施の形態に応じて、適宜、ステップの省略、置換、及び追加が可能である。
ステップS101では、制御部11は、データ取得部111として動作し、センサの出力が時系列に配列されたセンサデータ122を取得する。センサデータ122を取得すると、次のステップS102に処理を進める。
ステップS102では、制御部11は、ラベル付与部112として動作し、取得したセンサデータ122に複数の時間区間を設定する。次のステップS103では、制御部11は、設定した各時間区間に1又は複数のラベルを付与する。これにより、制御部11は、センサデータ122に複数のラベルを付与する。
まず、図11A〜図11Cを更に用いて、重複区間を設定するための第1の方法について説明する。図11A〜図11Cは、重複区間を設定する第1の方法の過程を模式的に例示する。第1の方法では、制御部11は、暫定的な境界時刻に基づいて、重複区間の範囲を決定する。
次に、図12を更に用いて、重複区間を設定するための第2の方法について説明する。図12は、重複区間を設定する第2の方法の一例を模式的に例示する。第2の方法では、境界時刻についての複数の指定のゆらぎを利用して、重複区間の範囲を決定する。
次に、図13を更に用いて、重複区間を設定するための第3の方法について説明する。図13は、重複区間を設定する第3の方法の一例を模式的に例示する。第3の方法では、重複区間の範囲の指定を直接受け付ける。
次に、付与するラベルの内容について説明する。付与するラベルの内容は、実施の形態に応じて適宜決定されてよい。本実施形態では、制御部11は、各ラベルの付与される時間区間内におけるセンサデータ122に対する所定の推論の正解を示すように、各ラベルの内容を設定する。具体的には、センサデータ122は、工場の作業員の状態を監視するためのカメラ31及び活動量センサ32から得られる。そのため、制御部11は、対応する各時間区間内に表れる作業員の行動状態を示すように各ラベルの内容を設定してもよい。これにより、所定の推論を行う能力を学習器に習得させるための教師あり学習に利用可能なラベル付きセンサデータ124を生成することができる。所定の推論の一例として、カメラ及び活動量センサから得られるデータに基づいて作業員の行動状態を推定する能力が挙げられる。
以上により、制御部11は、互いに部分的に重複する第1の時間区間及び第2の時間区間を含む複数の時間区間をセンサデータ122に設定し、設定した各時間区間に各ラベルを付与することができる。センサデータ122に複数のラベルを付与すると、制御部11は、次のステップS104に処理を進める。
ステップS104では、制御部11は、ラベル付与部112として動作し、上記ステップS102及びS103によりラベル付けを行った結果をラベルデータ123として記憶部12に保存する。これにより、制御部11は、本動作例に係るアノテーション処理、換言すると、ラベル付きセンサデータ124の生成処理を終了する。
次に、図16を用いて、学習装置2の動作例を説明する。図16は、学習装置2の処理手順の一例を例示するフローチャートである。なお、以下で説明する処理手順は一例に過ぎず、各処理は可能な限り変更されてよい。また、以下で説明する処理手順について、実施の形態に応じて、適宜、ステップの省略、置換、及び追加が可能である。
ステップS201では、制御部21は、学習データ取得部211として動作し、ニューラルネットワーク5の教師あり学習に利用する学習用データセット125を取得する。学習用データセット125は、センサデータ1251及びラベル1252の対で構成され、ラベル付きセンサデータ124から生成される。
ステップS202では、制御部21は、学習処理部212として動作し、取得した学習用データセット125を利用して、センサデータ1251を入力すると、ラベル1252に対応する出力値を出力するように、ニューラルネットワーク5の教師あり学習を実施する。
ステップS203では、制御部21は、学習処理部212として動作し、構築したニューラルネットワーク5の構成、各ニューロン間の結合の重み、及び各ニューロンの閾値を示す情報を学習結果データ222として記憶部22に保存する。学習結果データ222の保存が完了すると、制御部21は、次のステップS204に処理を進める。
ステップS204では、制御部21は、性能評価部213として動作し、評価用データセット223を取得する。そして、制御部21は、取得した評価用データセット223を利用して、構築した学習済みのニューラルネットワーク5の性能を評価する。
ステップS205では、制御部21は、性能評価部213として動作し、ステップS204により得られた評価結果の情報を評価結果データ224として記憶部22に保存する。これにより、制御部21は、本動作例に係る処理手順を終了する。
次に、図17を用いて、アノテーション装置1による重複区間の修正処理について説明する。図17は、アノテーション装置1による重複区間の修正に関する処理手順の一例を例示するフローチャートである。なお、上記アノテーション処理を含め、以下で説明する処理手順は、本発明の「アノテーション方法」の一例である。ただし、以下で説明する処理手順は一例に過ぎず、各処理は可能な限り変更されてよい。また、以下で説明する処理手順について、実施の形態に応じて、適宜、ステップの省略、置換、及び追加が可能である。
ステップS301では、制御部11は、区間修正部113として動作し、評価結果データ224を取得する。評価結果データ224は、ラベル付きセンサデータ124を利用して教師あり学習を実施することで、所定の推論を行う能力を有するように構築された学習済みのニューラルネットワーク5に対する評価結果を示す。評価結果データ224を取得する方法は、実施の形態に応じて適宜選択されてよい。例えば、制御部11は、ネットワーク、記憶媒体等を介して、学習装置2、NAS等から評価結果データ224を取得してもよい。評価結果データ224を取得すると、制御部11は、次のステップS302に処理を進める。
ステップS302では、制御部11は、区間修正部113として動作し、取得した評価結果データ224により示される評価結果に基づいて、上記ステップS102で設定した重複区間の時間幅を変更する。
ステップS303では、制御部11は、区間修正部113として動作し、ステップS302により重複区間の時間幅を変更した場合に、当該変更内容をラベルデータ123に反映する。これにより、制御部11は、本動作例に係る重複区間の修正処理を終了する。
次に、図18を用いて、識別装置4により作業員の行動状態を推定する処理について説明する。図18は、本実施形態に係る識別装置4の処理手順の一例を例示するフローチャートである。なお、以下で説明する処理手順は一例に過ぎず、各処理は可能な限り変更されてよい。また、以下で説明する処理手順について、実施の形態に応じて、適宜、ステップの省略、置換、及び追加が可能である。
ステップS401では、制御部41は、対象データ取得部411として動作し、作業員の行動状態を推定する対象となる対象センサデータ422を取得する。対象センサデータ422を取得すると、次のステップS402に処理を進める。
ステップS402では、制御部41は、状態推定部412として動作し、学習結果データ222を参照して、作業員の行動状態の推定に利用する学習済みのニューラルネットワーク5の設定を行う。次に、制御部41は、学習済みのニューラルネットワーク5に対象センサデータ422を入力し、学習済みのニューラルネットワーク5の演算処理を実行する。これにより、制御部41は、対象センサデータ422に表れる作業員の行動状態を推定した結果に対応する出力値を学習済みのニューラルネットワーク5から取得する。
ステップS403では、制御部41は、出力部413として動作し、ステップS402により作業員の行動状態を推定した結果を出力する。これにより、制御部41は、本動作例に係る処理手順を終了する。
以上のように、本実施形態に係るアノテーション装置1は、上記ステップS102により、第1のラベル1231が付与される第1の時間区間と第2のラベル1232が付与される第2の時間区間との間に、時系列上で部分的に重複する重複区間を設ける。これにより、第1の時間区間と第2の時間区間との境界に時間的な幅を持たせ、第1のラベル1231により示される状態から第2のラベル1232により示される状態に遷移したタイミングを一点に決定するのを避けることができる。すなわち、第1のラベル1231により示される状態から第2のラベル1232により示される状態への遷移が重複区間内のいずれかの時刻に生じたものとしたり、重複区間により当該遷移の生じている区間を表したりすることができるようになる。
以上、本発明の実施の形態を詳細に説明してきたが、前述までの説明はあらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。例えば、以下のような変更が可能である。なお、以下では、上記実施形態と同様の構成要素に関しては同様の符号を用い、上記実施形態と同様の点については、適宜説明を省略した。以下の変形例は適宜組み合わせ可能である。
上記実施形態では、識別システム100は、アノテーション装置1、学習装置2、及び識別装置4の3つの装置により構成されている。しかしながら、識別システム100の構成は、このような例に限定されなくてもよい。例えば、アノテーション装置1、学習装置2、及び識別装置4は、一体のコンピュータで構成されてもよい。また、例えば、アノテーション装置1、学習装置2、及び識別装置4から選択された2つの装置が、一体のコンピュータで構成されてもよい。
上記実施形態では、アノテーション装置1は、工場の作業員の状態を監視するカメラ31及び活動量センサ32から得られるセンサデータ122にラベル付け(アノテーション)を行っている。しかしながら、上記アノテーション装置1の適用可能な場面は、このような例に限られなくてもよい。
上記実施形態では、アノテーション装置1は、センサデータ122について、カメラ31から得られる画像データを、活動量センサ32から得られる数値データと同様に取り扱っている。しかしながら、複数種類のデータをセンサデータ122として取得する場合、各種データ間で取り扱いが相違していてもよい。例えば、上記ステップS102及びS103において、制御部11は、カメラ31から得られる画像データと活動量センサ32から得られる数値データとで、異なるラベル付けを行ってもよい。
上記実施形態では、評価結果データ224により示される評価結果は、学習済みのニューラルネットワーク5によりセンサデータ2231に対して所定の推論を行った際の正答率により表現され得る。しかしながら、評価結果の表現方法は、このような例に限定されなくてもよく、実施の形態に応じて適宜決定されてよい。
上記実施形態では、学習器の一例として、ニューラルネットワーク(ニューラルネットワーク5)を利用している。しかしながら、上記実施形態に利用可能な学習器の種類は、ニューラルネットワークに限られなくてよい。例えば、上記実施形態では、線形回帰モデル、サポートベクタマシン等を学習器として用いてもよい。
11…制御部、12…記憶部、13…通信インタフェース、
14…外部インタフェース、15…入力装置、
16…出力装置、17…ドライブ、
111…データ取得部、112…ラベル付与部、
113…区間修正部、
121…アノテーションプログラム、
122…センサデータ、123…ラベルデータ、
1231…第1のラベル、1232…第2のラベル、
124…ラベル付きセンサデータ、
125…学習用データセット、
1251…センサデータ、1252…ラベル、
2…学習装置、
21…制御部、22…記憶部、23…通信インタフェース、
24…入力装置、25…出力装置、26…ドライブ、
211…学習データ取得部、212…学習処理部、
213…性能評価部、
221…学習プログラム、222…学習結果データ、
223…評価用データセット、224…評価結果データ、
31…カメラ、32…活動量センサ、
4…識別装置、
41…制御装置、42…記憶部、43…通信インタフェース、
44…外部インタフェース、45…入力装置、
46…出力装置、47…ドライブ、
411…対象データ取得部、412…状態推定部、413…出力部、
421…識別プログラム、
5…ニューラルネットワーク(学習器)、
51…入力層、52…中間層(隠れ層)、53…出力層、
91…記憶媒体、92…記憶媒体
Claims (16)
- コンピュータが、
センサの出力を時系列に配列したセンサデータを取得するステップと、
取得したセンサデータに複数のラベルを付与するステップと、
を実行するアノテーション方法であって、
前記複数のラベルは、第1のラベル及び第2のラベルを含み、
前記第1のラベルは、第1の時間区間に付与され、
前記第2のラベルは、前記時系列上で前記第1の時間区間よりも後にある第2の時間区間に付与され、
前記第1の時間区間の開始時刻が前記第2の時間区間の開始時刻よりも前であり、かつ前記第1の時間区間の終了時刻が前記第2の時間区間の終了時刻よりも前であるのに対して、前記第1の時間区間の前記終了時刻が前記第2の時間区間の開始時刻よりも後であることで、前記第1の時間区間及び前記第2の時間区間は、前記時系列上で部分的に重複する重複区間を有するように設定され、
前記コンピュータは、
前記第1の時間区間と前記第2の時間区間とを暫定的に区分する境界時刻を設定し、
設定された前記境界時刻の前及び後の少なくとも一方の時刻を含むように、所定の時間幅を有する前記重複区間を設定する、
アノテーション方法。 - 前記所定の時間幅は、前記第1のラベル及び前記第2のラベルの少なくとも一方の種類に基づいて決定される、
請求項1に記載のアノテーション方法。 - 前記所定の時間幅は、固定値である、
請求項1に記載のアノテーション方法。 - 前記コンピュータは、時刻の指定をユーザから受け付け、指定された前記時刻を前記境界時刻に設定する、
請求項1から3のいずれか1項に記載のアノテーション方法。 - コンピュータが、
センサの出力を時系列に配列したセンサデータを取得するステップと、
取得したセンサデータに複数のラベルを付与するステップと、
を実行するアノテーション方法であって、
前記複数のラベルは、第1のラベル及び第2のラベルを含み、
前記第1のラベルは、第1の時間区間に付与され、
前記第2のラベルは、前記時系列上で前記第1の時間区間よりも後にある第2の時間区間に付与され、
前記第1の時間区間の開始時刻が前記第2の時間区間の開始時刻よりも前であり、かつ前記第1の時間区間の終了時刻が前記第2の時間区間の終了時刻よりも前であるのに対して、前記第1の時間区間の前記終了時刻が前記第2の時間区間の開始時刻よりも後であることで、前記第1の時間区間及び前記第2の時間区間は、前記時系列上で部分的に重複する重複区間を有するように設定され、
前記コンピュータは、
前記第1の時間区間と前記第2の時間区間とを暫定的に区分する境界時刻についての複数の指定を受け付け、
前記複数の指定により与えられた境界時刻の平均及びばらつきの少なくともいずれかに基づいて前記重複区間を設定する、
アノテーション方法。 - 前記コンピュータは、前記センサのサンプリング周期に基づいて、前記センサの前記出力をそれぞれサンプルする複数のサンプル点を前記重複区間が含むように、前記重複区間の時間幅を設定する、
請求項1から5のいずれか1項に記載のアノテーション方法。 - 前記コンピュータは、
前記第1の時間区間の前記開始時刻から前記第2の時間区間の前記開始時刻までの区間に、前記第1のラベルとして第1の値を付与し、
前記第1の時間区間の前記終了時刻から前記第2の時間区間の前記終了時刻までの区間に、前記第2のラベルとして第2の値を付与し、
前記第1の時間区間の前記終了時刻から前記第2の時間区間の前記開始時刻までの区間に、前記第1の値から前記第2の値に遷移するように1又は複数の値を前記重複区間のラベルとして付与する、
請求項1から6のいずれか1項に記載のアノテーション方法。 - 前記複数のラベルそれぞれは、当該各ラベルの付与される時間区間内における前記センサデータに対する所定の推論の正解を示すように設定され、
前記コンピュータが、
前記センサデータ及び前記複数のラベルを利用して教師あり学習を実施することで、前記所定の推論を行う能力を有するように構築された学習済みの学習器に対する評価結果を示す評価結果データを取得するステップと、
取得した前記評価結果データの示す前記評価結果に基づいて、前記重複区間の時間幅を変更するステップと、
を更に実行する、
請求項1から7のいずれか1項に記載のアノテーション方法。 - 前記評価結果は、前記センサデータとは異なる他のセンサデータに対して、前記学習済みの学習器により前記所定の推論を行った際の正答率により表現され、
前記コンピュータは、前記評価結果データにより示される前記正答率が所定の閾値以下である場合に、前記重複区間の時間幅を狭める又は拡げることで、前記重複区間の時間幅を変更する、
請求項8に記載のアノテーション方法。 - センサの出力を時系列に配列したセンサデータを取得するデータ取得部と、
取得したセンサデータに複数のラベルを付与するラベル付与部と、
を備え、
前記複数のラベルは、第1のラベル及び第2のラベルを含み、
前記第1のラベルは、第1の時間区間に付与され、
前記第2のラベルは、前記時系列上で前記第1の時間区間よりも後にある第2の時間区間に付与され、
前記第1の時間区間の開始時刻が前記第2の時間区間の開始時刻よりも前であり、かつ前記第1の時間区間の終了時刻が前記第2の時間区間の終了時刻よりも前であるのに対して、前記第1の時間区間の前記終了時刻が前記第2の時間区間の開始時刻よりも後であることで、前記第1の時間区間及び前記第2の時間区間は、前記時系列上で部分的に重複する重複区間を有するように設定され、
前記ラベル付与部は、
前記第1の時間区間と前記第2の時間区間とを暫定的に区分する境界時刻を設定し、
設定された前記境界時刻の前及び後の少なくとも一方の時刻を含むように、所定の時間幅を有する前記重複区間を設定する、
アノテーション装置。 - センサの出力を時系列に配列したセンサデータを取得するデータ取得部と、
取得したセンサデータに複数のラベルを付与するラベル付与部と、
を備え、
前記複数のラベルは、第1のラベル及び第2のラベルを含み、
前記第1のラベルは、第1の時間区間に付与され、
前記第2のラベルは、前記時系列上で前記第1の時間区間よりも後にある第2の時間区間に付与され、
前記第1の時間区間の開始時刻が前記第2の時間区間の開始時刻よりも前であり、かつ前記第1の時間区間の終了時刻が前記第2の時間区間の終了時刻よりも前であるのに対して、前記第1の時間区間の前記終了時刻が前記第2の時間区間の開始時刻よりも後であることで、前記第1の時間区間及び前記第2の時間区間は、前記時系列上で部分的に重複する重複区間を有するように設定され、
前記ラベル付与部は、
前記第1の時間区間と前記第2の時間区間とを暫定的に区分する境界時刻についての複数の指定を受け付け、
前記複数の指定により与えられた境界時刻の平均及びばらつきの少なくともいずれかに基づいて前記重複区間を設定する、
アノテーション装置。 - コンピュータに、
センサの出力を時系列に配列したセンサデータを取得するステップと、
取得したセンサデータに複数のラベルを付与するステップと、
を実行させるためのアノテーションプログラムであって、
前記複数のラベルは、第1のラベル及び第2のラベルを含み、
前記第1のラベルは、第1の時間区間に付与され、
前記第2のラベルは、前記時系列上で前記第1の時間区間よりも後にある第2の時間区間に付与され、
前記第1の時間区間の開始時刻が前記第2の時間区間の開始時刻よりも前であり、かつ前記第1の時間区間の終了時刻が前記第2の時間区間の終了時刻よりも前であるのに対して、前記第1の時間区間の前記終了時刻が前記第2の時間区間の開始時刻よりも後であることで、前記第1の時間区間及び前記第2の時間区間は、前記時系列上で部分的に重複する重複区間を有するように設定され、
前記コンピュータに、
前記第1の時間区間と前記第2の時間区間とを暫定的に区分する境界時刻を設定させ、
設定された前記境界時刻の前及び後の少なくとも一方の時刻を含むように、所定の時間幅を有する前記重複区間を設定させる、
アノテーションプログラム。 - コンピュータに、
センサの出力を時系列に配列したセンサデータを取得するステップと、
取得したセンサデータに複数のラベルを付与するステップと、
を実行させるためのアノテーションプログラムであって、
前記複数のラベルは、第1のラベル及び第2のラベルを含み、
前記第1のラベルは、第1の時間区間に付与され、
前記第2のラベルは、前記時系列上で前記第1の時間区間よりも後にある第2の時間区間に付与され、
前記第1の時間区間の開始時刻が前記第2の時間区間の開始時刻よりも前であり、かつ前記第1の時間区間の終了時刻が前記第2の時間区間の終了時刻よりも前であるのに対して、前記第1の時間区間の前記終了時刻が前記第2の時間区間の開始時刻よりも後であることで、前記第1の時間区間及び前記第2の時間区間は、前記時系列上で部分的に重複する重複区間を有するように設定され、
前記コンピュータに、
前記第1の時間区間と前記第2の時間区間とを暫定的に区分する境界時刻についての複数の指定を受け付けさせ、
前記複数の指定により与えられた境界時刻の平均及びばらつきの少なくともいずれかに基づいて前記重複区間を設定させる、
アノテーションプログラム。 - 工場の作業員の行動状態を監視するセンサの出力を時系列に配列したセンサデータを取得するデータ取得部と、
取得した前記センサデータに複数のラベルを付与するラベル付与部であって、当該複数のラベルそれぞれは、当該各ラベルの付与される時間区間内における前記センサデータに表れる前記作業員の行動状態の正解を示すように設定される、ラベル付与部と、
前記センサデータ及び前記複数のラベルを利用して教師あり学習を実施することで、前記作業員の行動状態の種別を推定する能力を有するように学習済みの学習器を構築する学習処理部と、
前記作業員の行動状態を推定する対象となる対象センサデータを取得する対象データ取得部と、
前記対象センサデータを前記学習済みの学習器に入力し、前記学習済みの学習器から出力を得ることで、前記対象センサデータに表れる前記作業員の行動状態を推定する状態推定部と、
前記作業員の行動状態を推定した結果を出力する出力部と、
を備え、
前記複数のラベルは、第1のラベル及び第2のラベルを含み、
前記第1のラベルは、第1の時間区間に付与され、
前記第2のラベルは、前記時系列上で前記第1の時間区間よりも後にある第2の時間区間に付与され、
前記第1の時間区間の開始時刻が前記第2の時間区間の開始時刻よりも前であり、かつ前記第1の時間区間の終了時刻が前記第2の時間区間の終了時刻よりも前であるのに対して、前記第1の時間区間の前記終了時刻が前記第2の時間区間の開始時刻よりも後であることで、前記第1の時間区間及び前記第2の時間区間は、前記時系列上で部分的に重複する重複区間を有するように設定される、
識別システム。 - センサの出力を時系列に配列したセンサデータを取得するデータ取得部と、
取得した前記センサデータに複数のラベルを付与するラベル付与部であって、当該複数のラベルそれぞれは、当該各ラベルの付与される時間区間内における前記センサデータに対する所定の推論の正解を示すように設定される、ラベル付与部と、
前記センサデータ及び前記複数のラベルを利用して教師あり学習を実施することで、前記所定の推論を行う能力を有するように学習済みの学習器を構築する学習処理部と、
前記所定の推論を行う対象となる対象センサデータを取得する対象データ取得部と、
前記対象センサデータを前記学習済みの学習器に入力し、前記学習済みの学習器から出力を得ることで、前記対象センサデータに対して所定の推論を実施する推論部と、
前記所定の推論を実施した結果を出力する出力部と、
を備え、
前記複数のラベルは、第1のラベル及び第2のラベルを含み、
前記第1のラベルは、第1の時間区間に付与され、
前記第2のラベルは、前記時系列上で前記第1の時間区間よりも後にある第2の時間区間に付与され、
前記第1の時間区間の開始時刻が前記第2の時間区間の開始時刻よりも前であり、かつ前記第1の時間区間の終了時刻が前記第2の時間区間の終了時刻よりも前であるのに対して、前記第1の時間区間の前記終了時刻が前記第2の時間区間の開始時刻よりも後であることで、前記第1の時間区間及び前記第2の時間区間は、前記時系列上で部分的に重複する重複区間を有するように設定され、
前記ラベル付与部は、
前記第1の時間区間と前記第2の時間区間とを暫定的に区分する境界時刻を設定し、
設定された前記境界時刻の前及び後の少なくとも一方の時刻を含むように、所定の時間幅を有する前記重複区間を設定する、
識別システム。 - センサの出力を時系列に配列したセンサデータを取得するデータ取得部と、
取得した前記センサデータに複数のラベルを付与するラベル付与部であって、当該複数のラベルそれぞれは、当該各ラベルの付与される時間区間内における前記センサデータに対する所定の推論の正解を示すように設定される、ラベル付与部と、
前記センサデータ及び前記複数のラベルを利用して教師あり学習を実施することで、前記所定の推論を行う能力を有するように学習済みの学習器を構築する学習処理部と、
前記所定の推論を行う対象となる対象センサデータを取得する対象データ取得部と、
前記対象センサデータを前記学習済みの学習器に入力し、前記学習済みの学習器から出力を得ることで、前記対象センサデータに対して所定の推論を実施する推論部と、
前記所定の推論を実施した結果を出力する出力部と、
を備え、
前記複数のラベルは、第1のラベル及び第2のラベルを含み、
前記第1のラベルは、第1の時間区間に付与され、
前記第2のラベルは、前記時系列上で前記第1の時間区間よりも後にある第2の時間区間に付与され、
前記第1の時間区間の開始時刻が前記第2の時間区間の開始時刻よりも前であり、かつ前記第1の時間区間の終了時刻が前記第2の時間区間の終了時刻よりも前であるのに対して、前記第1の時間区間の前記終了時刻が前記第2の時間区間の開始時刻よりも後であることで、前記第1の時間区間及び前記第2の時間区間は、前記時系列上で部分的に重複する重複区間を有するように設定され、
前記ラベル付与部は、
前記第1の時間区間と前記第2の時間区間とを暫定的に区分する境界時刻についての複数の指定を受け付け、
前記複数の指定により与えられた境界時刻の平均及びばらつきの少なくともいずれかに基づいて前記重複区間を設定する、
識別システム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018045861A JP6844562B2 (ja) | 2018-03-13 | 2018-03-13 | アノテーション方法、アノテーション装置、アノテーションプログラム及び識別システム |
CN201980012349.8A CN111712840B (zh) | 2018-03-13 | 2019-03-13 | 注释方法、注释装置、存储介质以及识别系统 |
US16/969,971 US12048528B2 (en) | 2018-03-13 | 2019-03-13 | Annotation method, annotation device, storage medium, and identification system |
PCT/JP2019/010181 WO2019176991A1 (ja) | 2018-03-13 | 2019-03-13 | アノテーション方法、アノテーション装置、アノテーションプログラム及び識別システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018045861A JP6844562B2 (ja) | 2018-03-13 | 2018-03-13 | アノテーション方法、アノテーション装置、アノテーションプログラム及び識別システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019159819A JP2019159819A (ja) | 2019-09-19 |
JP6844562B2 true JP6844562B2 (ja) | 2021-03-17 |
Family
ID=67907154
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018045861A Active JP6844562B2 (ja) | 2018-03-13 | 2018-03-13 | アノテーション方法、アノテーション装置、アノテーションプログラム及び識別システム |
Country Status (4)
Country | Link |
---|---|
US (1) | US12048528B2 (ja) |
JP (1) | JP6844562B2 (ja) |
CN (1) | CN111712840B (ja) |
WO (1) | WO2019176991A1 (ja) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11430312B2 (en) * | 2018-07-05 | 2022-08-30 | Movidius Limited | Video surveillance with neural networks |
JP7259322B2 (ja) * | 2018-12-26 | 2023-04-18 | 富士通株式会社 | 情報処理装置、学習モデル生成プログラム及び学習モデル生成方法 |
CN112084166A (zh) * | 2019-06-13 | 2020-12-15 | 上海杰之能软件科技有限公司 | 样本数据的建立、数据模型的训练方法及装置、终端 |
JP6779411B1 (ja) * | 2019-11-19 | 2020-11-04 | 三菱電機株式会社 | 教師データ生成装置、教師データ生成方法、教師データ生成プログラムおよび記憶媒体 |
JP2021125183A (ja) * | 2020-02-10 | 2021-08-30 | オムロン株式会社 | 作業負荷分析装置、作業負荷分析方法、プログラム |
DE112021001435T5 (de) * | 2020-03-05 | 2023-01-12 | Fanuc Corporation | Maschinen-Lern-Vorrichtung |
JP7293156B2 (ja) * | 2020-03-13 | 2023-06-19 | 株式会社東芝 | 情報処理装置、情報処理方法およびプログラム |
US11410443B2 (en) * | 2020-03-13 | 2022-08-09 | Nec Corporation | Labelling training method and system for implementing the same |
WO2021193099A1 (ja) | 2020-03-26 | 2021-09-30 | ソニーセミコンダクタソリューションズ株式会社 | 情報処理装置、情報処理方法、及びプログラム |
JP7528706B2 (ja) | 2020-10-14 | 2024-08-06 | 住友電気工業株式会社 | 学習モデル生成装置、学習モデル、行動認識装置、学習データ生成装置、及び、学習データ生成方法 |
JP2022089591A (ja) * | 2020-12-04 | 2022-06-16 | 株式会社東芝 | 学習装置、分析装置、学習方法、プログラム、及び記憶媒体 |
JP7576015B2 (ja) * | 2020-12-18 | 2024-10-30 | アクタピオ,インコーポレイテッド | 情報処理装置、情報処理方法および情報処理プログラム |
CN113592981B (zh) * | 2021-07-01 | 2022-10-11 | 北京百度网讯科技有限公司 | 图片标注方法、装置、电子设备和存储介质 |
WO2023188264A1 (ja) * | 2022-03-31 | 2023-10-05 | 日本電気株式会社 | 情報処理システム |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7111009B1 (en) * | 1997-03-14 | 2006-09-19 | Microsoft Corporation | Interactive playlist generation using annotations |
JP2007142750A (ja) * | 2005-11-17 | 2007-06-07 | National Agency For The Advancement Of Sports & Health | 映像閲覧システム、コンピュータ端末並びにプログラム |
JP5301310B2 (ja) * | 2009-02-17 | 2013-09-25 | 株式会社日立製作所 | 異常検知方法及び異常検知システム |
JP2010207488A (ja) * | 2009-03-12 | 2010-09-24 | Gifu Univ | 行動解析装置及びプログラム |
JP5544508B2 (ja) * | 2009-03-27 | 2014-07-09 | 株式会社国際電気通信基礎技術研究所 | 行動識別システム |
JP5520886B2 (ja) | 2011-05-27 | 2014-06-11 | 日本電信電話株式会社 | 行動モデル学習装置、方法、及びプログラム |
JP6458155B2 (ja) * | 2015-08-31 | 2019-01-23 | 株式会社日立製作所 | 情報処理装置及び情報処理方法 |
JP2017228091A (ja) * | 2016-06-22 | 2017-12-28 | 日本電信電話株式会社 | 歩行状態学習方法、歩行状態推定方法、路面状況理解方法、装置、及びプログラム |
CN107689027A (zh) * | 2016-08-04 | 2018-02-13 | 松下电器(美国)知识产权公司 | 注释赋予方法、注释赋予系统以及存储有程序的记录介质 |
-
2018
- 2018-03-13 JP JP2018045861A patent/JP6844562B2/ja active Active
-
2019
- 2019-03-13 CN CN201980012349.8A patent/CN111712840B/zh active Active
- 2019-03-13 WO PCT/JP2019/010181 patent/WO2019176991A1/ja active Application Filing
- 2019-03-13 US US16/969,971 patent/US12048528B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
CN111712840B (zh) | 2023-11-03 |
WO2019176991A1 (ja) | 2019-09-19 |
JP2019159819A (ja) | 2019-09-19 |
CN111712840A (zh) | 2020-09-25 |
US12048528B2 (en) | 2024-07-30 |
US20200397346A1 (en) | 2020-12-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6844562B2 (ja) | アノテーション方法、アノテーション装置、アノテーションプログラム及び識別システム | |
KR101908680B1 (ko) | 약한 지도 학습 기반의 기계 학습 방법 및 그 장치 | |
CN112673378B (zh) | 推断器生成装置、监视装置、推断器生成方法以及推断器生成程序 | |
US20180174062A1 (en) | Root cause analysis for sequences of datacenter states | |
JP6911498B2 (ja) | 学習装置、学習方法、及び学習プログラム | |
EP2977936A2 (en) | Neural network training method and apparatus, and data processing apparatus | |
JP5889019B2 (ja) | ラベル付加装置、ラベル付加方法及びプログラム | |
CN109120462A (zh) | 机会网络链路的预测方法、装置及可读存储介质 | |
JP2019159961A (ja) | 検査システム、画像識別システム、識別システム、識別器生成システム、及び学習データ生成装置 | |
JP2018147474A (ja) | 学習装置、学習結果利用装置、学習方法及び学習プログラム | |
JP7131393B2 (ja) | 情報処理装置、情報処理方法およびプログラム | |
JP2014228991A (ja) | 情報処理装置および方法、並びにプログラム | |
JP7006296B2 (ja) | 学習プログラム、学習方法および学習装置 | |
WO2020217371A1 (ja) | 学習システム、データ生成装置、データ生成方法、及びデータ生成プログラム | |
JP6278517B2 (ja) | データ解析装置及びプログラム | |
KR20190140546A (ko) | 영상 기반 힘 예측 시스템 및 그 방법 | |
JP2010061323A (ja) | 作業評価値予測方法、プログラム及びシステム | |
CN115018077A (zh) | 贝叶斯网络的结构学习方法、装置及电子设备 | |
US20220351533A1 (en) | Methods and systems for the automated quality assurance of annotated images | |
CN109598347A (zh) | 用于确定因果关系的方法、系统和计算机程序产品 | |
JP7526591B2 (ja) | 音響認識システム、音響認識方法 | |
JP6826389B2 (ja) | 推定装置、推定方法、及び推定プログラム | |
WO2023188160A1 (ja) | 入力支援装置、入力支援方法、及び非一時的なコンピュータ可読媒体 | |
JP7581979B2 (ja) | 推論装置、モデル生成装置、推論方法、及び推論プログラム | |
JP7343032B2 (ja) | 学習装置、学習方法および学習プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200305 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200616 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200730 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201110 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210104 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210126 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210208 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6844562 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |