Nothing Special   »   [go: up one dir, main page]

JP2019040421A - 検出システムおよび検出方法 - Google Patents

検出システムおよび検出方法 Download PDF

Info

Publication number
JP2019040421A
JP2019040421A JP2017162301A JP2017162301A JP2019040421A JP 2019040421 A JP2019040421 A JP 2019040421A JP 2017162301 A JP2017162301 A JP 2017162301A JP 2017162301 A JP2017162301 A JP 2017162301A JP 2019040421 A JP2019040421 A JP 2019040421A
Authority
JP
Japan
Prior art keywords
data
neural network
recurrent neural
unit
worker
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017162301A
Other languages
English (en)
Other versions
JP6689239B2 (ja
Inventor
保男 浪岡
Yasuo Namioka
保男 浪岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2017162301A priority Critical patent/JP6689239B2/ja
Priority to US16/101,925 priority patent/US11966836B2/en
Priority to EP18189262.1A priority patent/EP3447689A1/en
Publication of JP2019040421A publication Critical patent/JP2019040421A/ja
Application granted granted Critical
Publication of JP6689239B2 publication Critical patent/JP6689239B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • General Factory Administration (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】作業者の動作を検出可能な検出システムおよび検出方法を提供する。【解決手段】実施形態に係る検出システムは、取得部と、学習部と、検出部と、を備える。取得部は、時系列の第1データ、時系列の第2データ、および時系列の第3データを取得する。学習部は、第1熟練度の動作に対応する第1値を教師データとしてリカレントニューラルネットワークの第1ニューロンに設定し、第1データをリカレントニューラルネットワークに入力して学習させる。学習部は、第2熟練度に対応する第2値を教師データとしてリカレントニューラルネットワークの第2ニューロンに設定し、第2データをリカレントニューラルネットワークに入力して学習させる。検出部は、学習されたリカレントニューラルネットワークに第3データを入力する。検出部は、第1ニューロンまたは第2ニューロンの反応を検出する。【選択図】図1

Description

本発明の実施形態は、検出システムおよび検出方法に関する。
一般的な製造現場では、人による作業が多く行われている。例えば、一般的な製造ラインでは、1つの原料や中間品に対して複数の作業者が順次作業を行い、1つの部品や製品が完成される。ここで、作業者の知識や作業者への教育が不十分な場合、その作業者が、担当の作業に多くの時間を費やし、当該作業者を含む製造ラインの効率が低下する。
このような未熟な作業者による製造ラインの効率低下を抑制させるために、従来、別の人が作業者を観察し、改善すべき動作を発見した場合には、その動作を指摘して改善させるといった取り組みも行われている。
しかし、この場合、観察者は、それぞれの作業者の作業全体を観察しなければならず、長大な時間を要する。また、改善すべき動作の抽出は、観察者の主観や、経験、技能に依存するため、ばらつきも生じる。
このため、自動的かつ客観的に作業者の改善すべき動作を検出可能なシステムの開発が望まれていた。
特許第2558943号公報
本発明が解決しようとする課題は、作業者の改善すべき動作を検出可能な検出システムおよび検出方法を提供することである。
実施形態に係る検出システムは、取得部と、学習部と、検出部と、を備える。前記取得部は、時系列の第1データ、時系列の第2データ、および時系列の第3データを取得する。前記第1データは、第1熟練度を有する第1作業者の第1作業における動作に基づく。前記第2データは、第2熟練度を有する第2作業者の前記第1作業における動作に基づく。前記第3データは、第3作業者の前記第1作業における動作に基づく。前記学習部は、前記第1熟練度の動作に対応する第1値を教師データとしてリカレントニューラルネットワークの第1ニューロンに設定し、前記第1データを前記リカレントニューラルネットワークに入力して学習させる。前記学習部は、前記第2熟練度に対応する第2値を教師データとして前記リカレントニューラルネットワークの第2ニューロンに設定し、前記第2データを前記リカレントニューラルネットワークに入力して学習させる。前記検出部は、学習された前記リカレントニューラルネットワークに前記第3データを入力する。前記検出部は、前記第1ニューロンまたは前記第2ニューロンの反応を検出する。
第1実施形態に係る検出システムの構成を表すブロック図である。 第1実施形態で用いるニューラルネットワークの概略構成を表す模式図である。 LSTM構造を表すブロック図である。 第1実施形態に係る検出システムの動作を表すフローチャートである。 (a)および(b)は、第1実施例において取得したデータを表すグラフである。 (a)は、第1実施例において取得したデータを表すグラフである。(b)および(c)は、第1実施例におけるニューロンの活性度を表すグラフである。 (a)は、第2実施例におけるニューロンの活性度を表すグラフである。(b)は、表示部に表示される画面を例示する模式図である。 第2実施形態に係る検出システムの動作を表す概念図である。 第2実施形態で用いるニューラルネットワークの概略構成を表す模式図である。 第2実施形態に係る検出システムの動作を表すフローチャートである。 第2実施形態に係る検出システムの他の動作を表す概念図である。 実施形態に係る検出システムを実現するための検出装置の構成を例示するブロック図である。
以下に、本発明の各実施形態について図面を参照しつつ説明する。
また、本願明細書と各図において、既に説明したものと同様の要素には同一の符号を付して詳細な説明は適宜省略する。
(第1実施形態)
図1は、第1実施形態に係る検出システムの構成を表すブロック図である。
図2は、第1実施形態で用いるニューラルネットワークの概略構成を表す模式図である。
図1に表したように、検出システム100は、取得部110、動作データ保存部120、学習部130、リカレントニューラルネットワーク保存部(以下、RNN保存部という)140、検出部150、および表示部160を含む。
取得部110は、作業者の動作に基づく時系列データを取得する。
例えば、取得部110は、撮像装置を含む。取得部110は、撮像装置を用いて、作業を行っている作業者を撮影する。取得部110は、撮影した映像から、作業者の骨格情報を抽出する。取得部110は、時間の経過に伴う骨格の一部(例えば頭部)の位置の変化を、作業者の動作に基づく時系列データとして取得する。
または、取得部110は、骨格情報から、関節の角度を抽出しても良い。この場合、取得部110は、時間の経過に伴う関節の角度(例えば肘の角度)の変化を、作業者の動作に基づく時系列データとして取得する。
または、取得部110は、加速度計を含んでいても良い。加速度計は、作業者の腕や脚などの身体の一部に取り付けられる。取得部110は、作業者が作業を行った際に得られる加速度情報を、作業者の動作に基づく時系列データとして取得する。
取得部110は、複数の作業者の動作に基づく時系列データを取得する。各作業者の動作は、同じ方法で取得される。一例として、取得部110は、第1作業者、第2作業者、および第3作業者のそれぞれの動作に基づく時系列データを取得する。
取得部110は、例えば、第1作業者を上方から撮影して骨格情報を抽出し、第1作業者の動作に基づく時系列データを取得する。この場合、取得部110は、同様に、第2作業者および第3作業者を上方から撮影して骨格情報を抽出し、それぞれ、第2作業者の動作に基づく時系列データおよび第3作業者の動作に基づく時系列データを取得する。
または、取得部110は、例えば、第1作業者の右前腕に取り付けられた加速度計を用いて、第1作業者の動作に基づく時系列データを取得する。この場合、取得部110は、同様に、第2作業者の右前腕および第3作業者の右前腕に取り付けられた加速度計を用いて、それぞれ第2作業者の動作に基づく時系列データおよび第3作業者の動作に基づく時系列データを取得する。
取得部110によって取得された時系列データは、動作データ保存部120に保存される。
学習部130は、動作データ保存部120に保存された時系列データを用いて、RNN保存部140に保存されたリカレントニューラルネットワーク(以下、RNNという)を学習させる。RNNは、ニューラルネットワークの一種である。ニューラルネットワークは、人工の複数のニューロン(ノード)を用いて、生物学的な認識システムを模倣したものである。複数のニューロンは、重み付けが設定された人工のシナプス(接続線)により相互に接続される。
図2に表したように、RNN200は、入力層201、中間層202、および出力層203を含む。さらに、RNNでは、ある時間区分における中間層202のニューロンNの出力が、その後の時間区分における中間層202のニューロンNの出力に接続される。
学習部130は、入力層201に含まれるニューロンNに、学習のための時系列データを入力する。また、学習部130は、出力層203に含まれるニューロンNに、教師データを入力する。これにより、入力された時系列データと、教師データと、の差が小さくなるように、RNNに含まれる各シナプスの重み付けが変化する。
学習部130は、学習させたRNNを、RNN保存部140に保存する。
検出部150は、動作データ保存部120に保存された他の時系列データを、RNN保存部140に保存されたRNNに入力する。RNNの入力層201に時系列データが入力されると、出力層203のニューロンNが反応しうる。検出部150は、ニューロンNの反応を検出する。例えば、検出部150は、ニューロンNの活性度と、所定の閾値と、を比較する。ニューロンNの活性度が所定の閾値よりも高い場合、検出部150は、ニューロンNが反応していると検出する。検出部150は、時系列データのうち当該ニューロンNが反応した期間のデータを抽出しても良い。または、検出部150は、当該期間における、当該ニューロンNの活性度を示すデータと、時系列データの一部と、を抽出しても良い。
表示部160は、検出部150による検出結果を表示する。例えば、表示部160は、検出部150によって抽出された時系列データの一部を他の部分と区別可能に表示する。検出部150において、ニューロンNの反応が検出されなかった場合、表示部160は、その結果を表示しても良い。
RNNの中間層202のニューロンNは、例えば、LSTM(Long Short Term Memory)構造を有する。LSTM構造を有するニューラルネットワークは、他の構造のニューラルネットワークに比べて、より作業周期の長い時系列データに対する認識率を高めることができる。
図3は、LSTM構造を表すブロック図である。
図3に表したように、LSTM構造300は、忘却ゲート310、入力ゲート320、および出力ゲート330を含む。
図3において、xは、時刻tにおけるニューロンNへの入力値を表す。Cは、時刻tにおけるニューロンNの状態を表す。fは、時刻tにおける忘却ゲート310の出力値を表す。iは、時刻tにおける入力ゲートの出力値を表す。oは、時刻tにおける出力ゲートの出力値を表す。hは、時刻tにおけるニューロンNの出力値を表す。f、i、C、o、およびhは、それぞれ、以下の「式1」〜「式5」で表される。
Figure 2019040421

Figure 2019040421

Figure 2019040421

Figure 2019040421

Figure 2019040421
なお、図3に表した例に限らず、RNNの中間層202のニューロンNは、Gated Recurrent Unit構造またはbi-directional LSTM構造などを有していても良い。
図4を参照して、第1実施形態に係る検出システムの動作および検出方法を説明する。
図4は、第1実施形態に係る検出システムの動作を表すフローチャートである。
取得部110は、第1作業者の第1作業における第1身体部位の動作に基づく第1データを取得する(ステップS1)。第1作業者は、第1熟練度を有する。第1作業者は、第1作業に第1時間を要する。このため、ステップS1では、第1時間の長さの時系列データが、第1データとして取得される。
取得部110は、第2作業者の第1作業における第1身体部位の動作に基づく第2データを取得する(ステップS2)。第2作業者は、第1熟練度と異なる第2熟練度を有する。第2作業者は、第1作業に第2時間を要する。このため、ステップS2では、第2時間の長さの時系列データが、第2データとして取得される。第2時間は、例えば、第1時間と異なる。
ステップS1およびS2により、熟練度の異なる作業者が、同じ作業を行ったときの複数のデータが得られる。取得部110は、第1データおよび第2データを、動作データ保存部120に保存する。
学習部130は、第1データを、RNN保存部140のRNNに入力し、RNNを学習させる(ステップS3)。ステップS3では、第1熟練度の動作に対応する第1値を教師データとしてRNNの第1ニューロン設定し、第1データをRNNに入力する。学習させたRNNを、RNN保存部140に保存する。
学習部130は、第2データを、RNN保存部140のRNNに入力し、RNNを学習させる(ステップS4)。ステップS4では、第2熟練度の動作に対応する第2値を教師データとしてRNNの第2ニューロンに設定し、第2データをRNNに入力する。学習させたRNNを、RNN保存部140に保存する。
ステップS3およびS4で学習されたRNNは、以下の特性を有する。
第1熟練度に相当する動作に基づくデータがRNNに入力されると、第1ニューロンの活性度が高くなる。第2熟練度に相当する動作に基づくデータがRNNに入力されると、第2ニューロンの活性度が高くなる。
取得部110は、第3作業者の第1作業における第1身体部位の動作に基づく第3データを取得する(ステップS5)。第3作業者は、作業の分析が行われる対象である。第3作業者は、第1作業に第3時間を要する。このため、ステップS5では、第3時間の長さの時系列データが、第3データとして取得される。第3時間は、例えば、第1時間および第2時間のそれぞれと異なる。取得部110は、第3データを、動作データ保存部120に保存する。
検出部150は、学習されたRNNに、第3データを入力する(ステップS6)。時系列の第3データを入力している間、検出部150は、第1ニューロンおよび第2ニューロンのそれぞれの活性度と、所定の閾値と、を比較する。いずれかのニューロンの活性度が閾値を超えた場合、検出部150は、そのニューロンが反応しているものと検出する。第1ニューロンまたは第2ニューロンの反応は、第3データの当該少なくとも一部の動作が、第1熟練度または第2熟練度に相当することを意味する。例えば、検出部150は、第1ニューロンまたは第2ニューロンが反応した第3データの少なくとも一部を抽出する。
表示部160は、検出部150による検出結果を表示する(ステップS7)。例えば、表示部160は、反応したニューロンを表示する。検出部150が、第1ニューロンまたは第2ニューロンが反応した第3データの一部を抽出する場合、表示部160は、第3データの当該一部を表示しても良い。表示部160は、第3データの全体を表示し、抽出された第3データの当該一部を他と区別可能に表示しても良い。
なお、ステップS1の順番は、ステップS3の前であれば、適宜変更可能である。ステップS2の順番は、ステップS4の前であれば、適宜変更可能である。ステップS5の順番は、ステップS6の前であれば、適宜変更可能である。また、ステップS1、S2、およびS5の少なくとも2つは、同時に行われても良い。
この例では、熟練度の異なる2人の作業者のデータを用いてRNNを教師有り学習させた。3人以上の作業者のデータを用いてRNNを教師有り学習させても良い。この場合、RNNには、3つ以上の熟練度にそれぞれ対応する3つ以上の値が、出力層203の複数のニューロンNにそれぞれ設定される。これにより、第3作業者の各時点の動作を、熟練度に応じてより細かく分類することができる。
本実施形態の効果を説明する。
本実施形態に係る検出システム100および検出方法によれば、所定の作業時の動作において、改善すべき点が含まれているか検出することができる。一例として、第1作業者は、第1作業を早く完了させることができ、第2作業者は、第1作業により多くの時間を要する。また、第3作業者が第1作業を行う際、一部の動作は素早いが、他の一部の動作が遅い。例えばこの場合、本実施形態に係る検出システム100および検出方法によれば、以下の結果が得られる。すなわち、第3作業者の上記一部の動作に基づく時系列データがRNNに入力されている間は、第1熟練度に対応する第1ニューロンが反応する。第3作業者の上記他の一部の動作に基づく時系列データがRNNに入力されている間は、第2熟練度に対応する第2ニューロンが反応する。検出部150は、これらのニューロンの反応を検出する。この結果、検出システム100の使用者または分析方法の実施者は、第3作業者の動作には、作業が素早い部分と作業が遅い部分が含まれていることが分かる。
従来、動作の改善すべき点の有無は、例えば、人が観察することで確認していた。しかし、この場合、観察者は、それぞれの作業者の作業全体を観察しなければならず、長大な時間を要する。また、改善すべき点の抽出は、観察者の主観や、経験、熟練度に依存するため、ばらつきも生じる。
一方で、本実施形態に係る検出システムおよび検出方法では、改善すべき点は、RNNに基づいて検出される。このRNNは、他の作業者の動作に基づくデータを用いて学習されている。従って、改善すべき点は、観察者の経験等に依存せず、客観的に検出される。さらに、改善すべき点は、本実施形態に係る検出システムおよび検出方法によって自動的に検出されるため、観察者は不要となる。このように、本実施形態によれば、自動的かつ客観的に作業者の改善すべき動作を検出できる検出システムおよび検出方法が提供される。
なお、ここでは、作業者の改善すべき動作の検出を目的とした場合を説明している。しかし、実施形態に係る検出システム100および検出方法の用途は、この例に限定されない。例えば、作業者の優れた動作を検出するために、実施形態に係る検出システム100および検出方法を用いることも可能である。
本実施形態では、RNNを用いて作業の分析を行っている。RNNを用いることで、以下の効果が得られる。
作業周期は、作業者ごとに異なる。従って、それぞれの作業者が同じ時刻に作業を開始しても、時間が経過するにつれて、各作業者がある時点で行っている作業にはばらつきが生じる。この点について、RNNを用いることで、このような作業周期のばらつきの影響を無くし、作業時の改善すべき動作の検出が可能となる。また、リカレントニューラルネットワークを用いることで、ある時間区分の動作と、その後の時間区分の動作と、の関連性を考慮することができるようになる。この結果、作業時間の増加を招いている動作だけでなく、その動作に繋がる原因となる動作を検出することも可能となる。
さらに、本実施形態に係る検出システムおよび検出方法において、RNN200の中間層202のニューロンNは、図3に表したLSTM構造を有することが望ましい。LSTM構造を適用することで、より長期間にわたって、中間層202に含まれるニューロンnの状態を保存することが可能となる。それぞれの時点の動作の相互的な依存関係を、より長期間にわたって分析することが可能となる。従って、ある時点の動作だけでなく、その動作に繋がる前後の動作についても、出力層203に含まれるいずれかのニューロンが反応しうる。この結果、作業者の改善すべき動作をより包括的に検出することが可能となる。
また、それぞれの作業者の動作に基づく時系列データは、様々な方法で取得可能である。動作に基づくデータは、加速度情報や骨格情報などを利用することができる。特に、関節の角度は、当該データとして好適に用いることができる。
これは、関節の角度が、体格にあまり依存しないためである。従って、関節の角度をデータとして用いることで、体格の違いがデータに及ぼす影響を低減し、検出の精度を向上させることが可能となる。
さらに、検出部150は、例えば、学習されたRNNに時系列データを入力し、いずれかの熟練度に対応するニューロンに反応があった場合、時系列データのうち当該ニューロンが反応した部分を抽出することも可能である。こうすることで、改善すべき点を具体的に特定することが可能となる。
(第1実施例)
図5(a)および図5(b)は、第1実施例において取得したデータを表すグラフである。
図6(a)は、第1実施例において取得したデータを表すグラフである。図6(b)および図6(c)は、第1実施例におけるニューロンの活性度を表すグラフである。
図5(a)、図5(b)、および図6(a)に表したデータは、それぞれ、第1作業者、第2作業者、および第3作業者が第1作業を行ったときの動作に基づく。図5(a)、図5(b)、および図6(a)のデータは、第1作業者、第2作業者、および第3作業者のそれぞれの右手首に加速度計を取り付けて取得した。
図5(a)、図5(b)、および図6(a)において、横軸は時間を表し、縦軸は加速度を表す。実線および点線は、それぞれ、X軸方向における加速度およびY軸方向における加速度を表す。
取得部110は、図5(a)および図5(b)に表したデータを取得し、動作データ保存部120に保存した。学習部130は、図5(a)および図5(b)に表したデータを参照し、RNN保存部140に保存されたRNNを学習させた。図5(a)および図5(b)の比較から、第1作業者が第1作業に要する時間は、第2作業者が第1作業に要する時間よりも短いことがわかる。すなわち、第1作業者の熟練度は、第2作業者の熟練度よりも優れている。
検出部150は、図6(a)に表したデータを、RNN保存部140に保存された、学習済みのRNNに入力する。図6(b)および図6(c)は、それぞれ図6(a)に表したデータを入力したときの、第1ニューロンと第2ニューロンの活性度を表すグラフである。第1ニューロンの活性度が高い場合、入力されたデータに対応する動作は、第1作業者の第1熟練度に相当することを示す。第2ニューロンの活性度が高い場合、入力されたデータに対応する動作は、第2作業者の第2熟練度に相当することを示す。図6(b)および図6(c)において、横軸は時間を表し、縦軸は、ニューロンの活性度を表す。ニューロンの活性度の絶対値が大きいほど、そのニューロンが強く反応していることを示す。
図6(b)および図6(c)から、時刻T1〜時刻T2の間に、第2ニューロンの活性度が大きくなっていることがわかる。すなわち、第3作業者の時刻T1〜時刻T2の間の動作は、第2作業者の第2熟練度に相当することを示している。例えば、時刻T1〜時刻T2の間では、第2ニューロンの活性度が閾値を超えている。検出部150は、第2ニューロンが反応しているものと検出する。表示部160は、例えば、図6(a)に表したように、時刻T1〜時刻T2の第3作業者のデータを、他の部分と区別可能に表示する。この実施例の結果から、第2ニューロンの反応が検出された動作を改善した方が良いことが分かる。
なお、表示部160による表示方法は適宜変更可能である。例えば、表示部160は、図6(a)に表した各時点のデータの色を、ニューロンの活性度に応じて変化させても良い。例えば、ニューロンの活性度が大きくなるに応じて、色を、赤色から青色へ連続的に変化させても良い。
または、取得部110が、それぞれの作業者を撮影して動作に基づくデータを取得している場合、表示部160は、第3作業者の動作をアニメーションで表示しても良い。例えば、表示部160は、ニューロンが反応した動作については、色を付す等して、他と区別可能に表示する。
(第2実施例)
図7(a)は、第2実施例におけるニューロンの活性度を表すグラフである。図7(b)は、表示部に表示される画面を例示する模式図である。
この実施例では、取得部110は、第1作業者〜第3作業者を撮影し、各作業者の骨格情報を抽出した。この実施例では、RNNは、第1作業者〜第3作業者の骨格の動きに基づく時系列データを用いて学習されている。
図7(a)に表した例では、第3作業者に関する時系列データをRNNに入力した際、時刻T3〜時刻T4の間で第2ニューロンの活性度が高く、検出部150において第2ニューロンの反応が検出された。これは、第3作業者の時刻T3〜時刻T4の間の動作が、第2熟練度に対応することを示している。このとき、例えば、検出部150は、時刻T3〜時刻T4の間の、骨格情報の時系列データを抽出する。そして、表示部160は、抽出された骨格情報の時系列データを表示する。この実施例の結果から、第2ニューロンの反応が検出された動作を改善した方が良いことが分かる。
図7(b)には、第3作業者の骨格情報が表されている。図7(b)において、白丸で表されている部分は関節である。この実施例では、右腕の動作に基づく時系列データを用いて、改善すべき点を検出した。表示部160は、例えば図7(b)に表したように、右腕の関節に灰色を付し、他の身体部位と区別可能に表示する。こうすることで、第3作業者のどの時間帯のどの部位の動作を改善すれば良いか、検出システム100の使用者がより短時間で容易に理解できるようになる。
(第2実施形態)
図8は、第2実施形態に係る検出システムの動作を表す概念図である。
図9は、第2実施形態で用いるニューラルネットワークの概略構成を表す模式図である。
第1実施形態では、各作業者の1つの部位の動作に基づくデータを使用する例を説明した。実施形態に係る検出システムは、複数の部位の動作に基づくデータを使用しても良い。
図8に表したように、RNNの学習段階では、取得部110は、第1作業者および第2作業者の複数の部位の動作に基づく時系列データを取得する。第1実施形態と同様に、第1作業者は第1熟練度を有し、第2作業者は第1熟練度よりも優れた第2熟練度を有する。例えば、取得部110は、第1作業における、第1作業者の左手首の動作に基づく時系列データ、第1作業者の右手首の動作に基づく時系列データ、第2作業者の左手首の動作に基づく時系列データ、および第2作業者の右手首の動作に基づく時系列データを取得する。
図8および図9に表したように、第2実施形態に係る検出システムにおけるRNN200aは、第1RNN部210、第2RNN部220、および第3RNN部230を含む。第1RNN部210は、左手首の動作において改善すべき点が無いか検出するためのものである。第2RNN部220は、右手首の動作において改善すべき点が無いか検出するためのものである。第3RNN部230は、左手首と右手首を組み合わせた動作において改善すべき点が無いか検出するためのものである。
図9に表したように、第1RNN部210は、第1入力層211、第1中間層212、および第1出力層213を含む。第2RNN部220は、第2入力層221、第2中間層222、および第2出力層223を含む。第3RNN部230は、第3中間層232および第3出力層233を含む。第3RNN部230の第3中間層232には、第1RNN部210および第2RNN部220の出力が入力される。
第1RNN部210の第1出力層213は、第1ニューロン213aおよび第2ニューロン213bを含む。第2RNN部220の第2出力層223は、第3ニューロン223cおよび第4ニューロン223dを含む。第3RNN部230の第3出力層233は、第5ニューロン233eおよび第6ニューロン233fを含む。
学習部130は、第1作業者の左手首の動作に基づく時系列データ(第1データ)と、第2作業者の左手首の動作に基づく時系列データ(第2データ)と、を用いて、第1RNN部210を学習させる。具体的には、学習部130は、第1ニューロン213aに、第1熟練度の左手首の動作に対応する第1値を設定し、第1入力層211に第1作業者の左手首の動作に基づく時系列データを入力する。学習部130は、第2ニューロン213bに、第2熟練度の左手首の動作に対応する第2値を設定し、第1入力層211に第2作業者の左手首の動作に基づく時系列データを入力する。この学習により、第1RNN部210の第1中間層212に含まれるシナプスの重み付けが変化する。
学習部130は、第1作業者の右手首の動作に基づく時系列データ(第4データ)と、第2作業者の右手首の動作に基づく時系列データ(第5データ)と、を用いて、第2RNN部220を学習させる。具体的には、学習部130は、第3ニューロン223cに、第1熟練度の右手首の動作に対応する第3値を設定し、第2入力層221に第1作業者の右手首の動作に基づく時系列データを入力する。学習部130は、第4ニューロン223dに、第2熟練度の右手首の動作に対応する第4値を設定し、第2入力層221に第2作業者の右手首の動作に基づく時系列データを入力する。この学習により、第2RNN部220の第2中間層222に含まれるシナプスの重み付けが変化する。
さらに、学習部130は、これら4つの時系列データを用いて、第3RNN部230を学習させる。具体的には、学習部130は、第5ニューロン233eに、第1熟練度の左手首と右手首の組み合わせの動作に対応する第5値を設定し、第1入力層211および第2入力層221に、それぞれ、第1作業者の左手首の動作に基づく時系列データおよび第1作業者の右手首の動作に基づく時系列データを入力する。学習部130は、第6ニューロン233fに、第2熟練度の左手首と右手首の組み合わせの動作に対応する第6値を設定し、第1入力層211および第2入力層221に、それぞれ、第2作業者の左手首の動作に基づく時系列データおよび第1作業者の右手首の動作に基づく時系列データを入力する。これらの学習工程において、第1RNN部210および第2RNN部220に含まれるシナプスの重み付けは、変化しないように固定される。これにより、第3RNN部230の第3中間層232に含まれるシナプスの重み付けが変化する。
RNNによる検出段階では、取得部110は、第3作業者の左手首の動作に基づく時系列データ(第3データ)と、第3作業者の右手首の動作に基づく時系列データ(第6データ)と、を取得する。検出部150は、第3作業者の左手首の動作に基づく時系列データを第1RNN部210に入力し、第3作業者の右手首の動作に基づく時系列データを第2RNN部220に入力する。第1RNN部210および第2RNN部220から出力された信号は、第3RNN部230に入力される。
検出部150は、RNNにおける第1ニューロン213a〜第6ニューロン233fの反応を検出する。この結果、第3作業者の、左手首の動作、右手首の動作、および左手首と右手首の組み合わせの動作のそれぞれについて、改善すべき点が無いか検出される。
図10は、第2実施形態に係る検出システムの動作を表すフローチャートである。
取得部110は、第1作業者の第1作業における第1身体部位(例えば、左手首)の動作に基づく第1データを取得する(ステップS11)。取得部110は、第1作業者の第1作業における第2身体部位(例えば、右手首)の動作に基づく第4データを取得する(ステップS12)。第1データおよび第4データは、例えば、第1時間の長さを有する時系列データである。
取得部110は、第2作業者の第1作業における第1身体部位の動作に基づく第2データを取得する(ステップS13)。取得部110は、第2作業者の第1作業における第2身体部位の動作に基づく第5データを取得する(ステップS14)。第2データおよび第5データは、例えば、第2時間の長さを有する時系列データである。第1データ、第2データ、第4データ、第5データは、動作データ保存部120に保存される。
学習部130は、第1データおよび第4データを第1RNN部210に入力し、第1RNN部210を学習させる(ステップS15)。学習部130は、第2データおよび第45データを第2RNN部220に入力し、第2RNN部220を学習させる(ステップS16)。学習部130は、第1データ、第2データ、第4データ、および第5データを、第1RNN部210および第2RNN部220に入力し、第3RNN部230を学習させる(ステップS17)。ステップS15〜ステップS17における学習は、図9を参照して説明した通りである。
取得部110は、第3作業者の第1作業における第1身体部位の動作に基づく第3データを取得する(ステップS18)。取得部110は、第3作業者の第1作業における第2身体部位の動作に基づく第6データを取得する(ステップS19)。第3データおよび第6データは、例えば、第3時間の長さを有する時系列データである。
検出部150は、学習された第1RNN部210に、第3データを入力し、学習された第2RNN部220に、第6データを入力する(ステップS20)。
ステップS20において、検出部150は、第1ニューロン〜第6ニューロンの反応を検出する。いずれかのニューロンの反応は、第3作業者の動作が、第1熟練度または第2熟練度に相当することを意味する。
表示部160は、検出部150による検出結果を表示する(ステップS21)。
なお、ステップS11およびS13の順番は、ステップS15の前であれば、適宜変更可能である。ステップS12およびS14の順番は、ステップS16の前であれば、適宜変更可能である。ステップS18およびS19の順番は、ステップS20の前であれば、適宜変更可能である。また、ステップS11〜S14、S18、およびS19の少なくとも2つは、同時に実行されても良い。例えば、ステップS11とS12は、同時に実行される。ステップS13とS14は、同時に実行される。ステップS18とS19は、同時に実行される。
図8〜図10に表した検出システムおよび検出方法によれば、複数の身体部位のそれぞれの動作について、改善すべき点を検出することができる。さらに、この検出システムによれば、複数の身体部位を組み合わせた動作について、改善すべき点を検出することができる。
このような複数の身体部位を組み合わせた動作における改善すべき点の検出は、特に製造現場における作業に好適に用いることができる。一般的に、1つの作業は、連続した複数の細かな作業からなる。熟練者の場合、例えば、1つの細かな作業を行っている間、ある身体部位は、この作業のために動かしつつ、複数の身体部位の全体を、次の作業のために動かしたりする。
図8〜図10に表した検出システムによれば、複数の身体部位のそれぞれの動作のにおける改善すべき点と、複数の身体部位を組み合わせた動作における改善すべき点と、が検出できる。このため、より細かく且つ精度良く改善すべき点を検出でき、製造効率のさらなる改善が可能となる。
なお、本実施形態に係る検出システムおよび検出方法において、複数の身体部位のそれぞれの動作における改善すべき点の検出と、複数の身体部位を組み合わせた動作における改善すべき点の検出と、の一方のみが行われても良い。ただし、より精度良く作業者の動作を分析するためには、これらの両方において検出が行われることが望ましい。
また、第1RNN部210の第1中間層212と、第2RNN部220の第2中間層222と、は、図9に表したように、分離されており、第1中間層212のニューロンと第2中間層222のニューロンとは結合されていない。発明者らは、このように第1RNN部210と第2RNN部220とを分離し、それぞれ個別に学習させ、さらにこれらのRNN部の出力を第3RNN部230に入力することで、複数の身体部位を組み合わせた動作における改善すべき点をより精度検出できることを発見した。すなわち、第3RNN部230に、第1RNN部210および第2RNN部220の出力を入力させて学習させ、その第3RNN部230を用いて第3作業者の動作を分析することで、第3作業者の複数の身体部位の組み合わせ動作が、第1熟練度または第2熟練度に相当する場合、より精度良く第5ニューロン233eまたは第6ニューロン233fが反応する。
図11は、第2実施形態に係る検出システムの他の動作を表す概念図である。
図11に表したように、実施形態に係る検出システムは、より多くの身体部位の動作に基づくデータを用いて、改善すべき点を検出しても良い。
図11に表した例では、取得部110は、第1作業者〜第3作業者のそれぞれについて、左手首、左肘、右手首、および右肘のそれぞれの動作に基づく時系列データを取得する。
RNN200bは、第1RNN部210、第2RNN部220、第3RNN部230、第4RNN部240、第5RNN部250、第6RNN部260、および 第7RNN部270を含む。
学習部130は、第1作業者および第2作業者の、左手首の時系列データ、左肘の時系列データ、右手首の時系列データ、および右肘の時系列データを、それぞれ、第1RNN部210、第2RNN部、第4RNN部240、および第5RNN部250に入力し、これらのRNN部を学習させる。学習部130は、第1RNN部210および第2RNN部220の出力を第3RNN部230に入力し、第4RNN部240および第5RNN部250の出力を第6RNN部260に入力し、第3RNN部230および第6RNN部260を学習させる。さらに、学習部130は、第3RNN部230および第6RNN部260の出力を第7RNN部270に入力し、第7RNN部270を学習させる。
検出部150は、第3作業者の、左手首のデータ、左肘のデータ、右手首のデータ、および右肘のデータを、それぞれ、第1RNN部210、第2RNN部220、第4RNN部240、および第5RNN部250に入力する。
これにより、第3作業者のそれぞれの身体部位の動作における改善すべき点が検出される。また、左手首と左肘とを組み合わせた左腕の動作における改善すべき点が検出される。右手首と右肘とを組み合わせた右腕の動作における改善すべき点が検出される。さらに、左腕と右腕とを組み合わせた両腕の動作における改善すべき点が検出される。
図11に表した例に限らず、検出システム100は、さらに、脚や、頭、胴の動作に基づくデータを取得し、これらのデータを組み合わせて動作を分析しても良い。
図12は、実施形態に係る検出システムを実現するための検出装置の構成を例示するブロック図である。
検出装置400は、例えば、入力装置402、出力装置404、およびコンピュータ406を備える。コンピュータ406は、例えば、ROM(Read Only Memory)408、RAM(Random Access Memory)410、CPU(Central Processing Unit)412、および記憶装置HDD(Hard Disk Drive)414を有する。
入力装置402は、ユーザが検出装置400に対して情報の入力を行うためのものである。入力装置402は、キーボードやタッチパネルなどである。
出力装置404は、検出システム100によって得られる出力結果を、ユーザに対して出力するためのものである。出力装置404は、ディスプレイやプリンタなどである。出力装置404は、表示部160として機能する。
ROM408は、検出装置400の動作を制御するプログラムを格納している。ROM408には、コンピュータ406を、図1に表した、取得部110、学習部130、および検出部150として機能させるために必要なプログラムが格納されている。
RAM410は、ROM408に格納されたプログラムが展開される記憶領域として機能する。CPU412は、ROM408に格納された制御プログラムを読み込み、当該制御プログラムに従ってコンピュータ406の動作を制御する。また、CPU412は、コンピュータ406の動作によって得られた様々なデータをRAM410に展開する。HDD414は、図1に表した、動作データ保存部120およびRNN保存部140をとして機能する。
以上、本発明のいくつかの第1実施形態を例示したが、これらの第1実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な第1実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更などを行うことができる。これら第1実施形態やその変形例は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。また、前述の各第1実施形態は、相互に組み合わせて実施することができる。
100 検出システム、 110 取得部、 120 動作データ保存部、 130 学習部、 140 保存部、 150 検出部、 160 表示部、 200、200a、200b リカレントニューラルネットワーク、 201 入力層、 202 中間層、 203 出力層、 210 第1RNN部、 211 第1入力層、 212 第1中間層、 213 第1出力層、 220 第2RNN部、 221 第2入力層、 222 第2中間層、 223 第2出力層、 230 第3RNN部、 231 第3入力層、 232 第3中間層、 233 第3出力層、 300 LSTM構造、 310 忘却ゲート、 320 入力ゲート、 330 出力ゲート、 400 検出装置

Claims (8)

  1. 時系列の第1データ、時系列の第2データ、および時系列の第3データを取得する取得部であって、前記第1データは第1熟練度を有する第1作業者の第1作業における第1身体部位の動作に基づき、前記第2データは第2熟練度を有する第2作業者の前記第1作業における前記第1身体部位の動作に基づき、前記第3データは第3作業者の前記第1作業における前記第1身体部位の動作に基づく前記取得部と、
    前記第1熟練度の前記第1身体部位の動作に対応する第1値を教師データとしてリカレントニューラルネットワークの第1出力層の第1ニューロンに設定し、前記第1データを前記リカレントニューラルネットワークに入力して学習させ、前記第2熟練度の前記第1身体部位の動作に対応する第2値を教師データとして前記第1出力層の第2ニューロンに設定し、前記第2データを前記リカレントニューラルネットワークに入力して学習させる学習部と、
    学習された前記リカレントニューラルネットワークに前記第3データを入力し、前記第1ニューロンまたは前記第2ニューロンの反応を検出する検出部と、
    を備えた検出システム。
  2. 前記リカレントニューラルネットワークは、入力層と、中間層と、前記第1出力層と、を含み、
    前記中間層は、Long Short Term Memory構造を有する複数のニューロンを含む請求項1記載の検出システム。
  3. 前記第1データは、前記第1作業者の前記第1作業における前記第1身体部位の加速度情報であり、
    前記第2データは、前記第2作業者の前記第1作業における前記第1身体部位の加速度情報であり、
    前記第3データは、前記第3作業者の前記第1作業における前記第1身体部位の加速度情報である請求項1または2に記載の検出システム。
  4. 前記第1身体部位は、第1関節を含み、
    前記第1データは、前記第1作業者の前記第1作業における前記第1関節の角度情報を含み、
    前記第2データは、前記第2作業者の前記第1作業における前記第1関節の角度情報を含み、
    前記第3データは、前記第3作業者の前記第1作業における前記第1関節の角度情報を含む請求項1または2に記載の検出システム。
  5. 前記取得部は、前記第1作業者の前記第1作業における第2身体部位の動作に基づく時系列の第4データと、前記第2作業者の前記第1作業における前記第2身体部位の動作に基づく時系列の第5データと、前記第3作業者の前記第1作業における前記第2身体部位の動作に基づく時系列の第6データと、をさらに取得し、
    前記リカレントニューラルネットワークは、前記第1出力層を含む第1リカレントニューラルネットワーク部および第2リカレントニューラルネットワーク部を含み、
    前記学習部は、前記第1データおよび前記第2データを用いて前記第1リカレントニューラルネットワーク部を学習させ、
    前記学習部は、前記第1熟練度の前記第2身体部位の動作に対応する第3値を教師データとして前記第2リカレントニューラルネットワーク部の第2出力層の第3ニューロンに設定し、前記第4データを前記第2リカレントニューラルネットワーク部に入力して学習させ、前記第2熟練度の前記第2身体部位の動作に対応する第4値を教師データとして前記第2出力層の第4ニューロンに設定し、前記第5データを前記第2リカレントニューラルネットワーク部に入力して学習させ、
    前記検出部は、学習された前記第2リカレントニューラルネットワーク部に前記第6データを入力し、前記第3ニューロンまたは前記第4ニューロンの反応をさらに検出する請求項1〜4のいずれか1つに記載の検出システム。
  6. 前記リカレントニューラルネットワークは、前記第1リカレントニューラルネットワーク部および第2リカレントニューラルネットワーク部の出力が入力される第3リカレントニューラルネットワーク部をさらに含み、
    前記学習部は、前記第1熟練度の前記第1身体部位および前記第2身体部位の組み合わせの動作に対応する第5値を教師データとして前記第3リカレントニューラルネットワーク部の第3出力層の第5ニューロンに設定し、前記第1データおよび前記第4データをそれぞれ前記第1リカレントニューラルネットワーク部および前記第2リカレントニューラルネットワーク部に入力して前記第3リカレントニューラルネットワーク部を学習させ、
    前記学習部は、前記第2熟練度の前記第1身体部位および前記第2身体部位の組み合わせの動作に対応する第6値を教師データとして前記第3出力層の第6ニューロンに設定し、前記第2データおよび前記第5データをそれぞれ前記第1リカレントニューラルネットワーク部および前記第2リカレントニューラルネットワーク部に入力して前記第3リカレントニューラルネットワーク部を学習させ、
    前記検出部は、前記第3データおよび前記第6データをそれぞれ前記第1リカレントニューラルネットワーク部および前記第2リカレントニューラルネットワーク部に入力し、学習された前記第3リカレントニューラルネットワーク部における前記第5ニューロンまたは前記第6ニューロンの反応を検出する請求項5記載の検出システム。
  7. 前記第1リカレントニューラルネットワーク部の第1中間層と前記第2リカレントニューラルネットワーク部の第2中間層とは、分離された請求項5または6に記載の検出システム。
  8. 第1熟練度を有する第1作業者の第1作業における第1身体部位の動作に基づく時系列の第1データを取得し、
    第2熟練度を有する第2作業者の前記第1作業における前記第1身体部位の動作に基づく時系列の第2データを取得し、
    前記第1熟練度の前記第1身体部位の動作に対応する第1値を教師データとしてリカレントニューラルネットワークの第1出力層の第1ニューロンに設定し、前記第1データを前記リカレントニューラルネットワークに入力して学習させ、
    前記第2熟練度の前記第1身体部位の動作に対応する第2値を教師データとして前記第1出力層の第2ニューロンに設定し、前記第2データを前記リカレントニューラルネットワークに入力して学習させ、
    第3作業者の前記第1作業における前記第1身体部位の動作に基づく時系列の第3データを取得し、
    学習された前記リカレントニューラルネットワークに前記第3データを入力し、前記第1ニューロンまたは前記第2ニューロンの反応を検出する検出方法。
JP2017162301A 2017-08-25 2017-08-25 検出システムおよび検出方法 Active JP6689239B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017162301A JP6689239B2 (ja) 2017-08-25 2017-08-25 検出システムおよび検出方法
US16/101,925 US11966836B2 (en) 2017-08-25 2018-08-13 Detection system and detection method for using a neural network to detect a proficiency of a worker
EP18189262.1A EP3447689A1 (en) 2017-08-25 2018-08-16 Detection system and detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017162301A JP6689239B2 (ja) 2017-08-25 2017-08-25 検出システムおよび検出方法

Publications (2)

Publication Number Publication Date
JP2019040421A true JP2019040421A (ja) 2019-03-14
JP6689239B2 JP6689239B2 (ja) 2020-04-28

Family

ID=63294054

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017162301A Active JP6689239B2 (ja) 2017-08-25 2017-08-25 検出システムおよび検出方法

Country Status (3)

Country Link
US (1) US11966836B2 (ja)
EP (1) EP3447689A1 (ja)
JP (1) JP6689239B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021077230A (ja) * 2019-11-12 2021-05-20 オムロン株式会社 動作認識装置、動作認識方法、動作認識プログラム及び動作認識システム
CN114761183A (zh) * 2019-12-03 2022-07-15 西门子股份公司 用于为机器人系统开发神经技能的计算机化工程工具和方法
JP7499346B2 (ja) 2020-03-20 2024-06-13 ヒンジ ヘルス, インコーポレイテッド 逆運動学に基づいた関節の回転の推測

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7137150B2 (ja) * 2019-03-14 2022-09-14 オムロン株式会社 動作分析装置、動作分析方法及び動作分析プログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002333826A (ja) * 2001-05-10 2002-11-22 Nec Corp 技能向上支援装置
JP2012238072A (ja) * 2011-05-10 2012-12-06 Sharp Corp 行動評価装置
JP2014133015A (ja) * 2013-01-11 2014-07-24 Akita Univ 身体動作学習支援装置
JP2018025932A (ja) * 2016-08-09 2018-02-15 ファナック株式会社 センサと機械学習部を備えた作業管理システム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2115033B1 (ja) 1970-11-24 1974-03-22 Roussel Uclaf
JP2558943Y2 (ja) 1992-04-16 1998-01-14 株式会社アイチコーポレーション 伸縮ブーム装置
JP2003167613A (ja) 2001-11-30 2003-06-13 Sharp Corp 作業管理システム、作業管理方法、及びその方法を実現するためのプログラムを記憶した記録媒体
JP5324418B2 (ja) 2009-12-25 2013-10-23 本田技研工業株式会社 組立作業支援システムおよびプログラム
KR101939683B1 (ko) * 2012-03-29 2019-01-18 삼성전자 주식회사 사용자 행동 실시간 인식장치 및 방법
US9495620B2 (en) * 2013-06-09 2016-11-15 Apple Inc. Multi-script handwriting recognition using a universal recognizer
EP3400580B1 (en) * 2016-05-17 2022-08-31 Samsung Electronics Co., Ltd. Method and apparatus for facilitating interaction with virtual reality equipment
WO2018120092A1 (en) * 2016-12-30 2018-07-05 Intel Corporation Positional analysis using computer vision sensor synchronization
US11556879B1 (en) * 2017-06-12 2023-01-17 Amazon Technologies, Inc. Motion data driven performance evaluation and training

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002333826A (ja) * 2001-05-10 2002-11-22 Nec Corp 技能向上支援装置
JP2012238072A (ja) * 2011-05-10 2012-12-06 Sharp Corp 行動評価装置
JP2014133015A (ja) * 2013-01-11 2014-07-24 Akita Univ 身体動作学習支援装置
JP2018025932A (ja) * 2016-08-09 2018-02-15 ファナック株式会社 センサと機械学習部を備えた作業管理システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
YONG DU 外2名: ""Hierarchical recurrent neural network for skeleton based action recognition"", 2015 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR) [ONLINE], JPN6020008988, 2015, US, pages 1110 - 1118, XP032793517, ISSN: 0004229507, DOI: 10.1109/CVPR.2015.7298714 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021077230A (ja) * 2019-11-12 2021-05-20 オムロン株式会社 動作認識装置、動作認識方法、動作認識プログラム及び動作認識システム
JP7339604B2 (ja) 2019-11-12 2023-09-06 オムロン株式会社 動作認識装置、動作認識方法、動作認識プログラム及び動作認識システム
CN114761183A (zh) * 2019-12-03 2022-07-15 西门子股份公司 用于为机器人系统开发神经技能的计算机化工程工具和方法
US12115680B2 (en) 2019-12-03 2024-10-15 Siemens Aktiengesellschaft Computerized engineering tool and methodology to develop neural skills for a robotics system
JP7499346B2 (ja) 2020-03-20 2024-06-13 ヒンジ ヘルス, インコーポレイテッド 逆運動学に基づいた関節の回転の推測

Also Published As

Publication number Publication date
US11966836B2 (en) 2024-04-23
EP3447689A1 (en) 2019-02-27
JP6689239B2 (ja) 2020-04-28
US20190065949A1 (en) 2019-02-28

Similar Documents

Publication Publication Date Title
JP6689239B2 (ja) 検出システムおよび検出方法
Erickson et al. Deep haptic model predictive control for robot-assisted dressing
US20190332931A1 (en) Deep neural network training for application program generation
Muscillo et al. Early recognition of upper limb motor tasks through accelerometers: real-time implementation of a DTW-based algorithm
CN108602191A (zh) 动作信息生成装置
Law et al. A psychology based approach for longitudinal development in cognitive robotics
CN110826383B (zh) 分析系统、分析方法、程序以及存储介质
Secco et al. A CNN-Based Computer Vision Interface for Prosthetics’ Control
JP6689133B2 (ja) プラントの操作評価装置、その操作評価システム、及びその操作評価方法
Sardari et al. View-invariant pose analysis for human movement assessment from rgb data
Camilleri et al. A study on the effects of cognitive overloading and distractions on human movement during robot-assisted dressing
Hikita et al. Visual attention by saliency leads cross-modal body representation
Vithanawasam et al. Dynamic face and upper-body emotion recognition for service robots
Takács et al. Assessment of surgeons’ stress levels with digital sensors during robot-assisted surgery: An experimental study
Haar et al. Kinematic signatures of learning that emerge in a real-world motor skill task
CN105898288B (zh) 共享注意的协同视觉搜索系统及方法
Trombetta et al. Variable structure human intention estimator with mobility and vision constraints as model selection criteria
Lopez et al. From mining affective states to mining facial keypoint data: The quest towards personalized feedback
Gutiérrez López de la Franca et al. Extended body-angles algorithm to recognize activities within intelligent environments
Shen et al. Towards Open-World Gesture Recognition
Sharifara et al. A robot-based cognitive assessment model based on visual working memory and attention level
Kindsvater et al. Fusion architectures for multimodal cognitive load recognition
WO2023074829A1 (ja) 認知機能評価システム、及び学習方法
Schillaci et al. Modulating Multi-Modal Integration in a Robot Forward Model for Sensory Enhancement and Self-Perception
Mekruksavanich et al. Human Activity Recognition and Payload Classification for Low-Back Exoskeletons Using Deep Residual Network

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190325

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200309

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200407

R151 Written notification of patent or utility model registration

Ref document number: 6689239

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151