JP2019040421A - 検出システムおよび検出方法 - Google Patents
検出システムおよび検出方法 Download PDFInfo
- Publication number
- JP2019040421A JP2019040421A JP2017162301A JP2017162301A JP2019040421A JP 2019040421 A JP2019040421 A JP 2019040421A JP 2017162301 A JP2017162301 A JP 2017162301A JP 2017162301 A JP2017162301 A JP 2017162301A JP 2019040421 A JP2019040421 A JP 2019040421A
- Authority
- JP
- Japan
- Prior art keywords
- data
- neural network
- recurrent neural
- unit
- worker
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 114
- 210000002569 neuron Anatomy 0.000 claims abstract description 106
- 238000013528 artificial neural network Methods 0.000 claims abstract description 55
- 230000000306 recurrent effect Effects 0.000 claims abstract description 48
- 230000004044 response Effects 0.000 claims description 14
- 230000009471 action Effects 0.000 claims description 13
- 230000001133 acceleration Effects 0.000 claims description 8
- 230000006403 short-term memory Effects 0.000 claims description 2
- 230000006399 behavior Effects 0.000 abstract description 3
- 238000006243 chemical reaction Methods 0.000 abstract description 3
- 210000000707 wrist Anatomy 0.000 description 48
- 230000000694 effects Effects 0.000 description 22
- 238000010586 diagram Methods 0.000 description 15
- 238000003860 storage Methods 0.000 description 15
- 239000000284 extract Substances 0.000 description 11
- 238000013500 data storage Methods 0.000 description 10
- 238000004519 manufacturing process Methods 0.000 description 6
- 210000000225 synapse Anatomy 0.000 description 6
- 230000008859 change Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 210000000245 forearm Anatomy 0.000 description 3
- 238000000605 extraction Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000000034 method Methods 0.000 description 2
- 238000004040 coloring Methods 0.000 description 1
- 239000013067 intermediate product Substances 0.000 description 1
- 230000015654 memory Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 239000000047 product Substances 0.000 description 1
- 239000002994 raw material Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- General Factory Administration (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
このため、自動的かつ客観的に作業者の改善すべき動作を検出可能なシステムの開発が望まれていた。
また、本願明細書と各図において、既に説明したものと同様の要素には同一の符号を付して詳細な説明は適宜省略する。
図1は、第1実施形態に係る検出システムの構成を表すブロック図である。
図2は、第1実施形態で用いるニューラルネットワークの概略構成を表す模式図である。
例えば、取得部110は、撮像装置を含む。取得部110は、撮像装置を用いて、作業を行っている作業者を撮影する。取得部110は、撮影した映像から、作業者の骨格情報を抽出する。取得部110は、時間の経過に伴う骨格の一部(例えば頭部)の位置の変化を、作業者の動作に基づく時系列データとして取得する。
図3に表したように、LSTM構造300は、忘却ゲート310、入力ゲート320、および出力ゲート330を含む。
図4は、第1実施形態に係る検出システムの動作を表すフローチャートである。
第1熟練度に相当する動作に基づくデータがRNNに入力されると、第1ニューロンの活性度が高くなる。第2熟練度に相当する動作に基づくデータがRNNに入力されると、第2ニューロンの活性度が高くなる。
本実施形態に係る検出システム100および検出方法によれば、所定の作業時の動作において、改善すべき点が含まれているか検出することができる。一例として、第1作業者は、第1作業を早く完了させることができ、第2作業者は、第1作業により多くの時間を要する。また、第3作業者が第1作業を行う際、一部の動作は素早いが、他の一部の動作が遅い。例えばこの場合、本実施形態に係る検出システム100および検出方法によれば、以下の結果が得られる。すなわち、第3作業者の上記一部の動作に基づく時系列データがRNNに入力されている間は、第1熟練度に対応する第1ニューロンが反応する。第3作業者の上記他の一部の動作に基づく時系列データがRNNに入力されている間は、第2熟練度に対応する第2ニューロンが反応する。検出部150は、これらのニューロンの反応を検出する。この結果、検出システム100の使用者または分析方法の実施者は、第3作業者の動作には、作業が素早い部分と作業が遅い部分が含まれていることが分かる。
作業周期は、作業者ごとに異なる。従って、それぞれの作業者が同じ時刻に作業を開始しても、時間が経過するにつれて、各作業者がある時点で行っている作業にはばらつきが生じる。この点について、RNNを用いることで、このような作業周期のばらつきの影響を無くし、作業時の改善すべき動作の検出が可能となる。また、リカレントニューラルネットワークを用いることで、ある時間区分の動作と、その後の時間区分の動作と、の関連性を考慮することができるようになる。この結果、作業時間の増加を招いている動作だけでなく、その動作に繋がる原因となる動作を検出することも可能となる。
これは、関節の角度が、体格にあまり依存しないためである。従って、関節の角度をデータとして用いることで、体格の違いがデータに及ぼす影響を低減し、検出の精度を向上させることが可能となる。
図5(a)および図5(b)は、第1実施例において取得したデータを表すグラフである。
図6(a)は、第1実施例において取得したデータを表すグラフである。図6(b)および図6(c)は、第1実施例におけるニューロンの活性度を表すグラフである。
図7(a)は、第2実施例におけるニューロンの活性度を表すグラフである。図7(b)は、表示部に表示される画面を例示する模式図である。
この実施例では、取得部110は、第1作業者〜第3作業者を撮影し、各作業者の骨格情報を抽出した。この実施例では、RNNは、第1作業者〜第3作業者の骨格の動きに基づく時系列データを用いて学習されている。
図8は、第2実施形態に係る検出システムの動作を表す概念図である。
図9は、第2実施形態で用いるニューラルネットワークの概略構成を表す模式図である。
第1実施形態では、各作業者の1つの部位の動作に基づくデータを使用する例を説明した。実施形態に係る検出システムは、複数の部位の動作に基づくデータを使用しても良い。
取得部110は、第1作業者の第1作業における第1身体部位(例えば、左手首)の動作に基づく第1データを取得する(ステップS11)。取得部110は、第1作業者の第1作業における第2身体部位(例えば、右手首)の動作に基づく第4データを取得する(ステップS12)。第1データおよび第4データは、例えば、第1時間の長さを有する時系列データである。
なお、本実施形態に係る検出システムおよび検出方法において、複数の身体部位のそれぞれの動作における改善すべき点の検出と、複数の身体部位を組み合わせた動作における改善すべき点の検出と、の一方のみが行われても良い。ただし、より精度良く作業者の動作を分析するためには、これらの両方において検出が行われることが望ましい。
図11に表したように、実施形態に係る検出システムは、より多くの身体部位の動作に基づくデータを用いて、改善すべき点を検出しても良い。
学習部130は、第1作業者および第2作業者の、左手首の時系列データ、左肘の時系列データ、右手首の時系列データ、および右肘の時系列データを、それぞれ、第1RNN部210、第2RNN部、第4RNN部240、および第5RNN部250に入力し、これらのRNN部を学習させる。学習部130は、第1RNN部210および第2RNN部220の出力を第3RNN部230に入力し、第4RNN部240および第5RNN部250の出力を第6RNN部260に入力し、第3RNN部230および第6RNN部260を学習させる。さらに、学習部130は、第3RNN部230および第6RNN部260の出力を第7RNN部270に入力し、第7RNN部270を学習させる。
これにより、第3作業者のそれぞれの身体部位の動作における改善すべき点が検出される。また、左手首と左肘とを組み合わせた左腕の動作における改善すべき点が検出される。右手首と右肘とを組み合わせた右腕の動作における改善すべき点が検出される。さらに、左腕と右腕とを組み合わせた両腕の動作における改善すべき点が検出される。
検出装置400は、例えば、入力装置402、出力装置404、およびコンピュータ406を備える。コンピュータ406は、例えば、ROM(Read Only Memory)408、RAM(Random Access Memory)410、CPU(Central Processing Unit)412、および記憶装置HDD(Hard Disk Drive)414を有する。
出力装置404は、検出システム100によって得られる出力結果を、ユーザに対して出力するためのものである。出力装置404は、ディスプレイやプリンタなどである。出力装置404は、表示部160として機能する。
Claims (8)
- 時系列の第1データ、時系列の第2データ、および時系列の第3データを取得する取得部であって、前記第1データは第1熟練度を有する第1作業者の第1作業における第1身体部位の動作に基づき、前記第2データは第2熟練度を有する第2作業者の前記第1作業における前記第1身体部位の動作に基づき、前記第3データは第3作業者の前記第1作業における前記第1身体部位の動作に基づく前記取得部と、
前記第1熟練度の前記第1身体部位の動作に対応する第1値を教師データとしてリカレントニューラルネットワークの第1出力層の第1ニューロンに設定し、前記第1データを前記リカレントニューラルネットワークに入力して学習させ、前記第2熟練度の前記第1身体部位の動作に対応する第2値を教師データとして前記第1出力層の第2ニューロンに設定し、前記第2データを前記リカレントニューラルネットワークに入力して学習させる学習部と、
学習された前記リカレントニューラルネットワークに前記第3データを入力し、前記第1ニューロンまたは前記第2ニューロンの反応を検出する検出部と、
を備えた検出システム。 - 前記リカレントニューラルネットワークは、入力層と、中間層と、前記第1出力層と、を含み、
前記中間層は、Long Short Term Memory構造を有する複数のニューロンを含む請求項1記載の検出システム。 - 前記第1データは、前記第1作業者の前記第1作業における前記第1身体部位の加速度情報であり、
前記第2データは、前記第2作業者の前記第1作業における前記第1身体部位の加速度情報であり、
前記第3データは、前記第3作業者の前記第1作業における前記第1身体部位の加速度情報である請求項1または2に記載の検出システム。 - 前記第1身体部位は、第1関節を含み、
前記第1データは、前記第1作業者の前記第1作業における前記第1関節の角度情報を含み、
前記第2データは、前記第2作業者の前記第1作業における前記第1関節の角度情報を含み、
前記第3データは、前記第3作業者の前記第1作業における前記第1関節の角度情報を含む請求項1または2に記載の検出システム。 - 前記取得部は、前記第1作業者の前記第1作業における第2身体部位の動作に基づく時系列の第4データと、前記第2作業者の前記第1作業における前記第2身体部位の動作に基づく時系列の第5データと、前記第3作業者の前記第1作業における前記第2身体部位の動作に基づく時系列の第6データと、をさらに取得し、
前記リカレントニューラルネットワークは、前記第1出力層を含む第1リカレントニューラルネットワーク部および第2リカレントニューラルネットワーク部を含み、
前記学習部は、前記第1データおよび前記第2データを用いて前記第1リカレントニューラルネットワーク部を学習させ、
前記学習部は、前記第1熟練度の前記第2身体部位の動作に対応する第3値を教師データとして前記第2リカレントニューラルネットワーク部の第2出力層の第3ニューロンに設定し、前記第4データを前記第2リカレントニューラルネットワーク部に入力して学習させ、前記第2熟練度の前記第2身体部位の動作に対応する第4値を教師データとして前記第2出力層の第4ニューロンに設定し、前記第5データを前記第2リカレントニューラルネットワーク部に入力して学習させ、
前記検出部は、学習された前記第2リカレントニューラルネットワーク部に前記第6データを入力し、前記第3ニューロンまたは前記第4ニューロンの反応をさらに検出する請求項1〜4のいずれか1つに記載の検出システム。 - 前記リカレントニューラルネットワークは、前記第1リカレントニューラルネットワーク部および第2リカレントニューラルネットワーク部の出力が入力される第3リカレントニューラルネットワーク部をさらに含み、
前記学習部は、前記第1熟練度の前記第1身体部位および前記第2身体部位の組み合わせの動作に対応する第5値を教師データとして前記第3リカレントニューラルネットワーク部の第3出力層の第5ニューロンに設定し、前記第1データおよび前記第4データをそれぞれ前記第1リカレントニューラルネットワーク部および前記第2リカレントニューラルネットワーク部に入力して前記第3リカレントニューラルネットワーク部を学習させ、
前記学習部は、前記第2熟練度の前記第1身体部位および前記第2身体部位の組み合わせの動作に対応する第6値を教師データとして前記第3出力層の第6ニューロンに設定し、前記第2データおよび前記第5データをそれぞれ前記第1リカレントニューラルネットワーク部および前記第2リカレントニューラルネットワーク部に入力して前記第3リカレントニューラルネットワーク部を学習させ、
前記検出部は、前記第3データおよび前記第6データをそれぞれ前記第1リカレントニューラルネットワーク部および前記第2リカレントニューラルネットワーク部に入力し、学習された前記第3リカレントニューラルネットワーク部における前記第5ニューロンまたは前記第6ニューロンの反応を検出する請求項5記載の検出システム。 - 前記第1リカレントニューラルネットワーク部の第1中間層と前記第2リカレントニューラルネットワーク部の第2中間層とは、分離された請求項5または6に記載の検出システム。
- 第1熟練度を有する第1作業者の第1作業における第1身体部位の動作に基づく時系列の第1データを取得し、
第2熟練度を有する第2作業者の前記第1作業における前記第1身体部位の動作に基づく時系列の第2データを取得し、
前記第1熟練度の前記第1身体部位の動作に対応する第1値を教師データとしてリカレントニューラルネットワークの第1出力層の第1ニューロンに設定し、前記第1データを前記リカレントニューラルネットワークに入力して学習させ、
前記第2熟練度の前記第1身体部位の動作に対応する第2値を教師データとして前記第1出力層の第2ニューロンに設定し、前記第2データを前記リカレントニューラルネットワークに入力して学習させ、
第3作業者の前記第1作業における前記第1身体部位の動作に基づく時系列の第3データを取得し、
学習された前記リカレントニューラルネットワークに前記第3データを入力し、前記第1ニューロンまたは前記第2ニューロンの反応を検出する検出方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017162301A JP6689239B2 (ja) | 2017-08-25 | 2017-08-25 | 検出システムおよび検出方法 |
US16/101,925 US11966836B2 (en) | 2017-08-25 | 2018-08-13 | Detection system and detection method for using a neural network to detect a proficiency of a worker |
EP18189262.1A EP3447689A1 (en) | 2017-08-25 | 2018-08-16 | Detection system and detection method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017162301A JP6689239B2 (ja) | 2017-08-25 | 2017-08-25 | 検出システムおよび検出方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019040421A true JP2019040421A (ja) | 2019-03-14 |
JP6689239B2 JP6689239B2 (ja) | 2020-04-28 |
Family
ID=63294054
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017162301A Active JP6689239B2 (ja) | 2017-08-25 | 2017-08-25 | 検出システムおよび検出方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11966836B2 (ja) |
EP (1) | EP3447689A1 (ja) |
JP (1) | JP6689239B2 (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021077230A (ja) * | 2019-11-12 | 2021-05-20 | オムロン株式会社 | 動作認識装置、動作認識方法、動作認識プログラム及び動作認識システム |
CN114761183A (zh) * | 2019-12-03 | 2022-07-15 | 西门子股份公司 | 用于为机器人系统开发神经技能的计算机化工程工具和方法 |
JP7499346B2 (ja) | 2020-03-20 | 2024-06-13 | ヒンジ ヘルス, インコーポレイテッド | 逆運動学に基づいた関節の回転の推測 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7137150B2 (ja) * | 2019-03-14 | 2022-09-14 | オムロン株式会社 | 動作分析装置、動作分析方法及び動作分析プログラム |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002333826A (ja) * | 2001-05-10 | 2002-11-22 | Nec Corp | 技能向上支援装置 |
JP2012238072A (ja) * | 2011-05-10 | 2012-12-06 | Sharp Corp | 行動評価装置 |
JP2014133015A (ja) * | 2013-01-11 | 2014-07-24 | Akita Univ | 身体動作学習支援装置 |
JP2018025932A (ja) * | 2016-08-09 | 2018-02-15 | ファナック株式会社 | センサと機械学習部を備えた作業管理システム |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2115033B1 (ja) | 1970-11-24 | 1974-03-22 | Roussel Uclaf | |
JP2558943Y2 (ja) | 1992-04-16 | 1998-01-14 | 株式会社アイチコーポレーション | 伸縮ブーム装置 |
JP2003167613A (ja) | 2001-11-30 | 2003-06-13 | Sharp Corp | 作業管理システム、作業管理方法、及びその方法を実現するためのプログラムを記憶した記録媒体 |
JP5324418B2 (ja) | 2009-12-25 | 2013-10-23 | 本田技研工業株式会社 | 組立作業支援システムおよびプログラム |
KR101939683B1 (ko) * | 2012-03-29 | 2019-01-18 | 삼성전자 주식회사 | 사용자 행동 실시간 인식장치 및 방법 |
US9495620B2 (en) * | 2013-06-09 | 2016-11-15 | Apple Inc. | Multi-script handwriting recognition using a universal recognizer |
EP3400580B1 (en) * | 2016-05-17 | 2022-08-31 | Samsung Electronics Co., Ltd. | Method and apparatus for facilitating interaction with virtual reality equipment |
WO2018120092A1 (en) * | 2016-12-30 | 2018-07-05 | Intel Corporation | Positional analysis using computer vision sensor synchronization |
US11556879B1 (en) * | 2017-06-12 | 2023-01-17 | Amazon Technologies, Inc. | Motion data driven performance evaluation and training |
-
2017
- 2017-08-25 JP JP2017162301A patent/JP6689239B2/ja active Active
-
2018
- 2018-08-13 US US16/101,925 patent/US11966836B2/en active Active
- 2018-08-16 EP EP18189262.1A patent/EP3447689A1/en not_active Withdrawn
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002333826A (ja) * | 2001-05-10 | 2002-11-22 | Nec Corp | 技能向上支援装置 |
JP2012238072A (ja) * | 2011-05-10 | 2012-12-06 | Sharp Corp | 行動評価装置 |
JP2014133015A (ja) * | 2013-01-11 | 2014-07-24 | Akita Univ | 身体動作学習支援装置 |
JP2018025932A (ja) * | 2016-08-09 | 2018-02-15 | ファナック株式会社 | センサと機械学習部を備えた作業管理システム |
Non-Patent Citations (1)
Title |
---|
YONG DU 外2名: ""Hierarchical recurrent neural network for skeleton based action recognition"", 2015 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR) [ONLINE], JPN6020008988, 2015, US, pages 1110 - 1118, XP032793517, ISSN: 0004229507, DOI: 10.1109/CVPR.2015.7298714 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021077230A (ja) * | 2019-11-12 | 2021-05-20 | オムロン株式会社 | 動作認識装置、動作認識方法、動作認識プログラム及び動作認識システム |
JP7339604B2 (ja) | 2019-11-12 | 2023-09-06 | オムロン株式会社 | 動作認識装置、動作認識方法、動作認識プログラム及び動作認識システム |
CN114761183A (zh) * | 2019-12-03 | 2022-07-15 | 西门子股份公司 | 用于为机器人系统开发神经技能的计算机化工程工具和方法 |
US12115680B2 (en) | 2019-12-03 | 2024-10-15 | Siemens Aktiengesellschaft | Computerized engineering tool and methodology to develop neural skills for a robotics system |
JP7499346B2 (ja) | 2020-03-20 | 2024-06-13 | ヒンジ ヘルス, インコーポレイテッド | 逆運動学に基づいた関節の回転の推測 |
Also Published As
Publication number | Publication date |
---|---|
US11966836B2 (en) | 2024-04-23 |
EP3447689A1 (en) | 2019-02-27 |
JP6689239B2 (ja) | 2020-04-28 |
US20190065949A1 (en) | 2019-02-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6689239B2 (ja) | 検出システムおよび検出方法 | |
Erickson et al. | Deep haptic model predictive control for robot-assisted dressing | |
US20190332931A1 (en) | Deep neural network training for application program generation | |
Muscillo et al. | Early recognition of upper limb motor tasks through accelerometers: real-time implementation of a DTW-based algorithm | |
CN108602191A (zh) | 动作信息生成装置 | |
Law et al. | A psychology based approach for longitudinal development in cognitive robotics | |
CN110826383B (zh) | 分析系统、分析方法、程序以及存储介质 | |
Secco et al. | A CNN-Based Computer Vision Interface for Prosthetics’ Control | |
JP6689133B2 (ja) | プラントの操作評価装置、その操作評価システム、及びその操作評価方法 | |
Sardari et al. | View-invariant pose analysis for human movement assessment from rgb data | |
Camilleri et al. | A study on the effects of cognitive overloading and distractions on human movement during robot-assisted dressing | |
Hikita et al. | Visual attention by saliency leads cross-modal body representation | |
Vithanawasam et al. | Dynamic face and upper-body emotion recognition for service robots | |
Takács et al. | Assessment of surgeons’ stress levels with digital sensors during robot-assisted surgery: An experimental study | |
Haar et al. | Kinematic signatures of learning that emerge in a real-world motor skill task | |
CN105898288B (zh) | 共享注意的协同视觉搜索系统及方法 | |
Trombetta et al. | Variable structure human intention estimator with mobility and vision constraints as model selection criteria | |
Lopez et al. | From mining affective states to mining facial keypoint data: The quest towards personalized feedback | |
Gutiérrez López de la Franca et al. | Extended body-angles algorithm to recognize activities within intelligent environments | |
Shen et al. | Towards Open-World Gesture Recognition | |
Sharifara et al. | A robot-based cognitive assessment model based on visual working memory and attention level | |
Kindsvater et al. | Fusion architectures for multimodal cognitive load recognition | |
WO2023074829A1 (ja) | 認知機能評価システム、及び学習方法 | |
Schillaci et al. | Modulating Multi-Modal Integration in a Robot Forward Model for Sensory Enhancement and Self-Perception | |
Mekruksavanich et al. | Human Activity Recognition and Payload Classification for Low-Back Exoskeletons Using Deep Residual Network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190325 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200227 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200309 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200407 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6689239 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |