JP2021135898A - 行動認識方法、行動認識プログラム及び行動認識装置 - Google Patents
行動認識方法、行動認識プログラム及び行動認識装置 Download PDFInfo
- Publication number
- JP2021135898A JP2021135898A JP2020033365A JP2020033365A JP2021135898A JP 2021135898 A JP2021135898 A JP 2021135898A JP 2020033365 A JP2020033365 A JP 2020033365A JP 2020033365 A JP2020033365 A JP 2020033365A JP 2021135898 A JP2021135898 A JP 2021135898A
- Authority
- JP
- Japan
- Prior art keywords
- action
- joints
- behavior
- recognition
- weight
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 87
- 230000036961 partial effect Effects 0.000 claims abstract description 53
- 238000012545 processing Methods 0.000 claims abstract description 27
- 230000009471 action Effects 0.000 claims description 202
- 230000006399 behavior Effects 0.000 claims description 148
- 230000008569 process Effects 0.000 claims description 53
- 238000010801 machine learning Methods 0.000 claims description 11
- 210000000225 synapse Anatomy 0.000 claims description 4
- 210000001503 joint Anatomy 0.000 description 73
- 230000006870 function Effects 0.000 description 39
- 210000000707 wrist Anatomy 0.000 description 38
- 238000003860 storage Methods 0.000 description 27
- 230000000875 corresponding effect Effects 0.000 description 22
- 210000003857 wrist joint Anatomy 0.000 description 21
- 238000010586 diagram Methods 0.000 description 20
- 238000004364 calculation method Methods 0.000 description 19
- 238000012731 temporal analysis Methods 0.000 description 12
- 238000000700 time series analysis Methods 0.000 description 12
- 210000003423 ankle Anatomy 0.000 description 6
- 210000002310 elbow joint Anatomy 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 210000000544 articulatio talocruralis Anatomy 0.000 description 2
- 230000002596 correlated effect Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 210000000323 shoulder joint Anatomy 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 210000001513 elbow Anatomy 0.000 description 1
- 210000001624 hip Anatomy 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 210000002832 shoulder Anatomy 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000012732 spatial analysis Methods 0.000 description 1
- 230000000946 synaptic effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
- G06V40/25—Recognition of walking or running movements, e.g. gait recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24137—Distances to cluster centroïds
- G06F18/2414—Smoothing the distance, e.g. radial basis function networks [RBFN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Image Analysis (AREA)
Abstract
Description
図1は、実施例1に係る行動認識サービスの一例を示す図である。図1に示す行動認識サービス1は、カメラ2の映像から被写体、例えば人の行動を認識するサービスを提供するものである。このような行動認識サービス1では、あくまで一例として、複数の動作が組み合わさることで複雑化する上位行動、例えば不審行動や購買行動などが認識対象とされる。
次に、図2および図3を用いて、本実施例に係る行動認識サービス1の適用例について説明する。図2は、ルール6の一例を示す図である。図2には、認識対象とする上位行動の一例として、「歩きスマホ(Using a smartphone while walking)」を定義するルールが示されている。図2に示すように、ルール6には、ステップS1〜S2の順に各ステップの組合せが定義されている。例えば、ステップS1には、全身行動C1「歩く」、要素行動C2「スマホ保持」、要素行動C3「下を向く」および要素行動C5「スマホ操作開始」が設定されている。さらに、ステップS2には、全身行動C1「歩く」、要素行動C2「スマホ保持」、要素行動C4「前を向く」および要素行動C6「スマホ操作終了」が設定されている。
上述の通り、本実施例に係る行動認識サービス1によれば、システム定義が行われたプリセットの基本動作や要素行動を用いてルール6をカスタマイズできる。
そこで、本実施例では、各関節の位置の時系列データに基づいて要素行動を認識する際、認識対象とする要素行動の種類に応じて各関節に付与する重みを変えて求めた特徴量に基づいて要素行動を認識する要素行動認識機能7が行動認識サービス1にアドオンされる。このような要素行動認識機能7では、認識対象とする要素行動に対応する身体の部位以外の他の部位に現れる動作が認識の妨げとなるのを抑制する課題解決のアプローチが採用される。
図5は、実施例1に係る行動認識装置10の機能的構成の一例を示すブロック図である。図5に示す行動認識装置10は、上記の行動認識サービス1を提供するコンピュータの一例に対応する。
次に、本実施例に係る行動認識装置10の処理の流れについて説明する。ここでは、行動認識装置10により実行される(1)モデル学習処理を説明した後に、(2)行動認識処理を説明することとする。
図8は、実施例1に係るモデル学習処理の手順を示すフローチャートである。このモデル学習処理は、行動認識装置10を含め、任意の学習装置により実行されてかまわない。例えば、モデル学習処理は、モデル学習のリクエストを受け付けた場合に開始される。なお、上記の式(3)における「第1重み」および「識別境界パラメータ」には初期値が設定される。
図9は、実施例1に係る行動認識処理の手順を示すフローチャートである。この処理は、一例として、映像取得部11により新たなフレームの映像が取得された場合に開始することができる。
上述してきたように、本実施例に係る行動認識装置10は、各関節の位置の時系列データに基づいて要素行動を認識する際、認識対象とする要素行動の種類に応じて各関節に付与する重みを変えて求めた特徴量に基づいて要素行動を認識する。このため、認識対象とする要素行動に対応する身体の部位以外の他の部位に現れる動作が認識の妨げとなるのが抑制される。したがって、本実施例に係る行動認識装置10によれば、身体の一部に動きが現れる行動の一例として、プリセットにない要素行動の認識を実現することが可能になる。さらに、本実施例に係る行動認識装置10によれば、プリセットにない要素行動がルールに追加される場合、時系列分析に用いる時系列パターンを新たに設定する時間や手間などを削減することも可能になる。
上記の実施例1では、あくまで一例として、SVMのアルゴリズムにしたがって学習された第1重みやモデルのパラメータにより要素行動の認識を実現する例を挙げたが、これに限定されず、任意の方法で要素行動の認識を実現することとしもかまわない。その一例として、グラフに対して畳み込み演算を行うGCNN(Graph Convolutional Networks)により要素行動の認識が実現される例を挙げる。
上記の実施例1では、認識対象とする行動のあくまで一例として、要素行動を例示したが、これに限定されない。あくまで一例として、認識対象とする行動は、身体の一部に動きが現れる行動全般、例えば部分行動やであってもかまわない。例えば、部分行動が認識対象とする場合、認識対象とする部分行動の種類に応じて各関節に付与する重みを変えて各関節の位置の時系列データから求めた特徴量に基づいて部分行動を認識することとすればよい。すなわち、要素行動認識部17の説明における「要素行動」を「部分行動」へ読み替えることにより、要素行動の認識と同様に、部分行動の認識を実現できる。
また、図示した各装置の各構成要素は、必ずしも物理的に図示の如く構成されておらずともよい。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、映像取得部11、骨格情報取得部12、基本動作認識部13、上位行動認識部14または要素行動認識部17を行動認識装置10の外部装置としてネットワーク経由で接続するようにしてもよい。また、映像取得部11、骨格情報取得部12、基本動作認識部13、上位行動認識部14または要素行動認識部17を別の装置がそれぞれ有し、ネットワーク接続されて協働することで、上記の行動認識装置10の機能を実現するようにしてもよい。
また、上記の実施例で説明した各種の処理は、予め用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータで実行することによって実現することができる。そこで、以下では、図12を用いて、上記の実施例1および実施例2と同様の機能を有する行動認識プログラムを実行するコンピュータの一例について説明する。
認識対象とする部分行動の種類に応じて前記複数の関節各々に付与する重みを変えて前記複数の関節各々の位置から求めた特徴量に基づいて前記部分行動を認識する、
処理をコンピュータが実行する行動認識方法。
前記複数の関節各々に付与する重みが所定の機械学習のアルゴリズムにしたがって学習済みである重みデータを参照して、前記複数の関節各々の位置の時系列データから第1時点における関節の位置と前記第1時点よりも過去である第2時点における前記複数の関節の位置との間の相対位置に基づく特徴量を算出し、
算出された特徴量と、前記機械学習のアルゴリズムにしたがってパラメータが学習済みであるモデルとに基づいて前記部分行動の有無を判定する、
処理を含む付記1に記載の行動認識方法。
認識対象とする部分行動の種類に応じて前記複数の関節各々に付与する重みを変えて前記複数の関節各々の位置から求めた特徴量に基づいて前記部分行動を認識する、
処理をコンピュータに実行させる行動認識プログラム。
前記複数の関節各々に付与する重みが所定の機械学習のアルゴリズムにしたがって学習済みである重みデータを参照して、前記複数の関節各々の位置の時系列データから第1時点における関節の位置と前記第1時点よりも過去である第2時点における前記複数の関節の位置との間の相対位置に基づく特徴量を算出し、
算出された特徴量と、前記機械学習のアルゴリズムにしたがってパラメータが学習済みであるモデルとに基づいて前記部分行動の有無を判定する、
処理を含む付記6に記載の行動認識プログラム。
認識対象とする部分行動の種類に応じて前記複数の関節各々に付与する重みを変えて前記複数の関節各々の位置から求めた特徴量に基づいて前記部分行動を認識する認識部と、
を有する行動認識装置。
前記複数の関節各々に付与する重みが所定の機械学習のアルゴリズムにしたがって学習済みである重みデータを参照して、前記複数の関節各々の位置の時系列データから第1時点における関節の位置と前記第1時点よりも過去である第2時点における前記複数の関節の位置との間の相対位置に基づく特徴量を算出する算出部と、
算出された特徴量と、前記機械学習のアルゴリズムにしたがってパラメータが学習済みであるモデルとに基づいて前記部分行動の有無を判定する判定部と、
を有する付記11に記載の行動認識装置。
11 映像取得部
12 骨格情報取得部
13 基本動作認識部
14 上位行動認識部
14A 時系列分析部
14B ルール照合部
15 ルール記憶部
17 要素行動認識部
17A 算出部
17B 判定部
18 第1重み記憶部
19 第2重み記憶部
Claims (7)
- 複数の関節各々の位置を含む骨格情報を取得し、
認識対象とする部分行動の種類に応じて前記複数の関節各々に付与する重みを変えて前記複数の関節各々の位置から求めた特徴量に基づいて前記部分行動を認識する、
処理をコンピュータが実行する行動認識方法。 - 前記認識する処理は、各関節の間の連動性に応じて前記複数の関節各々に付与する重みをさらに変える請求項1に記載の行動認識方法。
- 前記認識する処理は、前記部分行動の時系列パターンに対応する要素行動の種類に応じて前記複数の関節各々に付与する重みを変えて前記複数の関節各々の位置の時系列データから求めた特徴量に基づいて前記要素行動を認識する請求項1または2に記載の行動認識方法。
- 前記認識する処理は、
前記複数の関節各々に付与する重みが所定の機械学習のアルゴリズムにしたがって学習済みである重みデータを参照して、前記複数の関節各々の位置の時系列データから第1時点における関節の位置と前記第1時点よりも過去である第2時点における前記複数の関節の位置との間の相対位置に基づく特徴量を算出し、
算出された特徴量と、前記機械学習のアルゴリズムにしたがってパラメータが学習済みであるモデルとに基づいて前記部分行動の有無を判定する、
処理を含む請求項1、2または3に記載の行動認識方法。 - 前記認識する処理は、前記複数の関節各々に対応するノード間を接続するシナプスに付与する重みに基づいて第1時点における関節の位置に前記第1時点よりも過去である第2時点における前記複数の関節の位置を畳み込む演算を行うモデルへ、前記複数の関節各々の位置の時系列データを入力することにより得られる前記モデルからの出力に基づいて前記部分行動を認識する請求項1、2または3に記載の行動認識方法。
- 複数の関節各々の位置を含む骨格情報を取得し、
認識対象とする部分行動の種類に応じて前記複数の関節各々に付与する重みを変えて前記複数の関節各々の位置から求めた特徴量に基づいて前記部分行動を認識する、
処理をコンピュータに実行させる行動認識プログラム。 - 複数の関節各々の位置を含む骨格情報を取得する取得部と、
認識対象とする部分行動の種類に応じて前記複数の関節各々に付与する重みを変えて前記複数の関節各々の位置から求めた特徴量に基づいて前記部分行動を認識する認識部と、
を有する行動認識装置。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020033365A JP7413836B2 (ja) | 2020-02-28 | 2020-02-28 | 行動認識方法、行動認識プログラム及び行動認識装置 |
US17/171,212 US11721129B2 (en) | 2020-02-28 | 2021-02-09 | Behavior recognition method, behavior recognition device, and computer-readable recording medium |
GB2101800.7A GB2598013A (en) | 2020-02-28 | 2021-02-10 | Behavior recognition method, behavior recognition device, and computer-readable recording medium |
CN202110205353.5A CN113326726B (zh) | 2020-02-28 | 2021-02-24 | 行为识别方法、行为识别设备和计算机可读记录介质 |
DE102021201777.0A DE102021201777A1 (de) | 2020-02-28 | 2021-02-25 | Verfahren zur Verhaltenserkennung, Vorrichtung zur Verhaltenserkennung und computerlesbares Aufzeichnungsmedium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020033365A JP7413836B2 (ja) | 2020-02-28 | 2020-02-28 | 行動認識方法、行動認識プログラム及び行動認識装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021135898A true JP2021135898A (ja) | 2021-09-13 |
JP7413836B2 JP7413836B2 (ja) | 2024-01-16 |
Family
ID=74879139
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020033365A Active JP7413836B2 (ja) | 2020-02-28 | 2020-02-28 | 行動認識方法、行動認識プログラム及び行動認識装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11721129B2 (ja) |
JP (1) | JP7413836B2 (ja) |
DE (1) | DE102021201777A1 (ja) |
GB (1) | GB2598013A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023148909A1 (ja) * | 2022-02-04 | 2023-08-10 | 三菱電機株式会社 | 機械学習装置、熟練行動判定装置、機械学習方法、及び機械学習プログラム |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113468980B (zh) * | 2021-06-11 | 2024-05-31 | 浙江大华技术股份有限公司 | 一种人体行为识别方法及相关装置 |
CN114821006B (zh) * | 2022-06-23 | 2022-09-20 | 盾钰(上海)互联网科技有限公司 | 交互式间接推理的孪生体态检测方法及系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012518236A (ja) * | 2009-02-17 | 2012-08-09 | オーメック インタラクティブ,リミテッド | ジェスチャー認識のための方法及びシステム |
JP2015130151A (ja) * | 2013-12-31 | 2015-07-16 | コニカ ミノルタ ラボラトリー ユー.エス.エー.,インコーポレイテッド | 感情および行動を認識するための方法およびシステム |
US20170046568A1 (en) * | 2012-04-18 | 2017-02-16 | Arb Labs Inc. | Systems and methods of identifying a gesture using gesture data compressed by principal joint variable analysis |
US20170344829A1 (en) * | 2016-05-31 | 2017-11-30 | Microsoft Technology Licensing, Llc | Skeleton -based action detection using recurrent neural network |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9981193B2 (en) | 2009-10-27 | 2018-05-29 | Harmonix Music Systems, Inc. | Movement based recognition and evaluation |
US20160328604A1 (en) | 2014-01-07 | 2016-11-10 | Arb Labs Inc. | Systems and methods of monitoring activities at a gaming venue |
CN105872477B (zh) | 2016-05-27 | 2018-11-23 | 北京旷视科技有限公司 | 视频监控方法和视频监控系统 |
CN109670380B (zh) | 2017-10-13 | 2022-12-27 | 华为技术有限公司 | 动作识别、姿势估计的方法及装置 |
CA2995242A1 (en) * | 2018-02-15 | 2019-08-15 | Wrnch Inc. | Method and system for activity classification |
KR20200017917A (ko) | 2018-08-10 | 2020-02-19 | 현대자동차주식회사 | 차량 및 그 제어 방법 |
KR102696487B1 (ko) * | 2018-12-24 | 2024-08-21 | 삼성전자주식회사 | 기계 학습 기반의 로컬 모션 생성 방법 및 장치 |
CN110532874B (zh) | 2019-07-23 | 2022-11-11 | 深圳大学 | 一种物体属性识别模型的生成方法、存储介质及电子设备 |
-
2020
- 2020-02-28 JP JP2020033365A patent/JP7413836B2/ja active Active
-
2021
- 2021-02-09 US US17/171,212 patent/US11721129B2/en active Active
- 2021-02-10 GB GB2101800.7A patent/GB2598013A/en active Pending
- 2021-02-25 DE DE102021201777.0A patent/DE102021201777A1/de active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012518236A (ja) * | 2009-02-17 | 2012-08-09 | オーメック インタラクティブ,リミテッド | ジェスチャー認識のための方法及びシステム |
US20170046568A1 (en) * | 2012-04-18 | 2017-02-16 | Arb Labs Inc. | Systems and methods of identifying a gesture using gesture data compressed by principal joint variable analysis |
JP2015130151A (ja) * | 2013-12-31 | 2015-07-16 | コニカ ミノルタ ラボラトリー ユー.エス.エー.,インコーポレイテッド | 感情および行動を認識するための方法およびシステム |
US20170344829A1 (en) * | 2016-05-31 | 2017-11-30 | Microsoft Technology Licensing, Llc | Skeleton -based action detection using recurrent neural network |
Non-Patent Citations (3)
Title |
---|
SHENGHUA WEI ET AL.: ""Human skeleton tree recurrent neural network with joint relative motion feature for skeleton based", 2017 IEEE INTERNATIONAL CONFERENCE ON IMAGE PROCESSING (ICIP), JPN6023038262, 17 September 2017 (2017-09-17), US, pages 91 - 95, XP033322545, ISSN: 0005205609, DOI: 10.1109/ICIP.2017.8296249 * |
ZHIKAI WANG ET AL.: ""Key Joints Selection and Spatiotemporal Mining for Skeleton-Based Action Recognition"", 2018 25TH IEEE INTERNATIONAL CONFERENCE ON IMAGE PROCESSING (ICIP), JPN6023038263, 7 October 2018 (2018-10-07), US, pages 3458 - 3462, XP033455053, ISSN: 0005153615, DOI: 10.1109/ICIP.2018.8451483 * |
稲田 健太郎、外2名: ""OpenPoseを用いた複数ダンサーの姿態評価の基礎検討"", 映像情報メディア学会技術報告, vol. 42, no. 44, JPN6023038261, 10 December 2018 (2018-12-10), JP, pages 21 - 23, ISSN: 0005205608 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023148909A1 (ja) * | 2022-02-04 | 2023-08-10 | 三菱電機株式会社 | 機械学習装置、熟練行動判定装置、機械学習方法、及び機械学習プログラム |
JP7387069B1 (ja) * | 2022-02-04 | 2023-11-27 | 三菱電機株式会社 | 機械学習装置、熟練行動判定装置、機械学習方法、及び機械学習プログラム |
Also Published As
Publication number | Publication date |
---|---|
GB2598013A (en) | 2022-02-16 |
US11721129B2 (en) | 2023-08-08 |
DE102021201777A1 (de) | 2021-09-02 |
US20210271863A1 (en) | 2021-09-02 |
JP7413836B2 (ja) | 2024-01-16 |
GB202101800D0 (en) | 2021-03-24 |
CN113326726A (zh) | 2021-08-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Ha et al. | Convolutional neural networks for human activity recognition using multiple accelerometer and gyroscope sensors | |
Seto et al. | Multivariate time series classification using dynamic time warping template selection for human activity recognition | |
Ibraheem et al. | Vision based gesture recognition using neural networks approaches: a review | |
KR101549645B1 (ko) | 표정 동작사전을 이용한 표정인식 방법 및 장치 | |
US10198694B2 (en) | Static posture based person identification | |
JP7413836B2 (ja) | 行動認識方法、行動認識プログラム及び行動認識装置 | |
KR102306658B1 (ko) | 이종 도메인 데이터 간의 변환을 수행하는 gan의 학습 방법 및 장치 | |
O'Halloran et al. | A Comparison of Deep Learning Models in Human Activity Recognition and Behavioural Prediction on the MHEALTH Dataset. | |
EP3424411A1 (en) | Method and system for postural stability assessment | |
Pham et al. | Combining skeleton and accelerometer data for human fine-grained activity recognition and abnormal behaviour detection with deep temporal convolutional networks | |
Vo et al. | Deep generic features and SVM for facial expression recognition | |
JP2019109843A (ja) | 分類装置、分類方法、属性認識装置、及び機械学習装置 | |
Al Hamad | Use an efficient neural network to improve the Arabic handwriting recognition | |
JP7459949B2 (ja) | 学習装置、学習方法、追跡装置及びプログラム | |
Uke et al. | Optimal video processing and soft computing algorithms for human hand gesture recognition from real-time video | |
JP2021081804A (ja) | 状態認識装置、状態認識方法及び状態認識プログラム | |
CN113326726B (zh) | 行为识别方法、行为识别设备和计算机可读记录介质 | |
Jameel et al. | Human gait recognition using preprocessing and classification techniques | |
JP2022021940A (ja) | 行動認識装置、行動認識方法及び行動認識プログラム | |
JP7233610B2 (ja) | 情報処理装置、プログラム及び情報処理方法 | |
Pranathi et al. | Multimodal biometric authentication | |
KR102636549B1 (ko) | 노이즈 개선 네트워크 기반 보행 인식 장치 및 방법 | |
KR102599020B1 (ko) | 인공지능 기반 행동 모니터링 방법, 프로그램 및 장치 | |
WO2022259575A1 (ja) | 学習装置、推論装置、学習方法、推論方法、及びプログラム | |
Szymkowski et al. | A novel approach to human recognition based on finger geometry |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221117 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230914 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230919 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231113 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231128 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231211 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7413836 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |