JP6911505B2 - データ収集装置及び学習装置 - Google Patents
データ収集装置及び学習装置 Download PDFInfo
- Publication number
- JP6911505B2 JP6911505B2 JP2017094519A JP2017094519A JP6911505B2 JP 6911505 B2 JP6911505 B2 JP 6911505B2 JP 2017094519 A JP2017094519 A JP 2017094519A JP 2017094519 A JP2017094519 A JP 2017094519A JP 6911505 B2 JP6911505 B2 JP 6911505B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- emotion
- type
- person
- learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24143—Distances to neighbourhood prototypes, e.g. restricted Coulomb energy networks [RCEN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
- G06V40/176—Dynamic expression
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Human Computer Interaction (AREA)
- Software Systems (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Biodiversity & Conservation Biology (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- User Interface Of Digital Computer (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Description
まず、図1を用いて、本発明が適用される場面の一例について説明する。図1は、本実施形態に係るデータ収集装置1、第1学習装置2、及び第2学習装置3の適用場面の一例を模式的に例示する。
[ハードウェア構成]
<データ収集装置>
次に、図2を用いて、本実施形態に係るデータ収集装置1のハードウェア構成の一例について説明する。図2は、本実施形態に係るデータ収集装置1のハードウェア構成の一例を模式的に例示する。
次に、図3を用いて、本実施形態に係る第1学習装置2のハードウェア構成の一例を説明する。図3は、本実施形態に係る第1学習装置2のハードウェア構成の一例を模式的に例示する。
次に、図4を用いて、本実施形態に係る第2学習装置3のハードウェア構成の一例を説明する。図4は、本実施形態に係る第2学習装置3のハードウェア構成の一例を模式的に例示する。
なお、上記のとおり、本実施形態では、第1学習装置2から構築された学習器又はその複製物を取得して、影響因子データ123と同形式のデータに基づいて、対象人物に誘発される感情の種別を推定する第1学習結果利用装置(後述する誘発感情推定装置)を設けてもよい。この第1学習結果利用装置(不図示)は、上記各装置1〜3と同様に、制御部、記憶部、外部インタフェース、入力装置、出力装置、及びドライブが電気的に接続されたコンピュータで構成することができる。
<データ収集装置>
次に、図5を用いて、本実施形態に係るデータ収集装置1の機能構成の一例を説明する。図5は、本実施形態に係るデータ収集装置1の機能構成の一例を模式的に例示する。
ここで、図6を更に用いて、影響因子データ123を感情の種別ごとに分類する処理について説明する。図6は、誘発時間内に取得した影響因子データ123を特定した感情の種別に関連付ける場面の一例を模式的に例示する。図6では、点線で囲まれた各種データが、誘発時間内に取得された各種データを示している。なお、図5及び図6の例では、上記図1の例と同様に、「喜び」、「怒り」等の固有の状態で感情の種別を示している。しかしながら、上記のとおり、感情の種別の表現は、このような例に限定されなくてもよく、1又は複数のパラメータを利用した数値表現等で示されてよい。
次に、学習器について説明する。図5に示されるとおり、本実施形態に係るデータ収集装置1は、感情表出データ122に表出する対象人物の感情を特定するための学習を行った学習済みの学習器として、ニューラルネットワーク6を利用する。ニューラルネットワーク6は、いわゆる深層学習に用いられる多層構造のニューラルネットワークであり、入力側から順に、入力層61、中間層(隠れ層)62、及び出力層63を備えている。
次に、図7を用いて、本実施形態に係る第1学習装置2の機能構成の一例を説明する。図7は、本実施形態に係る第1学習装置2の機能構成の一例を模式的に例示する。
次に、図8を用いて、本実施形態に係る第2学習装置3の機能構成の一例を説明する。図8は、本実施形態に係る第2学習装置3の機能構成の一例を模式的に例示する。
データ収集装置1、第1学習装置2、及び第2学習装置3の各機能に関しては後述する動作例で詳細に説明する。なお、本実施形態では、データ収集装置1、第1学習装置2、及び第2学習装置3の各機能がいずれも汎用のCPUによって実現される例について説明している。しかしながら、以上の機能の一部又は全部が、1又は複数の専用のプロセッサにより実現されてもよい。また、データ収集装置1、第1学習装置2、及び第2学習装置3それぞれの機能構成に関して、実施形態に応じて、適宜、機能の省略、置換及び追加が行われてもよい。
[データ収集装置]
次に、図9を用いて、データ収集装置1の動作例を説明する。図9は、データ収集装置1の処理手順の一例を示すフローチャートである。なお、以下で説明する処理手順は一例に過ぎず、各処理は可能な限り変更されてよい。また、以下で説明する処理手順について、実施の形態に応じて、適宜、ステップの省略、置換、及び追加が可能である。
まず、利用者は、データ収集装置1を起動する。これに応じて、起動したデータ収集装置1の制御部11は、収集プログラム121を実行する。また、制御部11は、表出感情学習結果データ124を参照して、ニューラルネットワーク6の構造、各ニューロン間の結合の重み及び各ニューロンの閾値の設定を行う。そして、制御部11は、以下の処理手順に従って、感情の種別ごとに影響因子データ123を収集する処理を行う。
ステップS101では、制御部11は、第1取得部111として機能し、人物の感情が表出する感情表出データ122を継続的に取得する。また、制御部11は、第2取得部112として機能し、感情表出データ122の継続的な取得に並行して、人物の感情に影響を及ぼし得る因子に関する影響因子データ123を継続的に取得する。
次のステップS102では、制御部11は、感情特定部113として機能し、感情表出データ122に基づいて、任意の時刻における対象人物の感情の種別を特定する。本実施形態では、学習済みのニューラルネットワーク6を用いて、感情表出データ122に表出する任意の時刻における対象人物の感情の種別を特定する。本実施形態では、学習済みのニューラルネットワーク6は、後述する第2学習装置3による機械学習の結果として得られる表出感情学習結果データ124に基づいて、その内部構造が設定される。
次のステップS103では、制御部11は、分類処理部114として機能し、任意の時刻における対象人物の感情の誘発に関連する誘発時間内に取得した影響因子データ123を、ステップS102で特定した任意の時刻(または、所定の期間)における対象人物の感情の種別に関連付けて保存する。これにより、制御部11は、感情の種別ごとに影響因子データ123を分類して記憶部12に格納する。
次のステップS104では、制御部11は、分類処理部114として機能し、ステップS103において、いずれの感情の種別にも分類されなかった影響因子データ123を削除する。例えば、制御部11は、上記図6の例における点線で囲まれていない影響因子データ123を削除する。ステップS104の処理が完了すると、制御部11は、本動作例に係る処理を終了する。
次に、図10を用いて、第1学習装置2の動作例を説明する。図10は、第1学習装置2の処理手順の一例を示すフローチャートである。なお、以下で説明する処理手順は一例に過ぎず、各処理は可能な限り変更されてよい。また、以下で説明する処理手順について、実施の形態に応じて、適宜、ステップの省略、置換、及び追加が可能である。
ステップS201では、制御部21は、データ取得部211として機能し、感情の種別ごとに分類された影響因子データを取得する。例えば、制御部21は、ネットワーク、記憶媒体92等を介して、データ収集装置1により収集された感情の種別ごとに分類された影響因子データ123を取得する。対象人物の感情を特定した各時刻の誘発時間内に取得した影響因子データ123を1件のデータとして取り扱うことで、感情の種別ごとに分類された影響因子データ123を複数件の学習データ222として利用することができる。
次のステップS202では、制御部21は、学習処理部212として機能して、ステップS201で取得した複数件の学習データ222を用いて、ニューラルネットワーク7の機械学習を実施する。
次のステップS203では、制御部21は、学習処理部212として機能して、構築したニューラルネットワーク7の構成、各ニューロン間の結合の重み、及び各ニューロンの閾値を示す情報を誘発感情学習結果データ223として記憶部22に格納する。これにより、制御部21は、本動作例に係るニューラルネットワーク7の学習処理を終了する。
次に、図11を用いて、第2学習装置3の動作例を説明する。図11は、第2学習装置3の処理手順の一例を示すフローチャートである。なお、以下で説明する処理手順は一例に過ぎず、各処理は可能な限り変更されてよい。また、以下で説明する処理手順について、実施の形態に応じて、適宜、ステップの省略、置換、及び追加が可能である。
ステップS301では、制御部31は、データ取得部311として機能して、機械学習に利用する複数件の学習データ322を取得する。学習データ322は、人物の感情が表出する感情表出データ3221と、当該感情表出データ3221に表出する人物の感情の種別を示す値3222との組み合わせで構成される。
次のステップS302では、制御部31は、学習処理部312として機能して、ステップS301で取得した複数件の学習データ322を用いて、ニューラルネットワーク8の機械学習を実施する。
次のステップS303では、制御部31は、学習処理部312として機能して、構築したニューラルネットワーク8の構成、各ニューロン間の結合の重み、及び各ニューロンの閾値を示す情報を表出感情学習結果データ124として記憶部32に格納する。これにより、制御部31は、本動作例に係るニューラルネットワーク8の学習処理を終了する。
以上のとおり、本実施形態に係るデータ収集装置1によれば、上記ステップS101〜S103の処理により、対象人物の感情に影響を及ぼし得る因子に関する影響因子データ123を感情の種別ごとに分類して収集することができる。この感情の種別ごとに分類された影響因子データ123を利用すれば、対象人物の感情を誘発した要因を分析することができる。したがって、本実施形態に係るデータ収集装置1によれば、対象人物の感情を誘発した要因の推定を可能にすることができる。また、感情が表出する所定の誘発時間に限り、取得した影響因子データ123を保存するので、保存するデータ量を抑制することができる。
以上、本発明の実施の形態を詳細に説明してきたが、前述までの説明はあらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。例えば、以下のような変更が可能である。なお、以下では、上記実施形態と同様の構成要素に関しては同様の符号を用い、上記実施形態と同様の点については、適宜説明を省略した。以下の変形例は適宜組み合わせ可能である。
上記実施形態では、上記ステップS102において、感情表出データ122に表出する対象人物の感情の種別を特定するのに、学習済みのニューラルネットワーク6を利用している。しかしながら、感情表出データ122に表出する対象人物の感情の種別を特定する方法は、このような例に限定されなくてもよく、学習済みのニューラルネットワーク6を利用しなくてもよい。
上記実施形態では、影響因子データ123は、生体データ1231、環境データ1232、及びイベントデータ1233を含んでいる。しかしながら、影響因子データ123の構成は、このような例に限定されなくてもよく、例えば、生体データ1231、環境データ1232、及びイベントデータ1233の少なくともいずれかは省略されてもよい。また、影響因子データ123は、上記生体データ1231、環境データ1232、及びイベントデータ1233のうちの少なくとも2つを含むように構成されてよい。この場合にも、誘発時間は、上記実施形態と同様に、生体データ1231、環境データ1232、及びイベントデータ1233それぞれで相違するように設定されてよい。
上記実施形態では、制御部11は、上記ステップS103において、誘発時間内に取得した影響因子データ123を、任意の時刻において特定した感情の種別に関連付けている。しかしながら、特定した感情の種別に関連付けるデータは、影響因子データ123に限られなくてもよい。
上記実施形態では、上記ステップS101〜S103の処理により、対象人物の感情に影響を及ぼし得る因子に関する影響因子データ123を感情の種別ごとに分類して収集することができる。そこで、上記実施形態に係るデータ収集装置1は、感情の種別ごとに分類した影響因子データ123を利用して、対象人物の感情を誘発した要因を分析するように構成されてよい。
上記実施形態では、各ニューラルネットワーク6〜8として、多層構造を有する一般的な順伝播型ニューラルネットワークが用いられている。しかしながら、各ニューラルネットワーク6〜8の種類は、このような例に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。例えば、各ニューラルネットワーク6〜8には、畳み込み層及びプーリング層を備える畳み込みニューラルネットワーク、中間層から入力層等のように出力側から入力側に再帰する結合を有する再帰型ニューラルネットワーク等を用いてもよい。また、各ニューラルネットワーク6〜8に含まれる各ニューロンの内部構造も、上記実施形態の例に限定されなくてもよい。例えば、各ニューロンには、内部電位hに基づいて確率Pで発火してパルスを生成するスパイキングニューロンが用いられてもよい。
上記実施形態では、各学習器は、ニューラルネットワークにより構成されている。しかしながら、学習器の種類は、ニューラルネットワークに限られなくてもよく、実施の形態に応じて適宜選択されてよい。例えば、各学習器には、サポートベクターマシン、自己組織化マップ、強化学習により学習を行う学習器等が用いられてよい。
上記実施形態では、ステップS104により、いずれの感情の種別にも分類されなかった影響因子データ123を削除している。しかしながら、データ収集装置1の処理手順は、このような例に限定されなくてもよい。いずれの感情の種別にも分類されなかった影響因子データ123も保存する場合、上記ステップS104の処理は省略されてもよい。
また、上記実施形態では、データ収集装置1、第1学習装置2、第2学習装置3、及びその他の情報処理装置(例えば、誘発感情推定装置)はそれぞれ別のコンピュータにより構成されている。しかしながら、データ収集装置1、第1学習装置2、第2学習装置3、及びその他の情報処理装置の構成は、このような例に限定されなくてもよい。データ収集装置1、第1学習装置2、第2学習装置3、及びその他の情報処理装置の少なくともいずれか2つは一体に構成されてもよい。なお、データ収集装置1、第1学習装置2、第2学習装置3、及びその他の情報処理装置の少なくともいずれか2つを一体に構成する場合には、一体に構成する各装置に備わる各構成要素を結合(和集合)すればよい。すなわち、一体的に構成される情報処理装置は、各プログラム、各学習データ、各学習結果データ等の各装置に固有の構成要素を個別に含むようにし、制御部、記憶部、入力装置、出力装置等は共通で含むように構成すればよい。
また、上記実施形態では、表出感情学習結果データ124及び誘発感情学習結果データ223は、各ニューラルネットワーク(6、7)の構成を示す情報を含んでいる。しかしながら、各学習結果データ(124、223)の構成は、このような例に限定されなくてもよい。例えば、利用するニューラルネットワークの構成が各装置で共通化されている場合には、各学習結果データ(124、223)は、各ニューラルネットワーク(6、7)の構成を示す情報を含んでいなくてもよい。
11…制御部、12…記憶部、13…外部インタフェース、
14…入力装置、15…出力装置、16…ドライブ、
111…第1取得部、112…第2取得部、
113…感情特定部、114…分類処理部、
115…要因推定部、
121…収集プログラム、122…感情表出データ、
123…影響因子データ、
1231…生体データ、1232…環境データ、1233…イベントデータ、
124…表出感情学習結果データ、
125…属性データ、
2・2A…第1学習装置、
21…制御部、22…記憶部、23…外部インタフェース、
24…入力装置、25…出力装置、26…ドライブ、
211…データ取得部、212…学習処理部、
221…第1学習プログラム、222…(誘発感情用)学習データ、
223…誘発感情学習結果データ、
3・3A…第2学習装置、
31…制御部、32…記憶部、33…外部インタフェース、
34…入力装置、35…出力装置、36…ドライブ、
311…データ取得部、312…学習処理部、
321…第2学習プログラム、322…(表出感情用)学習データ、
51…第1センサ、52…第2センサ、
6…ニューラルネットワーク、
61…入力層、62…中間層(隠れ層)、63…出力層、
7…ニューラルネットワーク、
71…入力層、72…中間層(隠れ層)、73…出力層、
8…ニューラルネットワーク、
81…入力層、82…中間層(隠れ層)、83…出力層、
91・92・93…記憶媒体
Claims (11)
- 人物の感情が表出する第1データを取得する第1取得部と、
前記第1データの取得に並行して、前記人物の感情に影響を及ぼし得る因子に関する複数種類のデータを含む第2データを取得する第2取得部と、
取得した前記第1データに基づいて、任意の時刻における前記人物の感情の種別を特定する感情特定部と、
前記任意の時刻における前記人物の感情の誘発に関連する誘発時間内に取得した前記第2データを、特定した前記任意の時刻における前記人物の感情の種別に関連付けて保存することにより、前記人物の感情の種別ごとに前記第2データを分類する分類処理部と、
を備え、
前記誘発時間は、特定された種別の感情の誘発に関与する時間を規定し、
前記誘発時間の長さは、データの種類ごとに設定されている、
データ収集装置。 - 前記感情特定部は、前記第1データを入力すると、前記第1データに表出する前記人物の感情の種別を示す値を出力するように学習した学習済みの学習器を用いて、前記任意の時刻における前記人物の感情の種別を特定する、
請求項1に記載のデータ収集装置。 - 前記分類処理部は、前記人物の感情の種別ごとに分類する前記第2データに前記人物の属性を更に関連付ける、
請求項1又は2に記載のデータ収集装置。 - 前記人物の属性は、性別、身長、体重、血液型、年齢、誕生日、出身地、国籍、及び職業の少なくともいずれかにより特定される、
請求項3に記載のデータ収集装置。 - 前記感情の種別ごとに分類された前記第2データを解析することで、前記感情を誘発した要因を推定する要因推定部を更に備える、
請求項1から4のいずれか1項に記載のデータ収集装置。 - 前記分類処理部は、いずれの感情の種別にも分類されなかった前記第2データを削除するよう構成される、
請求項1から5のいずれか1項に記載のデータ収集装置。 - 前記第1データは、前記人物の顔を写した画像データ、ポリグラフにより得られたデータ、前記人物の声を録音した音声データ、及び前記人物からの回答データの少なくともいずれかを含む、
請求項1から6のいずれか1項に記載のデータ収集装置。 - 前記第2データは、前記人物から得られる生体データ、前記人物の周囲の環境を示す環境データ、及び前記人物に起きた出来事を示すイベントデータの少なくともいずれかを含む、
請求項1から7のいずれか1項に記載のデータ収集装置。 - 前記第2データは、前記生体データ、前記環境データ、及び前記イベントデータのうちの少なくとも2つを含み、
前記誘発時間の長さは、前記生体データ、前記環境データ、及び前記イベントデータそれぞれで相違する、
請求項8に記載のデータ収集装置。 - 前記生体データは、心拍数、脈拍数、呼吸数、体温、血圧、脳波、姿勢、及び筋電の少なくともいずれかを示す、
請求項8又は9に記載のデータ収集装置。 - 前記環境データは、温度、湿度、明るさ、天気、気圧、騒音、振動、及び臭気の少なくともいずれかを示す、
請求項8から10のいずれか1項に記載のデータ収集装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017094519A JP6911505B2 (ja) | 2017-05-11 | 2017-05-11 | データ収集装置及び学習装置 |
PCT/JP2018/016704 WO2018207619A1 (en) | 2017-05-11 | 2018-04-25 | Data collection apparatus and learning apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017094519A JP6911505B2 (ja) | 2017-05-11 | 2017-05-11 | データ収集装置及び学習装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018190318A JP2018190318A (ja) | 2018-11-29 |
JP6911505B2 true JP6911505B2 (ja) | 2021-07-28 |
Family
ID=62530521
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017094519A Active JP6911505B2 (ja) | 2017-05-11 | 2017-05-11 | データ収集装置及び学習装置 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6911505B2 (ja) |
WO (1) | WO2018207619A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109741190A (zh) * | 2018-12-27 | 2019-05-10 | 清华大学 | 一种个股公告分类的方法、系统及设备 |
CN114450701A (zh) * | 2019-09-26 | 2022-05-06 | 富士胶片株式会社 | 信息处理系统及方法以及信息处理装置 |
CN115374130B (zh) * | 2022-10-26 | 2022-12-20 | 中科三清科技有限公司 | 一种大气污染历史数据存储方法及介质 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4794846B2 (ja) * | 2004-10-27 | 2011-10-19 | キヤノン株式会社 | 推定装置、及び推定方法 |
JP4757787B2 (ja) | 2006-12-08 | 2011-08-24 | 株式会社トヨタIt開発センター | 感情推定装置 |
-
2017
- 2017-05-11 JP JP2017094519A patent/JP6911505B2/ja active Active
-
2018
- 2018-04-25 WO PCT/JP2018/016704 patent/WO2018207619A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2018207619A1 (en) | 2018-11-15 |
JP2018190318A (ja) | 2018-11-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Kanjo et al. | Deep learning analysis of mobile physiological, environmental and location sensor data for emotion detection | |
US11769056B2 (en) | Synthetic data for neural network training using vectors | |
JP7165207B2 (ja) | 機械学習ベースの診断分類器 | |
JP7422946B2 (ja) | ベイジアングラフ探索を用いたニューラルネットワークアーキテクチャの自動構築 | |
CN106956271B (zh) | 预测情感状态的方法和机器人 | |
JP7384201B2 (ja) | デジタルツイン演算装置、デジタルツイン演算方法及びプログラム | |
US20210397954A1 (en) | Training device and training method | |
JP6911505B2 (ja) | データ収集装置及び学習装置 | |
US20210023331A1 (en) | Computer architecture for identifying sleep stages | |
CN110291542B (zh) | 主要原因估计装置、主要原因估计系统以及主要原因估计方法 | |
JPWO2006087854A1 (ja) | 情報分類装置、情報分類方法、情報分類プログラム、情報分類システム | |
KR20200046188A (ko) | 인공 지능 모델을 재구성하기 위한 전자 장치 및 그의 제어 방법 | |
US11386288B2 (en) | Movement state recognition model training device, movement state recognition device, methods and programs therefor | |
CN113396422A (zh) | 使用生物统计数据训练感知任务的机器学习模型 | |
Kampouraki et al. | e-Doctor: a web based support vector machine for automatic medical diagnosis | |
Al Machot et al. | Improving subject-independent human emotion recognition using electrodermal activity sensors for active and assisted living | |
Helaly et al. | Deep convolution neural network implementation for emotion recognition system | |
Schuller | Multimodal user state and trait recognition: An overview | |
Alharbi | A genetic-ELM neural network computational method for diagnosis of the Parkinson disease gait dataset | |
KR102698013B1 (ko) | 인공 지능 기반 맞춤형 건강 증진 컨텐츠 서비스를 추천하는 방법 및 장치 | |
US20220101101A1 (en) | Domain adaptation | |
GB2572182A (en) | Emotion signals to train AI | |
Rajasekhar et al. | A novel speech emotion recognition model using mean update of particle swarm and whale optimization-based deep belief network | |
Gupta et al. | Multi-stage Indian sign language classification with Sensor Modality Assessment | |
KR20220086878A (ko) | 사용자의 감정을 디지털 상에 복제하는 감정 디지털 트윈을 생성하는 방법 및 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200305 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210216 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210415 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210608 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210621 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6911505 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |