JP7199451B2 - 感情コンピューティングユーザインターフェースに基づく感性的インタラクションシステム、装置及び方法 - Google Patents
感情コンピューティングユーザインターフェースに基づく感性的インタラクションシステム、装置及び方法 Download PDFInfo
- Publication number
- JP7199451B2 JP7199451B2 JP2020562804A JP2020562804A JP7199451B2 JP 7199451 B2 JP7199451 B2 JP 7199451B2 JP 2020562804 A JP2020562804 A JP 2020562804A JP 2020562804 A JP2020562804 A JP 2020562804A JP 7199451 B2 JP7199451 B2 JP 7199451B2
- Authority
- JP
- Japan
- Prior art keywords
- emotional
- user
- emotion
- interaction
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000002996 emotional effect Effects 0.000 title claims description 448
- 230000003993 interaction Effects 0.000 title claims description 298
- 238000000034 method Methods 0.000 title claims description 81
- 230000008451 emotion Effects 0.000 claims description 269
- 238000004364 calculation method Methods 0.000 claims description 75
- 230000014509 gene expression Effects 0.000 claims description 73
- 230000002452 interceptive effect Effects 0.000 claims description 61
- 230000015572 biosynthetic process Effects 0.000 claims description 58
- 230000008909 emotion recognition Effects 0.000 claims description 38
- 238000013480 data collection Methods 0.000 claims description 13
- 239000000284 extract Substances 0.000 claims description 11
- 230000008859 change Effects 0.000 claims description 10
- 238000004458 analytical method Methods 0.000 claims description 8
- 230000001953 sensory effect Effects 0.000 claims description 6
- 230000008569 process Effects 0.000 description 57
- 230000008921 facial expression Effects 0.000 description 34
- 238000004891 communication Methods 0.000 description 31
- 238000012545 processing Methods 0.000 description 26
- 239000011159 matrix material Substances 0.000 description 24
- 238000010586 diagram Methods 0.000 description 18
- 238000009826 distribution Methods 0.000 description 17
- 238000010801 machine learning Methods 0.000 description 15
- 230000001815 facial effect Effects 0.000 description 14
- 230000009471 action Effects 0.000 description 11
- 230000004927 fusion Effects 0.000 description 10
- 230000000007 visual effect Effects 0.000 description 10
- 230000006870 function Effects 0.000 description 8
- 238000013507 mapping Methods 0.000 description 8
- 230000004044 response Effects 0.000 description 8
- 238000013527 convolutional neural network Methods 0.000 description 6
- 238000000605 extraction Methods 0.000 description 6
- 230000033001 locomotion Effects 0.000 description 6
- 238000004590 computer program Methods 0.000 description 5
- 230000003068 static effect Effects 0.000 description 5
- 238000012549 training Methods 0.000 description 5
- 239000013598 vector Substances 0.000 description 5
- 230000037007 arousal Effects 0.000 description 4
- 230000036772 blood pressure Effects 0.000 description 4
- 206010019233 Headaches Diseases 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 231100000869 headache Toxicity 0.000 description 3
- 206010025482 malaise Diseases 0.000 description 3
- 230000007935 neutral effect Effects 0.000 description 3
- 231100000430 skin reaction Toxicity 0.000 description 3
- 206010048909 Boredom Diseases 0.000 description 2
- 241000282326 Felis catus Species 0.000 description 2
- 238000013475 authorization Methods 0.000 description 2
- 230000036760 body temperature Effects 0.000 description 2
- 238000007405 data analysis Methods 0.000 description 2
- 238000013481 data capture Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000005315 distribution function Methods 0.000 description 2
- 210000000887 face Anatomy 0.000 description 2
- 238000007667 floating Methods 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 238000010845 search algorithm Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 208000019901 Anxiety disease Diseases 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 206010040914 Skin reaction Diseases 0.000 description 1
- 206010041349 Somnolence Diseases 0.000 description 1
- 125000002015 acyclic group Chemical group 0.000 description 1
- 238000000540 analysis of variance Methods 0.000 description 1
- 230000036506 anxiety Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 210000003403 autonomic nervous system Anatomy 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000001364 causal effect Effects 0.000 description 1
- 210000003169 central nervous system Anatomy 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006397 emotional response Effects 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 210000001097 facial muscle Anatomy 0.000 description 1
- 230000002068 genetic effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012880 independent component analysis Methods 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000008929 regeneration Effects 0.000 description 1
- 238000011069 regeneration method Methods 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
- 230000001020 rhythmical effect Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 230000035483 skin reaction Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000013179 statistical model Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
- 210000001260 vocal cord Anatomy 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
- 230000002747 voluntary effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
- G06N5/022—Knowledge engineering; Knowledge acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/011—Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/038—Indexing scheme relating to G06F3/038
- G06F2203/0381—Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/10—Machine learning using kernel methods, e.g. support vector machines [SVM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/12—Computing arrangements based on biological models using genetic models
- G06N3/126—Evolutionary algorithms, e.g. genetic algorithms or genetic programming
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Mathematical Analysis (AREA)
- Computational Mathematics (AREA)
- Algebra (AREA)
- Audiology, Speech & Language Pathology (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Description
(2)画像、テクスチャー及び深度情報を用いて顔の全体的な特徴を表現する。
(3)ランドマーク点に隣接する周辺領域の幾何学的情報(例えば、深度パッチ1412)を用いる。
(4)身分識別と顔面表情認識との間においてマルチタスキング対抗関係を構築することによって表情特徴を洗練する。
・感情状態1218A:中立(0.1)、疲労(0.5)、悲しい(0.4)
・焦点1220A:会議(0.1)、音楽再生(0.5)、頭痛(0.4)
・感情意図のインタラティブ文脈1222A:(null)
・語義データ1224A:今日、会議、頭痛及び音楽再生
・場面内容1226A:時間(6:50)及び場所(事務室)
・インタラクション意図のインタラクティブ文脈1228A:(null)。
P(明るい音楽を再生)=(P(慰め、音楽再生/明るい音楽を再生)×P(慰め)+P(励まし、音楽再生/明るい音楽を再生)×P(励まし))×P(音楽再生)=(0.1×0.8+0.9×0.2)×0.8=0.208。
P(明るい音楽を再生)=(P(慰め、音楽再生/明るい音楽を再生)×P(慰め)+P(励まし、音楽再生/明るい音楽を再生)×P(励まし)×P(音楽再生)=(0.1×0.8+0.9×0.2)×1=0.26。
・感情状態1218B:中立(0.1)、疲労(0.5)、悲しい(0.4)
・焦点1220B:睡眠(0.2)、音楽変更(0.6)、残業(0.2)
・感情意図のインタラクティブ文脈1222B:慰め(0.8)及び励まし(0.2)
・語義データ1224B:睡眠、ダメ、音楽変更、残業
・場面内容1226B:時間(6:50)、場所(事務室)
・インタラクション意図のインタラクティブ文脈1228B:音楽再生(0.8)及び休憩(0.2)。
・感情状態1218C:中立(0.2)、楽しい(0.7)、退屈(0.1)
・焦点1220C:素敵(0.2)、30分(0.6)、出かける(0.2)
・感情意図に対応するインタラクティブ文脈1222C:慰め(0.3)、励まし(0.7)
・語義データ1224C:この、素敵、30分、出かけるリマインド
・場面内容1226C:時間(7:00)、場所(事務室)
・インタラクション意図に対応するインタラクティブ文脈1228C:音楽再生(0.9)、休憩(0.1)。
Claims (15)
- ユーザ意図計算ユニットと、前記ユーザ意図計算ユニットに接続される感情戦略形成ユニットと、前記ユーザ意図計算ユニットに接続される場面内容分析部と、前記ユーザ意図計算ユニットに接続され、前記ユーザ意図計算ユニットがユーザからの入力の意味を理解するよう、語義データを提供する語義データベースと、前記ユーザ意図計算ユニットに接続され、前記ユーザとインタラクション会話を行うときに前記ユーザ意図計算ユニットが基本的な事実情報を理解するよう、一般知識データを提供する一般知識データベースと、前記ユーザ意図計算ユニットに接続され、特定のビジネス分野のビジネスロジックを含んだ分野知識データを提供する分野知識データベースと、を備え、
前記場面内容分析部は、感性的インタラクションが発生する場面に関する情報を含む場面内容を提供し、
前記ユーザ意図計算ユニットは、感情関連データ及び前記ユーザの感情状態を受信し、前記場面内容分析部から前記場面内容を取得し、前記場面内容、前記感情関連データ及び前記感情状態と、前記語義データ、前記一般知識データ及び前記分野知識データのうちの少なくとも1つとに基づいてユーザ意図を認識し、
前記ユーザ意図は感情意図及び/又はインタラクション意図を含み、前記感情意図は前記感情状態に対応し、前記インタラクション意図は1つ又は複数のトランザクション意図を含み、
前記感情戦略形成ユニットは、前記ユーザ意図に基づいて感性的命令を生成し、
前記感性的命令は実行可能な指令を含み、前記実行可能な指令は、前記ユーザ意図に対応する1つ又は複数のモダリティによって感情表出を生成するために用いられる
ことを特徴とする感性的インタラクションシステム。 - 前記ユーザ意図計算ユニットに接続されてインタラクティブ文脈情報を提供するインタラクティブ文脈分析部を更に備え、
前記ユーザ意図計算ユニットは、
前記インタラクティブ文脈分析部から前記インタラクティブ文脈情報を取得し、
前記感情関連データの時間シーケンスを取得し、
前記場面内容、前記時間シーケンス、前記感情状態及び前記インタラクティブ文脈情報に基づいて、前記ユーザ意図を認識する
ことを特徴とする請求項1に記載の感性的インタラクションシステム。 - 前記ユーザ意図計算ユニットに接続されてインタラクティブ文脈情報を提供するインタラクティブ文脈分析部を更に備え、
前記ユーザ意図計算ユニットは、
前記インタラクティブ文脈分析部から前記インタラクティブ文脈情報を取得し、
前記場面内容、前記感情関連データ、前記感情状態及び前記インタラクティブ文脈情報に基づいて、ベイジアンネットワークを用いて前記ユーザ意図を認識するか、又は、
前記場面内容、前記感情関連データ、前記感情状態及び前記インタラクティブ文脈情報を、感情語義データベースにおける予め設定されたユーザ意図にマッチングすることによって、前記ユーザ意図を認識するか、又は、
前記場面内容、前記感情関連データ、前記感情状態及び前記インタラクティブ文脈情報に基づいて、1つ又は複数のユーザ意図を含んでいる意図ライブラリにおいて検索することによって、前記ユーザ意図を認識する
ことを特徴とする請求項1に記載の感性的インタラクションシステム。 - 前記感情戦略形成ユニットは、
以前の感性的インタラクション会話において生成された他の1つの感性的命令が既に遂行された場合、前記ユーザ意図に基づいて前記感性的命令を生成するか、又は、
前記感情状態の変化が予め設定された閾値を超えた場合、動的に変化した前記感情状態に対応する前記ユーザ意図に基づいて前記感性的命令を生成するか、又は、
前記感情状態が動的に変化している場合、予め設定された時間間隔内の前記感情状態に対応する前記ユーザ意図に基づいて前記感性的命令を生成する
ことを特徴とする請求項1ないし3のいずれか一項に記載の感性的インタラクションシステム。 - 前記感性的命令は、
前記ユーザに対して表される前記感情表出の感情モダリティと、前記ユーザに対して表される前記感情表出の出力感情状態と、前記ユーザに対して表される前記感情表出の感情強度と、のうちの少なくとも1つを更に含み、
前記感情モダリティは、前記ユーザのデータの1つ又は複数のモダリティによって決められる
ことを特徴とする請求項1ないし4のいずれか一項に記載の感性的インタラクションシステム。 - データ収集部を備えるマルチチャンネルフロントエンド端末と、感情認識部と、を更に備え、
前記データ収集部は、前記ユーザから1つ又は複数のモダリティを有する前記感情関連データを捕獲し、
前記感情認識部は前記データ収集部と前記ユーザ意図計算ユニットとのそれぞれに接続されて、前記感情関連データを受信し、前記感情関連データに基づいて前記感情状態を認識する
ことを特徴とする請求項1乃至5のいずれか一項に記載の感性的インタラクションシステム。 - 前記マルチチャンネルフロントエンド端末は、前記感情戦略形成ユニットに接続される感情計算表出生成部を更に備え、
前記感情計算表出生成部は、前記感性的命令に基づいて前記感情表出を生成し、さらに生成した前記感情表出を前記ユーザに伝える
ことを特徴とする請求項6に記載の感性的インタラクションシステム。 - 感性的インタラクションが発生する場面に関する情報を含む場面内容を取得するステップと、
ユーザからの感情関連データ及び感情状態を受信するステップと、
前記場面内容、前記感情関連データ及び前記感情状態に基づいてユーザ意図を認識するステップと、
前記ユーザ意図に基づいて感性的命令を生成するステップと、を含み、
前記ユーザ意図は感情意図及び/又はインタラクション意図を含み、前記感情意図は前記感情状態に対応し、前記インタラクション意図は1つ又は複数のトランザクション意図を含み、
前記感性的命令は実行可能な指令を含み、前記実行可能な指令は、前記ユーザ意図に対応する1つ又は複数のモダリティによって感情表出を生成するために用いられ、
前記場面内容、前記感情関連データ及び前記感情状態に基づいてユーザ意図を認識する前記ステップは、
前記場面内容、前記感情関連データ及び前記感情状態と、語義データ、一般知識データ及び分野知識データのうちの少なくとも1つとに基づいて、前記ユーザ意図を認識するステップを含み、
前記語義データは、前記ユーザからの入力の意味が理解されるために語義データベースにより提供され、
前記一般知識データは、インタラクション会話における基本的な事実情報が理解されるために一般知識データベースにより提供され、
前記分野知識データは、特定のビジネス分野のビジネスロジックを含んでおり、分野知識データベースにより提供される
ことを特徴とする感性的インタラクション方法。 - 前記場面内容、前記感情関連データ及び前記感情状態に基づいて前記ユーザ意図を認識する前記ステップは、
インタラクティブ文脈情報を受信するステップと、
前記感情関連データの時間シーケンスを取得するステップと、
前記場面内容、前記時間シーケンス、前記感情状態及び前記インタラクティブ文脈情報に基づいて前記ユーザ意図を認識するステップと、を含む
ことを特徴とする請求項8に記載の感性的インタラクション方法。 - 前記場面内容、前記感情関連データ及び前記感情状態に基づいて前記ユーザ意図を認識する前記ステップは、
インタラクティブ文脈情報を取得するステップと、
前記場面内容、前記感情関連データ、前記感情状態及び前記インタラクティブ文脈情報に基づいて、ベイジアンネットワークを用いて前記ユーザ意図を認識するステップ、又は前記場面内容、前記感情関連データ、前記感情状態及び前記インタラクティブ文脈情報を、感情語義データベースにおける予め設定されたユーザ意図にマッチングすることによって、前記ユーザ意図を認識するステップ、又は前記場面内容、前記感情関連データ、前記感情状態及び前記インタラクティブ文脈情報に基づいて、1つ又は複数のユーザ意図を含んでいる意図ライブラリにおいて検索することによって前記ユーザ意図を認識するステップと、を含む
ことを特徴とする請求項8に記載の感性的インタラクション方法。 - 前記ユーザ意図に基づいて感性的命令を生成する前記ステップは、
以前の感性的インタラクション会話において生成された他の1つの感性的命令が既に遂行された場合、前記ユーザ意図に基づいて前記感性的命令を生成するステップ、又は、
前記感情状態の変化が予め設定された閾値を超えた場合、動的に変化した前記感情状態に対応する前記ユーザ意図に基づいて前記感性的命令を生成するステップ、又は、
前記感情状態が動的に変化している場合、予め設定された時間間隔内の前記感情状態に対応する前記ユーザ意図に基づいて前記感性的命令を生成するステップ、を含む
ことを特徴とする請求項8ないし10のいずれか一項に記載の感性的インタラクション方法。 - 前記感性的命令は、
前記ユーザに対して表される前記感情表出の感情モダリティと、前記ユーザに対して表される前記感情表出の出力感情状態と、前記ユーザに対して表される前記感情表出の感情強度と、のうちの少なくとも1つを更に含み、
前記感情モダリティは、前記ユーザのデータの1つ又は複数のモダリティによって決められる
ことを特徴とする請求項8ないし11のいずれか一項に記載の感性的インタラクション方法。 - 前記ユーザから1つ又は複数のモダリティを有する前記感情関連データを捕獲するステップと、
前記感情関連データに基づいて前記感情状態を認識するステップと、を更に含む
ことを特徴とする請求項8ないし12のいずれか一項に記載の感性的インタラクション方法。 - 前記感性的命令に基づいて前記感情表出を生成するステップと、
前記感情表出を前記ユーザに伝えるステップと、を更に含む
ことを特徴とする請求項8ないし13のいずれか一項に記載の感性的インタラクション方法。 - 前記場面内容、前記感情関連データ及び前記感情状態に基づいてユーザ意図を認識する前記ステップは、
1つの感性的インタラクション会話において先に認識された意図に基づいて将来のインタラクション意図及び/又は将来の感情意図のトレンドを予測するか、又は過去の感性的インタラクション会話の履歴データに基づいて感性的インタラクション会話におけるインタラクション意図及び/又は感情意図のトレンドを予測するために、インタラクションシーケンスを分析するステップと、
前記感情関連データにおける情報の重みを確定して最大重みを有する情報を抽出するために、前記感情関連データから注目される焦点を抽出するステップと、
語義規則に基づいて語義情報を抽出して感情関連データの語義を取得するステップと、を含む
ことを特徴とする請求項8乃至14のいずれか一項に記載の感性的インタラクション方法。
Applications Claiming Priority (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810078132.4 | 2018-01-26 | ||
CN201810077175.0A CN108334583B (zh) | 2018-01-26 | 2018-01-26 | 情感交互方法及装置、计算机可读存储介质、计算机设备 |
CN201810077175.0 | 2018-01-26 | ||
CN201810079432.4A CN108227932B (zh) | 2018-01-26 | 2018-01-26 | 交互意图确定方法及装置、计算机设备及存储介质 |
CN201810079432.4 | 2018-01-26 | ||
CN201810078132.4A CN110110169A (zh) | 2018-01-26 | 2018-01-26 | 人机交互方法及人机交互装置 |
PCT/CN2018/088389 WO2019144542A1 (en) | 2018-01-26 | 2018-05-25 | Affective interaction systems, devices, and methods based on affective computing user interface |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021514514A JP2021514514A (ja) | 2021-06-10 |
JP7199451B2 true JP7199451B2 (ja) | 2023-01-05 |
Family
ID=67395738
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020562804A Active JP7199451B2 (ja) | 2018-01-26 | 2018-05-25 | 感情コンピューティングユーザインターフェースに基づく感性的インタラクションシステム、装置及び方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11226673B2 (ja) |
JP (1) | JP7199451B2 (ja) |
WO (1) | WO2019144542A1 (ja) |
Families Citing this family (59)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11188840B1 (en) * | 2017-12-29 | 2021-11-30 | Intuit, Inc. | Machine-learning models to facilitate user retention for software applications |
US11551042B1 (en) * | 2018-08-27 | 2023-01-10 | Snap Inc. | Multimodal sentiment classification |
KR102252195B1 (ko) * | 2018-09-14 | 2021-05-13 | 엘지전자 주식회사 | 감성 인식기 및 이를 포함하는 로봇, 서버 |
WO2020117358A2 (en) * | 2018-09-27 | 2020-06-11 | Brown University | Systems and methods for operating robots using object-oriented partially observable markov decision processes |
JP6993314B2 (ja) * | 2018-11-09 | 2022-01-13 | 株式会社日立製作所 | 対話システム、装置、及びプログラム |
US11557297B2 (en) | 2018-11-09 | 2023-01-17 | Embodied, Inc. | Systems and methods for adaptive human-machine interaction and automatic behavioral assessment |
CA3061745A1 (en) * | 2018-11-16 | 2020-05-16 | Royal Bank Of Canada | System and method for generative model for stochastic point processes |
WO2020181119A1 (en) * | 2019-03-07 | 2020-09-10 | Alibaba Group Holding Limited | Video reconstruction method, system, device, and computer readable storage medium |
US11842729B1 (en) * | 2019-05-08 | 2023-12-12 | Apple Inc. | Method and device for presenting a CGR environment based on audio data and lyric data |
US20220236945A1 (en) * | 2019-05-16 | 2022-07-28 | Sony Group Corporation | Information processing device, information processing method, and program |
JP2021068065A (ja) * | 2019-10-18 | 2021-04-30 | 富士ゼロックス株式会社 | クエリ生成システム、検索システム及びプログラム |
CN110827312B (zh) * | 2019-11-12 | 2023-04-28 | 北京深境智能科技有限公司 | 一种基于协同视觉注意力神经网络的学习方法 |
WO2021092935A1 (zh) * | 2019-11-15 | 2021-05-20 | 深圳海付移通科技有限公司 | 基于图像数据的消息推送方法、设备及计算机存储介质 |
US11429869B2 (en) * | 2019-11-21 | 2022-08-30 | International Business Machines Corporation | Artificially intelligent interaction agent |
JP7123028B2 (ja) * | 2019-11-27 | 2022-08-22 | Tis株式会社 | 情報処理システム、情報処理方法、及びプログラム |
CN111164601B (zh) * | 2019-12-30 | 2023-07-18 | 深圳市优必选科技股份有限公司 | 情感识别方法、智能装置和计算机可读存储介质 |
US11386712B2 (en) * | 2019-12-31 | 2022-07-12 | Wipro Limited | Method and system for multimodal analysis based emotion recognition |
JP7413055B2 (ja) * | 2020-02-06 | 2024-01-15 | 本田技研工業株式会社 | 情報処理装置、車両、プログラム、及び情報処理方法 |
US11335342B2 (en) * | 2020-02-21 | 2022-05-17 | International Business Machines Corporation | Voice assistance system |
CN115461198A (zh) * | 2020-02-29 | 2022-12-09 | 具象有限公司 | 管理用户与机器人之间的会话 |
EP4111332A4 (en) | 2020-02-29 | 2024-05-01 | Embodied, Inc. | SYSTEMS AND METHODS FOR CREATING AND MODIFYING PRESENTATION CONVERSATION FILES FOR MULTIMODAL INTERACTIVE COMPUTING DEVICES / ARTIFICIAL COMPANIONS |
WO2021174162A1 (en) | 2020-02-29 | 2021-09-02 | Embodied, Inc. | Multimodal beamforming and attention filtering for multiparty interactions |
CN115461749A (zh) | 2020-02-29 | 2022-12-09 | 具象有限公司 | 用于机器人计算设备/数字伴侣与用户之间的短期和长期对话管理的系统和方法 |
CN111274490B (zh) * | 2020-03-26 | 2024-01-19 | 北京百度网讯科技有限公司 | 咨询信息的处理方法和装置 |
WO2021218614A1 (zh) * | 2020-04-30 | 2021-11-04 | 陈永聪 | 通用人工智能的体系建立 |
US20220036554A1 (en) * | 2020-08-03 | 2022-02-03 | Healthcare Integrated Technologies Inc. | System and method for supporting the emotional and physical health of a user |
CN111859925B (zh) * | 2020-08-06 | 2023-08-08 | 东北大学 | 一种基于概率情感词典的情感分析系统及方法 |
CN112348640B (zh) * | 2020-11-12 | 2021-08-13 | 北京科技大学 | 一种基于面部情感状态分析的在线购物系统及方法 |
CN113014471B (zh) * | 2021-01-18 | 2022-08-19 | 腾讯科技(深圳)有限公司 | 会话处理方法,装置、终端和存储介质 |
CN113095185B (zh) * | 2021-03-31 | 2024-09-10 | 新疆爱华盈通信息技术有限公司 | 人脸表情识别方法、装置、设备及存储介质 |
CN113127708B (zh) * | 2021-04-20 | 2024-06-07 | 中国科学技术大学 | 信息交互方法、装置、设备及存储介质 |
WO2022233421A1 (en) * | 2021-05-06 | 2022-11-10 | Optimum Health Ltd | Systems and methods for real-time determinations of mental health disorders using multi-tier machine learning models based on user interactions with computer systems |
CN113331839A (zh) * | 2021-05-28 | 2021-09-03 | 武汉科技大学 | 一种基于多源信息融合的网络学习注意力监测方法及系统 |
CN113239693B (zh) * | 2021-06-01 | 2023-10-27 | 平安科技(深圳)有限公司 | 意图识别模型的训练方法、装置、设备及存储介质 |
US20220391732A1 (en) * | 2021-06-04 | 2022-12-08 | International Business Machines Corporation | Continuous optimization of human-algorithm collaboration performance |
CN113435518B (zh) * | 2021-06-29 | 2024-03-22 | 青岛海尔科技有限公司 | 特征融合基于多模态的交互方法及装置 |
CN113421546B (zh) * | 2021-06-30 | 2024-03-01 | 平安科技(深圳)有限公司 | 基于跨被试多模态的语音合成方法及相关设备 |
CN113421594B (zh) * | 2021-06-30 | 2023-09-22 | 平安科技(深圳)有限公司 | 语音情感识别方法、装置、设备及存储介质 |
US20230008868A1 (en) * | 2021-07-08 | 2023-01-12 | Nippon Telegraph And Telephone Corporation | User authentication device, user authentication method, and user authentication computer program |
CN113268994B (zh) * | 2021-07-16 | 2021-10-01 | 中国平安人寿保险股份有限公司 | 基于胶囊网络的意图识别方法及装置 |
CN113593521B (zh) * | 2021-07-29 | 2022-09-20 | 北京三快在线科技有限公司 | 语音合成方法、装置、设备及可读存储介质 |
CN113749656B (zh) * | 2021-08-20 | 2023-12-26 | 杭州回车电子科技有限公司 | 基于多维生理信号的情感识别方法和装置 |
CN113722505B (zh) * | 2021-08-30 | 2023-04-18 | 海南大学 | 面向dikw资源的情感表达映射、度量与优化传输系统 |
CN113705732B (zh) * | 2021-09-26 | 2024-02-02 | 华东理工大学 | 基于通用模型的减少p300训练时间的方法及装置 |
CN114035686B (zh) * | 2021-11-10 | 2024-04-16 | 浙江大学 | 融合触觉的多模态微动效广告情境构建方法 |
CN114093028A (zh) * | 2021-11-19 | 2022-02-25 | 济南大学 | 一种基于意图分析的人机协同方法、系统及机器人 |
CN114374664B (zh) * | 2021-12-15 | 2022-09-23 | 海南大学 | 基于公平性导向的情感内容dikw化映射与传输方法 |
CN113946673B (zh) * | 2021-12-20 | 2022-04-08 | 深圳市一号互联科技有限公司 | 一种基于语义的客服智能路由处理方法和装置 |
CN114357135B (zh) * | 2021-12-31 | 2024-11-01 | 科大讯飞股份有限公司 | 交互方法、交互装置、电子设备以及存储介质 |
CN117648411A (zh) * | 2022-08-19 | 2024-03-05 | 华为技术有限公司 | 一种表情生成方法以及装置 |
EP4375156A1 (en) * | 2022-11-22 | 2024-05-29 | Toyota Jidosha Kabushiki Kaisha | Method and data processing device for controlling a device based on a state of its user |
CN116271786B (zh) * | 2023-02-08 | 2023-10-13 | 广州市邦杰软件科技有限公司 | 一种动漫游戏机的界面交互控制方法及装置 |
CN115793865B (zh) * | 2023-02-09 | 2023-04-14 | 中用科技有限公司 | 一种减少计算阻塞的人工智能交互方法 |
CN117575013B (zh) * | 2023-09-12 | 2024-08-06 | 田帅领 | 应用于网络安全平台的交互挖掘方法及人工智能预测系统 |
CN117972160B (zh) * | 2024-02-21 | 2024-09-06 | 暗物智能科技(广州)有限公司 | 一种多模态信息处理方法及装置 |
CN117852553B (zh) * | 2024-03-07 | 2024-05-10 | 深圳华强电子网集团股份有限公司 | 基于聊天记录提取元器件交易场景信息的语言处理系统 |
CN117933269B (zh) * | 2024-03-22 | 2024-06-18 | 合肥工业大学 | 一种基于情感分布的多模态深度模型构建方法及系统 |
CN118446230B (zh) * | 2024-07-02 | 2024-09-27 | 合肥综合性国家科学中心人工智能研究院(安徽省人工智能实验室) | 一种捕捉情感支持对话中动态因果关系的方法 |
CN118467848B (zh) * | 2024-07-10 | 2024-09-10 | 山东亚微软件股份有限公司 | 基于情境识别的用户类型识别与交互系统及方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005346471A (ja) | 2004-06-03 | 2005-12-15 | Canon Inc | 情報処理方法、情報処理装置 |
JP2014174988A (ja) | 2013-03-11 | 2014-09-22 | Immersion Corp | 自動ハプティック効果調整システム |
JP2017156854A (ja) | 2016-02-29 | 2017-09-07 | Kddi株式会社 | 感情分類によって文脈意味の理解精度を高める発話意味分析プログラム、装置及び方法 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0981632A (ja) * | 1995-09-13 | 1997-03-28 | Toshiba Corp | 情報公開装置 |
US6510412B1 (en) * | 1998-06-02 | 2003-01-21 | Sony Corporation | Method and apparatus for information processing, and medium for provision of information |
KR20130084543A (ko) | 2012-01-17 | 2013-07-25 | 삼성전자주식회사 | 사용자 인터페이스 제공 장치 및 방법 |
US20150278783A1 (en) * | 2014-03-31 | 2015-10-01 | Comr.Se Corp. | Native e-commerce transactables for familiar user environments |
US9978362B2 (en) * | 2014-09-02 | 2018-05-22 | Microsoft Technology Licensing, Llc | Facet recommendations from sentiment-bearing content |
US10334158B2 (en) * | 2014-11-03 | 2019-06-25 | Robert John Gove | Autonomous media capturing |
CN105843381B (zh) | 2016-03-18 | 2020-07-28 | 北京光年无限科技有限公司 | 用于实现多模态交互的数据处理方法及多模态交互系统 |
CN105843118B (zh) | 2016-03-25 | 2018-07-27 | 北京光年无限科技有限公司 | 一种机器人交互方法及机器人系统 |
CN107291654A (zh) * | 2016-03-31 | 2017-10-24 | 深圳光启合众科技有限公司 | 机器人的智能决策系统和方法 |
CN106537294A (zh) | 2016-06-29 | 2017-03-22 | 深圳狗尾草智能科技有限公司 | 一种机器人交互内容的生成方法、系统及机器人 |
CN106773923B (zh) | 2016-11-30 | 2020-04-21 | 北京光年无限科技有限公司 | 面向机器人的多模态情感数据交互方法及装置 |
CN106683672B (zh) | 2016-12-21 | 2020-04-03 | 竹间智能科技(上海)有限公司 | 一种基于情感和语义的智能对话方法及系统 |
CN106649762A (zh) * | 2016-12-27 | 2017-05-10 | 竹间智能科技(上海)有限公司 | 基于追问问题与反馈信息的意图识别方法、系统 |
CN107562816B (zh) | 2017-08-16 | 2021-02-09 | 苏州狗尾草智能科技有限公司 | 用户意图自动识别方法及装置 |
-
2018
- 2018-05-25 JP JP2020562804A patent/JP7199451B2/ja active Active
- 2018-05-25 WO PCT/CN2018/088389 patent/WO2019144542A1/en active Application Filing
- 2018-05-25 US US16/080,301 patent/US11226673B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005346471A (ja) | 2004-06-03 | 2005-12-15 | Canon Inc | 情報処理方法、情報処理装置 |
JP2014174988A (ja) | 2013-03-11 | 2014-09-22 | Immersion Corp | 自動ハプティック効果調整システム |
JP2017156854A (ja) | 2016-02-29 | 2017-09-07 | Kddi株式会社 | 感情分類によって文脈意味の理解精度を高める発話意味分析プログラム、装置及び方法 |
Also Published As
Publication number | Publication date |
---|---|
US20210191506A1 (en) | 2021-06-24 |
WO2019144542A1 (en) | 2019-08-01 |
JP2021514514A (ja) | 2021-06-10 |
US11226673B2 (en) | 2022-01-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7199451B2 (ja) | 感情コンピューティングユーザインターフェースに基づく感性的インタラクションシステム、装置及び方法 | |
CN111459290B (zh) | 交互意图确定方法及装置、计算机设备及存储介质 | |
Marechal et al. | Survey on AI-Based Multimodal Methods for Emotion Detection. | |
CN108334583B (zh) | 情感交互方法及装置、计算机可读存储介质、计算机设备 | |
US10884503B2 (en) | VPA with integrated object recognition and facial expression recognition | |
Lee et al. | Study on emotion recognition and companion Chatbot using deep neural network | |
Pantic et al. | Toward an affect-sensitive multimodal human-computer interaction | |
Vinola et al. | A survey on human emotion recognition approaches, databases and applications | |
CN110110169A (zh) | 人机交互方法及人机交互装置 | |
Sheth et al. | Cognitive services and intelligent chatbots: current perspectives and special issue introduction | |
Geetha et al. | Multimodal Emotion Recognition with deep learning: advancements, challenges, and future directions | |
Pan et al. | A review of multimodal emotion recognition from datasets, preprocessing, features, and fusion methods | |
Griol et al. | Modeling the user state for context-aware spoken interaction in ambient assisted living | |
Zhu et al. | Emotion recognition based on brain-like multimodal hierarchical perception | |
Gladys et al. | Survey on multimodal approaches to emotion recognition | |
Zhang et al. | Holistic affect recognition using PaNDA: paralinguistic non-metric dimensional analysis | |
Pham et al. | Speech emotion recognition using overlapping sliding window and Shapley additive explainable deep neural network | |
Bakhshi et al. | Multimodal emotion recognition based on speech and physiological signals using deep neural networks | |
Garay-Vitoria et al. | Application of an ontology-based platform for developing affective interaction systems | |
Wang et al. | Touch-text answer for human-robot interaction via supervised adversarial learning | |
O'Dwyer et al. | Affective computing using speech and eye gaze: a review and bimodal system proposal for continuous affect prediction | |
Bi et al. | A state of the art technology with machine intelligence in human emotion recognition | |
Bhatia | Bi-modal deep neural network for gait emotion recognition | |
Shoumy | Multimodal emotion recognition using data augmentation and fusion | |
CN111971670A (zh) | 在对话中生成响应 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200817 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200817 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210406 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211012 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220107 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220531 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220715 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221122 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221220 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7199451 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |