JP6101470B2 - 顔表情解析装置および顔表情解析プログラム - Google Patents
顔表情解析装置および顔表情解析プログラム Download PDFInfo
- Publication number
- JP6101470B2 JP6101470B2 JP2012237877A JP2012237877A JP6101470B2 JP 6101470 B2 JP6101470 B2 JP 6101470B2 JP 2012237877 A JP2012237877 A JP 2012237877A JP 2012237877 A JP2012237877 A JP 2012237877A JP 6101470 B2 JP6101470 B2 JP 6101470B2
- Authority
- JP
- Japan
- Prior art keywords
- facial expression
- analysis
- image data
- unit
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000008921 facial expression Effects 0.000 title claims description 447
- 238000010195 expression analysis Methods 0.000 title claims description 96
- 238000000611 regression analysis Methods 0.000 claims description 71
- 238000011156 evaluation Methods 0.000 claims description 67
- 238000000034 method Methods 0.000 claims description 59
- 238000004364 calculation method Methods 0.000 claims description 58
- 230000008569 process Effects 0.000 claims description 50
- 238000000605 extraction Methods 0.000 claims description 21
- 239000000284 extract Substances 0.000 claims description 10
- 238000013178 mathematical model Methods 0.000 claims description 9
- 238000012417 linear regression Methods 0.000 claims description 8
- 238000007477 logistic regression Methods 0.000 claims description 6
- 230000001815 facial effect Effects 0.000 description 43
- 238000012545 processing Methods 0.000 description 28
- 238000001514 detection method Methods 0.000 description 17
- 230000006870 function Effects 0.000 description 14
- 238000010586 diagram Methods 0.000 description 13
- 230000007935 neutral effect Effects 0.000 description 8
- 238000012986 modification Methods 0.000 description 7
- 230000004048 modification Effects 0.000 description 7
- 230000014509 gene expression Effects 0.000 description 6
- 238000007781 pre-processing Methods 0.000 description 6
- 230000010365 information processing Effects 0.000 description 3
- 230000008451 emotion Effects 0.000 description 2
- 210000004709 eyebrow Anatomy 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 206010063659 Aversion Diseases 0.000 description 1
- 241001169121 Gabriella Species 0.000 description 1
- 241000405217 Viola <butterfly> Species 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 210000004209 hair Anatomy 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000002945 steepest descent method Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Description
そこで、本発明は、上記の問題を解決するためになされたものであり、顔画像について、顔表情を分類するとともに、人間の感覚に近い顔表情の強度値を得ることができる、顔表情解析装置および顔表情解析プログラムを提供することを目的とする。
ここで、画像特徴量として、例えば、Bag−of−Keypoints、ローカルバイナリパターン、または拡張ローカルバイナリパターンを適用できる。
[3]上記[1]または[2]いずれか記載の顔表情解析装置において、前記顔表情評価部は、複数フレーム分の画像データを含む所定区間ごとに、前記区間内のフレームにおいて顔表情強度値が最大となる場合の顔表情強度値のみの総和値を顔表情種別ごとに計算し、最大の前記総和値に対応する顔表情種別を選出する、ことを特徴とする。
[4]上記[3]記載の顔表情解析装置において、前記顔表情評価部は、前記複数フレームよりも少ないフレーム数おきに、前記所定区間を前記フレーム数分ずらすことを特徴とする。
[5]上記の課題を解決するため、本発明の一態様である顔表情解析プログラムは、コンピュータを、画像データを取り込む画像データ取得部と、前記画像データ取得部が取り込んだ前記画像データから顔の解析領域を抽出する顔領域抽出部と、前記顔領域抽出部が抽出した前記解析領域の画像特徴量を計算する画像特徴量計算部と、前記画像特徴量計算部が計算した前記画像特徴量と前記画像データに対応付けられた顔表情種別ごとの顔表情強度教師値とを用いて回帰分析処理を実行することにより、数式モデルが有するパラメータ値を前記顔表情種別ごとに更新する回帰分析部と、前記回帰分析部が更新した前記パラメータ値を適用した前記数式モデルに、前記画像特徴量計算部が計算した画像特徴量を適用して、前記顔表情種別ごとに顔表情強度値を計算し、最大の顔表情強度値に対応する顔表情種別を選出する顔表情評価部と、として機能させる。
[第1の実施の形態]
本発明の第1実施形態である顔表情解析装置は、切替制御によって学習処理および顔表情解析処理を切り替えて実行する。学習処理は、顔表情解析装置が、顔表情種別ごとに、顔表情の度合(強度)がそれぞれ異なる顔画像データ列における各顔画像データの顔領域の画像特徴量と、評価者の主観評価による顔表情の度合を示す顔表情強度教師値との対応関係を回帰分析して、顔表情種別ごとの回帰モデルにおけるパラメータ値を求める処理である。また、顔表情解析処理は、顔表情解析装置が、顔表情種別ごとに学習済の回帰モデルに、評価用の顔画像データ(評価顔画像データ)における顔領域の画像特徴量を適用して、顔表情種別ごとに顔表情強度値を計算し、最大の顔表情強度値に対応する顔表情種別を選出する処理である。
なお、評価者は一人でもよいし、複数でもよい。評価者が複数である場合、各評価者によって付された値の平均値を顔表情強度教師値としてもよい。
具体的に、顔表情解析装置1が学習モードに設定されて実行する事前処理において、画像特徴量計算部40は、解析領域決定部32が決定した解析領域における上部解析領域からScale Invariant Feature Transformation(SIFT)特徴量またはSpeeded Up Robust Features(SURF)等の局所特徴量を計算する。画像特徴量計算部40は、全ての顔画像データについての局所特徴量についてクラスタリング処理を実行することによってクラスタを生成する。クラスタリング処理として、画像特徴量計算部40は、例えばK平均法を適用する。また、画像特徴量計算部40は、下部解析領域についても上部解析領域と同様にクラスタを生成する。そして、画像特徴量計算部40は、上部解析領域および下部解析領域それぞれについてのクラスタを記憶する。
なお、画像特徴量計算部40は、学習処理において用いる全ての顔画像データについての上部解析領域および下部解析領域それぞれに対するクラスタを、外部装置から供給を受けて記憶してもよい。
なお、画像特徴量計算部40は、下部解析領域における特徴量のヒストグラムの後に、上部解析領域における特徴量のヒストグラムを連結することによって、解析領域全体における特徴量のヒストグラムを生成してもよい。
まず、学習モードに設定された顔表情解析装置1は、学習処理において用いる全ての顔画像データを顔画像データベースから取り込んで、以下の事前処理を実行する。すなわち、顔表情解析装置1では、画像データ取得部10が顔画像データベースから顔画像データを取り込み、顔領域抽出部30がその取り込んだ顔画像データのサイズを正規化して解析領域(上部解析領域および下部解析領域)を抽出する。次に、画像特徴量計算部40が、上部解析領域からSIFT特徴量またはSURF等の局所特徴量を計算する。画像特徴量計算部40は、全ての顔画像データについての局所特徴量についてクラスタリング処理を実行することによってクラスタを生成する。また、画像特徴量計算部40は、下部解析領域についても上部解析領域と同様にクラスタを生成する。次に、画像特徴量計算部40は、上部解析領域および下部解析領域それぞれについてのクラスタを記憶する。
図8は、顔表情解析装置1が実行する学習処理の手順を示すフローチャートである。
ステップS1において、画像データ取得部10は、例えば、顔画像データベースに格納された複数の顔画像データから一つの顔画像データを取り込み、この顔画像データを顔領域抽出部30に供給する。
次に、ステップS2において、顔表情強度教師値取得部20は、ステップS1の処理において取り込まれた顔画像データに対応する顔表情強度教師値を、外部装置(例えば、顔画像データベース)から取り込み、この顔表情強度教師値を回帰分析部50に供給する。
次に、解析領域決定部32は、顔領域検出部31が検出した顔領域データを所定画素サイズ(例えば、水平方向128画素×垂直方向128画素)に正規化する。次に、解析領域決定部32は、正規化顔領域データから解析領域を抽出し、この解析領域から二つの解析部分領域(上部解析領域および下部解析領域)を決定する。
次に、画像特徴量計算部40は、上部解析領域および下部解析領域それぞれについてのBag−of−Keypointsを連結して解析領域全体のBag−of−Keypointsを生成する。
次に、画像特徴量計算部40は、解析領域全体のBag−of−Keypointsを、画像特徴量として回帰分析部50に供給する。
次に、ステップS7において、回帰モデル記憶部60は、回帰分析部50が供給するパラメータ値を、顔表情種別ごとに記憶する。
ステップS21において、画像データ取得部10は、例えば、撮影装置または記録装置が供給する、顔表情解析のための評価顔画像データを取り込み、この顔画像データを顔領域抽出部30に供給する。
次に、解析領域決定部32は、顔領域検出部31が検出した顔領域データを所定画素サイズ(例えば、水平方向128画素×垂直方向128画素)に正規化する。次に、解析領域決定部32は、正規化顔領域データから解析領域を抽出し、この解析領域から二つの解析部分領域(上部解析領域および下部解析領域)を決定する。
次に、画像特徴量計算部40は、上部解析領域および下部解析領域それぞれについてのBag−of−Keypointsを連結して解析領域全体のBag−of−Keypointsを生成する。
次に、画像特徴量計算部40は、解析領域全体のBag−of−Keypointsを、画像特徴量として顔表情評価部70に供給する。
本発明の第2実施形態では、第1実施形態における回帰分析部50が、ロジスティック回帰モデルを用いて、回帰分析処理を実行する。回帰モデルとしてロジスティック回帰モデルを適用した場合、回帰分析部50は、ロジスティック回帰分析処理として、画像特徴量および顔表情強度教師値の関係を、下記の式(2)に示す関数にモデル化する。ただし、Yは顔表情強度教師値、Xiは画像特徴量(i=1,・・・,I)である。また、α、βiはパラメータである。
本発明の第3実施形態では、第1実施形態における回帰分析部50が、サポートベクトル回帰モデルを用いて、回帰分析処理を実行する。本実施形態では、回帰分析部50は、サポートベクトル回帰分析処理として、下記の式(3)の形で、画像特徴量Xi(i=1,・・・,I)と顔表情強度教師値Yとを関係付ける。
前述した第1実施形態から第3実施形態いずれかである顔表情解析装置1を顔表情解析モードに設定し、動画像データを供給して顔表情解析処理を実行させた場合、顔表情解析装置1が生成する、一連のキーフレームそれぞれの顔表情種別情報に、周囲と異なる種類の顔表情種別情報が突発的に現出する場合がある。周囲と異なる種類の顔表情種別情報が突発的に現出する原因は、例えば、顔を撮影する際の照明による影やカメラに対する顔の向き等が顔表情に影響したり、顔表情強度値のばらつきが影響したりすることである。
本発明の第4実施形態である顔表情解析装置は、この突発的に現出する顔表情種別情報をノイズとみなして除去するものである。
顔表情解析装置1の顔表情評価部70は、複数フレーム分の画像データを含む区間(時間、フレーム数)ごとに、顔表情強度値の平均(例えば、各画像データに基づいて得られた顔表情強度値の最大値の平均)を計算し、平均値を当該区間における代表顔表情強度値とする。
上述した第4実施形態では、顔表情上解析装置1は、区間ごと(例えば、6フレームごとや10フレームごと)に顔表情強度値および顔表情種別情報を得るものであった。
本発明の第4実施形態の変形例である顔表情解析装置は、上記の区間を時間方向にずらしながら顔表情強度値および顔表情種別情報を得るものである。つまり、顔表情評価部70は、一区間に含まれる複数フレームよりも少ないフレーム数おきに、当該区間をそのフレーム数分ずらし、顔表情強度値の平均(区間における各画像データに基づいて得られた顔表情強度値の最大値の平均)を計算し、平均値を当該区間における代表顔表情強度値とする。
また、同図における中段のグラフおよび顔表情記号は、時刻(t2−tp)から時刻(t2+tf)までの区間を対象として、顔表情評価部70が代表顔表情強度値を計算し、また、代表顔種別を示す顔表情種別情報を生成することを示している。
また、同図における下段のグラフおよび顔表情記号は、時刻(t3−tp)から時刻(t3+tf)までの区間を対象として、顔表情評価部70が代表顔表情強度値を計算し、また、代表顔種別を示す顔表情種別情報を生成することを示している。
上述した本発明の第1実施形態から第4実施形態ならびに変形例において、画像特徴量計算部40は、画像特徴量としてBag−of−Keypointsを求める他に、例えば、ローカルバイナリパターン(Local Binary Patterns;LBP)、または拡張ローカルバイナリパターン(拡張LBP)を用いてもよい。
なお、ローカルバイナリパターンについては、例えば、Timo Ojala, Matti Pietikainen, Senior Member, IEEE and Topi Maenpaa, "Multiresolution Gray-Scale and Rotation Invariant Texture Classification with Local Binary Patterns", IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 24, no. 7, July 2002に、詳細が開示されている。
なお、拡張LBPについては、例えば、Guoying Zhao, Matti Pietikainen, "Dynamic Texture Recognition Using Local Binary Patterns with an Application to Facial Expressions", IEEE Transactions on Patterns Analysis and Machine Intelligence, vol. 29, no. 6, June 2007に、詳細が開示されている。
そこで、回帰分析部50に線形回帰モデルまたはサポートベクトル回帰モデルのいずれかを適用する場合、顔表情評価部70は、求めた顔表情強度値が“0(ゼロ)”未満であるときは“0(ゼロ)”、“100”を超えるときは“100”として、顔表情強度値を出力してもよい。
10 画像データ取得部
20 顔表情強度教師値取得部
30 顔領域抽出部
31 顔領域検出部
32 解析領域決定部
40 画像特徴量計算部
50 回帰分析部
60 回帰モデル記憶部
70 顔表情評価部
Claims (4)
- 画像データを取り込む画像データ取得部と、
前記画像データ取得部が取り込んだ前記画像データから顔の解析領域を抽出する顔領域抽出部と、
前記顔領域抽出部が抽出した前記解析領域の画像特徴量を計算する画像特徴量計算部と、
前記画像特徴量計算部が計算した前記画像特徴量と前記画像データに対応付けられた顔表情種別ごとの顔表情強度教師値とを用いて回帰分析処理を実行することにより、数式モデルが有するパラメータ値を前記顔表情種別ごとに更新する回帰分析部と、
前記回帰分析部が更新した前記パラメータ値を適用した前記数式モデルに、前記画像特徴量計算部が計算した画像特徴量を適用して、前記顔表情種別ごとに顔表情強度値を計算し、最大の顔表情強度値に対応する顔表情種別を選出する顔表情評価部と、
を備え、
前記顔表情評価部は、複数フレーム分の画像データを含む所定区間ごとに、前記区間内のフレームにおいて顔表情強度値が最大となる場合の顔表情強度値のみの総和値を顔表情種別ごとに計算し、最大の前記総和値に対応する顔表情種別を選出する、
ことを特徴とする顔表情解析装置。 - 前記顔表情評価部は、前記複数フレームよりも少ないフレーム数おきに、前記所定区間を前記フレーム数分ずらす
ことを特徴とする請求項1記載の顔表情解析装置。 - 前記回帰分析処理は、線形回帰分析処理、ロジスティック回帰分析処理、またはサポートベクトル回帰分析処理のいずれかである
ことを特徴とする請求項1または2記載の顔表情解析装置。 - コンピュータを、
画像データを取り込む画像データ取得部と、
前記画像データ取得部が取り込んだ前記画像データから顔の解析領域を抽出する顔領域抽出部と、
前記顔領域抽出部が抽出した前記解析領域の画像特徴量を計算する画像特徴量計算部と、
前記画像特徴量計算部が計算した前記画像特徴量と前記画像データに対応付けられた顔表情種別ごとの顔表情強度教師値とを用いて回帰分析処理を実行することにより、数式モデルが有するパラメータ値を前記顔表情種別ごとに更新する回帰分析部と、
前記回帰分析部が更新した前記パラメータ値を適用した前記数式モデルに、前記画像特徴量計算部が計算した画像特徴量を適用して、前記顔表情種別ごとに顔表情強度値を計算し、最大の顔表情強度値に対応する顔表情種別を選出する顔表情評価部と、
として機能させるための顔表情解析プログラムであって、
前記顔表情評価部は、複数フレーム分の画像データを含む所定区間ごとに、前記区間内のフレームにおいて顔表情強度値が最大となる場合の顔表情強度値のみの総和値を顔表情種別ごとに計算し、最大の前記総和値に対応する顔表情種別を選出する、
顔表情解析プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012237877A JP6101470B2 (ja) | 2012-07-23 | 2012-10-29 | 顔表情解析装置および顔表情解析プログラム |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012162748 | 2012-07-23 | ||
JP2012162748 | 2012-07-23 | ||
JP2012237877A JP6101470B2 (ja) | 2012-07-23 | 2012-10-29 | 顔表情解析装置および顔表情解析プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014041587A JP2014041587A (ja) | 2014-03-06 |
JP6101470B2 true JP6101470B2 (ja) | 2017-03-22 |
Family
ID=50393766
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012237877A Active JP6101470B2 (ja) | 2012-07-23 | 2012-10-29 | 顔表情解析装置および顔表情解析プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6101470B2 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6318765B2 (ja) * | 2014-03-27 | 2018-05-09 | 富士通株式会社 | 情報処理装置、評価器の構築方法、及びプログラム |
CN105095911B (zh) | 2015-07-31 | 2019-02-12 | 小米科技有限责任公司 | 敏感图片识别方法、装置以及服务器 |
JP6633476B2 (ja) * | 2016-08-26 | 2020-01-22 | 日本電信電話株式会社 | 属性推定装置、属性推定方法および属性推定プログラム |
KR20180057096A (ko) * | 2016-11-21 | 2018-05-30 | 삼성전자주식회사 | 표정 인식과 트레이닝을 수행하는 방법 및 장치 |
CN119131856A (zh) * | 2024-08-08 | 2024-12-13 | 江苏安方电力科技有限公司 | 一种基于面部表情的情感分析方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007065969A (ja) * | 2005-08-31 | 2007-03-15 | Osaka Prefecture Univ | 表情から心理状態を推定する方法 |
JP2012048360A (ja) * | 2010-08-25 | 2012-03-08 | Sony Corp | Id価値評価装置、id価値評価システム、及びid価値評価方法 |
-
2012
- 2012-10-29 JP JP2012237877A patent/JP6101470B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2014041587A (ja) | 2014-03-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Ouellet | Real-time emotion recognition for gaming using deep convolutional network features | |
Wang et al. | Learning and matching of dynamic shape manifolds for human action recognition | |
Mäkinen et al. | An experimental comparison of gender classification methods | |
Vukadinovic et al. | Fully automatic facial feature point detection using Gabor feature based boosted classifiers | |
Agrawal et al. | Facial expression detection techniques: based on Viola and Jones algorithm and principal component analysis | |
Vishwakarma et al. | Hybrid classifier based human activity recognition using the silhouette and cells | |
Nicolle et al. | Facial action unit intensity prediction via hard multi-task metric learning for kernel regression | |
Danelakis et al. | A survey on facial expression recognition in 3D video sequences | |
JP6101470B2 (ja) | 顔表情解析装置および顔表情解析プログラム | |
JP5879188B2 (ja) | 顔表情解析装置および顔表情解析プログラム | |
Bejaoui et al. | Fully automated facial expression recognition using 3D morphable model and mesh-local binary pattern | |
US8655084B2 (en) | Hand-based gender classification | |
Wu et al. | Privacy leakage of SIFT features via deep generative model based image reconstruction | |
JP6166981B2 (ja) | 表情解析装置及び表情解析プログラム | |
Szankin et al. | Influence of thermal imagery resolution on accuracy of deep learning based face recognition | |
JP2014119879A (ja) | 顔表情評価結果平滑化装置および顔表情評価結果平滑化プログラム | |
Allaert et al. | Advanced local motion patterns for macro and micro facial expression recognition | |
Weerasekera et al. | Robust asl fingerspelling recognition using local binary patterns and geometric features | |
Sharma et al. | Solving image processing critical problems using machine learning | |
Zhao et al. | Applying contrast-limited adaptive histogram equalization and integral projection for facial feature enhancement and detection | |
Khellat-Kihel et al. | Gender and ethnicity recognition based on visual attention-driven deep architectures | |
Ayre-Storie et al. | Deep learning-based human posture recognition | |
Amrutha et al. | Bharatanatyam hand gesture recognition using normalized chain codes and oriented distances | |
Mani et al. | Face recognition based on kirsch compass kernel operator | |
Ambika et al. | Identity verification using biometrics in smart-cities |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150901 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160721 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160726 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160913 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170131 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170227 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6101470 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |