Nothing Special   »   [go: up one dir, main page]

JP7020264B2 - 動作判定プログラム、動作判定装置及び動作判定方法 - Google Patents

動作判定プログラム、動作判定装置及び動作判定方法 Download PDF

Info

Publication number
JP7020264B2
JP7020264B2 JP2018080054A JP2018080054A JP7020264B2 JP 7020264 B2 JP7020264 B2 JP 7020264B2 JP 2018080054 A JP2018080054 A JP 2018080054A JP 2018080054 A JP2018080054 A JP 2018080054A JP 7020264 B2 JP7020264 B2 JP 7020264B2
Authority
JP
Japan
Prior art keywords
head
locus
subject
vertical
determination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018080054A
Other languages
English (en)
Other versions
JP2019191648A (ja
Inventor
典弘 覚幸
珊珊 于
猛 大谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2018080054A priority Critical patent/JP7020264B2/ja
Priority to US16/364,339 priority patent/US11055853B2/en
Publication of JP2019191648A publication Critical patent/JP2019191648A/ja
Application granted granted Critical
Publication of JP7020264B2 publication Critical patent/JP7020264B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/167Detection; Localisation; Normalisation using comparisons between temporally consecutive images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/242Aligning, centring, orientation detection or correction of the image by image rotation, e.g. by 90 degrees
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Description

本発明は、動作判定プログラム、動作判定装置及び動作判定方法に関する。
従来より、撮影された画像データに基づき、被写体の頭部の垂直方向の移動に対応付けられる所定の動作(例えば、うなずき動作)の有無を判定する判定技術が知られている。例えば、下記特許文献には、撮影された画像データに基づき被写体の頭部の上下方向の移動量を算出して、当該被写体のうなずき動作の有無を判定する方法が開示されている。
特開2007-097668号公報
しかしながら、頭部の上下方向の移動量に基づきうなずき動作の有無を判定する方法の場合、例えば、被写体における首をひねる動作等のうなずき動作以外の動作を、うなずき動作と誤判定してしまう可能性がある。
一つの側面では、頭部の垂直方向の移動に対応付けられる所定の動作の判定精度を向上させることを目的としている。
一態様によれば、動作判定プログラムは、
被写体の頭部の向きを特定し、
所定の時間範囲における前記被写体の頭部の位置の垂直方向の軌跡と、水平方向の軌跡とを算出し、
算出した前記垂直方向の軌跡と前記水平方向の軌跡とが、特定した前記頭部の向きに応じた判定条件を満たす場合に、前記被写体においてうなずき動作があったと判定する、処理をコンピュータに実行させる。
頭部の垂直方向の移動に対応付けられる所定の動作の判定精度を向上させることができる。
うなずき動作判定システムのシステム構成の一例を示す図である。 動作判定装置のハードウェア構成の一例を示す図である。 頭部情報の具体例を示す図である。 軌跡情報の具体例を示す図である。 動作判定装置の機能構成の一例を示す図である。 第1の実施形態に係る動作判定装置による動作判定処理の流れを示すフローチャートである。 頭部位置推定処理の詳細を示す図である。 頭部軌跡算出処理の詳細を示す図である。 頭部向き推定処理の詳細を示す図である。 判定処理の詳細を示す第1の図である。 第2の実施形態に係る動作判定装置による動作判定処理の流れを示すフローチャートである。 判定情報算出処理の流れを示す第1のフローチャートである。 判定処理の詳細を示す第2の図である。 判定情報算出処理の流れを示す第2のフローチャートである。 うなずき動作判定システムの第1の適用例を示す図である。 うなずき動作判定システムの第2の適用例を示す図である。 うなずき動作判定システムの第3の適用例を示す図である。
以下、各実施形態について添付の図面を参照しながら説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複した説明を省略する。
[第1の実施形態]
<うなずき動作判定システムのシステム構成>
はじめに、被写体における頭部の垂直方向の移動に対応付けられる所定の動作の一例である“うなずき動作”を判定するうなずき動作判定システムのシステム構成について説明する。図1は、うなずき動作判定システムのシステム構成の一例を示す図である。図1に示すように、うなずき動作判定システム100は、撮像装置110と、動作判定装置120とを有し、両者は、通信可能に接続される。
撮像装置110は、被写体160を撮影し、撮影した画像データを動作判定装置120に送信する。
動作判定装置120には、動作判定プログラムがインストールされており、当該プログラムが実行されることで、動作判定装置120は、動作判定部130として機能する。
動作判定部130は、画像データに基づいて被写体160の頭部の位置を算出し、所定の時間範囲における被写体160の頭部の位置の軌跡を、垂直方向と水平方向とに分けて算出する。
また、動作判定部130は、被写体160の頭部の位置の垂直方向の軌跡と水平方向の軌跡とを算出した場合に、頭部情報格納部140に格納された頭部情報(頭部の向きを特定する際に用いる情報)に基づいて、被写体160の頭部の向きを特定する。
また、動作判定部130は、特定した被写体160の頭部の向きに応じて、軌跡情報格納部150より、垂直方向及び水平方向の判定情報(うなずき動作の有無の判定に用いる情報)を読み出す。更に、動作判定部130は、読み出した垂直方向及び水平方向の判定情報と、算出した被写体160の頭部の位置の垂直方向及び水平方向の軌跡とを対比することで、被写体160におけるうなずき動作の有無を判定する。
このように、動作判定部130では、被写体160におけるうなずき動作の有無を判定するにあたり、被写体160の頭部の位置の垂直方向の軌跡と水平方向の軌跡とを用いる。また、動作判定部130では、被写体160の頭部の向きに応じて判定情報を切り替える。
これにより、動作判定部130によれば、被写体における首をひねる動作と、頭部の向きが異なる被写体におけるうなずき動作とを明確に区別することが可能となり、うなずき動作以外の動作をうなずき動作と誤判定してしまう可能性を低減させることができる。この結果、被写体の頭部の上下方向の移動量に基づきうなずき動作の有無を判定する方法と比較して、うなずき動作の判定精度を向上させることができる。
<動作判定装置のハードウェア構成>
次に、動作判定装置120のハードウェア構成について説明する。図2は、動作判定装置のハードウェア構成の一例を示す図である。図2に示すように、動作判定装置120は、CPU(Central Processing Unit)201、ROM(Read Only Memory)202、RAM(Random Access Memory)203を有する。CPU201、ROM202、RAM203は、いわゆるコンピュータを形成する。
また、動作判定装置120は、補助記憶装置204、表示装置205、操作装置206、I/F(Interface)装置207、ドライブ装置208を有する。なお、動作判定装置120の各ハードウェアは、バス209を介して相互に接続されている。
CPU201は、補助記憶装置204にインストールされている各種プログラム(例えば、動作判定プログラム等)を実行する演算デバイスである。
ROM202は、不揮発性メモリである。ROM202は、補助記憶装置204にインストールされている各種プログラムをCPU201が実行するために必要な各種プログラム、データ等を格納する主記憶デバイスとして機能する。具体的には、ROM202はBIOS(Basic Input/Output System)やEFI(Extensible Firmware Interface)等のブートプログラム等を格納する、主記憶デバイスとして機能する。
RAM203は、DRAM(Dynamic Random Access Memory)やSRAM(Static Random Access Memory)等の揮発性メモリである。RAM203は、補助記憶装置204にインストールされている各種プログラムがCPU201によって実行される際に展開される作業領域を提供する、主記憶デバイスとして機能する。
補助記憶装置204は、各種プログラムや、各種プログラムが実行される際に用いられる情報を格納する補助記憶デバイスである。例えば、頭部情報格納部140、軌跡情報格納部150は、補助記憶装置204において実現される。
表示装置205は、動作判定装置120の内部状態を表示する表示デバイスである。操作装置206は、動作判定装置120の管理者が動作判定装置120に対して各種指示を入力するための入力デバイスである。
I/F装置207は、撮像装置110と接続され、撮像装置110と動作判定装置120との間で画像データの送受信を行う接続デバイスである。
ドライブ装置208は記録媒体210をセットするためのデバイスである。ここでいう記録媒体210には、CD-ROM、フレキシブルディスク、光磁気ディスク等のように情報を光学的、電気的あるいは磁気的に記録する媒体が含まれる。また、記録媒体210には、ROM、フラッシュメモリ等のように情報を電気的に記録する半導体メモリ等が含まれていてもよい。
なお、補助記憶装置204にインストールされる各種プログラムは、例えば、配布された記録媒体210がドライブ装置208にセットされ、該記録媒体210に記録された各種プログラムがドライブ装置208により読み出されることでインストールされる。あるいは、補助記憶装置204にインストールされる各種プログラムは、ネットワークよりダウンロードされることでインストールされてもよい。
<頭部情報の具体例>
次に、頭部情報格納部140に格納される頭部情報の具体例について説明する。図3は、頭部情報の具体例を示す図である。このうち、図3(a)は、頭部情報310において被写体の頭部の向きを規定するための座標を示している。
図3(a)に示すように、第1の実施形態では、撮像装置110の撮像方向に対して、被写体160が正面を向いている状態において、被写体160の正面方向を、x軸方向とする。また、撮像装置110の撮像方向に対して、被写体160が正面を向いている状態において、被写体160の左手の方向をy軸方向、被写体160の上方向をz軸方向とする。
また、第1の実施形態では、被写体160の頭部のx軸周りの回転角度をθ、y軸周りの回転角度をθ、z軸周りの回転角度をθとする。
図3(b)は、頭部情報格納部140に格納される頭部情報310の具体例を示している。図3(b)に示すように、頭部情報310には、情報の項目として、“頭部の向き(画像)”、“頭部の向き(回転角度)”が含まれる。
“頭部の向き(画像)”には、頭部の向きの異なる画像が格納される。なお、“頭部の向き(画像)”には、被写体160本人の頭部の向きの異なる画像が格納されてもよいし、被写体160以外の被写体の頭部の向きの異なる画像が格納されてもよい。
“頭部の向き(回転角度)”には、“頭部の向き(画像)”に格納された画像における、被写体の頭部のx軸周りの回転角度θ、y軸周りの回転角度θ、z軸周りの回転角度θがそれぞれ格納される。
図3(b)の例は、画像311における被写体の頭部の向きが、θ=0°、θ=0°、θ=0°であることを示している。また、図3(b)の例は、画像312における被写体の頭部の向きが、θ=0°、θ=0°、θ=45°であることを示している。更に、図3(b)の例は、画像313における被写体の頭部の向きが、θ=0°、θ=0°、θ=90°であることを示している。
なお、図3(b)の例は、被写体の頭部の向き(回転角度)の種類として、3種類の向きを示したが、被写体の頭部の向き(回転角度)の種類は、3種類に限定されるものではない。
<軌跡情報の具体例>
次に、軌跡情報格納部150に格納される軌跡情報の具体例について説明する。図4は、軌跡情報の具体例を示す図である。図4に示すように、軌跡情報400には、情報の項目として、“垂直方向の座標(z座標)”、“水平方向の座標(y座標)”が含まれる。
“垂直方向の座標(z座標)”、“水平方向の座標(y座標)”それぞれには、更に、“うなずき動作の軌跡”と“上限値、下限値”とが含まれる。
“垂直方向の座標(z座標)”の“うなずき動作の軌跡”には、被写体が所定の時間範囲においてうなずき動作を行った際の、当該被写体の頭部の位置の垂直方向の軌跡(頭部の位置を示すz座標の時間変化)が格納される。なお、“うなずき動作の軌跡”には、被写体160本人の過去のうなずき動作の軌跡が格納されてもよいし、被写体160以外の被写体の過去のうなずき動作の軌跡が格納されてもよい。
“垂直方向の座標(z座標)”の“うなずき動作の軌跡”には、被写体の頭部の位置の垂直方向の軌跡が“頭部の向き(画像、回転角度)”ごとにわけて格納される。図4の例では、被写体の頭部の位置の垂直方向の軌跡が、
・頭部の向きが、θ=0°、θ=0°、θ=0°である場合、
・頭部の向きが、θ=0°、θ=0°、θ=45°である場合、
・頭部の向きが、θ=0°、θ=0°、θ=90°である場合、
にわけて格納されたことを示している。
“垂直方向の座標(z座標)”の“上限値、下限値”には、対応する“うなずき動作の軌跡”に格納された被写体の頭部の位置の垂直方向の軌跡の最小値がとりうる上限値及び下限値が格納される。
最小値がとりうる上限値及び下限値は、“うなずき動作の軌跡”に格納された複数の軌跡それぞれの最小値を統計的に処理することで算出されるものとする。なお、上限値及び下限値は、“頭部の向き(画像、回転角度)”ごとにわけて格納された、複数の被写体の頭部の位置の垂直方向の軌跡に基づいて、“頭部の向き(画像、回転角度)”ごとに決定される。図4の例は、
・頭部の向きが、θ=0°、θ=0°、θ=0°である場合、上限値=zu1、下限値=zl1
・頭部の向きが、θ=0°、θ=0°、θ=45°である場合、上限値=zu2、下限値=zl2
・頭部の向きが、θ=0°、θ=0°、θ=90°である場合、上限値=zu3、下限値=zl3
に決定されたことを示している。なお、図4では、紙面の都合上、“頭部の向き(画像、回転角度)”ごとに、被写体の頭部の位置の垂直方向の軌跡が1つずつ格納されている様子を示したが、実際には、複数の軌跡が格納されているものとする。
同様に、“水平方向の座標(y座標)”の“うなずき動作の軌跡”には、被写体が所定の時間範囲においてうなずき動作を行った際の、当該被写体の頭部の位置の水平方向の軌跡(頭部の位置を示すy座標の時間変化)が格納される。なお、“垂直方向の座標(z座標)”の場合と同様、“水平方向の座標(y座標)”の“うなずき動作の軌跡”には、被写体の頭部の位置の水平方向の軌跡が“頭部の向き(画像、回転角度)”ごとにわけて格納される。
また、“水平方向の座標(y座標)”の“上限値、下限値”には、対応する“うなずき動作の軌跡”に格納された被写体の頭部の位置の水平方向の軌跡の最小値がとりうる上限値及び下限値が格納される。上限値及び下限値は、“頭部の向き(画像、回転角度)”ごとに複数の被写体の頭部の位置の水平方向の軌跡に基づいて、“頭部の向き(画像、回転角度)”ごとに決定される。図4の例は、
・頭部の向きが、θ=0°、θ=0°、θ=0°である場合、上限値=yu1、下限値=yl1
・頭部の向きが、θ=0°、θ=0°、θ=45°である場合、上限値=yu2、下限値=yl2
・頭部の向きが、θ=0°、θ=0°、θ=90°である場合、上限値=yu3、下限値=yl3
に決定されたことを示している。
<動作判定装置の機能構成>
次に、動作判定装置120の動作判定部130の機能構成について説明する。図5は、動作判定装置の機能構成の一例を示す図である。図5に示すように、動作判定部130は、頭部位置推定部410、軌跡算出部420、頭部向き推定部430、うなずき軌跡取得部440、判定部450を有する。
頭部位置推定部410は、撮像装置110より画像データを受信し、受信した画像データに基づいて被写体160の頭部の位置(y座標、z座標)を算出する。また、頭部位置推定部410は、算出した被写体160の頭部の位置(y座標、z座標)を軌跡算出部420に通知する。
軌跡算出部420は算出部の一例である。軌跡算出部420は、頭部位置推定部410より通知された、被写体160の頭部の位置(y座標、z座標)に基づいて、所定の時間範囲における被写体160の動作(垂直方向、水平方向)が、所定の動作条件を満たすか否かを判定する。軌跡算出部420は、所定の時間範囲における被写体160の動作(垂直方向、水平方向)が、所定の動作条件を満たすと判定した場合、所定の時間範囲における被写体160の頭部の位置の垂直方向の軌跡及び水平方向の軌跡を算出し、判定部450に通知する。
頭部向き推定部430は特定部の一例である。頭部向き推定部430は、撮像装置110より画像データを受信する。また、頭部向き推定部430は、軌跡算出部420により、所定の時間範囲における被写体160の頭部の位置の垂直方向の軌跡及び水平方向の軌跡が判定部450に通知された場合、対応する画像データに基づいて被写体160の頭部の向きを特定する。
頭部向き推定部430では、頭部情報格納部140の頭部情報310において、“頭部の向き(画像)”に格納された画像(例えば、画像311~313)との相関値を算出することで、被写体160の頭部の向きを特定する。また、頭部向き推定部430では、特定した被写体160の頭部の向きを、うなずき軌跡取得部440に通知する。
うなずき軌跡取得部440は、頭部向き推定部430より、被写体160の頭部の向きが通知されると、軌跡情報格納部150の軌跡情報400を参照し、被写体160の頭部の向きに応じた垂直方向の上限値及び下限値、水平方向の上限値及び下限値を読み出す。
また、うなずき軌跡取得部440は、読み出した垂直方向の上限値及び下限値、水平方向の上限値及び下限値を、判定情報(垂直方向、水平方向)として判定部450に通知する。
判定部450は、軌跡算出部420より通知された、所定の時間範囲における被写体160の頭部の位置の垂直方向の軌跡及び水平方向の軌跡と、うなずき軌跡取得部440より通知された判定情報(垂直方向、水平方向)とを対比する。
対比の結果、所定の時間範囲における被写体160の頭部の位置の垂直方向の軌跡及び水平方向の軌跡が、いずれも、所定の判定条件を満たす場合、判定部450は、被写体160においてうなずき動作があったと判定する。この場合、判定部450は、被写体160においてうなずき動作があった旨の判定結果を出力する。
<動作判定装置による動作判定処理の流れ>
次に、動作判定装置120による動作判定処理の流れについて説明する。図6は、第1の実施形態に係る動作判定装置による動作判定処理の流れを示すフローチャートである。撮像装置110による被写体160の撮影が開始されると、動作判定部130が起動し、図6に示す動作判定処理が実行される。
ステップS601において、頭部位置推定部410は、撮像装置110より送信された画像データを受信する。また、頭部向き推定部430は、撮像装置110より送信された画像データを受信する。
ステップS602において、頭部位置推定部410は、受信した画像データに基づいて被写体160の頭部の位置を算出する「頭部位置推定処理」を実行する。なお、頭部位置推定処理(ステップS602)の詳細は後述する。
ステップS603において、軌跡算出部420は、被写体160の頭部の位置に基づいて、所定の時間範囲における被写体160の頭部の位置の垂直方向の軌跡及び水平方向の軌跡を算出する「頭部軌跡算出処理」を実行する。なお、頭部軌跡算出処理(ステップS603)の詳細は後述する。
ステップS604において、頭部向き推定部430は、軌跡算出部420により、所定の時間範囲における被写体160の頭部の位置の垂直方向の軌跡及び水平方向の軌跡が判定部450に通知されたか否かを判定する。ステップS604において、通知されていないと判定された場合には(ステップS604においてNoの場合には)、ステップS601に戻る。
一方、ステップS604において、通知されたと判定された場合には(ステップS604においてYesの場合には)、ステップS605に進む。
ステップS605において、頭部向き推定部430は、受信した画像データに基づいて被写体160の頭部の向きを特定する「頭部向き推定処理」を実行する。なお、頭部向き推定処理(ステップS605)の詳細は、後述する。
ステップS606において、うなずき軌跡取得部440は、被写体160の頭部の向きに応じた垂直方向の上限値及び下限値、水平方向の上限値及び下限値を、判定情報(垂直方向、水平方向)として判定部450に通知する。
ステップS607において、判定部450は、所定の時間範囲における被写体160の頭部の位置の垂直方向の軌跡及び水平方向の軌跡と、判定情報(垂直方向、水平方向)とを対比することで、うなずき動作の有無を判定する「判定処理」を実行する。なお、判定処理(ステップS607)の詳細は、後述する。
ステップS608において、頭部位置推定部410は、動作判定処理を終了するか否かを判定する。ステップS608において、動作判定処理を継続すると判定した場合には(ステップS608においてNoの場合には)、ステップS601に戻る。
一方、ステップS608において、動作判定処理を終了すると判定した場合には(ステップS608においてYesの場合には)、動作判定処理を終了する。
<動作判定処理の各ステップの詳細>
次に、動作判定処理の各ステップ(ステップS602、S603、S605、S607)の詳細について説明する。
(1)頭部位置推定処理(ステップS602)の詳細
はじめに、頭部位置推定処理(ステップS602)の詳細について説明する。図7は、頭部位置推定処理の詳細を示す図である。このうち、図7(a)は、頭部位置推定処理の流れを示すフローチャートであり、図7(b)は、頭部位置推定処理の具体例を示す図である。以下、図7(b)を参照しながら、図7(a)のフローチャートに沿って頭部位置推定処理の詳細について説明する。
ステップS701において、頭部位置推定部410は、時刻tにおいて受信した画像データ710に含まれる被写体160の頭部の領域711を検出する。
ステップS702において、頭部位置推定部410は、検出した領域711の中心位置を特定する。
ステップS703において、頭部位置推定部410は、特定した中心位置の座標(y座標=yt1、z座標=zt1)を算出する。
ステップS704において、頭部位置推定部410は、ステップS703において算出した座標を、時刻tにおける被写体160の頭部の位置(y座標、z座標)として、軌跡算出部420に通知する。
(2)頭部軌跡算出処理(ステップS603)の詳細
次に、頭部軌跡算出処理(ステップS603)の詳細について説明する。図8は、頭部軌跡算出処理の詳細を示す図である。このうち、図8(a)は、頭部軌跡算出処理の流れを示すフローチャートであり、図8(b)は、頭部軌跡算出処理の具体例を示す図である。以下、図8(b)を参照しながら、図8(a)のフローチャートに沿って頭部軌跡算出処理の詳細について説明する。
ステップS801において、軌跡算出部420は、頭部位置推定部410から通知される、被写体160の頭部の位置(y座標、z座標)のうち、所定の時間範囲Tにおける被写体160の頭部の垂直方向の座標(z座標)を取得する。
ステップS802において、軌跡算出部420は、取得した垂直方向の座標(z座標)の最小値を算出する。
ステップS803において、軌跡算出部420は、最小値となる時刻Tよりも前の時刻であって、取得した垂直方向の座標(z座標)とその一時刻前の垂直方向の座標との差が、閾値(Th)未満となる最も後の時刻Tを検出し、開始時刻に設定する。
ステップS804において、軌跡算出部420は、最小値となる時刻Tよりも後の時刻であって、取得した垂直方向の座標(z座標)とその一時刻後の垂直方向の座標との差が、閾値(Th)未満となる最も前の時刻Tを検出し、終了時刻に設定する。
ステップS805において、軌跡算出部420は、開始時刻(=T)から終了時刻(=T)までの垂直方向の座標(z座標)を、被写体160の頭部の位置の垂直方向の軌跡r(t)として、判定部450に通知する。
ステップS806において、軌跡算出部420は、開始時刻(=T)から終了時刻(=T)までの水平方向の座標(y座標)を、被写体160の頭部の位置の水平方向の軌跡s(t)として、判定部450に通知する。
なお、軌跡算出部420では、ステップS803及びS804において、所定の時間範囲T内で開始時刻及び終了時刻が設定できなかった場合、所定の時間範囲Tにおける被写体160の動作(垂直方向、水平方向)が所定の動作条件を満たさないと判定する。この場合、軌跡算出部420では、判定部450に対して、所定の時間範囲Tにおける被写体160の頭部の位置の垂直方向の軌跡及び水平方向の軌跡を通知しない。
(3)頭部向き推定処理(ステップS605)の詳細
次に、頭部向き推定処理(ステップS605)の詳細について説明する。図9は、頭部向き推定処理の詳細を示す図である。このうち、図9(a)は、頭部向き推定処理の流れを示すフローチャートであり、図9(b)は、頭部向き推定処理の具体例を示す図である。以下、図9(b)を参照しながら、図9(a)のフローチャートに沿って頭部向き推定処理の詳細について説明する。
ステップS901において、頭部向き推定部430は、頭部情報格納部140に格納された頭部情報310を読み出す。
ステップS902において、頭部向き推定部430は、画像データ910に含まれる被写体160の頭部の領域911を検出する。
ステップS903において、頭部向き推定部430は、検出した頭部の領域911の画像と、読み出した頭部情報310において、“頭部の向き(画像)”に格納された画像(例えば、画像311~313)との相関値を算出する。
ここで、頭部向き推定部430が、時刻tにおいて画像データ910より検出した頭部の領域911の画像の各画素の輝度値をF(yt2+m,zt2+n)とおく。ただし、yt2は、領域911の左下の頂点のy座標であり、zt2は、領域911の左下の頂点のz座標である。また、mは、領域911の左下の頂点から見た場合のy軸方向の各位置までの画素数(領域911内の各位置までの画素数)を表しており、0~wの値をとる。また、nは領域911の左下の頂点から見た場合のz軸方向の各位置までの画素数(領域911内の各位置までの画素数)を表しており、0~hの値をとる。
また、頭部向き推定部430が読み出した頭部情報310のうち、頭部の向きθにおける、画像311~313内の各画素の輝度値をGθz(m,n)とおく。
この場合、頭部向き推定部430により算出される相関値は、下式(式1)により表すことができる。
Figure 0007020264000001
ステップS904において、頭部向き推定部430は、ステップS903において算出した相関値のうち、最大の相関値を特定する。また、頭部向き推定部430は、特定した相関値に対応する“頭部の向き(回転角度)”を、被写体160の頭部の向きとして特定し、うなずき軌跡取得部440に通知する。
図9(b)の例は、被写体160の頭部の向きとして、θ=0°、θ=0°、θ=45°がうなずき軌跡取得部440に通知されたことを示している。
(4)判定処理(ステップS607)の詳細
次に、判定処理(ステップS607)の詳細について説明する。図10は、判定処理の詳細を示す図である。このうち、図10(a)は、判定処理の流れを示すフローチャートであり、図10(b)は、判定処理の具体例を示す図である。以下、図10(b)を参照しながら、図10(a)のフローチャートに沿って判定処理の詳細について説明する。
ステップS1001において、判定部450は、軌跡算出部420より通知された、所定の時間範囲Tにおける被写体160の頭部の位置の垂直方向の軌跡と、うなずき軌跡取得部440より通知された判定情報(垂直方向の上限値、下限値)とを対比する。
具体的には、判定部450は、軌跡算出部420より通知された、所定の時間範囲Tにおける被写体160の頭部の位置の垂直方向の軌跡r(t)のうち、開始時刻(=T)における垂直方向の座標(z座標)と、最小値との差分値zを算出する。そして、判定部450は、算出した差分値zが、判定条件を満たすか(うなずき軌跡取得部440より通知された垂直方向の下限値(z)以上であって、かつ、垂直方向の上限値(z)未満であるか)を判定する。
ステップS1001において、差分値zが、垂直方向の下限値(z)未満であるか、または、垂直方向の上限値(z)以上であると判定した場合には(ステップS1001においてNoの場合には)、図6のステップS608に戻る。一方、差分値zが、垂直方向の下限値(z)以上であって、かつ、垂直方向の上限値(z)未満であると判定した場合には(ステップS1001においてYesの場合には)、ステップS1002に進む。
ステップS1002において、判定部450は、軌跡算出部420より通知された、所定の時間範囲Tにおける被写体160の頭部の位置の垂直方向の軌跡と、うなずき軌跡取得部440より通知された判定情報(垂直方向の上限値、下限値)とを対比する。
具体的には、判定部450は、軌跡算出部420より通知された、所定の時間範囲Tにおける被写体160の頭部の位置の垂直方向の軌跡r(t)のうち、終了時刻(=T)における垂直方向の座標(z座標)と、最小値との差分値zを算出する。そして、判定部450は、算出した差分値zが、判定条件を満たすか(うなずき軌跡取得部440より通知された垂直方向の下限値(z)以上であって、かつ、垂直方向の上限値(z)未満であるか)を判定する。
ステップS1002において、差分値zが、垂直方向の下限値(z)未満であるか、または、垂直方向の上限値(z)以上であると判定した場合には(ステップS1002においてNoの場合には)、図6のステップS608に戻る。一方、差分値zが、垂直方向の下限値(z)以上であって、かつ、垂直方向の上限値(z)未満であると判定した場合には(ステップS1002においてYesの場合には)、ステップS1003に進む。
ステップS1003において、判定部450は、軌跡算出部420より通知された、所定の時間範囲Tにおける被写体160の頭部の位置の水平方向の軌跡と、うなずき軌跡取得部440より通知された判定情報(水平方向の上限値、下限値)とを対比する。
具体的には、判定部450は、軌跡算出部420より通知された、所定の時間範囲Tにおける被写体160の頭部の位置の水平方向の軌跡s(t)のうち、開始時刻(=T)における水平方向の座標(y座標)と、最小値との差分値yを算出する。そして、判定部450は、算出した差分値yが、判定条件を満たすか(うなずき軌跡取得部440より通知された水平方向の下限値(y)以上であって、かつ、水平方向の上限値(y)未満であるか)を判定する。
ステップS1003において、差分値yが、水平方向の下限値(y)未満であるか、または、水平方向の上限値(y)以上であると判定した場合には(ステップS1003においてNoの場合には)、図6のステップS608に戻る。一方、差分値yが、水平方向の下限値(y)以上であって、かつ、水平方向の上限値(y)未満であると判定した場合には(ステップS1003においてYesの場合には)、ステップS1004に進む。
ステップS1004において、判定部450は、軌跡算出部420より通知された、所定の時間範囲Tにおける被写体160の頭部の位置の水平方向の軌跡と、うなずき軌跡取得部440より通知された判定情報(水平方向の上限値、下限値)とを対比する。
具体的には、判定部450は、軌跡算出部420より通知された、所定の時間範囲Tにおける被写体160の頭部の位置の水平方向の軌跡s(t)のうち、終了時刻(=T)における水平方向の座標(y座標)と、最小値との差分値yを算出する。そして、判定部450は、算出した差分値yが、判定条件を満たすか(うなずき軌跡取得部440より通知された水平方向の下限値(y)以上であって、かつ、水平方向の上限値(y)未満であるか)を判定する。
ステップS1004において、差分値yが、水平方向の下限値(y)未満であるか、または、水平方向の上限値(y)以上であると判定した場合には(ステップS1004においてNoの場合には)、図6のステップS608に戻る。一方、差分値yが、水平方向の下限値(y)以上であって、かつ、水平方向の上限値(y)未満であると判定した場合には(ステップS1004においてYesの場合には)、ステップS1005に進む。
ステップS1005において、判定部450は、被写体160においてうなずき動作があったと判定し、被写体160においてうなずき動作があった旨の判定結果を出力する。つまり、被写体160の頭部の位置の垂直方向の変化量及び水平方向の変化量が、いずれも判定条件を満たす場合に、判定部450は、被写体160においてうなずき動作があったと判定し、被写体160においてうなずき動作があった旨の判定結果を出力する。
以上の説明から明らかなように、第1の実施形態に係る動作判定装置120は、被写体におけるうなずき動作の有無を判定するにあたり、被写体の頭部の位置の垂直方向の軌跡と水平方向の軌跡とを用いる。また、第1の実施形態に係る動作判定装置120は、被写体におけるうなずき動作の有無を判定するにあたり、被写体の頭部の向きを特定し、特定した向きに応じて判定情報を切り替える。
これにより、第1の実施形態に係る動作判定装置120によれば、被写体の頭部の上下方向の移動量に基づきうなずき動作の有無を判定する方法と比較して、うなずき動作の判定精度を向上させることができる。
[第2の実施形態]
上記第1の実施形態では、軌跡情報格納部150が、軌跡情報400として、判定情報(垂直方向及び水平方向の上限値及び下限値)を予め格納しておくものとして説明した。また、上記第1の実施形態では、うなずき軌跡取得部440が、判定情報(垂直方向及び水平方向の上限値及び下限値)を、軌跡情報格納部150の軌跡情報400から読み出すものとして説明した。
これに対して、第2の実施形態では、軌跡情報格納部150の軌跡情報400に判定情報(垂直方向及び水平方向の上限値及び下限値)を格納しておく代わりに、うなずき軌跡取得部440が、被写体が変わるごとに、それぞれの被写体に適した判定情報を算出する。これにより、動作判定部130では、うなずき動作の判定精度を更に向上させることができる。以下、第2の実施形態について、上記第1の実施形態との相違点を中心に説明する。
<動作判定装置による動作判定処理の流れ>
はじめに、第2の実施形態に係る動作判定装置120による動作判定処理の流れについて説明する。図11は、第2の実施形態に係る動作判定装置による動作判定処理の流れを示すフローチャートである。上記第1の実施形態において、図6を用いて説明したフローチャートとの相違点は、ステップS1101である。
ステップS1101において、うなずき軌跡取得部440は、被写体160の頭部の向きに応じた垂直方向の上限値及び下限値、水平方向の上限値及び下限値を算出し、判定情報として判定部450に通知する「判定情報算出処理」を実行する。
図12は、判定情報算出処理の流れを示す第1のフローチャートである。ステップS1201において、うなずき軌跡取得部440は、被写体160を特定する。なお、被写体160の特定方法は任意であり、例えば、動作判定装置120の管理者が指示することで、うなずき軌跡取得部440が、被写体160を特定してもよい。あるいは、撮像装置110から送信された画像データに基づいて、うなずき軌跡取得部440が被写体160を特定してもよい。
ステップS1202において、うなずき軌跡取得部440は、軌跡情報格納部150の軌跡情報400を参照し、頭部の向きに応じたうなずき動作の軌跡であって、被写体160自身のうなずき動作の垂直方向の軌跡を読み出す。
ステップS1203において、うなずき軌跡取得部440は、読み出した、被写体160自身のうなずき動作の垂直方向の軌跡から、最小値がとりうる上限値及び下限値を算出する。
ステップS1204において、うなずき軌跡取得部440は、軌跡情報格納部150の軌跡情報400を参照し、頭部の向きに応じたうなずき動作の軌跡であって、被写体160自身のうなずき動作の水平方向の軌跡を読み出す。
ステップS1205において、うなずき軌跡取得部440は、読み出した、被写体160自身のうなずき動作の水平方向の軌跡から、最小値がとりうる上限値及び下限値を算出する。
ステップS1206において、うなずき軌跡取得部440は、算出した垂直方向の上限値及び下限値と、水平方向の上限値及び下限値とを、判定情報として判定部450に通知する。
以上の説明から明らかなように、第2の実施形態に係る動作判定装置120は、被写体を特定し、特定した被写体に応じた“うなずき動作の軌跡”に基づいて、判定情報を算出する。
これにより、第2の実施形態に係る動作判定装置によれば、それぞれの被写体に適した判定情報を算出することが可能となり、うなずき動作の判定精度を更に向上させることができる。
[第3の実施形態]
上記第1及び第2の実施形態では、うなずき軌跡取得部440が、判定情報として、垂直方向の上限値及び下限値と、水平方向の上限値及び下限値とを、判定部450に通知するものとして説明した。
しかしながら、うなずき軌跡取得部440が通知する判定情報は、これに限定されない。例えば、うなずき動作の垂直方向の軌跡及び水平方向の軌跡そのものを、判定情報として通知してもよい。以下、第3の実施形態について、上記第1または第2の実施形態との相違点を中心に説明する。
<判定処理の詳細>
図13は、判定処理の詳細を示す図である。このうち、図13(a)は、判定処理の流れを示すフローチャートであり、図13(b)は、判定処理の具体例を示す図である。以下、図13(b)を参照しながら、図13(a)のフローチャートに沿って判定処理の詳細について説明する。
なお、図13(a)に示す判定処理を実行するにあたり、うなずき軌跡取得部440からは、被写体160の頭部の向きに応じた、被写体160自身のうなずき動作の垂直方向の軌跡R(t)及び水平方向の軌跡S(t)が、通知されているものとする。ただし、うなずき軌跡取得部440が通知する垂直方向の軌跡R(t)及び水平方向の軌跡S(t)は、被写体160自身のうなずき動作によるものではなくてもよく、また、複数の軌跡に基づいて算出した軌跡であってもよい。
ステップS1301において、判定部450は、軌跡算出部420より通知された、被写体160の頭部の位置の垂直方向の軌跡r(t)と、うなずき軌跡取得部440より通知されたうなずき動作の垂直方向の軌跡R(t)との相関値を算出する。判定部450は、例えば、下式(式2)に基づいて、垂直方向の相関値を算出する。
Figure 0007020264000002
ステップS1302において、判定部450は、ステップS1301において算出した相関値が、判定条件を満たすか(所定の閾値(Th)以上であるか)を判定する。ステップS1302において、相関値が、所定の閾値(Th)未満であると判定した場合には(ステップS1302においてNoの場合には)、図6のステップS608に戻る。
一方、ステップS1302において、相関値が、所定の閾値(Th)以上であると判定した場合には(ステップS1302においてYesの場合には)、ステップS1303に進む。
ステップS1303において、判定部450は、軌跡算出部420より通知された、被写体160の頭部の位置の水平方向の軌跡s(t)と、うなずき軌跡取得部440より通知されたうなずき動作の水平方向の軌跡S(t)との相関値を算出する。判定部450は、垂直方向の場合と同様に、下式(式3)に基づいて、水平方向の相関値を算出する。
Figure 0007020264000003
ステップS1304において、判定部450は、ステップS1303において算出した相関値が、判定条件を満たすか(所定の閾値(Th)以上であるか)を判定する。ステップS1304において、相関値が、所定の閾値(Th)未満であると判定した場合には(ステップS1304においてNoの場合には)、図6のステップS608に戻る。
一方、ステップS1304において、相関値が、所定の閾値(Th)以上であると判定した場合には(ステップS1304においてYesの場合には)、ステップS1305に進む。
ステップS1305において、判定部450は、被写体160においてうなずき動作があったと判定し、被写体160においてうなずき動作があった旨の判定結果を出力する。つまり、被写体160の頭部の位置の垂直方向の軌跡及び水平方向の軌跡が、いずれも判定条件を満たす場合に、判定部450は、被写体160においてうなずき動作があったと判定し、被写体160においてうなずき動作があった旨の判定結果を出力する。
以上の説明から明らかなように、第3の実施形態に係る動作判定装置120は、被写体におけるうなずき動作の有無を判定するにあたり、うなずき動作の垂直方向の軌跡及び水平方向の軌跡との相関値を算出する。
これにより、第3の実施形態に係る動作判定装置120によれば、上記第2の実施形態と同様の効果を享受することができる。
なお、上記説明では、ステップS1301において算出された相関値が所定の閾値(Th)以上で、ステップS1303において算出された相関値が所定の閾値(Th)以上であった場合に、被写体160においてうなずき動作があったと判定するものとした。しかしながら、相関値に基づく判定方法はこれに限定されない。例えば、ステップS1301において算出された相関値と、ステップS1303において算出された相関値との和が、所定の閾値以上であった場合に、被写体160においてうなずき動作があったと判定してもよい。
[第4の実施形態]
上記第1乃至第3の実施形態では、軌跡情報格納部150が、軌跡情報400として、うなずき動作の垂直方向の軌跡と水平方向の軌跡とを、被写体の頭部の向きごとに、予め格納しておくものとして説明した。
これに対して、第4の実施形態では、軌跡情報格納部150が、軌跡情報400として、被写体の頭部の向きごとにうなずき動作の垂直方向の軌跡と水平方向の軌跡とを格納する代わりに、うなずき動作の3次元の軌跡を格納する。また、第4の実施形態では、うなずき軌跡取得部440が、頭部向き推定部430より、被写体の頭部の向きについて通知を受けると、通知された向きに基づいて、うなずき動作の3次元の軌跡を変換し、通知された向きに応じた判定情報を算出する。以下、第4の実施形態について、上記第1乃至第3の実施形態との相違点を中心に説明する。
<判定情報算出処理の詳細>
図14は、判定情報算出処理の流れを示す第2のフローチャートである。ステップS1401において、うなずき軌跡取得部440は、軌跡情報格納部150の軌跡情報400を参照し、うなずき動作の3次元の軌跡を読み出す。
ステップS1402において、うなずき軌跡取得部440は、被写体160の頭部の向きに応じて、読み出したうなずき動作の3次元の軌跡を変換する。
ここで、頭部向き推定部430より通知される被写体160の頭部の向きを下式(式4)のように表すものとする。
Figure 0007020264000004
一方で、うなずき軌跡取得部440により読み出されるうなずき動作の3次元の軌跡は、下式(式5)に示す頭部の向きを有しているものとする。
Figure 0007020264000005
この場合、被写体160の頭部の向きと、軌跡情報400に格納されたうなずき動作の3次元の軌跡が有する頭部の向きとの差分(θ,θ,θ)は、下式(式6)により表すことができる。
Figure 0007020264000006
上式(式6)に示す関係にある場合、うなずき軌跡取得部440により読み出されるうなずき動作の3次元の軌跡は、下式(式7)をかけ合わせることで、被写体160の頭部の向きに応じた3次元の軌跡に変換することができる。
Figure 0007020264000007
そこで、うなずき軌跡取得部440では読み出したうなずき動作の3次元の軌跡それぞれに、上式(式7)をかけ合わせることで、被写体160の頭部の向きに応じた3次元の軌跡を変換し、ステップS1403に進む。
ステップS1403において、うなずき軌跡取得部440は、ステップS1402において変換された3次元の軌跡のうち、垂直方向の軌跡に基づき、垂直方向の上限値及び下限値を算出する。
ステップS1404において、うなずき軌跡取得部440は、ステップS1402において変換された3次元の軌跡のうち、水平方向の軌跡に基づき、水平方向の上限値及び下限値を算出する。
ステップS1405において、うなずき軌跡取得部440は、垂直方向の上限値及び下限値と、水平方向の上限値及び下限値とを、判定情報として判定部450に通知する。
以上の説明から明らかなように、第4の実施形態に係る動作判定装置120は、軌跡情報格納部150が、軌跡情報400として、うなずき動作の3次元の軌跡を格納する。また、第4の実施形態に係る動作判定装置120は、うなずき軌跡取得部440が、頭部向き推定部430より、被写体の頭部の向きの通知を受けると、通知された向きに基づいて、うなずき動作の3次元の軌跡を変換する。これにより、うなずき軌跡取得部440は、通知された向きに応じた判定情報(垂直方向の上限値及び下限値、水平方向の上限値及び下限値)を算出し、判定部450に通知することができる。
この結果、第4の実施形態に係る動作判定装置120は、軌跡情報格納部150に格納する軌跡情報を簡素化することができる(頭部の向きごとにうなずき動作の垂直方向の軌跡と水平方向の軌跡とを格納しておく必要がなくなる)。
なお、上記説明では、うなずき動作の3次元の軌跡を、被写体160の頭部の向きに応じて変換したのち、上限値及び下限値を算出してから、判定部450に通知するものとした。しかしながら、上限値及び下限値を算出する代わりに、被写体160の頭部の向きに応じて変換した3次元の軌跡のうち、垂直方向の軌跡及び水平方向の軌跡を、判定情報として、判定部450に通知するようにしてもよい。
[第5の実施形態]
第5の実施形態では、上記第1乃至第4の実施形態において説明した動作判定装置120を含むうなずき動作判定システムの適用例について説明する。
(1)適用例1
図15は、うなずき動作判定システムの第1の適用例を示す図である。具体的には、図15は、うなずき動作判定システムを店舗内に設置し、店員の応対品質を評価するシーンに適用した場合を示している。図15の適用例では、被写体160が、店舗内の店員となる。また、動作判定装置1500は、動作判定部130の機能に加えて、応対品質評価部1510の機能も有する。
図15に示すように、店員(被写体160)が顧客1530に応対する際の様子を、撮像装置110が撮影することで、動作判定部130では、店員(被写体160)においてうなずき動作があった旨の判定結果を出力する。
応対品質評価部1510では、動作判定部130より出力される判定結果に基づいて、店員(被写体160)の応対品質を評価する。応対品質評価部1510では、例えば、下式(式8)に基づいて、応対品質の評価値を算出する(なお、Thは、理想的なうなずき頻度を表す)。
Figure 0007020264000008
応対品質評価部1510において算出された応対品質の評価値は、店員(被写体160)を管理する管理者1540の端末1520に送信され、管理者1540により管理される。
これにより、管理者1540は、理想的なうなずき頻度に近い頻度で店員(被写体160)がうなずき動作を行っているか否かを管理することができる。
(2)適用例2
図16は、うなずき動作判定システムの第2の適用例を示す図である。具体的には、図16は、うなずき動作判定システムを、テレビ電話により顧客1630をサポートするサポートセンタに設置し、オペレータの応対品質を評価するシーンに適用した場合を示している。図16の適用例では、被写体160が、コールセンタのオペレータとなる。また、動作判定装置1600は、動作判定部130の機能に加えて応対品質評価部1510及び通知部1610の機能も有する。
図16に示すように、顧客1630の端末1640が動作判定装置1600として機能する端末に接続された状態で、オペレータ(被写体160)が顧客1630に応対する際の様子を、動作判定装置1600として機能する端末に組み込まれた撮像装置が撮影する。これにより、動作判定部130では、オペレータ(被写体160)においてうなずき動作があった旨の判定結果を出力する。
応対品質評価部1510では、動作判定部130より出力される判定結果に基づいて、オペレータ(被写体160)の応対品質を評価する。応対品質評価部1510において算出された応対品質の評価値は、通知部1610に通知される。
通知部1610では、応対品質の評価値の時間変化を管理し、応対品質の評価値が所定の閾値Th未満の状態がi秒以上継続した場合に、オペレータ(被写体160)が保持する携帯端末1620を振動させる。これにより、オペレータ(被写体160)は、応対品質を改善することができる。
(3)適用例3
図17は、うなずき動作判定システムの第3の適用例を示す図である。具体的には、図17は、うなずき動作判定システムを店舗内に設置し、店員の応対品質を評価するシーンに適用した場合を示している。図15を用いて説明した第1の適用例との相違点は、図17の場合、管理者1540が評価結果を閲覧し、必要に応じて、管理者1540の端末1710を介して、店員(被写体160)が保持する携帯端末1620に、応対品質の改善を促す通知を行う点である。これにより、店員(被写体160)は、管理者1540の指示に基づき応対品質を改善することができる。
[その他の実施形態]
上記各実施形態では、検出した頭部の領域711の中心位置を特定し、中心位置の座標を被写体160の頭部の位置として通知する場合について説明したが、被写体160の頭部の位置は、検出した頭部の領域711の中心位置の座標に限定されない。例えば、頭部の特定の部位(目、鼻等)の座標を、被写体160の頭部の位置(y座標、z座標)として通知してもよい。
また、上記各実施形態では、1台の撮像装置110により撮影された画像データに基づき、一人の被写体160のうなずき動作の有無を判定する場合について説明した。しかしながら、1台の撮像装置110により撮影された画像データに基づき、複数の被写体のうなずき動作の有無を判定してもよい。
なお、開示の技術では、以下に記載する付記のような形態が考えられる。
(付記1)
画像データに基づいて被写体の頭部の向きを特定し、
所定の時間範囲における前記被写体の頭部の位置の垂直方向の軌跡と、水平方向の軌跡とを算出し、
算出した前記垂直方向の軌跡と前記水平方向の軌跡とが、特定した前記頭部の向きに応じた判定条件を満たす場合に、前記被写体において前記頭部の垂直方向の移動に対応付けられる所定の動作があったと判定する、
処理をコンピュータに実行させるための動作判定プログラム。
(付記2)
算出した前記垂直方向の軌跡と、特定した前記頭部の向きに応じた垂直方向の上限値及び下限値とを対比し、かつ、算出した前記水平方向の軌跡と、特定した前記頭部の向きに応じた水平方向の上限値及び下限値とを対比することで、前記判定条件を満たすか否かを判定することを特徴とする付記1に記載の動作判定プログラム。
(付記3)
前記被写体を特定し、
算出した前記垂直方向の軌跡と、特定した前記頭部の向きに応じた、前記被写体の垂直方向の上限値及び下限値とを対比し、
算出した前記水平方向の軌跡と、特定した前記頭部の向きに応じた、前記被写体の水平方向の上限値及び下限値とを対比することを特徴とする付記2に記載の動作判定プログラム。
(付記4)
算出した前記垂直方向の軌跡と、特定した前記頭部の向きに応じて予め定められた垂直方向の軌跡とを対比し、かつ、算出した前記水平方向の軌跡と、特定した前記頭部の向きに応じて予め定められた水平方向の軌跡とを対比することで、前記判定条件を満たすか否かを判定することを特徴とする付記1に記載の動作判定プログラム。
(付記5)
前記被写体を特定し、
算出した前記垂直方向の軌跡と、特定した前記頭部の向きに応じて予め定められた、前記被写体の垂直方向の軌跡とを対比し、
算出した前記水平方向の軌跡と、特定した前記頭部の向きに応じて予め定められた、前記被写体の水平方向の軌跡とを対比することを特徴とする付記4に記載の動作判定プログラム。
(付記6)
画像データに基づいて被写体の頭部の向きを特定する特定部と、
所定の時間範囲における前記被写体の頭部の位置の垂直方向の軌跡と、水平方向の軌跡とを算出する算出部と、
算出した前記垂直方向の軌跡と前記水平方向の軌跡とが、特定した前記頭部の向きに応じた判定条件を満たす場合に、前記被写体において前記頭部の垂直方向の移動に対応付けられる所定の動作があったと判定する判定部と
を有することを特徴とする動作判定装置。
(付記7)
画像データに基づいて被写体の頭部の向きを特定し、
所定の時間範囲における前記被写体の頭部の位置の垂直方向の軌跡と、水平方向の軌跡とを算出し、
算出した前記垂直方向の軌跡と前記水平方向の軌跡とが、特定した前記頭部の向きに応じた判定条件を満たす場合に、前記被写体において前記頭部の垂直方向の移動に対応付けられる所定の動作があったと判定する、
処理をコンピュータが実行する動作判定方法。
なお、上記実施形態に挙げた構成等に、その他の要素との組み合わせ等、ここで示した構成に本発明が限定されるものではない。これらの点に関しては、本発明の趣旨を逸脱しない範囲で変更することが可能であり、その応用形態に応じて適切に定めることができる。
100 :うなずき動作判定システム
110 :撮像装置
120 :動作判定装置
130 :動作判定部
310 :頭部情報
400 :軌跡情報
410 :頭部位置推定部
420 :軌跡算出部
430 :頭部向き推定部
440 :うなずき軌跡取得部
450 :判定部
1510 :応対品質評価部
1610 :通知部

Claims (7)

  1. 被写体の頭部の向きを特定し、
    所定の時間範囲における前記被写体の頭部の位置の垂直方向の軌跡と、水平方向の軌跡とを算出し、
    算出した前記垂直方向の軌跡と前記水平方向の軌跡とが、特定した前記頭部の向きに応じた判定条件を満たす場合に、前記被写体において前記頭部の垂直方向の移動に対応付けられる所定の動作があったと判定する、
    処理をコンピュータに実行させるための動作判定プログラム。
  2. 算出した前記垂直方向の軌跡と、特定した前記頭部の向きに応じた垂直方向の上限値及び下限値とを対比し、かつ、算出した前記水平方向の軌跡と、特定した前記頭部の向きに応じた水平方向の上限値及び下限値とを対比することで、前記判定条件を満たすか否かを判定することを特徴とする請求項1に記載の動作判定プログラム。
  3. 前記被写体を特定し、
    算出した前記垂直方向の軌跡と、特定した前記頭部の向きに応じた、前記被写体の垂直方向の上限値及び下限値とを対比し、かつ、算出した前記水平方向の軌跡と、特定した前記頭部の向きに応じた、前記被写体の水平方向の上限値及び下限値とを対比することを特徴とする請求項2に記載の動作判定プログラム。
  4. 算出した前記垂直方向の軌跡と、特定した前記頭部の向きに応じて予め定められた垂直方向の軌跡とを対比し、かつ、算出した前記水平方向の軌跡と、特定した前記頭部の向きに応じて予め定められた水平方向の軌跡とを対比することで、前記判定条件を満たすか否かを判定することを特徴とする請求項1に記載の動作判定プログラム。
  5. 前記被写体を特定し、
    算出した前記垂直方向の軌跡と、特定した前記頭部の向きに応じて予め定められた、前記被写体の垂直方向の軌跡とを対比し、かつ、算出した前記水平方向の軌跡と、特定した前記頭部の向きに応じて予め定められた、前記被写体の水平方向の軌跡とを対比することを特徴とする請求項4に記載の動作判定プログラム。
  6. 被写体の頭部の向きを特定する特定部と、
    所定の時間範囲における前記被写体の頭部の位置の垂直方向の軌跡と、水平方向の軌跡とを算出する算出部と、
    算出した前記垂直方向の軌跡と前記水平方向の軌跡とが、特定した前記頭部の向きに応じた判定条件を満たす場合に、前記被写体において前記頭部の垂直方向の移動に対応付けられる所定の動作があったと判定する判定部と
    を有することを特徴とする動作判定装置。
  7. 被写体の頭部の向きを特定し、
    所定の時間範囲における前記被写体の頭部の位置の垂直方向の軌跡と、水平方向の軌跡とを算出し、
    算出した前記垂直方向の軌跡と前記水平方向の軌跡とが、特定した前記頭部の向きに応じた判定条件を満たす場合に、前記被写体において前記頭部の垂直方向の移動に対応付けられる所定の動作があったと判定する、
    処理をコンピュータが実行する動作判定方法。
JP2018080054A 2018-04-18 2018-04-18 動作判定プログラム、動作判定装置及び動作判定方法 Active JP7020264B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018080054A JP7020264B2 (ja) 2018-04-18 2018-04-18 動作判定プログラム、動作判定装置及び動作判定方法
US16/364,339 US11055853B2 (en) 2018-04-18 2019-03-26 Motion determining apparatus, method for motion determination, and non-transitory computer-readable storage medium for storing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018080054A JP7020264B2 (ja) 2018-04-18 2018-04-18 動作判定プログラム、動作判定装置及び動作判定方法

Publications (2)

Publication Number Publication Date
JP2019191648A JP2019191648A (ja) 2019-10-31
JP7020264B2 true JP7020264B2 (ja) 2022-02-16

Family

ID=68237882

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018080054A Active JP7020264B2 (ja) 2018-04-18 2018-04-18 動作判定プログラム、動作判定装置及び動作判定方法

Country Status (2)

Country Link
US (1) US11055853B2 (ja)
JP (1) JP7020264B2 (ja)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130163825A1 (en) 2011-12-26 2013-06-27 Denso Corporation Head movement detection apparatus

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4449483B2 (ja) 2004-02-16 2010-04-14 富士ゼロックス株式会社 画像解析装置、および画像解析方法、並びにコンピュータ・プログラム
JP4172793B2 (ja) 2004-06-08 2008-10-29 株式会社東芝 ジェスチャ検出方法、ジェスチャ検出プログラムおよびジェスチャ検出装置
JP2007094619A (ja) * 2005-09-28 2007-04-12 Omron Corp 認識装置および方法、記録媒体、並びに、プログラム。
JP4704174B2 (ja) 2005-09-30 2011-06-15 富士フイルム株式会社 状態識別装置、プログラムおよび方法
JP2007094935A (ja) * 2005-09-30 2007-04-12 Omron Corp 情報処理装置および情報処理方法、情報処理システム、プログラム、並びに、記録媒体
JP5555193B2 (ja) 2011-03-01 2014-07-23 株式会社メガチップス データ処理装置、データ処理システム、及びプログラム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130163825A1 (en) 2011-12-26 2013-06-27 Denso Corporation Head movement detection apparatus

Also Published As

Publication number Publication date
JP2019191648A (ja) 2019-10-31
US20190325583A1 (en) 2019-10-24
US11055853B2 (en) 2021-07-06

Similar Documents

Publication Publication Date Title
KR102316061B1 (ko) 화상 처리장치, 방법 및 컴퓨터 프로그램
US10957068B2 (en) Information processing apparatus and method of controlling the same
CN111131698B (zh) 图像处理方法及装置、计算机可读介质、电子设备
KR102387891B1 (ko) 화상 처리장치, 화상 처리장치의 제어방법, 및 컴퓨터 판독가능한 기억매체
WO2011105044A1 (en) Information processing method and information processing apparatus
US10818018B2 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
US20040105493A1 (en) Image processing apparatus and method, and image pickup apparatus
KR20120003232A (ko) 볼륨 예측 기반 폐색 영역 양방향 복원 장치 및 방법
EP3314883B1 (en) Video frame processing
WO2022022449A1 (zh) 用于空间定位的方法和装置
WO2016120132A1 (en) Method and apparatus for generating an initial superpixel label map for an image
US20230394832A1 (en) Method, system and computer readable media for object detection coverage estimation
Pan et al. Depth map completion by jointly exploiting blurry color images and sparse depth maps
US11972556B2 (en) Mobile multi-camera multi-view capture
US11361455B2 (en) Systems and methods for facilitating the identifying of correspondences between images experiencing motion blur
CN110490131B (zh) 一种拍摄设备的定位方法、装置、电子设备及存储介质
JP5805013B2 (ja) 撮像画像表示装置、撮像画像表示方法、プログラム
US20200211275A1 (en) Information processing device, information processing method, and recording medium
JP7020264B2 (ja) 動作判定プログラム、動作判定装置及び動作判定方法
CN110009683B (zh) 基于MaskRCNN的实时平面上物体检测方法
US11410398B2 (en) Augmenting live images of a scene for occlusion
JP4578653B2 (ja) 奥行き画像生成装置、奥行き画像生成方法およびその方法をコンピュータに実行させるプログラムを記録したコンピュータ読み取り可能な記録媒体
JP2019144958A (ja) 画像処理装置、画像処理方法およびプログラム
KR20130019485A (ko) 마커를 기반으로 하는 증강현실 시스템 및 그 객체 증강방법
JP2009042900A (ja) 撮像装置および画像選択装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220117

R150 Certificate of patent or registration of utility model

Ref document number: 7020264

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150