JP7501065B2 - 行動管理装置、行動管理プログラム、行動管理システム及び行動分析装置 - Google Patents
行動管理装置、行動管理プログラム、行動管理システム及び行動分析装置 Download PDFInfo
- Publication number
- JP7501065B2 JP7501065B2 JP2020071749A JP2020071749A JP7501065B2 JP 7501065 B2 JP7501065 B2 JP 7501065B2 JP 2020071749 A JP2020071749 A JP 2020071749A JP 2020071749 A JP2020071749 A JP 2020071749A JP 7501065 B2 JP7501065 B2 JP 7501065B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- behavior
- person
- sensing
- speech
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004458 analytical method Methods 0.000 title claims description 87
- 230000003542 behavioural effect Effects 0.000 claims description 20
- 230000006399 behavior Effects 0.000 description 239
- 238000012545 processing Methods 0.000 description 89
- 238000000034 method Methods 0.000 description 49
- 230000008569 process Effects 0.000 description 45
- 230000008451 emotion Effects 0.000 description 22
- 238000010586 diagram Methods 0.000 description 14
- 238000004891 communication Methods 0.000 description 13
- 230000008921 facial expression Effects 0.000 description 13
- 230000006870 function Effects 0.000 description 7
- 238000001514 detection method Methods 0.000 description 5
- 230000009471 action Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 206010011469 Crying Diseases 0.000 description 1
- 241000405217 Viola <butterfly> Species 0.000 description 1
- 230000037237 body shape Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 239000010970 precious metal Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
しかし、更なる効果的なマーケティングを行うためには、人物の移動に関する情報以外の更なる情報が必要であると考えた。
第1の発明は、所定空間内に設置された1以上のセンシング装置からセンシング情報を受信するセンシング情報受信手段と、前記センシング情報受信手段が受信した前記センシング情報に基づいて前記所定空間内の人物を特定し、特定した前記人物及び同時に特定した人物の組合せに関する特徴となる属性情報を推定する人物特定手段と、前記人物特定手段により特定した前記人物の言動を示す言動情報を、前記センシング情報を用いて取得する言動情報取得手段と、前記人物の購買に係る情報を取得する購買情報取得手段と、前記人物特定手段により取得した前記属性情報と、前記言動情報取得手段により取得した前記言動情報と、前記購買情報取得手段により取得した前記購買に係る情報とを関連付けて行動データベースに記憶する情報記憶手段と、を備える、行動管理装置である。
第2の発明は、第1の発明の行動管理装置において、前記人物特定手段が特定した前記人物に対して一意の識別情報を付与する識別情報付与手段を備え、前記情報記憶手段は、前記言動情報に、前記識別情報をさらに関連付ける、行動管理装置である。
第3の発明は、第1の発明又は第2の発明の行動管理装置において、前記人物特定手段は、特定した前記人物の性別及び年齢に関する前記属性情報をさらに取得する、行動管理装置である。
第4の発明は、第1の発明から第3の発明までのいずれかの行動管理装置において、特定人物を識別可能な特定人物情報を記憶する特定人物記憶部を備え、前記人物特定手段は、前記センシング情報受信手段が受信した前記センシング情報と、前記特定人物記憶部の前記特定人物情報とを用いて未知の人物を特定する、行動管理装置である。
第5の発明は、第4の発明の行動管理装置において、前記センシング情報受信手段が受信した前記センシング情報と、前記特定人物記憶部に記憶された前記特定人物情報とに基づいて、前記特定人物の前記言動情報である特定人物言動情報を取得する特定人物言動取得手段を備え、前記情報記憶手段は、前記未知の人物の前記言動情報に、前記特定人物言動取得手段により取得した前記特定人物の前記特定人物言動情報をさらに関連付ける、行動管理装置である。
第6の発明は、第1の発明から第5の発明までのいずれかの行動管理装置において、前記センシング情報は、前記センシング装置により情報を取得した日時情報を含み、前記言動情報取得手段は、前記日時情報に基づいて時系列にした前記言動情報を取得する、行動管理装置である。
第7の発明は、第1の発明から第6の発明までのいずれかの行動管理装置において、前記行動データベースに記憶された前記属性情報に基づいて分類分けをする分類手段と、前記分類手段による分類ごとの前記言動情報に基づく購買結果を分析する情報分析手段と、前記情報分析手段による分析結果を出力する分析結果出力手段と、を備える、行動管理装置である。
第8の発明は、第1の発明から第7の発明までのいずれかの行動管理装置としてコンピュータを機能させるための行動管理プログラムである。
第9の発明は、第1の発明から第7の発明までのいずれかの行動管理装置と、前記センシング装置と、を備えた行動管理システムであって、前記センシング装置は、前記所定空間内における前記人物の出入りを含む前記センシング情報を取得し、前記行動管理装置の前記情報記憶手段は、前記言動情報取得手段により取得した前記言動情報により、前記人物が前記所定空間内から外へ出たことが確認できた場合に、前記人物特定手段により推定した前記属性情報と、前記言動情報取得手段により取得した前記言動情報と、前記購買に係る情報とを関連付けて前記行動データベースに記憶する、行動管理システムである。
第10の発明は、第9の発明の行動管理システムにおいて、前記センシング装置は、カメラ及びマイクのうち少なくとも一方を含み、前記センシング情報は、前記カメラにより取得する画像及び前記マイクにより取得する音声のうち少なくとも一方を含む、行動管理システムである。
第11の発明は、第1の発明から第6の発明までのいずれかの行動管理装置が備える前記行動データベースを用いた行動分析装置であって、前記行動データベースに記憶された前記属性情報に基づいて分類分けをする分類手段と、前記分類手段による分類ごとの前記言動情報に基づく購買結果を分析する情報分析手段と、前記情報分析手段による分析結果を出力する分析結果出力手段と、を備える行動分析装置である。
(第1実施形態)
<行動管理システム100>
図1は、第1実施形態に係る行動管理システム100の使用環境の例を示す図である。
図2は、第1実施形態に係る行動管理装置1の機能ブロックを示す図である。
図1に示すように、行動管理システム100による言動情報及び購買情報を取得する範囲は、店舗SP(所定空間)である。つまり、行動管理システム100は、店舗SPの来店者(未知の人物)及び店員(特定人物)を対象にする。店舗SPには、複数台のカメラ4(センシング装置)が設けられている。複数台のカメラ4により、店舗SPの全ての範囲が撮影可能になっている。また、店舗SPには、会計を行うレジスタ8が設けられている。さらに、店舗SPには、複数のショーケース9が設けられている。なお、図1に示す店舗SPは、一例である。
行動管理装置1は、カメラ4から受信した画像データ(センシング情報)に基づく各種の処理を行う装置である。行動管理装置1は、例えば、サーバである。
行動管理装置1は、制御部10と、記憶部30と、通信インタフェース部39とを備える。
制御部10は、行動管理装置1の全体を制御するCPU(中央処理装置)である。制御部10は、記憶部30に記憶されているOS(オペレーションシステム)やアプリケーションプログラムを適宜読み出して実行することにより、上述したハードウェアと協働し、各種機能を実行する。
制御部10は、情報登録処理部11と、情報分析処理部21とを備える。
情報登録処理部11は、センシング情報受信部12(センシング情報受信手段)と、人物特定部13(人物特定手段)と、ID(IDentification)付与部14(識別情報付与手段)と、属性取得部15(人物特定手段)と、言動情報取得部16(言動情報取得手段、特定人物言動情報取得手段)と、購買情報取得部17(購買情報取得手段)と、関連付け部18(情報記憶手段)とを備える。
センシング情報受信部12は、店舗SP内に設置された各カメラ4から画像データを受信する。センシング情報受信部12は、受信した画像データを、受信した日時情報に関連付ける。
そして、人物特定部13は、特定した人物の特徴を、画像データから取得する。人物の特徴としては、例えば、体形、服装、髪型等であってよく、画像データから得られた特徴量等の数値であってもよい。
また、人物特定部13は、センシング情報受信部12が受信した画像データと、特定人物記憶部33に記憶された店員の特徴とを用いて、店員を特定する。
属性取得部15は、人物特定部13が特定した来店者の属性情報を取得する。属性取得部15は、属性情報として、画像データを分析することにより得られる年齢や性別に関する情報を取得する。また、属性取得部15は、特定した人物及び同時に特定した人物の組合せに関する特徴となる属性情報として、複数の人物の関係性等の情報を推定する。
言動情報取得部16は、例えば、ID付与部14により来店者IDを付与した人物の店舗SP内における移動を、画像データを用いて追跡する。言動情報取得部16は、来店者IDを付与した人物の画像の特徴を取得して、取得した特徴に基づいてトラッキングする。
また、言動情報取得部16は、ID付与部14により来店者IDを付与した人物の店舗SP内における感情データ(感情を示す情報)を、例えば、画像データを分析することで得られる人物の表情から推定する。
そして、言動情報取得部16は、検出した画像データの顔画像に対して画像認識処理を行った結果として、顔画像から表情が笑顔であると認識されれば、大らかな状態であるといった感情データを得ることができる。ここで、表情と感情データとの対応付けを予め記憶部30に記憶させておき、言動情報取得部16は、この対応付けを用いて感情データを得てもよい。
さらに、言動情報取得部16は、人物特定部13で特定した店員に関しても、来店者と同様に、言動情報(特定人物言動情報)を取得する。
他方、購買情報取得部17は、画像データを分析して、例えば、来店者がレジスタ8に近傍の位置に一定時間以上滞在していない場合や、レジスタ8に近傍の位置に近づかずに出入口Dから退店した場合に、購買しなかったと推定する。
情報分析処理部21は、分類部22(分類手段)と、情報分析部23(情報分析手段)と、分析結果出力部24(分析結果出力手段)とを備える。
情報分析部23は、分類部22による分類ごとの言動情報に基づく購買結果を分析する。
分析結果出力部24は、情報分析部23による分析結果を、例えば、行動管理装置1に対して通信可能に接続された図示しない表示装置に出力する。
なお、コンピュータとは、制御部、記憶装置等を備えた情報処理装置をいい、行動管理装置1は、制御部10、記憶部30等を備えた情報処理装置であり、コンピュータの概念に含まれる。
記憶部30は、プログラム記憶部31と、行動DB32と、特定人物記憶部33と、センシング装置位置記憶部34とを備える。
行動管理プログラム31aは、上記した制御部10が行う各種機能を実行するためのアプリケーションプログラムである。
行動DB32は、上記した情報登録処理部11で取得した属性情報と、言動情報と、購買情報とを関連付けて記憶するデータベースである。
センシング装置位置記憶部34は、各カメラ4のIDと、各カメラ4が撮影する店舗SPにおける撮影領域とを対応付けて記憶する記憶領域である。
通信インタフェース部39は、カメラ4等との間で通信を行うためのインタフェースである。
カメラ4は、店舗SP内をくまなく撮影するために、店舗SPに複数設置されている。そして、カメラ4は、店舗SPに来店した来店者及び店舗SPで接客する店員を撮影する。
カメラ4は、通信ネットワークNを介して行動管理装置1に接続されている。カメラ4が撮影した画像データは、行動管理装置1に送信される。
通信ネットワークNは、行動管理装置1と、カメラ4との間のネットワークであり、例えば、インターネット回線等の通信網である。通信ネットワークNは、全てが無線による通信であってもよいし、有線による通信であってもよい。
<情報登録処理>
図3は、第1実施形態に係る行動管理装置1での情報登録処理を示すフローチャートである。
図4は、第1実施形態に係る行動管理装置1での言動取得処理を示すフローチャートである。
図3のステップS(以下、単に「S」という。)11において、行動管理装置1の情報登録処理部11(センシング情報受信部12)は、各カメラ4から画像データを受信する。
S12において、情報登録処理部11(人物特定部13)は、受信した画像データによって、出入口Dから入店する人物を確認したか否かを判断する。確認した場合(S12:YES)には、情報登録処理部11は、処理をS13に移す。確認していない場合(S12:NO)には、情報登録処理部11、処理をS11に移し、出入口Dから入店する人物を確認するまで当該処理を繰り返す。
S14において、情報登録処理部11(人物特定部13)は、特定した人物が店員であるか否かを判断する。情報登録処理部11は、特定人物記憶部33に記憶された店員の特徴を用いて、特定した人物が店員であるか否かを判断できる。店員である場合(S14:YES)には、情報登録処理部11は、処理をS18に移す。他方、店員ではない場合(S14:NO)には、情報登録処理部11は、処理をS15に移す。店員ではない場合とは、特定された人物が来店者である場合をいう。
S15において、情報登録処理部11(属性取得部15)は、画像データに基づいて来店者の属性情報を取得及び推定する。
ここで、言動取得処理について、図4に基づき説明する。
図4のS31において、情報登録処理部11(言動情報取得部16)は、来店者の位置情報を取得する。情報登録処理部11は、来店者の位置情報を、例えば、センシング装置位置記憶部34を参照し、来店者を含む画像を撮影したカメラ4に対応する位置情報を特定して、特定した位置情報とする。
S32において、情報登録処理部11(言動情報取得部16)は、来店者の感情データを取得する。情報登録処理部11は、画像データを分析することで来店者の表情を得る。そして、情報登録処理部11は、取得した表情から来店者の感情を推定する。
S34において、情報登録処理部11(購買情報取得部17)は、購買情報を取得する。
S35において、情報登録処理部11(センシング情報受信部12)は、画像データを受信する。その後、情報登録処理部11は、処理を図3のS17に移す。
S19において、情報登録処理部11(関連付け部18)は、取得した各情報を、行動DB32に関連付けて記憶する。その後、情報登録処理部11は、本処理を終了する。
図5は、第1実施形態に係る行動管理システム100での実施例を示す図である。
図6は、第1実施形態に係る行動管理装置1の行動DB32に記憶されるデータ例を示す図である。
図6は、情報登録処理によって行動DB32に登録された図5の例での情報例を示す。
行動DB32は、来店者IDと、属性情報と、言動情報と、店員情報と、購買情報とを関連付けて記憶する。
来店者IDが「0001」である来店者P1と、来店者IDが「0002」である来店者P2とが共に行動しているので、行動管理装置1は、属性情報として、来店者P1と来店者P2とがカップルであると推定する。また、行動管理装置1は、属性情報として、来店者P1と来店者P2との各々の年齢や性別のデータを得る。
さらに、行動管理装置1は、言動情報として、来店者IDが「0001」である来店者P1が笑顔であったのに対して、来店者IDが「0002」である来店者P2が泣き顔になったため、来店者P1が焦り顔になり、来店者P2が真顔に変化したとのデータを得る。そして、行動管理装置1は、言動情報として、店員C1が笑顔で接客しているとのデータを得る。その後、行動管理装置1は、言動情報及び購買情報として、来店者P1及びP2が商品を購買したとのデータを得る。
また、図6に示す例では、行動管理装置1は、来店者IDが「0003」の者が1人で来店したとの属性情報を推定し、別のショーケース9を見た後に退店したことを示す言動情報を得る。
そして、行動DB32に登録する情報は、来店者の個人を特定する情報を含まない。よって、情報の管理が容易なものにできる。
<行動分析処理>
図7は、第1実施形態に係る行動管理装置1での行動分析処理を示すフローチャートである。
この処理は、例えば、店舗SPを運営するユーザが、行動DB32に登録された情報を分析したいタイミングで行われる。
S43において、情報分析処理部21(分析結果出力部24)は、分析結果を出力する。情報分析処理部21は、例えば、カップルでパンフレットを手に取っている来店者は、購買する確率が高い等の分析結果を出力することができる。
なお、情報分析処理部21は、分析に用いる情報を、ユーザに選択させてもよい。
(1)行動管理装置1は、店舗SP内の来店者を特定し、特定した来店者の組み合わせに関する特徴を、属性情報として推定できる。また、行動管理装置1は、特定した来店者の移動の軌跡と、来店者の表情から推定される感情データとを、言動情報として取得できる。さらに、行動管理装置1は、来店者の購買情報を取得して、言動情報に関連付けて行動DB32に登録する。
よって、属性情報と言動情報と購買情報とが関連付けられた行動DB32を、効果的なマーケティングを行うための分析に用いることができる。
また、来店者自身の属性情報を取得するので、来店者自身の属性情報を言動情報にさらに関連付けて行動DB32に登録できる。よって、効果的なマーケティングを行うための分析に、来店者自身の属性情報をさらに用いることができ、多面的に分析を行うことができる。
(3)来店者と店員とを識別し、それぞれの言動情報を取得して関連付ける。よって、来店者の言動情報に店員の言動情報を加味して分析を行うことができる。
分析結果をユーザに出力するので、マーケティングに生かすことができる。
第2実施形態では、言動情報に音声データから得たものを含むものを説明する。なお、以降の説明において、上述した第1実施形態と同様の機能を果たす部分には、同一の符号又は末尾に同一の符号を付して、重複する説明を適宜省略する。
図8は、第2実施形態に係る行動管理システム200での実施例を示す図である。
図9は、第2実施形態に係る行動管理装置201の機能ブロックを示す図である。
図9に示すように、行動管理システム200は、行動管理装置201と、カメラ4と、マイク205とを備える。行動管理装置201と、カメラ4と、マイク205とは、通信ネットワークNを介して通信可能に接続されている。
行動管理装置1は、カメラ4から受信した画像データと、マイク205から受信した音声データとに基づく各種の処理を行う装置である。
行動管理装置201は、制御部210と、記憶部230と、通信インタフェース部39とを備える。
制御部210は、情報登録処理部211と、情報分析処理部21とを備える。
情報登録処理部211は、カメラ4から画像データを受信し、マイク205から音声データを受信して、画像データに含まれる人物の属性情報及び言動情報と、購買情報とを関連付ける処理を行う。
センシング情報受信部212は、店舗SP内に設置された各カメラ4から画像データを受信する。また、センシング情報受信部212は、店舗SP内に設置された各マイク205から音声データを受信する。
属性取得部215は、人物特定部213が特定した来店者の属性情報を取得する。属性取得部215は、属性情報として、画像データ及び音声データを分析することにより得られる年代や性別に関する情報等を取得する。また、属性取得部215は、画像データ及び音声データを分析することにより得られる、特定した人物及び同時に特定した人物の組合せに関する特徴となる属性情報として、複数の人物の関係性等の情報を推定する。
さらに、言動情報取得部216は、来店者IDを付与した人物の店舗SP内における感情を、画像データ及び音声データを分析することで推定する。音声データの場合、言動情報取得部216は、取得した音声データから早口であることを分析した場合に、来店者は、焦っている状態であるといった感情データを得ることができる。
プログラム記憶部231は、行動管理プログラム231aを記憶している。
行動管理プログラム231aは、上記した制御部210が行う各種機能を実行するためのアプリケーションプログラムである。
センシング装置位置記憶部234は、各カメラ4のIDと、各カメラ4が撮影する店舗SPにおける撮影領域とを対応付けて記憶する記憶領域である。また、センシング装置位置記憶部234は、各マイク205のIDと、各マイク205が設置された店舗SPにおける位置とを対応付けて記憶する記憶領域である。
マイク205は、店舗SP内における来店者と店員との会話等を取得するために、店舗SPに複数設置されている。この例では、マイク205は、各ショーケース9の上に載置されている。そして、マイク205は、店舗SPに来店した来店者及び店舗SPで接客する店員の会話を集音する。
マイク205は、通信ネットワークNを介して行動管理装置201に接続されている。マイク205が集音した音声データは、行動管理装置201に送信される。
<情報登録処理>
行動管理装置201が行う情報登録処理は、第1実施形態(図3)と同様である。
但し、図3のS11に対応する処理において、行動管理装置201の情報登録処理部211(センシング情報受信部212)は、各カメラ4から画像データを受信し、各マイク205から音声データを受信する。
また、図3のS13に対応する処理において、行動管理装置201の情報登録処理部211(人物特定部213)は、画像データと音声データとに基づいて人物を特定する。
さらに、図3のS15に対応する処理において、行動管理装置201の情報登録処理部211(属性取得部215)は、画像データと音声データとに基づいて来店者の属性情報を取得する。
図10のS231において、情報登録処理部211(言動情報取得部216)は、来店者の位置情報を取得する。情報登録処理部211は、来店者の位置情報を、例えば、センシング装置位置記憶部234を参照し、来店者を含む画像を撮影したカメラ4に対応する位置情報を特定して、特定した位置情報とする。また、情報登録処理部211は、来店者の位置情報を、例えば、センシング装置位置記憶部234を参照し、来店者の音声データを集音したマイク205に対応する位置情報を特定して、特定した位置情報としてもよい。さらに、情報登録処理部211は、画像データから得た位置情報と音声データから得た位置情報とを精査して位置情報を取得してもよい。
S233及びS234の処理は、第1実施形態(図4)のS33及びS34の処理と同様である。
S235において、情報登録処理部211(センシング情報受信部212)は、画像データ及び音声データを受信する。その後、情報登録処理部211は、処理を図3のS17に対応する処理に移す。
図11は、図8に示す例であって、店員C1と、来店者P1及びP2が、第1実施形態と同様の言動をした場合であり、音声データを加えたものである。図11の言動情報には、画像データから得られた情報の他、音声データから得られた情報として発話内容を含むものになっている。
図7のS42に対応する処理で情報分析処理部21(情報分析部23)によって行われる分類した属性情報に基づく購買結果の分析は、発話内容に基づいて様々に行うことができる。
情報分析処理部21は、例えば、購買情報の購買傾向ごとに、各分類における単語の出現頻度を分析することができる。情報分析処理部21は、一例として、値段の高い商品を購入した来店者は、発話内容に「誕生日」や「結婚」といった単語を多く含む、といった分析ができる。また、情報分析処理部21は、購入した商品が指輪類である場合に、店員の発話内容には「新作」や「お揃い」といった単語を多く含む、といった分析ができる。
センシング情報として画像データに加えて音声データを用いるため、来店者や店員の言動情報を、より多くの情報から得ることができる。よって、行動分析に用いるデータを多様にでき、より詳細な分析を行うことができる。
(1)各実施形態では、行動分析処理において、行動DBに記憶されている購買情報に基づいてデータを分類するものを例に説明したが、これに限定されない。例えば、来店者の購買情報に基づいてデータを分類してもよいし、店員ごとにデータを分類してもよい。具体的には、例えば、購買情報に基づいてデータを分類する場合には、購買した場合と、購買しなかった場合との2つについて、各々言動情報に基づく分析をしてもよい。また、購買した商品ごと(例えば、指輪、ネックレス等)に言動情報に基づく分析をしてもよい。さらに、購買した商品数や商品の価格の範囲(例えば、5千円未満、5千円以上2万円未満、2万円以上等)ごとに言動情報に基づく分析をしてもよい。
このように、様々な切り口でデータを分類して分析することで、効果的なマーケティングを行うための情報を得ることができる。
(3)各実施形態では、カメラの撮影領域に基づいて来店者の位置情報を得るものを例に説明したが、これに限定されない。例えば、店舗のフロアの床面を領域ごとに色分けし、カメラが撮影した来店者が立っている床面の色に基づいて位置情報を得るようにしてもよい。そのようにすれば、カメラを可動させることができ、カメラの設置箇所を減らすことができる。
4 カメラ
8 レジスタ
9 ショーケース
10,210 制御部
11,211 情報登録処理部
12,212 センシング情報受信部
13,213 人物特定部
14 ID付与部
15,215 属性取得部
16,216 言動情報取得部
17 購買情報取得部
18 関連付け部
21 情報分析処理部
22 分類部
23 情報分析部
24 分析結果出力部
30,230 記憶部
31a,231a 行動管理プログラム
32 行動DB
33 特定人物記憶部
100,200 行動管理システム
205 マイク
C1 店員
P1,P2 来店者
Claims (11)
- 所定空間内に設置された1以上のセンシング装置からセンシング情報を受信するセンシング情報受信手段と、
前記センシング情報受信手段が受信した前記センシング情報に基づいて前記所定空間内の人物を特定し、特定した前記人物及び同時に特定した人物の組合せに関する特徴となる属性情報を推定する人物特定手段と、
前記人物特定手段により特定した前記人物の言動を示す言動情報を、前記センシング情報を用いて取得する言動情報取得手段と、
前記人物の購買に係る情報を取得する購買情報取得手段と、
前記人物特定手段により取得した前記属性情報と、前記言動情報取得手段により取得した前記言動情報と、前記購買情報取得手段により取得した前記購買に係る情報とを関連付けて行動データベースに記憶する情報記憶手段と、
前記行動データベースに記憶された前記属性情報に基づいて分類分けをする分類手段と、
前記分類手段による分類ごとの前記言動情報に基づく購買傾向を分析する情報分析手段と、
前記情報分析手段による分析結果を出力する分析結果出力手段と、
を備え、
前記言動情報は、会話内容に係る情報を含み、
前記情報分析手段は、前記会話内容に含まれる単語の出現頻度と前記購買傾向との分析を含む、行動管理装置。 - 請求項1に記載の行動管理装置において、
前記人物特定手段が特定した前記人物に対して一意の識別情報を付与する識別情報付与手段を備え、
前記情報記憶手段は、前記言動情報に、前記識別情報をさらに関連付ける、行動管理装置。 - 請求項1又は請求項2に記載の行動管理装置において、
前記人物特定手段は、特定した前記人物の性別及び年齢に関する前記属性情報をさらに取得する、行動管理装置。 - 請求項1から請求項3までのいずれかに記載の行動管理装置において、
特定人物を識別可能な特定人物情報を記憶する特定人物記憶部を備え、
前記人物特定手段は、前記センシング情報受信手段が受信した前記センシング情報と、前記特定人物記憶部の前記特定人物情報とを用いて未知の人物を特定する、行動管理装置。 - 請求項4に記載の行動管理装置において、
前記センシング情報受信手段が受信した前記センシング情報と、前記特定人物記憶部に記憶された前記特定人物情報とに基づいて、前記特定人物の前記言動情報である特定人物言動情報を取得する特定人物言動取得手段を備え、
前記情報記憶手段は、前記未知の人物の前記言動情報に、前記特定人物言動取得手段により取得した前記特定人物の前記特定人物言動情報をさらに関連付ける、行動管理装置。 - 請求項1から請求項5までのいずれかに記載の行動管理装置において、
前記センシング情報は、前記センシング装置により情報を取得した日時情報を含み、
前記言動情報取得手段は、前記日時情報に基づいて時系列にした前記言動情報を取得する、行動管理装置。 - 請求項1から請求項6までのいずれかに記載の行動管理装置としてコンピュータを機能させるための行動管理プログラム。
- 請求項1から請求項6までのいずれかに記載の行動管理装置と、
前記センシング装置と、
を備えた行動管理システムであって、
前記センシング装置は、前記所定空間内における前記人物の出入りを含む前記センシング情報を取得し、
前記行動管理装置の前記情報記憶手段は、前記言動情報取得手段により取得した前記言動情報により、前記人物が前記所定空間内から外へ出たことが確認できた場合に、前記人物特定手段により推定した前記属性情報と、前記言動情報取得手段により取得した前記言動情報と、前記購買に係る情報とを関連付けて前記行動データベースに記憶する、行動管理システム。 - 請求項8に記載の行動管理システムにおいて、
前記センシング装置は、マイクを含み、
前記センシング情報は、前記マイクにより取得する音声を含む、行動管理システム。 - 請求項9に記載の行動管理システムにおいて、
前記センシング装置は、カメラを含み、
前記センシング情報は、前記カメラにより取得する画像を含む、行動管理システム。 - 所定空間内に設置された1以上のセンシング装置からセンシング情報を受信するセンシング情報受信手段と、
前記センシング情報受信手段が受信した前記センシング情報に基づいて前記所定空間内の人物を特定し、特定した前記人物及び同時に特定した人物の組合せに関する特徴となる属性情報を推定する人物特定手段と、
前記人物特定手段により特定した前記人物の言動を示す言動情報を、前記センシング情報を用いて取得する言動情報取得手段と、
前記人物の購買に係る情報を取得する購買情報取得手段と、
前記人物特定手段により取得した前記属性情報と、前記言動情報取得手段により取得した前記言動情報と、前記購買情報取得手段により取得した前記購買に係る情報とを関連付けて行動データベースに記憶する情報記憶手段と、
を有する行動管理装置が備える前記行動データベースを用いた行動分析装置であって、
前記行動データベースに記憶された前記属性情報に基づいて分類分けをする分類手段と、
前記分類手段による分類ごとの前記言動情報に基づく購買傾向を分析する情報分析手段と、
前記情報分析手段による分析結果を出力する分析結果出力手段と、
を備え、
前記言動情報は、会話内容に係る情報を含み、
前記情報分析手段は、前記会話内容に含まれる単語の出現頻度と前記購買傾向との分析を含む、行動分析装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020071749A JP7501065B2 (ja) | 2020-04-13 | 2020-04-13 | 行動管理装置、行動管理プログラム、行動管理システム及び行動分析装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020071749A JP7501065B2 (ja) | 2020-04-13 | 2020-04-13 | 行動管理装置、行動管理プログラム、行動管理システム及び行動分析装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021168073A JP2021168073A (ja) | 2021-10-21 |
JP7501065B2 true JP7501065B2 (ja) | 2024-06-18 |
Family
ID=78079894
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020071749A Active JP7501065B2 (ja) | 2020-04-13 | 2020-04-13 | 行動管理装置、行動管理プログラム、行動管理システム及び行動分析装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7501065B2 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7554237B2 (ja) | 2022-08-24 | 2024-09-19 | 技研トラステム株式会社 | 購買行動集計装置 |
JP7554238B2 (ja) | 2022-08-24 | 2024-09-19 | 技研トラステム株式会社 | 買い回り行動集計装置 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080249835A1 (en) | 2007-04-03 | 2008-10-09 | Robert Lee Angell | Identifying significant groupings of customers for use in customizing digital media marketing content provided directly to a customer |
JP2011221683A (ja) | 2010-04-07 | 2011-11-04 | Seiko Epson Corp | 接客支援装置、接客支援方法およびプログラム |
JP2011237966A (ja) | 2010-05-10 | 2011-11-24 | Seiko Epson Corp | 接客支援装置、接客支援方法およびプログラム |
WO2014196261A1 (ja) | 2013-06-05 | 2014-12-11 | 株式会社ニコン | 電子機器及びプログラム |
JP2016081174A (ja) | 2014-10-14 | 2016-05-16 | 富士ゼロックス株式会社 | 関連付プログラム及び情報処理装置 |
JP5974312B1 (ja) | 2015-04-07 | 2016-08-23 | パナソニックIpマネジメント株式会社 | 販売管理装置、販売管理システムおよび販売管理方法 |
US20170308909A1 (en) | 2016-04-20 | 2017-10-26 | OA Labs LLC | Systems and methods for sensor data analysis through machine learning |
JP2018097412A (ja) | 2016-12-08 | 2018-06-21 | キヤノン株式会社 | 情報処理装置、情報処理方法およびプログラム |
CN110942358A (zh) | 2018-09-21 | 2020-03-31 | 北京国双科技有限公司 | 一种信息交互方法、装置、设备及介质 |
-
2020
- 2020-04-13 JP JP2020071749A patent/JP7501065B2/ja active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080249835A1 (en) | 2007-04-03 | 2008-10-09 | Robert Lee Angell | Identifying significant groupings of customers for use in customizing digital media marketing content provided directly to a customer |
JP2011221683A (ja) | 2010-04-07 | 2011-11-04 | Seiko Epson Corp | 接客支援装置、接客支援方法およびプログラム |
JP2011237966A (ja) | 2010-05-10 | 2011-11-24 | Seiko Epson Corp | 接客支援装置、接客支援方法およびプログラム |
WO2014196261A1 (ja) | 2013-06-05 | 2014-12-11 | 株式会社ニコン | 電子機器及びプログラム |
JP2016081174A (ja) | 2014-10-14 | 2016-05-16 | 富士ゼロックス株式会社 | 関連付プログラム及び情報処理装置 |
JP5974312B1 (ja) | 2015-04-07 | 2016-08-23 | パナソニックIpマネジメント株式会社 | 販売管理装置、販売管理システムおよび販売管理方法 |
US20170308909A1 (en) | 2016-04-20 | 2017-10-26 | OA Labs LLC | Systems and methods for sensor data analysis through machine learning |
JP2018097412A (ja) | 2016-12-08 | 2018-06-21 | キヤノン株式会社 | 情報処理装置、情報処理方法およびプログラム |
CN110942358A (zh) | 2018-09-21 | 2020-03-31 | 北京国双科技有限公司 | 一种信息交互方法、装置、设备及介质 |
Also Published As
Publication number | Publication date |
---|---|
JP2021168073A (ja) | 2021-10-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Nixon et al. | On soft biometrics | |
Sun et al. | Demographic analysis from biometric data: Achievements, challenges, and new frontiers | |
US11138420B2 (en) | People stream analysis method, people stream analysis apparatus, and people stream analysis system | |
JP6596899B2 (ja) | 接客データ処理装置及び接客データ処理方法 | |
US10019653B2 (en) | Method and system for predicting personality traits, capabilities and suggested interactions from images of a person | |
US20040001616A1 (en) | Measurement of content ratings through vision and speech recognition | |
US20170364854A1 (en) | Information processing device, conduct evaluation method, and program storage medium | |
JP6500374B2 (ja) | 画像処理装置及び画像処理プログラム | |
JP7501065B2 (ja) | 行動管理装置、行動管理プログラム、行動管理システム及び行動分析装置 | |
WO2012020591A1 (ja) | 個体識別システム、特徴量特定装置、特徴量特定方法および記録媒体 | |
KR20040036730A (ko) | 전시품에 관한 관심을 평가하는 방법 및 장치 | |
CN108292413A (zh) | 化妆模拟辅助装置、化妆模拟辅助方法和化妆模拟辅助程序 | |
Venkata et al. | Personalized recognition system in online shopping by using deep learning | |
Alrihaili et al. | Music recommender system for users based on emotion detection through facial features | |
KR20190113245A (ko) | 안면 정보를 이용한 서비스 방법 | |
JP7057077B2 (ja) | 購買支援システム | |
Gorbova et al. | Integrating vision and language for first-impression personality analysis | |
JP2017130061A (ja) | 画像処理システム、画像処理方法およびプログラム | |
AU2017231602A1 (en) | Method and system for visitor tracking at a POS area | |
WO2015003287A1 (zh) | 一种行为辨识及追踪系统及其运作方法 | |
Patua et al. | Gait-based person identification, gender classification, and age estimation: a review | |
TW201502999A (zh) | 一種行為辨識及追蹤系統 | |
Bhutada et al. | Emotion based music recommendation system | |
WO2020174537A1 (ja) | 情報処理システムおよび情報処理方法 | |
Gautam et al. | Perceptive advertising using standardised facial features |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230221 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231222 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240109 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240228 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240507 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240520 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7501065 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |