Nothing Special   »   [go: up one dir, main page]

JP5787949B2 - 情報処理装置、特定方法および特定プログラム - Google Patents

情報処理装置、特定方法および特定プログラム Download PDF

Info

Publication number
JP5787949B2
JP5787949B2 JP2013177352A JP2013177352A JP5787949B2 JP 5787949 B2 JP5787949 B2 JP 5787949B2 JP 2013177352 A JP2013177352 A JP 2013177352A JP 2013177352 A JP2013177352 A JP 2013177352A JP 5787949 B2 JP5787949 B2 JP 5787949B2
Authority
JP
Japan
Prior art keywords
user
emotion
image
target
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013177352A
Other languages
English (en)
Other versions
JP2015046069A (ja
Inventor
裕記 笹城戸
裕記 笹城戸
彩花 平野
彩花 平野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2013177352A priority Critical patent/JP5787949B2/ja
Priority to US14/018,802 priority patent/US9349041B2/en
Publication of JP2015046069A publication Critical patent/JP2015046069A/ja
Application granted granted Critical
Publication of JP5787949B2 publication Critical patent/JP5787949B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Studio Devices (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Television Signal Processing For Recording (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)

Description

本発明は、情報処理装置、特定方法および特定プログラムに関する。
従来、利用者から取得した生体情報に基づいて利用者の心理状況や感情を判定し、判定した利用者の心理状況や感情に応じたサービスの提供を行う技術が知られている。このような技術の一例として、画像を撮影した際の感情を画像とともに保存する通信装置の技術が知られている。
例えば、通信装置は、利用者の脈拍数等のバイタル情報を取得し、取得したバイタル情報に基づいて、画像の撮影を行う。また、通信装置は、取得したバイタル情報から、画像を撮影した際の利用者の感情を示す付加情報を生成する。そして、通信装置は、撮影した画像と生成した付加情報とを対応付けてサーバ装置に記憶させることで、画像を撮影した当時の感情を保存する。
特開2005−303734号公報
しかしながら、従来の技術では、撮影された画像に複数の撮影対象が写っている場合は、付加情報が示す感情がどの撮影対象に対する感情であるかを特定できない。
本願は、上記に鑑みてなされたものであって、個々の撮影対象に対する利用者の感情を特定する情報処理装置、特定方法および特定プログラムを提供することを目的とする。
本願に係る情報処理装置は、利用者が撮影した画像に写された撮影対象を示す対象情報と、該画像が撮影された際に前記利用者から取得された生体情報とを、前記利用者が撮影した複数の画像について取得する取得部と、前記撮影対象ごとに、該撮影対象を示す対象情報に対応する生体情報を前記取得部が取得した生体情報から抽出する抽出部と、前記抽出部が抽出した生体情報を用いて、前記撮影対象に対する前記利用者の感情を特定する特定部とを備えることを特徴とする。
実施形態の一態様によれば、個々の撮影対象に対する利用者の感情を特定できる。
図1は、実施形態に係る情報提供システムが発揮する機能の一例を示す図である。 図2は、実施形態に係るヘッドマウント装置の機能構成の一例を説明する図である。 図3は、実施形態に係るソーシャルネットワークサーバの機能構成の一例を説明する図である。 図4は、実施形態に係る感情判定サーバの機能構成の一例を説明する図である。 図5は、実施形態に係る対象情報データベースの一例を説明する図である。 図6は、実施形態に係る感情情報管理テーブルの一例を説明する図である。 図7は、実施形態に係る感情判定サーバが利用者の感情を判定する処理の一例を説明する図である。 図8は、実施形態に係る抽出部が特定部から受信する特定結果の一例を説明する図である。 図9は、実施形態に係る対象情報データベースからノイズを削除した例を説明する図である。 図10は、実施形態に係る特定部がノイズ消去後に特定する感情情報の一例を説明する第1の図である。 図11は、実施形態に係る感情情報管理テーブルが記憶する情報のバリエーションを説明する図である。 図12は、実施形態に係る特定部がノイズ消去後に特定する感情情報の一例を説明する第2の図である。 図13は、実施形態に係る感情判定サーバが実行する処理の流れを説明する図である。 図14は、実施形態に係る感情判定サーバが実行する処理の第1のバリエーションの流れを説明する図である。 図15は、実施形態に係る感情判定サーバが実行する処理の第2のバリエーションの流れを説明する図である。 図16は、特定プログラムを実行するコンピュータのハードウェア構成の一例を示す図である。
以下に、本願に係る情報処理装置、特定方法および記録媒体を実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る情報処理装置、特定方法および特定プログラムが限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。
〔1.情報提供システム〕
まず、図1を用いて、本願の情報処理装置、特定方法および記録媒体に記録された特定プログラムに係る情報提供システム1が実行する処理の一例について説明する。図1は、実施形態に係る情報提供システムが発揮する機能の一例を示す図である。図1に示す例では、情報提供システム1には、ヘッドマウント装置10、ソーシャルネットワークサーバ30、感情判定サーバ40をネットワーク2で接続した形態を有する。なお、情報提供システム1には、他にも複数のヘッドマウント装置を有しても良い。また、以下の説明では、ヘッドマウント装置10は、ユーザー#1により装着されているものとする。
ヘッドマウント装置10は、利用者から生体情報を取得するウェアラブルデバイスである。例えば、ヘッドマウント装置10は、眼鏡型のデバイスである。また、ヘッドマウント装置10は、ユーザー#1の視野内に任意の情報を表示することができる。また、ヘッドマウント装置10は、カメラを有しており、ユーザー#1が視野内に捕らえた光景を撮影することができる。
また、ヘッドマウント装置10は、耳にかけるつるの部分に生体センサを有し、ユーザー#1の心拍数、脈拍、体温、筋電変化、皮膚電気活動(Electro-Dermal Activity, EDA)、音声、歩行距離、歩行時間等様々な生体センサ値を利用者から取得することができる。そして、ヘッドマウント装置10は、3G(Generation)、4G、LTE(Long Term Evolution)、GSM(登録商標)(Global System for Mobile Communications)等の無線通信網を介してネットワーク2に接続することができる。かかるヘッドマウント装置10の一例としては、例えば、グーグルグラス(登録商標)等の装置が考えられる。
なお、ヘッドマウント装置10は、bluetooth(登録商標)や無線LAN(Local Area Network)等の近距離無線通信を用いて、図示を省略した携帯電話等の端末装置に接続し、接続した端末装置を介してネットワーク2に接続してもよい。また、ヘッドマウント装置10は、ユーザー#1の手首等に装着され、ユーザー#1から各種生体センサ値を取得する生体情報取得装置を介して、ユーザー#1から生体センサ値を取得してもよい。
また、ヘッドマウント装置10は、同様の機能を発揮できる構成であれば、複数の装置を連携させて発揮させてもよい。例えば、ヘッドマウント装置10は、利用者から生体センサ値を収集する生体情報取得装置と、生体情報取得装置と近距離無線通信を行い、取得された生体センサ値を取得する端末装置との組み合わせで実現してもよい。なお、かかる端末装置は、ヘッドマウント装置10のように、利用者の視野内に画像を表示する機能を有していなくともよく、任意の情報を表示する画面を有していればよい。
ここで、ヘッドマウント装置10は、以下の処理を実行する。まず、ヘッドマウント装置10は、ユーザー#1からの操作に応じて、ユーザー#1が視野内に捉えた光景を撮影するとともに、画像を撮影した際の利用者の生体センサ値を取得する。また、ヘッドマウント装置10は、取得した生体センサ値から、利用者の覚醒度と快度とを生成する。そして、ヘッドマウント装置10は、生成した覚醒度と快度との組を感情スコアとして画像に付与し、ネットワーク2を介して、ソーシャルネットワークサーバ30に画像を送信する。
例えば、ヘッドマウント装置10は、取得した感情スコアを画像のプロパティに格納し、画像をソーシャルネットワークサーバ30に送信する。なお、ヘッドマウント装置10は、画像のプロパティに感情スコアを格納せずとも、画像と感情スコアとを対応付けてソーシャルネットワークサーバ30に送信すればよい。
ソーシャルネットワークサーバ30は、各利用者が投稿した画像を掲示板形式で公開するマイクロブログの機能や、各利用者が投稿した文章や画像などのデータを他の利用者に公開する機能等を有する。すなわち、ソーシャルネットワークサーバ30は、任意の利用者間でデータの送受信を行う任意のSNS(Social Networking Service)を提供するサーバである。なお、かかるSNSの詳細な例としては、ヤフーブログ(登録商標)、フェイスブック(登録商標)、Myspace(登録商標)等がある。
ここで、ソーシャルネットワークサーバ30は、利用者からの操作に応じて、各利用者が投稿した画像に撮影された撮影対象を示す対象情報を画像に付与する。例えば、ソーシャルネットワークサーバ30は、利用者が有する任意の端末装置から撮影対象の入力要求を受信すると、かかる利用者が投稿した画像の選択画面を利用者の端末装置に提供する。
かかる場合、利用者は、端末装置を介して、撮影対象の情報の入力を行う画像を選択し、選択した画像に写る撮影対象の情報を入力する。例えば、利用者は、選択した画像に写る人物、風景、物体等の撮影対象を示す対象情報の一例として、選択した画像に写る人物を識別するユーザーID(Identifier)を入力する。
例えば利用者は、選択した画像に写る人物がユーザー#1である場合は、ユーザーID「A」を入力し、ユーザー#2である場合は、ユーザーID「B」を入力する。また、例えば、利用者は、選択した画像に写る人物がユーザー#3である場合は、ユーザーID「C」を入力し、ユーザー#4である場合は、ユーザーID「D」を入力し、ユーザー#5である場合は、ユーザーID「E」を入力する。その後、端末装置は、利用者が入力した対象情報をソーシャルネットワークサーバ30に送信する。
一方、ソーシャルネットワークサーバ30は、受信した対象情報を利用者が選択した画像に付与する。例えば、ソーシャルネットワークサーバ30は、利用者が選択した画像のプロパティに、受信したユーザーIDを格納する。なお、ソーシャルネットワークサーバ30は、画像のプロパティに対象情報を格納する処理は、画像と対象情報とを対応付けて管理する処理の一例であり、画像と対象情報とを対応付けることができるのであれば、任意の手法を適用してよい。
感情判定サーバ40は、撮影された画像に写る撮影対象を示す対象情報と、画像が撮影された際に撮影者から取得された感情スコアとを用いて、撮影対象に対する撮影者の感情を判定する。例えば、感情判定サーバ40は、ソーシャルネットワークサーバ30から、ユーザー#1が撮影した複数の画像を取得する。そして、感情判定サーバ40は、取得した画像に含まれる対象情報と感情スコアとを用いて、各対象情報に対するユーザー#1の感情を判定する。
ここで、利用者が撮影した画像には、複数の撮影対象が写っている場合がある。例えば、ユーザー#1が撮影した画像には、複数のユーザー#2、ユーザー#3が写っている場合がある。かかる場合、従来の技術は、画像を撮影した際にユーザー#1から取得した感情スコアのみでは、個々のユーザーに対するユーザー#1の感情を判定することができない。
そこで、感情判定サーバ40は、以下の処理を実行する。まず、感情判定サーバ40は、ソーシャルネットワークサーバ30から受信した各画像のプロパティに格納された対象情報と感情スコアとを取得する。そして、感情判定サーバ40は、判定対象となる撮影対象のユーザーIDが付与された全ての画像から感情スコアを抽出する。
そして、感情判定サーバ40は、抽出した感情スコアを用いて、判定対象となる撮影対象に対する利用者の感情を判定する。例えば、感情判定サーバ40は、判定対象となる撮影対象のユーザーIDが付与された全ての画像から抽出した感情スコアの平均値を算出する。そして、感情判定サーバ40は、算出した感情スコアの平均値に基づいて、撮影対象に対する利用者の感情を判定する。
具体的には、感情判定サーバ40は、判定対象となる撮影対象のユーザーIDが付与された全ての画像から、覚醒度と快度との組を抽出し、抽出した覚醒度の平均値、および、抽出した快度の平均値をそれぞれ算出する。そして、感情判定サーバ40は、算出した覚醒度の平均値、および、快度の平均値を用いて、利用者の感情が「エキサイト状態」、「喜び状態」、「リラックス状態」、「退屈状態」、「憂鬱状態」、「悲しみ状態」、「恐怖状態」、「怒り状態」のいずれであるかを判定する。
すなわち、感情判定サーバ40は、利用者が撮影した画像のうち、判定対象となる撮影対象が写る全ての画像を特定し、特定した画像を撮影した際に利用者から取得された感情スコアの平均値を用いて、撮影対象に対する利用者の感情を判定する。このため、感情判定サーバ40は、利用者が撮影した画像に複数の撮影対象が写っている場合にも、各撮影対象に対する利用者の感情を判定できる。
なお、感情判定サーバ40は、人物以外にも、任意の撮影対象について利用者の感情を判定できる。すなわち、感情判定サーバ40は、利用者が撮影した画像に撮影場所等を示す対象情報が付与されている場合にも、同一の対象情報が付与された画像から感情スコアを抽出し、抽出した感情スコアの平均値を用いて、利用者の感情を判定することで、撮影場所等に対する利用者の感情を判定することができる。
なお、感情判定サーバ40は、判定対象となる撮影対象の対象情報が付与された画像から感情スコアを抽出し、抽出した感情スコアを用いて利用者の感情を判定するのであれば、任意の手法を用いて利用者の感情を判定することができる。例えば、感情判定サーバ40は、ソーシャルネットワークサーバ30から受信した画像に付与された感情スコアからノイズとなる感情スコアを考慮して利用者の感情を判定しても良い。
例えば、ユーザー#1が撮影した1つの画像に、ユーザー#1が否定的な感情を強く有するユーザー#2と、ユーザー#1が平均的な感情を有するユーザー#3とが写っている場合は、利用者が否定的な感情を有すると判定される感情スコアが画像に付与される。かかる場合、ユーザー#3に対するユーザー#1の感情が、ユーザー#2に対するユーザー#1の感情に引っ張られてしまい、否定的な感情であると判定され易くなる。
そこで、感情判定サーバ40は、以下の処理を実行する。まず、感情判定サーバ40は、対象情報ごとに、同一の対象情報が付与された画像に付与された感情スコアを抽出し、抽出した感情スコアの平均値を用いて、各撮影対象に対する利用者の感情を判定する。そして、感情判定サーバ40は、利用者の感情が所定の条件を満たすと判定された撮影対象、例えば、利用者が否定的な感情を強く有する撮影対象を特定する。
次に、感情判定サーバ40は、特定した撮影対象が写っていない画像から取得された対象情報と感情スコアとを選択し、選択した感情スコアのうち、判定対象となる撮影対象を示す対象情報に対応する感情スコアを抽出する。そして、感情判定サーバ40は、抽出した感情スコアの平均値を用いて、撮影対象に対する利用者の感情を特定する。
すなわち、感情判定サーバ40は、利用者が否定的な感情を強く有する撮影対象が写る画像から抽出された感情スコアを除外して、各撮影対象に対する利用者の感情を判定する。この結果、感情判定サーバ40は、利用者が撮影した画像に、利用者が否定的な感情を強く有する撮影対象が含まれる場合にも、他の撮影対象に対する利用者の感情を適切に判定することができる。なお、感情判定サーバ40は、利用者が好意的な感情を強く有する撮影対象が写っている画像から抽出された感情スコアを除外して、各撮影対象に対する利用者の感情を判定してもよい。
ここで、利用者が好意的な感情を強く有する撮影対象とは、例えば、利用者が「エキサイト状態」、「喜び状態」等の「超ポジティブ状態」に含まれる感情を有する撮影対象である。また、利用者が好意的な感情を有する撮影対象とは、「リラックス状態」および「喜び状態」等の「ポジティブ状態」に含まれる感情を有する撮影対象である。また、利用者が否定的な感情を有する撮影対象とは、「退屈状態」、「憂鬱状態」、「悲しみ状態」などの「ネガティブ状態」に含まれる感情を有する撮影対象である。また、利用者が否定的な感情を強く有する撮影対象とは、「恐怖状態」、「怒り状態」などの「超ネガティブ状態」に含まれる感情を有する撮影対象である。
また、他の例として、感情判定サーバ40は、取得した感情スコアをそれぞれ個別に用いて、利用者が各画像を撮影した際の感情、すなわち、各画像に対する利用者の感情を判定する。また、感情判定サーバ40は、利用者の感情が所定の条件を満たすと判定された画像に写る回数を、各撮影対象ごとに計数する。例えば、感情判定サーバ40は、利用者の感情が所定の条件を満たすと判定された画像から取得された対象情報の数を、撮影対象ごとに計数する。そして、感情判定サーバ40は、計数した数が所定の閾値よりも多い撮影対象を特定し、特定した撮影対象が写る画像から取得された感情スコアを除外して、各撮影対象に対する利用者の感情を特定してもよい。
例えば、感情判定サーバ40は、利用者が撮影した画像に写る撮影対象を示す対象情報と、かかる画像を撮影した際に利用者から収集された感情スコアとの組を取得する。また、感情判定サーバ40は、各組に含まれる感情スコアを個別に用いて、利用者の感情が所定の条件を満たすか否かを取得した組ごとに判定する。また、感情判定サーバ40は、対象情報ごとに、かかる対象情報が所定の条件を満たすと判定された組に含まれる数を計数し、計数した数が所定の閾値よりも多い対象情報を特定する。そして、感情判定サーバ40は、記憶した対象情報と感情スコアとの組から、特定した対象情報を含む組を消去し、残りの感情スコアを用いて、各撮影対象に対する利用者の感情を特定してもよい。
次に、情報提供システム1において、感情判定サーバ40が実行する処理の流れについて説明する。なお、以下の例では、感情判定サーバ40が、ユーザー#2が写る写真に付与された感情スコアの平均値を用いて、ユーザー#1がユーザー#2に対して有する感情を判定する処理について説明する。また、以下の説明では、ヘッドマウント装置10は、利用者から(覚醒度,快度)の形式で示す感情スコアを画像に付与するものとする。
まず、図1中(a)に示すように、ヘッドマウント装置10は、ユーザー#1が撮影した画像に、ユーザー#1が画像を撮影した際の感情スコア(1,1)を付与する。そして、ヘッドマウント装置10は、図1中(b)に示すように、ネットワーク2を介して、感情スコアを付与した画像をソーシャルネットワークサーバ30に送信する。かかる場合、ソーシャルネットワークサーバ30は、図1中(c)に示すように、ユーザー#1から受信した各画像を公開する。
ここで、ソーシャルネットワークサーバ30は、ユーザー#1、若しくは他の利用者からの操作に応じて、各画像に、撮影対象を示す対象情報を付与する。例えば、ソーシャルネットワークサーバ30は、図1中(d)に示すように、ユーザー#2とユーザー#3とが写る画像に対し、ユーザー#2を示すユーザーID「B」と、ユーザー#3を示すユーザーID「C」とを付与する。また、ソーシャルネットワークサーバ30は、図1中(e)に示すように、ユーザー#2とユーザー#4とが写る画像に対し、ユーザー#2を示すユーザーID「B」と、ユーザー#4を示すユーザーID「D」とを付与する。
一方、感情判定サーバ40は、図1中(f)に示すように、所定のタイミングで、ソーシャルネットワークサーバ30から、ユーザー#1が撮影した各画像を取得する。そして、感情判定サーバ40は、図1中(g)に示すように、各画像から対象情報と感情スコアとを抽出する。
また、感情判定サーバ40は、図1中(h)に示すように、判定対象となるユーザー#2の対象情報「B」と対応する感情スコア、すなわち、対象情報「B」が付与された画像に付与されていた感情スコアを抽出し、抽出した感情スコアの平均値を算出する。そして、感情判定サーバ40は、算出した平均値を用いて、ユーザー#2に対するユーザー#1の感情を判定する。例えば、感情判定サーバ40は、図1中(i)に示すように、ユーザー#2に対するユーザー#1の感情が「超ネガティブ状態」であると判定する。
その後、例えば、感情判定サーバ40は、図1中(l)に示すように、ユーザー#1に対し、ユーザー#2に対するユーザー#1の感情を通知する。このため、感情判定サーバ40は、利用者が撮影した画像に複数の撮影対象が写っている場合にも、各撮影対象に対する個別の感情をユーザー#1に識別させることができる。
なお、感情判定サーバ40は、利用者の感情を通知する他にも、様々な処理を実行してよい。例えば、感情判定サーバ40は、各撮影対象に対する利用者の感情を記憶する。そして、感情判定サーバ40は、利用者の端末装置(例えば、ヘッドマウント装置10)がソーシャルネットワークサーバ30から画像を取得した際に、かかる画像に付与された対象情報を取得し、取得した対象情報が示す撮影対象に対する利用者の感情を特定する。そして、感情判定サーバ40は、特定した感情を示す感情情報を端末装置へ送信し、感情情報が示す感情を端末装置に表示させてもよい。
また、感情判定サーバ40は、同様の処理をユーザー#1以外のユーザーに対しても行い、各ユーザーが相互に有する感情に応じた処理を実行しても良い。例えば、感情判定サーバ40は、ユーザー#2がユーザー#3に「超ポジティブ状態」となる感情を有し、ユーザー#3がユーザー#2に「ポジティブ状態」となる感情を有する場合は、ユーザー#3に対し、ユーザー#2の情報を提供しても良い。
また、感情判定サーバ40は、図1中(m)に示すように、ソーシャルネットワークサーバ30に利用者の感情を通知し、通知した感情に応じて、利用者が投稿した文章や写真等のデータの公開を制限させてもよい。例えば、感情判定サーバ40は、ユーザー#1がユーザー#2に対して「超ネガティブ状態」となる感情を有する場合は、ユーザー#1が投稿したデータをユーザー#2に対して公開しないよう、ソーシャルネットワークサーバ30に対して指示してもよい。
かかるように、感情判定サーバ40は、判定した感情に応じて任意の処理を実行することができる。なお、以下の説明では、感情判定サーバ40は、ヘッドマウント装置10に対して、ヘッドマウント装置10を装着したユーザー#1の感情を通知する例について説明する。
〔2.ヘッドマウント装置の機能構成〕
次に、図2を用いて、実施形態に係るヘッドマウント装置10の機能構成について説明する。図2は、実施形態に係るヘッドマウント装置の機能構成の一例を説明する図である。図2に示す例では、ヘッドマウント装置10は、カメラ11、生体センサ12、通信部13、制御部14、記憶部15、表示部16を有する。また、記憶部15は、画像データベース17を有する。また、制御部14は、撮影部18、収集部19、送信部20、表示制御部21を有する。
まず、記憶部15が有する画像データベース17について説明する。画像データベース17は、利用者が撮影した画像を一時的に記憶する。例えば、画像データベース17には、ユーザー#1がヘッドマウント装置10を用いて撮影した画像が格納される。ここで、画像データベース17に格納される画像には、プロパティとして、ユーザー#1が画像を撮影した際の生体情報が付与されている。
カメラ11は、画像を取得する画像取得装置である。例えば、カメラ11は、利用者の目の横に設置された画像取得装置であり、CCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal-Oxide Semiconductor)イメージセンサを用いて、ヘッドマウント装置10を装着した利用者の画像を取得する。
生体センサ12は、利用者から生体センサ値を取得するセンサである。例えば、生体センサ12は、1つ以上の生体センサ値を利用者から取得する。そして、生体センサ12は、取得した各生体センサ値から、覚醒度と快度とを−5〜5までの10段階で評価した感情スコアを生成する。
通信部13は、ヘッドマウント装置10、ソーシャルネットワークサーバ30、感情判定サーバ40との間の通信を制御する。具体的には、通信部13は、ソーシャルネットワークサーバ30に送信する画像と、画像を撮影した利用者を示すユーザーIDとを含む画像通知を送信部20から受信した場合は、ネットワーク2を介して、受信した画像通知をソーシャルネットワークサーバ30に送信する。また、通信部13は、感情判定サーバ40から、対象情報と、ヘッドマウント装置10の利用者の感情を示す感情情報とを含む感情情報通知を受信した場合は、受信した感情情報通知を表示制御部21に出力する。
表示部16は、利用者の視界内に任意の情報を表示可能な表示装置である。例えば、表示部16は、利用者の視線上に設置された自由曲面プリズムに画像を入力することで、利用者の視界内に情報の表示を行う。例えば、表示部16は、表示制御部21からの制御に応じて、撮影対象を示す情報と、かかる撮影対象に対する利用者の感情とを表示する。また、例えば、表示部16は、画像を表示するとともに、画像に写っている各撮影対象の情報と、各撮影対象に対する利用者の感情とを表示する。
撮影部18は、利用者の指示したタイミングで、画像を撮影する。具体的には、撮影部18は、利用者が画像の撮影を指示した場合は、カメラ11を動作させて画像を取得する。そして、撮影部18は、撮影した画像を収集部19に出力する。
収集部19は、利用者が撮影した画像と、利用者が画像を撮影した際の感情スコアとを収集する。例えば、収集部19は、利用者が画像の撮影を指示した場合は、生体センサ12を動作させ、感情スコアを取得する。そして、収集部19は、撮影部18から受信した画像に収集した感情スコアを付与する。その後、収集部19は、感情スコアを付与した画像を画像データベース17に格納する。
送信部20は、ソーシャルネットワークサーバ30に送信する画像を読み出して送信する。例えば、送信部20は、利用者が他の利用者に公開する写真を画像データベース17から選択した場合は、利用者が選択した画像を画像データベース17から読み出す。そして、送信部20は、読み出した画像と、ヘッドマウント装置10の利用者のユーザーIDとを含む画像通知を通信部13に出力する。この結果、利用者が撮影した画像は、ネットワーク2を介して、ソーシャルネットワークサーバ30に送信される。
表示制御部21は、感情判定サーバ40から感情情報を受信すると、受信した感情情報を表示部16に表示させる。例えば、表示制御部21は、感情判定サーバ40から感情情報通知を受信すると、受信した感情情報通知から対象情報と感情情報とを抽出する。そして、表示制御部21は、ヘッドマウント装置10の利用者が、抽出した対象情報が示す撮影対象に対し、抽出した感情情報が示す感情を有している旨を表示部16に表示させる。
なお、表示制御部21は、感情情報通知から抽出した対象情報と感情情報とを対応付けて記憶部15に格納してもよい。また、表示制御部21は、利用者の要求に応じ、ソーシャルネットワークサーバ30から対象情報が付与された画像を取得してもよい。
また、表示制御部21は、取得した画像に付与された対象情報を抽出し、抽出した対象情報と対応付けられた感情情報を記憶部15から取得する。そして、表示制御部21は、画像から抽出した対象情報が示す撮影対象に対し、記憶部15から取得した感情情報が示す感情を有している旨を、取得した画像とともに表示部16に表示させる。かかる処理を実行することで、ヘッドマウント装置10は、利用者が撮影した画像に複数の撮影対象が写っている場合にも、各撮影対象に対する個別の感情を表示することができる。
〔3.ソーシャルネットワークサーバの機能構成〕
次に、図3を用いて、実施形態に係るソーシャルネットワークサーバ30の機能構成について説明する。図3は、実施形態に係るソーシャルネットワークサーバの機能構成の一例を説明する図である。図3に示す例では、ソーシャルネットワークサーバ30は、通信部31、制御部32、記憶部33を有する。また、記憶部33は、画像データベース34を有する。また、制御部32は、受信部35、更新部36、配信部37を有する。
まず、記憶部33が記憶する画像データベース34に格納される情報の一例について説明する。画像データベース34は、各利用者が撮影した画像が格納されたデータベースである。例えば、画像データベース34には、各利用者のユーザーIDと、対応するユーザーIDが示す利用者が撮影した画像とが対応付けて格納される。
通信部31は、ソーシャルネットワークサーバ30と、ヘッドマウント装置10および感情判定サーバ40との通信を制御する。例えば、通信部31は、ヘッドマウント装置10から画像通知を受信した場合は、受信した画像通知を受信部35に出力する。また、通信部31は、任意の端末装置から画像識別情報と対象情報とを含む付与通知を受信した場合は、受信した付与通知を更新部36に出力する。
また、通信部31は、配信対象となる画像を示す画像識別情報と、要求元を示す情報とを含む配信要求を受信した場合は、受信した配信要求を配信部37に出力する。また、通信部31は、配信部37から画像と画像の送信先を示す情報とを受信した場合は、受信した画像を通知が示す送信先へ送信する。つまり、通信部31は、配信部37から受信した画像を、かかる画像の送信を要求する配信要求の送信元へ送信する。
受信部35は、利用者が撮影した画像を受信し、受信した画像を画像データベース34に格納する。具体的には、受信部35は、通信部31から、利用者を示すユーザーIDと、ユーザーIDが示す利用者が撮影した画像を含む画像通知を受信する。かかる場合は、受信部35は、受信した画像通知からユーザーIDと画像とを抽出し、抽出した画像に対して画像を識別する画像識別情報を付与する。そして、受信部35は、ユーザーIDと画像とを対応付けて画像データベース34に格納する。
更新部36は、画像データベース34に格納された各画像に対し、各画像に写る撮影対象を示す対象情報を付与する。例えば、更新部36は、通信部13から付与通知を受信すると、受信した付与通知から画像識別情報と対象情報とを抽出する。次に、更新部36は、画像データベース34を参照し、抽出した画像識別情報が示す画像を検索する。そして、更新部36は、検索した画像に対して、付与通知から抽出した対象情報を付与する。例えば、更新部36は、付与通知からユーザーID「B」、「C」、「D」を抽出した場合は、検索した画像のプロパティに、ユーザーID「B」、「C」、「D」を格納する。
配信部37は、ソーシャルネットワークサーバ30に利用者から投稿された画像の配信を行う。例えば、配信部37は、通信部31から配信要求を受信すると、受信した配信要求から画像識別情報と要求元を示す情報とを抽出する。そして、配信部37は、抽出した画像識別情報が示す画像を画像データベース34から読み出し、配信要求から読み出した要求元を示す情報と画像を通信部31に出力する。また、配信部37は、抽出した要求元を示す情報を、画像の送信先を示す情報として、通信部31に出力する。
なお、配信部37は、画像識別情報としてユーザーIDを含む配信要求を感情判定サーバ40から受信する。かかる場合は、配信部37は、配信要求に格納されたユーザーIDと対応付けられた全ての画像を感情判定サーバ40に配信する。
〔4.感情判定サーバの機能構成〕
次に、図4を用いて、実施形態に係る感情判定サーバ40の機能構成について説明する。図4は、実施形態に係る感情判定サーバの機能構成の一例を説明する図である。図4に示す例では、感情判定サーバ40は、通信部41、制御部42、記憶部43を有する。また、記憶部43は、対象情報データベース44と感情情報管理テーブル45とを記憶する。また、制御部42は、取得部46、抽出部47、特定部48、提供部49を有する。
まず、記憶部43が記憶する対象情報データベース44と感情情報管理テーブル45とに格納される情報の一例について説明する。対象情報データベース44は、ある利用者が撮影した画像に写る撮影対象を示す対象情報と、かかる画像を撮影した際に利用者から収集された感情スコアとが対応付けて格納されている。
例えば、図5は、実施形態に係る対象情報データベースの一例を説明する図である。なお、図5に示す例では、対象情報データベース44には、ユーザー#1が撮影した画像に写る撮影対象を示す対象情報と、かかる画像を撮影した際にユーザー#1から収集された感情スコアとが対応付けて格納されている。
図5に示すように、対象情報データベース44には、対象情報と覚醒度と快度とが画像ごとに対応付けて格納されている。例えば、対象情報データベース44には、対象情報「B」、「C」、覚醒度「0.50」、快度「−1.00」とが対応付けて格納されている。すなわち、対象情報データベース44は、ユーザー#2とユーザー#3とが写る画像をユーザー#1が撮影した際に、ユーザー#1から感情スコアとして覚醒度「0.50」と快度「−1.00」とが取得された旨を示す。
なお、対象情報データベース44には、対象情報「B」、「D」、覚醒度「4.0」、快度「0.50」とが対応付けて格納され、対象情報「B」、「E」、覚醒度「0.50」、快度「−3.00」とが対応付けて格納され対象情報「C」、「D」、覚醒度「0.50」、快度「3.50」とが対応付けて格納されている。また、対象情報データベース44には、対象情報「C」、「E」、覚醒度「−3.0」、快度「0.00」とが対応付けて格納され、対象情報「D」、「E」、覚醒度「0.50」、快度「1.50」とが対応付けて格納され、対象情報「B」、「C」、「D」、覚醒度「1.67」、快度「1.00」とが対応付けて格納されている。
また、対象情報データベース44には、対象情報「B」、「C」、「E」、覚醒度「−0.67」、快度「−1.33」とが対応付けて格納され、対象情報「B」、「D」、「E」、覚醒度「1.67」、快度「−0.33」とが対応付けて格納され、対象情報「C」、「D」、「E」、覚醒度「−0.67」、快度「1.67」とが対応付けて格納されている。また、対象情報データベース44には、対象情報「B」、「C」、「D」、「E」、覚醒度「0.50」、快度「0.25」とが対応付けて格納され、対象情報「B」、「D」、覚醒度「3.00」、快度「1.08」とが対応付けて格納され、対象情報「C」、「D」、「E」、覚醒度「2.00」、快度「1.55」とが対応付けて格納されている。また、対象情報データベース44には、対象情報「D」、「E」、覚醒度「2.02」、快度「3.52」とが対応付けて格納され、対象情報「B」、「E」、覚醒度「3.06」、快度「−1.02」とが対応付けて格納されている。
図4に戻って、説明を続ける。感情情報管理テーブル45は、各利用者が撮影対象に対して有する感情が格納されている。例えば、図6は、実施形態に係る感情情報管理テーブルの一例を説明する図である。なお、図6に示す例では、感情情報管理テーブル45には、対象情報の一例としてユーザーIDが格納されている。図6に示すように、感情情報管理テーブル45には、感情を有する利用者を示すユーザーIDと、感情の対象となる利用者のユーザーIDである対象情報と、感情を示す感情情報とが対応付けて格納されている。
例えば、図6に示す例では、感情情報管理テーブル45には、ユーザーID「A」と対象情報「B」と感情情報「超ネガティブ状態」とが対応付けて格納され、ユーザーID「A」と対象情報「C」と感情情報「ポジティブ状態」とが対応付けて格納されている。また、感情情報管理テーブル45には、ユーザーID「A」と対象情報「D」と感情情報「超ポジティブ状態」とが対応付けて格納され、ユーザーID「A」と対象情報「E」と感情情報「ポジティブ状態」とが対応付けて格納されている。
すなわち、図6に示す例では、感情情報管理テーブル45は、ユーザー#1のユーザー#2に対する感情が「超ネガティブ状態」であり、ユーザー#1のユーザー#3に対する感情が「ポジティブ状態」である旨を示す。また、感情情報管理テーブル45は、ユーザー#1のユーザー#4に対する感情が「超ポジティブ状態」であり、ユーザー#1のユーザー#5に対する感情が「ポジティブ状態」である旨を示す。
図4に戻って、説明を続ける。通信部41は、感情判定サーバ40と、ヘッドマウント装置10およびソーシャルネットワークサーバ30との通信を制御する。例えば、通信部41は、配信要求を取得部46から受信した場合は、受信した配信要求をソーシャルネットワークサーバ30に送信する。また、通信部41は、ソーシャルネットワークサーバ30から画像を受信した場合は、受信した画像を取得部46に出力する。また、通信部41は、提供部49から感情情報通知と、送信先の通知とを受信した場合は、通知された送信先(例えば、ヘッドマウント装置10)に対し、受信した感情情報通知を送信する。
取得部46は、利用者が撮影した画像に写る撮影対象を示す対象情報と、かかる画像を撮影した際に利用者から収集された感情スコアとを画像から取得する。例えば、取得部46は、特定部から、感情を特定する利用者の指示を受けると、指示された利用者のユーザーIDを含む配信要求を生成し、生成した配信要求を通信部41に出力する。
また、取得部46は、配信要求を出力した結果、配信要求に含めたユーザーIDが示す利用者により撮影された画像を通信部41から受信した場合は、受信した画像のプロパティから対象情報と感情スコアとを抽出する。そして、取得部46は、抽出した対象情報と感情スコアとを対応付けて対象情報データベース44に格納する。具体的には、取得部46は、1つの画像から抽出した1つ以上の対象情報と、覚醒度と、快度とを対応付けて、対象情報データベース44の同一エントリに格納する。その後、取得部46は、抽出部47に対し、処理の実行を指示する。
抽出部47は、撮影対象ごとに、かかる撮影対象を示す対象情報に対応する感情スコアを対象情報データベース44から抽出する。例えば、抽出部47は、取得部46から処理の実行を指示されると、対象情報データベース44の各エントリから、対象情報「B」が格納されたエントリを特定する。そして、抽出部47は、特定したエントリに含まれる各覚醒度と各快度とを抽出し、抽出した覚醒度と快度とを特定部48に出力する。また、抽出部47は、感情を有する利用者のユーザーID「A」と、判定対象となる対象情報「B」とを特定部48に通知する。
また、例えば、抽出部47は、対象情報「C」、「D」、「E」のそれぞれについても、同様の処理を実行することで、各撮影対象が写る画像を撮影した際に利用者から収集された感情スコアを撮影対象ごとに抽出する。そして、抽出部47は、抽出した感情スコアを特定部48に出力する。
特定部48は、抽出部47が撮影対象ごとに抽出した感情スコアを用いて、各撮影対象に対する利用者の感情を特定する。具体的には、特定部48は、抽出部47が撮影対象ごとに対象情報データベース44から抽出した複数の覚醒度と複数の快度とを受信する。かかる場合は、特定部48は、受信した複数の覚醒度の平均値と、受信した複数の快度の平均値とを算出する。そして、特定部48は、算出した覚醒度の平均値と快度の平均値とを用いて、撮影対象に対する利用者の感情を特定する。
例えば、特定部48は、図5に示した感情スコアのうち、図5中(A)に示す覚醒度と快度、すなわち、対象情報に「B」が含まれるエントリの覚醒度と快度とを受信する。かかる場合は、特定部48は、受信した覚醒度の平均値「1.17」と、受信した快度の平均値「−0.56」とを算出する。そして、特定部48は、算出した平均値に基づいて、対象情報「B」が示す撮影対象、すなわちユーザー#2に対するユーザー#1の感情を特定する。その後、特定部48は、感情を判定した利用者、例えば、ユーザー#1以外の利用者を取得部46に通知し、通知した利用者が撮影した画像の取得を指示する。
ここで、図7を用いて、特定部48が利用者の感情を判定する処理の一例について説明する。図7は、実施形態に係る感情判定サーバが利用者の感情を判定する処理の一例を説明する図である。なお、図7には、利用者の覚醒度の平均値と快度の平均値とから感情を判定する際に用いる2次元感情モデルの一例を記載した。
例えば、特定部48は、図7中(B)に示すように、利用者の覚醒度が正の値であり、快度が負の値である場合は、「怒り状態」や「恐怖状態」等、利用者の感情が「超ネガティブ状態」であると判定する。具体例を挙げると、特定部48は、覚醒度の値が約「3」の範囲内であり、かつ、快度の値が約「−5〜−2」の範囲内である場合は、利用者の感情が「怒り状態」であると判定し、覚醒度の値が約「1〜3」の範囲内であり、快度の値が約「−3〜0」の範囲内である場合は、利用者の感情が「恐怖状態」であると判定する。
また、特定部48は、図7中(C)に示すように、利用者の覚醒度が負の値であり、快度が負の値である場合は、「悲しみ状態」、「憂鬱状態」、「退屈状態」等、利用者の感情が「ネガティブ状態」であると判定する。具体例を挙げると、特定部48は、覚醒度の値が約「−1〜0」の範囲内であり、かつ、快度の値が約「−5〜−2」の範囲内である場合は、利用者の感情が「悲しみ状態」であると判定し、覚醒度の値が約「−3〜−1」であり、快度の値が約「−3〜−1」の範囲内である場合は、利用者の感情が「憂鬱状態」であると判定し、覚醒度の値が約「−5〜−3」であり、快度の値が約「−3〜0」の範囲内である場合は、利用者の感情が「退屈状態」であると判定する。
また、特定部48は、図7中(D)に示すように、利用者の覚醒度が負の値であり、快度が正の値である場合は、「リラックス状態」等、利用者の感情が「ポジティブ状態」であると判定する。具体例を挙げると、特定部48は、覚醒度の値が約「−4〜−3」の範囲内であり、かつ、快度の値が約「0〜3」の範囲内である場合は、利用者の感情が「リラックス状態」であると判定する。
また、特定部48は、図7中(E)に示すように、利用者の覚醒度が正の値であり、快度が正の値である場合は、「エキサイト状態」、「喜び状態」等、利用者の感情が「超ポジティブ状態」であると判定する。具体例を挙げると、特定部48は、覚醒度の値が約「3〜5」の範囲内であり、かつ、快度の値が約「3〜4」の範囲内である場合は、利用者の感情が「エキサイト状態」であると判定し、覚醒度の値が約「0〜2」の範囲内であり、かつ、快度の値が約「2〜5」の範囲内である場合は、利用者の感情が「喜び状態」であると判定する。
ここで、特定部48が実行する処理の一例について説明する。例えば、特定部48は、対象情報に「B」が含まれるエントリの覚醒度の平均値「1.17」と、受信した快度の平均値「−0.56」とを算出する。この結果、特定部48は、算出した覚醒度の平均値と快度の平均値とから、ユーザー#2に対するユーザー#1の感情が「超ネガティブ状態」であると判定する。そして、特定部48は、抽出部から通知された感情を有する利用者のユーザーID「A」と、対象情報「B」とに対応付けて、特定した感情を示す感情情報「超ネガティブ状態」を感情情報管理テーブル45に格納する。
提供部49は、特定部48が特定した感情を提供する。例えば、提供部49は、感情情報管理テーブル45から、ユーザー#1のユーザーID「A」と対応付けられた対象情報と感情情報とを抽出し、抽出した対象情報と感情情報とを含む感情情報通知を生成する。そして、提供部49は、生成した感情情報通知を通信部41に出力するとともに、ユーザーID「A」が示すユーザー#1のヘッドマウント装置10を送信先として通信部41に通知する。
このように感情判定サーバ40は、利用者が撮影した画像に含まれる撮影対象を示す対象情報と、かかる画像を撮影した際に利用者から収集した感情スコアとを取得し、取得した感情スコアから同一の対象情報に対応する感情スコアを抽出し、抽出した感情スコアの平均値に基づいて、撮影対象に対する利用者の感情を特定する。このため、感情判定サーバ40は、利用者が撮影した画像に複数の撮影対象が含まれる場合にも、各撮影対象に対する利用者の感情を個別に特定することができる。
〔5.感情判定サーバが実行する処理の第1のバリエーション〕
次に、各撮影対象に対する利用者の感情を感情判定サーバ40が特定する際に実行する処理の第1のバリエーションについて説明する。例えば、特定部48は、撮影対象ごとに、かかる撮影対象を示す対象情報に対応する感情スコアの平均値を用いて、各対象情報が示す撮影対象に対する利用者の感情を特定する。そして、特定部48は、各撮影対象に対する利用者の感情を、感情情報管理テーブル45には格納せず、抽出部47に通知する。
かかる場合、抽出部47は、特定部48から通知された利用者の感情が所定の条件を満たす撮影対象を特定する。例えば、抽出部47は、通知された利用者の感情が「超ネガティブ状態」である撮影対象を特定する。そして、抽出部47は、対象情報データベース44に格納された各エントリのうち、特定した撮影対象を示す対象情報を含むエントリを削除する。その後、抽出部47は、撮影対象ごとに、かかる撮影対象を示す対象情報が含まれるエントリを対象情報データベース44から特定し、特定したエントリに含まれる感情スコアを特定部48に出力する。
一方、特定部48は、抽出部47から再度受信した感情スコアの平均値を算出し、算出した平均値を用いて、各撮影対象に対する利用者の感情を再度特定する。そして、特定部48は、再度特定した利用者の感情を感情情報管理テーブル45に格納する。
例えば、図8は、実施形態に係る抽出部が特定部から受信する特定結果の一例を説明する図である。なお、図8には、ユーザー#1が各ユーザー#2〜#Eが写る画像を撮影した際に、ユーザー#1から取得された感情スコアの平均値と、平均値に基づいて特定されたユーザー#1の感情とを記載した。
例えば、抽出部47は、図8に示すように、対象情報「B」が示す撮影対象について、覚醒度の平均が「1.17」であり快度の平均が「−0.56」であるため、ユーザー#1が「超ネガティブ状態」となる感情を有している旨を受信する。また、抽出部47は、対象情報「C」が示す撮影対象について、覚醒度の平均が「−0.17」であり快度の平均が「0.17」であるため、ユーザー#1が「ポジティブ状態」となる感情を有している旨を受信する。
また、抽出部47は、対象情報「D」が示す撮影対象について、覚醒度の平均が「1.17」であり快度の平均が「0.35」であるため、ユーザー#1が「超ポジティブ状態」となる感情を有している旨を受信する。また、抽出部47は、対象情報「E」が示す撮影対象について、覚醒度の平均が「−0.17」であり快度の平均が「−0.18」であるため、ユーザー#1が「ネガティブ状態」となる感情を有している旨を受信する。
かかる場合、抽出部47は、図8中(F)に示すように、対象情報データベース44に格納されたエントリのうち、対象情報「B」を含むエントリを削除する。この結果、対象情報データベース44は、図9で示す対象情報と感情スコアとを記憶する。
図9は、実施形態に係る対象情報データベースからノイズを削除した例を説明する図である。図9に示すように、抽出部47は、対象情報「B」を含むエントリを対象情報データベース44から削除する。そして、抽出部47は、図9に示す感情スコアのうち、撮影対象ごとに、かかる撮影対象の対象情報と対応付けられた感情スコアを抽出し、抽出した感情スコアを特定部48に出力する。例えば、抽出部47は、図9中(G)に示すように、対象情報「C」と対応付けられた覚醒度と快度とを抽出し、抽出した覚醒度と快度とを特定部48に出力する。
一方、特定部48は、図10に示すように、抽出部47が再度抽出した感情スコアの平均値を用いて、対象情報「C」〜「E」が示す撮影対象に対するユーザー#1の感情を再度判定する。図10は、実施形態に係る特定部がノイズ消去後に特定する感情情報の一例を説明する第1の図である。図10に示すように、特定部48は、各対象情報「C」〜「E」について、抽出部47が再度抽出した感情スコアの平均値を算出し、算出した平均値に基づいて、ユーザー#1の感情を特定する。
この結果、特定部48は、図10中(H)に示すように、対象情報「E」が示す撮影対象、すなわちユーザー#5に対するユーザー#1の感情について、図8に示した1回目の判定結果とは異なる「ポジティブ状態」であると判定する。すなわち、特定部48は、ユーザー#2に対するユーザー#1の感情に引っ張られていたユーザー#5に対するユーザー#1の感情を、適切に判定することができる。
なお、かかる処理を実行する場合は、特定部48は、1回目の処理において特定したユーザー#2に対するユーザー#1の感情を感情情報管理テーブル45に格納し、2回目の処理において特定した他のユーザー#2〜#Eに対するユーザー#1の感情を感情情報管理テーブル45に格納する。かかる処理を行うことで、特定部48は、ユーザー#1が撮影した全ての撮影対象について、ユーザー#1の感情を特定することができる。
〔6.感情判定サーバが実行する処理の第2のバリエーション〕
次に、各撮影対象に対する利用者の感情を感情判定サーバ40が特定する際に実行する処理の第2のバリエーションについて説明する。例えば、抽出部47は、対象情報データベース44に格納された感情スコアをそれぞれ個別に特定部48に通知し、利用者が各画像を撮影した際の感情、すなわち、各画像に対する利用者の感情を特定させる。また、抽出部47は、撮影対象ごとに、利用者の感情が所定の条件を満たすと判定された画像に写る回数を計数する。
そして、抽出部47は、計数した数が所定の閾値よりも多い撮影対象を特定し、特定した撮影対象が写る画像を撮影した際に利用者から収集された感情スコアを対象情報データベース44から除外する。また、抽出部47は、対象情報データベース44に残る感情スコアから、撮影対象ごとに、かかる撮影対象を示す対象情報と対応する感情スコアを抽出し、抽出した感情スコアを特定部48に出力する。その後、特定部48は、抽出部47から受信した感情スコアの平均値に基づいて、各撮影対象に対する利用者の感情を特定する。
例えば、抽出部47は、対象情報データベース44に格納された各エントリの感情スコアを1つずつ特定部48に通知する。かかる場合、特定部48は、受信した感情スコアを個別に用いて、利用者の感情を判定する。すなわち、特定部48は、ユーザー#1が撮影した各画像ごとに、利用者の感情を特定する。そして、特定部48は、特定結果を抽出部47に通知する。
また、抽出部47は、特定部48から通知された感情を示す感情情報を、対象情報データベース44に格納する。この結果、抽出部47は、対象情報データベース44に対し、図11に示す情報を格納する。図11は、実施形態に係る感情情報管理テーブルが記憶する情報のバリエーションを説明する図である。
次に、抽出部47は、図11中(I)に示すように、対象情報データベース44の各エントリのうち感情情報が「超ネガティブ状態」であるエントリを特定する。そして、抽出部47は、特定したエントリに含まる対象情報の数を対象情報ごとに計数する。
例えば、図11に示す例では、抽出部47は、特定したエントリに含まれる対象情報「B」の数「3」、対象情報「C」の数「2」、対象情報「E」の数「2」とを計数する。そして、抽出部47は、計数した各対象情報の数と所定の閾値、例えば「3」とを比較する。その後、抽出部47は、計数した数が所定の閾値以上となる対象情報「B」を含むエントリを対象情報データベース44から削除する。
そして、抽出部47は、対象情報データベース44から、撮影対象ごとに、撮影対象を示す対象情報を含むエントリの感情スコアを抽出し、抽出した感情スコアを特定部47に出力する。この結果、特定部48は、図12に示すように、抽出部47が再度抽出した感情スコアの平均値を用いて、対象情報「C」〜「E」が示す撮影対象に対するユーザー#1の感情を再度判定する。
すなわち、抽出部47は、利用者の感情が所定の要件を満たすと判定された画像に写った回数を撮影対象ごとに計数する。そして、抽出部47は、計数した回数が所定の閾値以上となる撮影対象が写っていない画像から取得された感情スコアを用いて、各撮影対象に対するユーザー#1の感情を判定する。
図12は、実施形態に係る特定部がノイズ消去後に特定する感情情報の一例を説明する第2の図である。図12に示すように、特定部48は、各対象情報「C」〜「E」について、抽出部47が再度抽出した感情スコアの平均値を算出し、算出した平均値に基づいて、ユーザー#1の感情を特定する。この結果、特定部48は、図12中(J)に示すように、対象情報「E」が示す撮影対象に対するユーザー#1の感情について、図8に示した判定結果とは異なる「超ポジティブ状態」であると判定する。
〔7−1.感情判定サーバが実行する処理の流れ〕
次に、図13を用いて、感情判定サーバ40が実行する処理の流れについて説明する。図13は、実施形態に係る感情判定サーバが実行する処理の流れを説明する図である。例えば、図13に示すように、感情判定サーバ40は、ソーシャルネットワークサーバ30が公開する画像から、利用者が画像を撮影した際の感情スコアを取得する(ステップS101)。
また、感情判定サーバ40は、利用者が撮影した画像に写る撮影対象を特定する(ステップS102)。そして、感情判定サーバ40は、撮影対象ごとに、かかる撮影対象が写る画像から取得された感情スコアの平均値を算出する(ステップS103)。その後、感情判定サーバ40は、算出した平均値に基づいて、利用者の感情を特定し(ステップS104)、処理を終了する。
〔7−2.感情判定サーバが実行する処理の第1のバリエーションの流れ〕
次に、図14を用いて、感情判定サーバ40が実行する処理の第1のバリエーションの流れについて説明する。図14は、実施形態に係る感情判定サーバが実行する処理の第1のバリエーションの流れを説明する図である。なお、図14に示す各処理のうち、図13に示す処理と同じ処理については、同一の符号を付し、説明を省略する。
例えば、感情判定サーバ40は、特定した感情が「超ネガティブ状態」となる撮影対象があるか否かを判定し(ステップS201)、特定した感情が「超ネガティブ状態」となる撮影対象があると判定した場合は(ステップS201:Yes)、以下の処理を実行する。まず、感情判定サーバ40は、利用者の感情が「超ネガティブ状態」である撮影対象が写る画像から取得された感情スコアをノイズとして除去する(ステップS202)。
次に、感情判定サーバ40は、ノイズを除去した感情スコアから撮影対象ごとに、かかる撮影対象が写る画像から取得された感情スコアの平均値を算出する(ステップS203)。その後、感情判定サーバ40は、算出した平均値に基づいて、利用者の感情を特定し(ステップS204)、処理を終了する。一方、特定した感情が「超ネガティブ状態」となる撮影対象がないと判定した場合は(ステップS201:No)、ステップS202〜S204をスキップし、処理を終了する。
〔7−3.感情判定サーバが実行する処理の第2のバリエーションの流れ〕
次に、図15を用いて、感情判定サーバ40が実行する処理の第2のバリエーションの流れについて説明する。図15は、実施形態に係る感情判定サーバが実行する処理の第2のバリエーションの流れを説明する図である。例えば、感情判定サーバ40は、ソーシャルネットワークサーバ30が公開する画像から、利用者が画像を撮影した際の感情スコアを取得する(ステップS301)。
また、感情判定サーバ40は、利用者が撮影した画像に写る撮影対象を特定する(ステップS302)。そして、感情判定サーバ40は、画像ごとに取得した感情スコアを用いて利用者の感情を特定する(ステップS303)。続いて、感情判定サーバ40は、特定された感情が「超ネガティブ状態」となる画像に含まれる回数を撮影対象ごとに計数する(ステップS304)。そして、感情判定サーバ40は、計数された回数が所定の閾値よりも多い撮影対象を特定し(ステップS305)、特定した撮影対象が写る画像から取得された感情スコアをノイズとして除去する(ステップS306)。
その後、感情判定サーバ40は、ノイズを除去した感情スコアから撮影対象ごとに、かかる撮影対象が写る画像から取得された感情スコアの平均値を算出する(ステップS307)。その後、感情判定サーバ40は、算出した平均値に基づいて、利用者の感情を特定し(ステップS308)、処理を終了する。
〔8.変形例〕
上記した実施形態に係る情報提供システム1は、上記実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、上記の情報提供システム1の他の実施形態について説明する。
〔8−1.感情判定サーバとソーシャルネットワークサーバとの関係について〕
上述した実施形態では、情報提供システム1は、利用者が撮影した画像を公開するソーシャルネットワークサーバ30と、利用者が撮影した画像をソーシャルネットワークサーバ30から取得し、取得した画像から抽出した感情スコアと対象情報とを用いて、利用者の感情を特定する感情判定サーバ40とを有していた。しかしながら、実施形態はこれに限定されるものではない。例えば、ソーシャルネットワークサーバ30と感情判定サーバ40とが発揮する機能については、1つの情報処理装置によって実現されてもよい。
〔8−2.ソーシャルネットワークサーバについて〕
上述した例では、ソーシャルネットワークサーバ30は、利用者が撮影した画像を公開した。しかしながら、実施例はこれに限定されるものではない。例えば、ソーシャルネットワークサーバ30の配信部37は、ユーザー#1が公開する画像の配信要求をユーザー#2から受信した場合は、ユーザー#1を示すユーザーID「A」とユーザー#2を示す対象情報「B」とを含む問合せを感情判定サーバ40に送信する。
一方、感情判定サーバ40の提供部49は、ソーシャルネットワークサーバ30から問合せを受信すると、受信した問合せからユーザーID「A」と対象情報「B」とを抽出する。そして、提供部49は、ユーザーID「A」と対象情報「B」とに対応付けられた感情情報を感情情報管理テーブル45から取得し、取得した感情情報をソーシャルネットワークサーバ30に送信する。
その後、ソーシャルネットワークサーバ30の配信部37は、感情判定サーバ40から受信した感情情報が所定の条件を満たすか否か、(例えば、感情情報が「超ネガティブ状態」であるか否か)を判定し、受信した感情情報が所定の条件を満たす場合は、ユーザー#2に対し、画像を公開できない旨を通知する。また、配信部37は、受信した感情情報が所定の条件を満たさない場合は、要求された画像をユーザー#2に送信する。
なお、配信部37は、例えば、第1の利用者から第2の利用者が投稿したデータの閲覧要求を受信した場合は、第1の利用者から第2の利用者に対する感情と、第2の利用者から第1の利用者に対する感情とを感情判定サーバ40から取得し、取得した各感情に応じて、第1の利用者のデータを第2の利用者に公開するか否かを判定してもよい。例えば、配信部37は、第1の利用者から第2の利用者に対する感情と、第2の利用者から第1の利用者に対する感情とがそれぞれ「超ポジティブ状態」である場合は、第1の利用者のデータを第2の利用者に公開すると判定してもよい。
このように、ソーシャルネットワークサーバ30は、感情判定サーバ40が特定した利用者の感情に応じて、利用者が投稿した画像や文章などのデータの公開を制限することができる。
〔8−3.感情判定サーバについて〕
上述した実施例では、感情判定サーバ40は、特定した感情を利用者のヘッドマウント装置10に出力することで、特定した感情を利用者に通知した。しかしながら、実施例はこれに限定されるものではない。例えば、感情判定サーバ40は、第1の利用者から第2の利用者に対する感情と、第2の利用者から第1の利用者に対する感情とに応じて、第1の利用者の情報を第2の利用者に提供してもよい。
具体的には、感情判定サーバ40は、第1の利用者が好意を有している旨や、第1の利用者のプロフィール等を第2の利用者に通知してもよい。なお、感情判定サーバ40は、提案を行わずに、ソーシャルネットワークサーバ30または感情判定サーバ40が管理する各利用者のソーシャルグラフの更新のみを行っても良い。
例えば、感情判定サーバ40は、感情情報管理テーブル45を参照し、第1の利用者から第2の利用者に対する感情と、第2の利用者から第1の利用者に対する感情とを取得する。そして、感情判定サーバ40は、第1の利用者の第2の利用者に対する感情が「超ポジティブ状態」であり、第2の利用者の第1の利用者に対する感情が「ポジティブ状態」である場合は、第1の利用者の情報を第2の利用者に提供してもよい。
また、感情判定サーバ40は、第1の利用者の第2の利用者に対する感情が「エキサイト状態」であり、第2の利用者の第1の利用者に対する感情が「リラックス状態」である場合にのみ、第1の利用者の情報を第2の利用者に提供してもよい。すなわち、感情判定サーバ40は、第1の利用者の情報を第2の利用者に提供するか否かを、各利用者の感情に基づいて判定するのであれば、任意の条件を用いることができる。
また、感情判定サーバ40は、任意のタイミングで各利用者に感情情報を提供することができる。また、感情判定サーバ40は、ヘッドマウント装置10ではなく、例えば、各利用者が有する端末装置等に、プッシュ型のメールやメッセージ形式で、感情情報を提供してもよい。
また、感情判定サーバ40は、ユーザー#1が友人に対して有する感情を特定し、特定した感情を各友人に対して送信してもよい。例えば、感情判定サーバ40は、ユーザー#1とユーザー#3、#Dが友人である場合は、ユーザー#1がユーザー#3、#Dに対して有する感情、もしくは、友人ではないユーザー#2、#Eに対する感情を、ユーザー#3、#Dに対して提供してもよい。
〔8−4.対象情報について〕
上述した例では、感情判定サーバ40は、利用者の操作により画像に付された対象情報を用いて、各画像に写された撮影対象を識別した。しかしながら、実施形態はこれに限定されるものではない。例えば、ソーシャルネットワークサーバ30は、受信した画像から画像検索技術や顔識別技術を用いて、画像に写る撮影対象を特定し、特定した撮影対象を示す対象情報を自動で画像に付与してもよい。
〔8−5.感情を特定する処理について〕
上述した感情判定サーバ40は、対象情報と感情スコアとを用いて、対象情報が示す撮影対象に対する利用者の感情を特定した。しかしながら、実施例はこれに限定されるものではない。例えば、感情判定サーバ40は、利用者が画像を撮影する際の視線の動きを示す視線情報に基づいて、感情スコアの重み付けを行い、重み付けを考慮した感情スコアの平均値に基づいて、感情を特定してもよい。
例えば、ヘッドマウント装置10は、赤外線等を用いて、利用者の眼球の動きを捉える機能を有する。そして、ヘッドマウント装置10は、画像が撮像された場合は、画像が撮像された際の感情スコアと、利用者が視野内のどの範囲を注視しているか、すなわち視線が撮影された画像のどの範囲を見ていたかを示す視線情報を生成する。その後、ヘッドマウント装置10は、撮影された画像に感情スコアと視線情報とを付与し、ソーシャルネットワークサーバ30に送信する。
一方、ソーシャルネットワークサーバ30は、利用者の操作により画像に対象情報が付与される際、各撮影対象が写る範囲の入力を対象情報ごとに要求する。かかる場合、例えば、利用者が操作する端末装置は、画像上に所定の大きさの枠を重ねて表示する。そして、端末装置は、利用者に対し、撮影対象が写る範囲に枠を移動する操作を求める。
また、端末装置は、利用者によって、撮影対象が写る範囲に枠の移動が行われた場合は、枠内に移る撮影対象を示す対象情報の入力を要求する。そして、ソーシャルネットワークサーバ30は、枠内に移る撮影対象を示す対象情報の入力された場合は、画像に対し、枠の位置を示す位置情報と、かかる枠内に移る撮影対象を示す対象情報との組を対応付けて付与する。
かかる場合、感情判定サーバ40は、ソーシャルネットワークサーバ30が公開する画像から、判定対象となる撮影対象を示す対象情報が付与された画像を抽出する。また、感情判定サーバ40は、抽出した各画像について、以下の処理を実行する。まず、感情判定サーバ40は、判定対象となる撮影対象を示す対象情報と対応付けられた位置情報と、視線情報とを抽出する。そして、感情判定サーバ40は、抽出した位置情報と視線情報とがどれくらい重複するかを示す一致度を算出し、画像に付与された感情スコアと、算出した一致度との積を算出する。その後、感情判定サーバ40は、算出した積の平均値に基づいて、利用者の感情を判定する。
すなわち、感情判定サーバ40は、ある画像について、撮影対象が写る範囲と、利用者が見ていた方向とが一致する場合は、かかる画像から抽出された感情スコアの値を底上げし、撮影対象が写る範囲と利用者が見ていた方向とが異なる場合は、かかる画像から抽出された感情スコアの値を低くする。このような処理を実行することで、感情判定サーバ40は、利用者が画像を撮影した際の視線に応じた重み付けを考慮して、撮影対象に対する利用者の感情を特定することができる。この結果、感情判定サーバ40は、撮影対象に対する利用者の感情を適切に特定することができる。
なお、上述した視線情報による重み付けを考慮して感情を特定する処理については、上述した第1のバリエーションまたは第2のバリエーションと組み合わせて実施することも可能である。また、感情判定サーバ40は、画像から抽出される感情スコアに対して重み付けを考慮するのであれば、上述した処理以外の処理を実行しても良い。
〔8−6.対象情報の付与について〕
上述したソーシャルネットワークサーバ30は、利用者の手入力による対象情報を記憶した。しかしながら、実施形態は、これに限定されるものではない。例えば、ソーシャルネットワークサーバ30は、公知の顔認識技術を利用することで、画像に写る撮影対象を示す対象情報を自動的に取得しても良い。
例えば、ソーシャルネットワークサーバ30は、利用者の顔を識別するための識別情報と、かかる利用者を示す対象情報とを対応付けて管理する。そして、ソーシャルネットワークサーバ30は、識別情報を用いて、投稿された画像に写る利用者を特定する。例えば、ソーシャルネットワークサーバ30は、画像内から撮影対象の顔と思われる範囲を抽出し、抽出した範囲から眉、目、鼻、耳等の形状や配置から識別情報を算出する。そして、ソーシャルネットワークサーバ30は、算出した識別情報と、あらかじめ管理する識別情報とが一致、若しくは、類似の範囲に収まる場合は、かかる識別情報と対応付けられた対象情報を画像に付与する。
なお、上述した顔認識技術については、感情判定サーバ40が実行してもよいし、ソーシャルネットワークサーバ30、感情判定サーバ40以外のサーバ装置によって実現されても良い。また、上述した顔認識技術については、画像がソーシャルネットワークサーバ30に投稿される前に実行されてもよい。例えば、ヘッドマウント装置10は、上述した顔識別技術を用いて、撮影した画像に写る撮影対象の対象情報を特定し、特定した対象情報を撮影した画像に付与してソーシャルネットワークサーバ30に送信してもよい。
また、例えば、ヘッドマウント装置10は、顔識別技術により撮影対象を特定するサーバ装置に対して撮影した画像を送信し、撮影した画像に写る撮影対象の対象情報をサーバ装置から受信する。そして、ヘッドマウント装置10は、受信した対象情報を撮影した画像に付与してソーシャルネットワークサーバ30に送信してもよい。
なお、顔識別技術により、自動で撮影対象を特定する処理と、利用者の手入力により撮影対象を特定する処理とを併用してもよい。
〔8−7.画像の撮影タイミングについて〕
上述した実施形態では、ヘッドマウント装置10は、利用者の操作に応じて、利用者の視野を撮影した。しかしながら、実施形態は、これに限定されるものではない。例えば、ヘッドマウント装置10は、利用者の視野を常時自動で撮影してもよい。また、ヘッドマウント装置10は、所定の時間間隔、若しくは、利用者から取得した生体センサの値、感情スコアの値等に応じて、自動で利用者の視野を撮影しても良い。
なお、ヘッドマウント装置10が撮影を自動で実行する場合にも、撮影した画像に写る撮影対象の特定は、利用者が手動でやってもよいし、ヘッドマウント装置10、ソーシャルネットワークサーバ30、感情判定サーバ40、他のサーバ装置等任意の装置が、顔識別技術を用いて自動で行っても良い。
〔8−8.生体情報について〕
上述したヘッドマウント装置10は、利用者から生体センサ値を取得し、取得した生体センサ値を用いて、感情スコアを算出した。また、感情判定サーバ40は、ヘッドマウント装置10が算出した感情スコアの平均を用いて、各撮影対象に対する利用者の感情を特定した。しかしながら、実施例はこれに限定されるものではない。例えば、感情スコアの算出は、ソーシャルネットワークサーバ30や感情判定サーバ40が実行しても良い。また、感情判定サーバ40は、感情スコアから利用者の感情を特定するのではなく、例えば、心拍数や皮膚電気活動の値等、生体センサ値をそのまま用いて、利用者の感情を判定してもよい。
すなわち、上述した実施形態において、感情判定サーバ40は、生体センサ値や感情スコア等、利用者から取得される任意の情報を含む生体情報を用いて、利用者の感情を判定してもよい。例えば、感情判定サーバ40は、抽出した画像に付与された生体センサ値の平均値を用いて、利用者の感情を判定してもよい。なお、以下の記載では、生体センサ値や感情スコアを生体情報と記載する。
〔8−9.その他〕
上述したソーシャルネットワークサーバ30、感情判定サーバ40の機能は、いわゆるクラウドの機能を用いて、複数のサーバ装置によって実現されることとしてもよい。例えば、ソーシャルネットワークサーバ30が有する受信部35、更新部36、配信部37が発揮する機能は、それぞれ異なるサーバ装置によって実現されても良い。また、感情判定サーバ40が有する取得部46、抽出部47、特定部48、提供部49が発揮する機能は、それぞれ異なるサーバ装置によって実現されても良い。
また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。また、例えば、各図に示したアプリケーションのUI(User Interface)は、これに限定されるものではない。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。また、各構成要素が発揮する機能は、CPU(Central Processing Unit)が所定の特定プログラムを実行することで発揮することとしてもよい。
〔9.効果〕
上述したように、感情判定サーバ40は、利用者が撮影した画像に写された撮影対象を示す対象情報と、画像が撮影された際に利用者から取得された生体情報とを、利用者が撮影した複数の画像について取得する。また、感情判定サーバ40は、撮影対象ごとに、かかる撮影対象を示す対象情報に対応する生体情報を取得した生体情報から抽出する。そして、感情判定サーバ40は、抽出した生体情報を用いて、撮影対象に対する利用者の感情を特定する。このため、感情判定サーバ40は、利用者が撮影した画像に複数の撮影対象が写る場合にも、各撮影対象に対する利用者の感情を個別に特定することができる。
また、感情判定サーバ40は、撮影対象ごとに抽出した生体情報の平均値を算出し、算出した平均値に基づいて、撮影対象に対する利用者の感情を特定する。このため、感情判定サーバ40は、利用者が撮影した画像に複数の撮影対象が写る場合にも、各撮影対象に対する利用者の感情を個別に特定できる。
また、感情判定サーバ40は、利用者の感情が所定の要件を満たす撮影対象が写っていない画像から取得された生体情報から、撮影対象ごとに、かかる撮影対象を示す対象情報に対応する生体情報を新たに抽出する。そして、感情判定サーバ40は、新たに抽出した生体情報を用いて、撮影対象に対する利用者の感情を再度特定する。このように、感情判定サーバ40は、取得した生体情報から、感情の幅が大きい撮影対象に係る生体情報をノイズとして除外し、ノイズを除外した生体情報から他の撮影対象に対する利用者の感情を特定する。このため、感情判定サーバ40は、各撮影対象に対する利用者の感情を正確に特定できる。
また、感情判定サーバ40は、利用者が撮影した画像ごとに、かかる画像を撮影した際に利用者から取得された生体情報を個別に用いて、利用者の感情が所定の条件を満たすか否かを判定する。また、感情判定サーバ40は、撮影対象ごとに、利用者の感情が所定の条件を満たすと判定された画像に写っている回数を計数する。そして、感情判定サーバ40は、計数した数が所定の閾値以上となる撮影対象が写っていない画像から取得された生体情報から、撮影対象ごとに、かかる撮影対象を示す対象情報と対応する生体情報を抽出する。その後、感情判定サーバ40は、抽出した生体情報を用いて、撮影対象に対する利用者の感情を再度特定する。このため、感情判定サーバ40は、各撮影対象に対する利用者の感情を正確に特定できる。
また、感情判定サーバ40は、利用者が画像を撮影した際にどの撮影対象を見ていたかを示す視線情報をさらに取得する。そして、感情判定サーバ40は、撮影対象ごとに抽出した生体情報と、かかる生体情報に対応する視線情報による重み付けとを用いて、各撮影対象に対する利用者の感情を特定する。このように、感情判定サーバ40は、利用者が画像を撮影する際の視線方向を考慮して、各撮影対象に対する利用者の感情を特定するので、各撮影対象に対する利用者の感情を正確に特定できる。
〔10.プログラム〕
なお、上述した実施形態における感情判定サーバ40は、例えば図16に示すような構成のコンピュータ50が特定プログラムを実行することによって実現される。図16は、特定プログラムを実行するコンピュータのハードウェア構成の一例を示す図である。コンピュータ50は、CPU(Central Processing Unit)51、RAM(Random Access Memory)52、ROM(Read Only Memory)53、HDD(Hard Disk Drive)54、通信インターフェイス(I/F)55、入出力インターフェイス(I/F)56、およびメディアインターフェイス(I/F)57を備える。
CPU51は、ROM53またはHDD54に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM53は、コンピュータ50の起動時にCPU51によって実行されるブートプログラムや、コンピュータ50のハードウェアに依存するプログラム等を格納する。
HDD54は、CPU51によって実行される特定プログラム、および、特定プログラムによって使用されるデータ等を格納する。例えば、HDD54は、図6に記載した感情情報管理テーブル45等と同様のデータを記憶する。通信インターフェイス55は、ネットワーク2を介して他の機器からデータを受信してCPU51へ送り、CPU51が生成したデータを、ネットワーク2を介して他の機器へ送信する。
CPU51は、入出力インターフェイス56を介して、ディスプレイやプリンタ等の出力装置、および、キーボードやマウス等の入力装置を制御する。CPU51は、入出力インターフェイス56を介して、入力装置からデータを取得する。また、CPU51は、生成したデータを、入出力インターフェイス56を介して出力装置へ出力する。
メディアインターフェイス57は、記録媒体58に格納された特定プログラムまたはデータを読み取り、RAM52を介してCPU51に提供する。CPU51は、当該プログラムを、メディアインターフェイス57を介して記録媒体58からRAM52上にロードし、ロードしたプログラムを実行する。記録媒体58は、本願に係る特定プログラムが記録された記録媒体であり、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
コンピュータ50が上述した実施形態に係るソーシャルネットワークサーバ30として機能する場合、コンピュータ50のCPU51は、RAM52上にロードされたプログラムを実行することにより、取得部46、抽出部47、特定部48、提供部49の各機能を実現する。
コンピュータ50のCPU51は、特定プログラムを、記録媒体58から読み取って実行するが、他の例として、他の装置から、ネットワーク2を介してこれらのプログラムを取得してもよい。
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に多様な変更または改良を加えることが可能であることが当業者には明らかである。また、そのような変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。
1 情報提供システム
2 ネットワーク
10 ヘッドマウント装置
11 カメラ
12 生体センサ
13、31、41 通信部
14、32、42 制御部
15,33、43 記憶部
16 表示部
17 画像データベース
18 撮影部
19 収集部
20 送信部
21 表示制御部
30 ソーシャルネットワークサーバ
34 画像データベース
35 受信部
36 更新部
37 配信部
40 感情判定サーバ
44 対象情報データベース
45 感情情報管理テーブル
46 取得部
47 抽出部
48 特定部
49 提供部


Claims (7)

  1. 利用者が撮影した画像に写された撮影対象を示す対象情報と、該画像が撮影された際に前記利用者から取得された生体情報とを、前記利用者が撮影した複数の画像について取得する取得部と、
    前記撮影対象ごとに、該撮影対象を示す対象情報に対応する生体情報を前記取得部が取得した生体情報から抽出する抽出部と、
    前記抽出部が抽出した生体情報を用いて、前記撮影対象に対する前記利用者の感情を特定する特定部と
    を備えることを特徴とする情報処理装置。
  2. 前記特定部は、前記抽出部が抽出した生体情報の平均値を算出し、当該算出した平均値に基づいて、前記撮影対象に対する前記利用者の感情を特定することを特徴とする請求項1に記載の情報処理装置。
  3. 前記抽出部は、前記取得部が取得した生体情報のうち、前記特定部によって特定された感情が所定の要件を満たす撮影対象が写っていない画像について前記取得部が取得した生体情報から、前記撮影対象ごとに、該撮影対象を示す対象情報に対応する生体情報を新たに抽出し、
    前記特定部は、前記抽出部が新たに抽出した生体情報を用いて、前記撮影対象に対する前記利用者の感情を再度特定する
    ことを特徴とする請求項1または2に記載の情報処理装置。
  4. 前記取得部が取得した生体情報を個別に用いて、前記利用者の感情が所定の条件を満たすか否かを前記画像ごとに判定する判定部と、
    前記判定部によって前記利用者の感情が所定の条件を満たすと判定された画像に前記撮影対象が写っている回数を、前記撮影対象ごとに計数する計数部と、
    を備え、
    前記抽出部は、前記取得部が取得した生体情報のうち、前記計数部によって計数された数が所定の閾値以上となる撮影対象を特定し、該特定した撮影対象が写っていない画像について前記取得部が取得した生体情報から、前記撮影対象ごとに、該撮影対象を示す対象情報に対応する生体情報を抽出する
    ことを特徴とする請求項1または2に記載の情報処理装置。
  5. 前記取得部は、前記利用者が前記画像を撮影した際にどの撮影対象を見ていたかを示す視線情報と、前記対象情報と、前記生体情報とを複数の画像について取得し、
    前記特定部は、前記抽出部が抽出した生体情報と、該生体情報と対応する視線情報による重み付けとを用いて、前記撮影対象に対する前記利用者の感情を特定する
    ことを特徴とする請求項1〜4のいずれか1つに記載の情報処理装置。
  6. 情報処理装置が、
    利用者が撮影した画像に写された撮影対象を示す対象情報と、該画像が撮影された際に前記利用者から取得された生体情報とを、前記利用者が撮影した複数の画像について取得する取得工程と、
    前記撮影対象ごとに、該撮影対象を示す対象情報に対応する生体情報を前記取得した生体情報から抽出する抽出工程と、
    前記抽出した生体情報を用いて、前記撮影対象に対する前記利用者の感情を特定する特定工程と
    を実行することを特徴とする特定方法。
  7. コンピュータに、
    利用者が撮影した画像に写された撮影対象を示す対象情報と、該画像が撮影された際に前記利用者から取得された生体情報とを、前記利用者が撮影した複数の画像について取得する取得手順と、
    前記撮影対象ごとに、該撮影対象を示す対象情報に対応する生体情報を前記取得した生体情報から抽出する抽出手順と、
    前記抽出した生体情報を用いて、前記撮影対象に対する前記利用者の感情を特定する特定手順と
    を実行させることを特徴とする特定プログラム。


JP2013177352A 2013-08-28 2013-08-28 情報処理装置、特定方法および特定プログラム Active JP5787949B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013177352A JP5787949B2 (ja) 2013-08-28 2013-08-28 情報処理装置、特定方法および特定プログラム
US14/018,802 US9349041B2 (en) 2013-08-28 2013-09-05 Information processing device, specifying method, and non-transitory computer readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013177352A JP5787949B2 (ja) 2013-08-28 2013-08-28 情報処理装置、特定方法および特定プログラム

Publications (2)

Publication Number Publication Date
JP2015046069A JP2015046069A (ja) 2015-03-12
JP5787949B2 true JP5787949B2 (ja) 2015-09-30

Family

ID=52583348

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013177352A Active JP5787949B2 (ja) 2013-08-28 2013-08-28 情報処理装置、特定方法および特定プログラム

Country Status (2)

Country Link
US (1) US9349041B2 (ja)
JP (1) JP5787949B2 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102154912B1 (ko) * 2013-10-11 2020-09-11 인터디지탈 패튼 홀딩스, 인크 시선 구동 증강 현실
JP2015088828A (ja) * 2013-10-29 2015-05-07 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
KR101561628B1 (ko) * 2013-12-30 2015-10-20 주식회사 케이티 스마트 글래스의 영상 정보를 제공하는 검색 장치 및 검색 방법
US10430478B1 (en) * 2015-10-28 2019-10-01 Reputation.Com, Inc. Automatic finding of online profiles of an entity location
JP2019047234A (ja) * 2017-08-31 2019-03-22 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、情報処理方法、およびプログラム
KR101912939B1 (ko) * 2018-06-14 2018-10-29 이영달 사용자 상태에 따른 맞춤형 자기관리정보 제공시스템
JP7179384B1 (ja) 2021-12-07 2022-11-29 株式会社Abelon サーバ、情報処理方法、およびプログラム
WO2024011008A1 (en) * 2022-07-08 2024-01-11 Tencent America LLC Vergence based gaze matching for mixed-mode immersive telepresence application

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6909793B1 (en) * 1999-09-09 2005-06-21 Matsushita Electric Industrial Co., Ltd. Data input apparatus, data input system, displayed data analyzing apparatus and medium
US20030128389A1 (en) * 2001-12-26 2003-07-10 Eastman Kodak Company Method for creating and using affective information in a digital imaging system cross reference to related applications
US8014763B2 (en) * 2004-02-28 2011-09-06 Charles Martin Hymes Wireless communications with proximal targets identified visually, aurally, or positionally
JP4421929B2 (ja) 2004-04-13 2010-02-24 株式会社エヌ・ティ・ティ・ドコモ サーバシステム
KR101708682B1 (ko) * 2010-03-03 2017-02-21 엘지전자 주식회사 영상표시장치 및 그 동작 방법.
US20130278631A1 (en) * 2010-02-28 2013-10-24 Osterhout Group, Inc. 3d positioning of augmented reality information
JP5866728B2 (ja) * 2011-10-14 2016-02-17 サイバーアイ・エンタテインメント株式会社 画像認識システムを備えた知識情報処理サーバシステム
KR20130065846A (ko) * 2011-12-02 2013-06-20 삼성전자주식회사 사용자 감정 공유 장치 및 방법
US10380606B2 (en) * 2012-08-03 2019-08-13 Facebook, Inc. Negative signals for advertisement targeting
US20140280558A1 (en) * 2013-03-15 2014-09-18 Paul A. Jakubik Generating and Using Social Brains
US20140280555A1 (en) * 2013-03-15 2014-09-18 William F. Tapia Social networking for surfers

Also Published As

Publication number Publication date
JP2015046069A (ja) 2015-03-12
US20150063665A1 (en) 2015-03-05
US9349041B2 (en) 2016-05-24

Similar Documents

Publication Publication Date Title
JP5787949B2 (ja) 情報処理装置、特定方法および特定プログラム
JP6122735B2 (ja) 情報処理装置、判定方法および判定プログラム
CN110084153B (zh) 用于自动共享图片的智能相机
US9338311B2 (en) Image-related handling support system, information processing apparatus, and image-related handling support method
US20130201344A1 (en) Smart camera for taking pictures automatically
KR20200036811A (ko) 정보 처리 시스템, 정보 처리 장치, 정보 처리 방법 및 기록 매체
WO2012137397A1 (ja) コンテンツ処理装置、コンテンツ処理方法、コンテンツ処理プログラム、及び集積回路
JP2014032501A (ja) 情報処理装置および情報処理方法
US9639778B2 (en) Information processing apparatus, control method thereof, and storage medium
JP6028457B2 (ja) 端末装置、サーバ及びプログラム
JP6375039B1 (ja) プログラム、撮影方法及び端末
JP2015028686A (ja) ソーシャルタイムラインを作成する方法、ソーシャル・ネットワーク・サービスシステム、サーバー、端末並びにプログラム
EP3140913B1 (en) Embedding biometric data from a wearable computing device in metadata of a recorded image
JP6241495B2 (ja) トレーニング支援装置、トレーニング支援方法、及びプログラム
JP2008269411A (ja) 画像キーワード編集システム、画像キーワード提供サーバおよび画像キーワード編集装置
JP2015233204A (ja) 画像記録装置及び画像記録方法
JP2017055175A (ja) 画像処理装置
WO2017193343A1 (zh) 媒体文件分享方法、媒体文件分享设备及终端
JP2015139001A (ja) 情報処理装置、情報処理方法及びプログラム
JP6431264B2 (ja) 情報取得システム、情報取得方法及びコンピュータプログラム
US20140285687A1 (en) Image processing apparatus, method for controlling image processing apparatus and storage medium
US20220076013A1 (en) Information presentation system, control method thereof, and non-transitory computer-readable storage medium
JP6801985B2 (ja) 情報付与方法およびサーバ装置
JP2017175453A (ja) 画像処理装置及び画像処理方法
KR20190099714A (ko) 사용자의 감정에 기반한 콘텐츠 수집 및 공유 서비스의 제공 방법

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150619

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150707

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150728

R150 Certificate of patent or registration of utility model

Ref document number: 5787949

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250