Nothing Special   »   [go: up one dir, main page]

JP2020130502A - 情報処理装置および情報処理方法 - Google Patents

情報処理装置および情報処理方法 Download PDF

Info

Publication number
JP2020130502A
JP2020130502A JP2019026460A JP2019026460A JP2020130502A JP 2020130502 A JP2020130502 A JP 2020130502A JP 2019026460 A JP2019026460 A JP 2019026460A JP 2019026460 A JP2019026460 A JP 2019026460A JP 2020130502 A JP2020130502 A JP 2020130502A
Authority
JP
Japan
Prior art keywords
information
user
emotion
acquisition unit
acquires
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019026460A
Other languages
English (en)
Inventor
鈴木 浩介
Kosuke Suzuki
浩介 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2019026460A priority Critical patent/JP2020130502A/ja
Priority to US16/792,398 priority patent/US20200265252A1/en
Priority to CN202010099270.8A priority patent/CN111568447A/zh
Publication of JP2020130502A publication Critical patent/JP2020130502A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/18Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/192Recognition using electronic means using simultaneous comparisons or correlations of the image signals with a plurality of references
    • G06V30/194References adjustable by an adaptive method, e.g. learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • Medical Informatics (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Educational Technology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Developmental Disabilities (AREA)
  • Child & Adolescent Psychology (AREA)
  • Databases & Information Systems (AREA)
  • Algebra (AREA)
  • Probability & Statistics with Applications (AREA)
  • Mathematical Analysis (AREA)
  • Pure & Applied Mathematics (AREA)

Abstract

【課題】利用者の撮影が停止されている場合であっても、利用者の感情を推定することができる情報処理装置を提供する。【解決手段】情報処理装置12は、自動車10の利用者の撮影を停止するオフ情報を取得する内部カメラスイッチ情報取得部74と、利用者を撮影した画像を取得する利用者画像取得部76と、自動車10の挙動を含む車両情報を取得する車両情報取得部78と、利用者の情報である利用者情報を取得する利用者情報取得部80と、少なくともオフ情報が取得された場合に、取得された車両情報および利用者情報に基づいて、利用者の感情を推定する感情推定部88と、を有する。【選択図】図1

Description

本発明は、移動体の利用者の感情を推定する情報処理装置および情報処理方法に関する。
特許文献1には、運転者の挙動を車室内カメラにより検出し、検出した運転者の挙動に応じて運転者の感情を推定する感情推定装置が開示されている。
特開2017−138762号公報
しかしながら、上記の特許文献1に記載された技術では、車室内カメラにより運転者(利用者)の撮影が停止している場合には、運転者の感情を推定することができなかった。
本発明は、上記の問題を解決するためになされたものであり、利用者の撮影が停止されている場合であっても、利用者の感情を推定することができる情報処理装置および情報処理方法を提供することを目的とする。
本発明の第1の態様は、情報処理装置であって、移動体の利用者の撮影を停止するオフ情報を取得するオフ情報取得部と、前記利用者を撮影した画像を取得する画像取得部と、前記移動体の挙動を含む移動体情報を取得する移動体情報取得部と、前記利用者の情報である利用者情報を取得する利用者情報取得部と、少なくとも前記オフ情報が取得された場合に、取得された前記移動体情報および前記利用者情報に基づいて、前記利用者の感情を推定する推定部と、を有する。
本発明の第2の態様は、情報処理方法であって、移動体の利用者の撮影を停止するオフ情報を取得するオフ情報取得ステップと、前記利用者を撮影した画像を取得する画像取得ステップと、前記移動体の挙動を含む移動体情報を取得する移動体情報取得ステップと、前記利用者の情報である利用者情報を取得する利用者情報取得ステップと、少なくとも前記オフ情報が取得された場合に、取得された前記移動体情報および前記利用者情報に基づいて、前記利用者の感情を推定する推定ステップと、を有する。
本発明の情報処理装置および情報処理方法により、利用者の撮影が停止されている場合であっても、利用者の感情を推定することができる。
情報処理装置の構成を示すブロック図である。 機械学習装置の学習結果に基づく感情推定の概要について説明する図である。 利用者の感情が眠気と推定されたときの仮想アシスタントによる提案の例を示す図である。 利用者の感情が焦燥感と推定されたときの仮想アシスタントによる提案の例を示す図である。 機械学習装置において行われる機械学習処理の流れを示すフローチャートである。 情報処理装置において行われる仮想アシスタント制御処理の流れを示すフローチャートである。 情報処理装置の構成を示すブロック図である。
〔第1の実施の形態〕
[情報処理装置の構成]
図1は、本実施の形態の自動車10に搭載されている情報処理装置12の構成を示すブロック図である。本実施の形態の情報処理装置12は自動車10に搭載されているが、情報処理装置12は、利用者が自動車10に持ち込むスマートフォン、タブレットまたはパーソナルコンピュータ等の情報処理機器に搭載されていてもよい。また、情報処理装置12は、自動車10と通信を行うことが可能な自動車10の外部に設置されたサーバに搭載されていてもよい。なお、自動車10は、本発明の移動体に相当する。
情報処理装置12は、自動車10に乗車している利用者の感情を推定し、推定した感情に応じて、後述する仮想アシスタント112を介して、利用者に、休憩、音楽の再生等の提案を行う。また、情報処理装置12は、利用者に提案した事項に応じて自動車10内の装置を操作する。
情報処理装置12は、自動車10に搭載されている以下の入力装置から情報を入力する。自動車10には、入力装置として、車体挙動取得装置14、操作量取得装置16、周辺状況監視装置18、測位装置20、ナビゲーション装置22、利用者監視装置24、通信装置26、入力系のヒューマンマシンインタフェース(以下、HMI)28が搭載されている。
車体挙動取得装置14は、自動車10の車体挙動情報を取得する。自動車10は、車体挙動取得装置14として、車速を取得する車速センサ30、車輪速を取得する車輪速センサ32、自動車10の前後加速度、横加速度および上下加速度を取得する加速度センサ34、および、自動車10のヨーレイトを取得するヨーレイトセンサ36を有している。
操作量取得装置16は、利用者による運転操作の操作量情報を取得する。自動車10は、操作量取得装置16として、アクセルペダルの操作量を取得するアクセルペダルセンサ38、ブレーキペダルの操作量を取得するブレーキペダルセンサ40、ステアリングの操舵角を取得する操舵角センサ42、および、ステアリングに付与される操舵トルクを取得する操舵トルクセンサ44を有している。
周辺状況監視装置18は、自動車10の周辺状況を監視する。周辺状況とは、自動車10周辺の他車両、建造物、標識、車線等の状況を示す。自動車10は、周辺状況監視装置18として、自動車10の外部を撮影する複数の外部カメラ46、ミリ波を用いて被検出物と自動車10との距離等を取得する複数のミリ波レーダ48、および、レーザ光(赤外線)を用いて被検出物と自動車10との距離等を取得する複数のレーザレーダ(LiDAR)50を有している。
測位装置20は、自動車10の位置情報を取得する。自動車10は、測位装置20として、人工衛星から発信される信号を用いて自動車10の位置を測定する全球測位衛星システム(GNSS)52、および、3軸のジャイロと3方向の加速度センサを用いて自動車10の三次元の挙動を取得する慣性計測装置(IMU)54を有している。
ナビゲーション装置22は、地図データベース56に基づき作成した地図を後述するディスプレイ72に表示させ、また、その地図上に測位装置20において取得された自動車10の位置情報を表示させる。さらに、ナビゲーション装置22は、利用者の後述するタッチパネル64の操作に基づき自動車10の目的地を設定し、自動車10の現在位置から目的地までの目標経路を設定する。ナビゲーション装置22は、設定した目標経路に基づいて経路案内を表示するようにディスプレイ72を制御する。また、ナビゲーション装置22は、設定した目標経路に基づいて経路案内を発声するように後述するスピーカ70を制御する。地図データベース56の情報、および、ナビゲーション装置22において設定された目標値および目標経路の情報は、情報処理装置12に入力される。なお、地図データベース56は、自動車10に搭載されていなくともよく、後述する通信装置26を介して、外部に設置されたサーバから地図情報を取得するようにしてもよい。また、ナビゲーション装置22は、通信装置26を介して、高度道路交通システム(ITS)等から、渋滞情報、工事情報等の道路情報を取得し、地図上に道路情報を表示させるようにディスプレイ72を制御するようにしてもよい。
利用者監視装置24は、利用者の状態を監視する。自動車10は、利用者監視装置24として、自動車10に乗車している利用者を撮影する内部カメラ58、および、自動車10に乗車している利用者の心拍数、脈拍、脳波または呼吸数等の生体情報を計測する生体センサ60を有している。生体センサ60は、ステアリング等の利用者の手が接触する場所に搭載されていてもよいし、自動車10のシート等の利用者の身体が接触する場所に搭載されていてもよいし、利用者が身に着けているウェアラブル端末に搭載されていてもよい。さらには、生体センサ60は、利用者に電波を照射し、反射された電波から利用者の生体情報を計測する非接触のものであってもよい。
通信装置26は、不図示の外部機器との間で無線通信を行う。外部機器は、例えば、渋滞情報、工事情報等の道路情報を配信する道路情報配信サーバ、気象情報を配信する気象情報配信サーバ等である。通信装置26は、テレマティクスコントロールユニット(TCU)等のように自動車10に専用に設けられるものであってもよいし、携帯電話やスマートフォン等が通信装置26として用いられてもよい。
入力系のHMI28は、利用者に操作されることにより、所定の信号を情報処理装置12に送信する。本実施の形態の自動車10は、入力系のHMI28として、内部カメラスイッチ62およびタッチパネル64を有している。
内部カメラスイッチ62は、前述の内部カメラ58による利用者の撮影を行うオン状態と、内部カメラ58による利用者の撮影を停止するオフ状態とを切り替えるスイッチである。
タッチパネル64は、後述するディスプレイ72の画面上に貼着された透明なフィルム状の部材であって、利用者の指やスタイラス等が触れた操作位置情報を取得する。情報処理装置12には、タッチパネル64により取得された操作位置情報と、ディスプレイ72に表示されたアイコン等の表示位置との関係に基づき、利用者からの指示が入力される。
情報処理装置12は、自動車10に搭載されている以下の出力装置に情報を出力する。出力装置として自動車10には、出力系のHMI66およびオーディオ・ビジュアル装置(以下、AV装置)68が搭載されている。
出力系のHMI66は、音、音声、音楽、文字および画像等により利用者に情報の提供や報知を行う。本実施の形態の自動車10は、HMI66として、スピーカ70およびディスプレイ72を有している。スピーカ70は、音、音声、音楽等により利用者に情報の提供や報知を行う。ディスプレイ72は、文字、画像等により利用者に情報の提供や報知を行う。
AV装置68は、ラジオ放送信号、テレビ放送信号等を受信し、受信した信号に応じて音、音声、音楽、文字および画像等が出力されるようにスピーカ70およびディスプレイ72を制御する。なお、AV装置68は、スピーカ70およびディスプレイ72から出力される音、音声、音楽、文字および画像等は、AV装置68内に記憶されているものであってもよいし、リムーバブルメディアに記憶されたものであってもよいし、ストリーミング配信されたものであってもよい。
情報処理装置12は、内部カメラスイッチ情報取得部74、利用者画像取得部76、車両情報取得部78、利用者情報取得部80、道路情報取得部82、気象情報取得部84、学習結果取得部86、感情推定部88および仮想アシスタント制御部90を有している。
内部カメラスイッチ情報取得部74は、内部カメラスイッチ62の状態(オンまたはオフ)を取得する。なお、内部カメラスイッチ情報取得部74は、本発明のオフ情報取得部に相当する。
利用者画像取得部76は、内部カメラ58から利用者の画像を取得する。内部カメラスイッチ62がオフ状態である場合には、利用者は画像を取得されない。なお、利用者画像取得部76は、本発明の画像取得部に相当する。
車両情報取得部78は、車体挙動取得装置14から自動車10の車体挙動情報を車両情報として取得する。また、車両情報取得部78は、測位装置20から自動車10の位置情報を車両情報として取得する。なお、車両情報取得部78は、本発明の移動体情報取得部に相当する。
利用者情報取得部80は、操作量取得装置16から利用者による運転操作の操作量情報を利用者情報として取得する。
道路情報取得部82は、ナビゲーション装置22、または、通信装置26から道路情報を取得する。
気象情報取得部84は、通信装置26から気象情報を取得する。
学習結果取得部86は、後述する機械学習装置92において、利用者の感情と、車両情報および利用者情報との関連について、利用者毎に機械学習された学習結果を取得する。
感情推定部88は、内部カメラスイッチ62の状態がオンである場合には、取得された利用者の画像に基づき、利用者の感情を推定する。また、感情推定部88は、内部カメラスイッチ62の状態がオフである場合には、取得された車両情報、利用者情報、道路情報および気象情報に基づき、利用者の感情を推定する。感情推定部88は、車両情報、利用者情報、道路情報および気象情報のすべての情報を用いて利用者の感情を推定しなくともよく、少なくとも車両情報および利用者情報に基づき、利用者の感情を推定するようにすればよい。なお、感情推定部88は、本発明の推定部に相当する。
仮想アシスタント制御部90は、推定された利用者の感情に基づき、後述する仮想アシスタント112を制御する。
さらに、自動車10には機械学習装置92が搭載されている。機械学習装置92は、情報処理装置12から利用者の画像を取得し、取得した利用者の画像に基づき、利用者の感情を推定する。また、機械学習装置92は、情報処理装置12から車両情報、利用者情報、道路情報および気象情報を取得する。そして、機械学習装置92は、推定した利用者の感情と、取得した車両情報、利用者情報、道路情報および気象情報との関連について機械学習を行い、利用者毎に学習結果を記憶する。
なお、本実施の形態の機械学習装置92は自動車10に搭載されているが、機械学習装置92は、利用者が自動車10に持ち込むスマートフォン、タブレットまたはパーソナルコンピュータ等の情報処理端末に搭載されていてもよい。また、機械学習装置92は、自動車10と通信を行うことが可能な自動車10の外部に設置されたサーバに搭載されていてもよい。
機械学習装置92は、内部カメラスイッチ情報取得部94、利用者画像取得部96、車両情報取得部98、利用者情報取得部100、道路情報取得部102、気象情報取得部104、感情推定部106、学習部108および学習結果記憶部110を有している。
内部カメラスイッチ情報取得部94は、情報処理装置12から内部カメラスイッチ62の状態(オンまたはオフ)を取得する。
利用者画像取得部96は、情報処理装置12から利用者の画像を取得する。
車両情報取得部98は、情報処理装置12から車両情報(自動車10の車体挙動情報および位置情報)を取得する。
利用者情報取得部100は、情報処理装置12から利用者情報(利用者による運転操作の操作量情報)を取得する。
道路情報取得部102は、情報処理装置12から道路情報を取得する。
気象情報取得部104は、情報処理装置12から気象情報を取得する。
感情推定部106は、利用者の画像に基づき、利用者の感情を推定する。
学習部108は、推定された利用者の感情と、そのとき取得された車両情報、利用者情報、道路情報および気象情報との関連について機械学習する。
学習結果記憶部110は、利用者の感情と、車両情報、利用者情報、道路情報および気象情報との関連についての学習結果を、利用者毎に記憶する。
[学習結果に基づく感情推定の概要]
図2は、機械学習装置92における機械学習、および、情報処理装置12における学習結果に基づく感情推定の概要について説明する図である。
機械学習装置92の感情推定部106は、利用者の画像を解析して、利用者の感情を推定する。
学習部108は、推定された利用者の感情が平静である場合には、そのとき取得された車両情報、利用者情報、道路情報および気象情報を「平静である状態」として学習する。学習部108は、推定された利用者の感情が焦燥感である場合、つまり、利用者がイライラしている場合には、そのとき取得された車両情報、利用者情報、道路情報および気象情報を「焦燥感がある状態」として学習する。学習部108は、推定された利用者の感情が眠気である場合には、そのとき取得された車両情報、利用者情報、道路情報および気象情報を「眠気がある状態」として学習する。本実施の形態の機械学習装置92の学習部108は、平常、焦燥感、眠気の3つの利用者の感情に対する車両情報、利用者情報、道路情報および気象情報を学習するが、さらに多くの利用者の感情に対する車両情報、利用者情報、道路情報および気象情報を学習してもよい。
学習結果記憶部110は、「平静である状態」、「焦燥感がある状態」および「眠気がある状態」のそれぞれに対して、車両情報、利用者情報、道路情報および気象情報を学習結果として記憶する。
情報処理装置12の学習結果取得部86は、学習結果記憶部110に記憶されている学習結果を取得する。
感情推定部88は、取得された車両情報、利用者情報、道路情報および気象情報に対応する利用者の感情を学習結果に照会して、利用者の感情を推定する。
[仮想アシスタントによる提案の具体例]
図3は、利用者の感情が眠気と推定されたときの仮想アシスタント112による提案の例を示す図である。
仮想アシスタント112はディスプレイ72に表示される。また、仮想アシスタント112の音声がスピーカ70から発声される。本実施の形態の仮想アシスタント112は、人をモチーフにしたキャラクタとして表示されるが、動物、ロボット等をモチーフにしたキャラクタとして表示されるようにしてもよい。また、実際に人を撮影した映像を表示させるようにしてもよい。さらには、仮想アシスタント112はディスプレイ72に表示されず、音声のみがスピーカ70から発声されるようにしてもよい。
利用者に眠気がある場合には、仮想アシスタント112は、例えば、休憩の提案を行う。このとき、仮想アシスタント112は「コーヒーブレイクしませんか?近くにコーヒショップがありますよ」と利用者に呼びかける。また、仮想アシスタント112は、ディスプレイ72に自動車10の周辺地図114を表示させ、周辺地図114上に、自動車10の現在位置116と近隣のコーヒショップ118とを表示させる。
図4は、利用者の感情が焦燥感と推定されたときの仮想アシスタント112による提案の例を示す図である。
自動車10が渋滞にはまって利用者がイライラしている場合には、仮想アシスタント112は、例えば、音楽を流す提案を行う。このとき、仮想アシスタント112は「ひどい渋滞ですね、音楽でも聴いてリラックスしませんか?」と利用者に呼びかける。また、仮想アシスタント112は、利用者の感情を落ち着かせる音楽を選択し、ディスプレイ72に選択した音楽情報120を表示させる。
[機械学習処理]
図5は、機械学習装置92において行われる機械学習処理の流れを示すフローチャートである。
ステップS1において、機械学習装置92は、内部カメラスイッチ情報取得部94が取得した内部カメラスイッチ62の状態がオンであるか否かを判定する。内部カメラスイッチ62の状態がオンである場合にはステップS2へ移行し、内部カメラスイッチ62の状態がオフである場合には機械学習処理を終了する。
ステップS2において、車両情報取得部98は、情報処理装置12から車両情報(自動車10の車体挙動情報および位置情報)を取得して、ステップS3へ移行する。
ステップS3において、利用者情報取得部100は、情報処理装置12から利用者情報(利用者による運転操作の操作量情報)を取得して、ステップS4へ移行する。
ステップS4において、道路情報取得部102は、情報処理装置12から道路情報を取得して、ステップS5へ移行する。
ステップS5において、気象情報取得部104は、情報処理装置12から気象情報を取得して、ステップS6へ移行する。
ステップS6において、利用者画像取得部96は、情報処理装置12から利用者の画像を取得して、ステップS7へ移行する。
ステップS7において、感情推定部106は、利用者の画像から利用者の感情を推定して、ステップS9へ移行する。
ステップS8において、学習部108は、利用者の感情を判定する。利用者の感情が平静である場合にはステップS9へ移行し、焦燥感である場合にはステップS10へ移行し、眠気である場合にはステップS11へ移行する。
ステップS9において、学習部108は、取得された車両情報、利用者情報、道路情報および気象情報を「平静である状態」として、学習結果記憶部110に記憶させて、機械学習処理を終了する。
ステップS10において、学習部108は、取得された車両情報、利用者情報、道路情報および気象情報を「焦燥感があるときの状態」として、学習結果記憶部110に記憶させて、機械学習処理を終了する。
ステップS11において、学習部108は、取得された車両情報、利用者情報、道路情報および気象情報を「眠気がある状態」として、学習結果記憶部110に記憶させて、機械学習処理を終了する。
[仮想アシスタント制御処理]
図6は、情報処理装置12において行われる仮想アシスタント制御処理の流れを示すフローチャートである。
ステップS21において、情報処理装置12は、内部カメラスイッチ情報取得部74が取得した内部カメラスイッチ62の状態がオフであるか否かを判定する。内部カメラスイッチ62の状態がオフである場合にはステップS22へ移行し、内部カメラスイッチ62の状態がオンである場合にはステップS28へ移行する。
ステップS22において、車両情報取得部78は、車体挙動取得装置14および測位装置20から車両情報(自動車10の車体挙動情報および位置情報)を取得して、ステップS23へ移行する。
ステップS23において、利用者情報取得部80は、操作量取得装置16から利用者情報(利用者による運転操作の操作量情報)取得して、ステップS24へ移行する。
ステップS24において、道路情報取得部82は、ナビゲーション装置22、または、通信装置26から道路情報を取得して、ステップS25へ移行する。
ステップS25において、気象情報取得部84は、通信装置26から気象情報を取得して、ステップS26へ移行する。
ステップS26において、学習結果取得部86は、機械学習装置92の学習結果記憶部110に記憶されている学習結果を取得して、ステップS27へ移行する。
ステップS27において、感情推定部88は、取得された車両情報、利用者情報、道路情報および気象情報に対応する利用者の感情を学習結果に照会して、利用者の感情を推定し、ステップS30へ移行する。
ステップS21において、内部カメラスイッチ62の状態がオンである場合にはステップS28へ移行する。ステップS28において、利用者画像取得部76は、内部カメラ58が撮影した利用者の画像を取得して、ステップS29へ移行する。
ステップS29において、感情推定部88は、取得された利用者の画像に基づいて、利用者の感情を推定し、ステップS30へ移行する。
ステップS30において、仮想アシスタント制御部90は、推定された利用者の感情に応じて、利用者に提案する提案事項を決定して、ステップS31へ移行する。さらに、仮想アシスタント制御部90は、取得された車両情報、利用者情報、道路情報および気象情報を考慮して、提案事項を決定してもよい。例えば、利用者の感情が眠気であって、自動車10の付近にコーヒショップがあるときには、仮想アシスタント制御部90は、コーヒショップでの休憩を提案事項として決定する。
ステップS31において、仮想アシスタント制御部90は、仮想アシスタント112を表示するようにディスプレイ72を制御する。また、仮想アシスタント制御部90は、仮想アシスタント112に決定した提案事項を利用者に提案する発声を行うようにスピーカ70を制御して、ステップS32へ移行する。
ステップS32において、仮想アシスタント112は、決定した提案事項に基づいて、他の装置を制御して、仮想アシスタント制御処理を終了する。例えば、仮想アシスタント制御部90が、コーヒショップでの休憩を提案事項として決定した場合には、仮想アシスタント制御部90は、ディスプレイ72に自動車10の周辺地図114を表示し、周辺地図114上に、自動車10の現在位置116と近隣のコーヒショップ118とを表示させるようにナビゲーション装置22を制御する。
[作用効果]
従来から、内部カメラ58が撮影した利用者の画像から利用者の感情を推定するものが提案されている。しかし、利用者が内部カメラ58により撮影を好まない場合がある。その場合、内部カメラ58による撮影が停止され、その間、利用者の画像から利用者の感情を推定できない。
そこで、本実施の形態の情報処理装置12は、内部カメラスイッチ62がオフである場合には、車両情報および利用者情報に基づいて利用者の感情を推定する。これにより、情報処理装置12は、内部カメラ58による撮影が停止されている場合であっても、利用者の感情を推定することができる。
また、本実施の形態の情報処理装置12は、機械学習装置92から学習結果を取得する。この学習結果は、機械学習装置92において、利用者の画像に基づいて利用者の感情を推定し、推定された利用者の感情と、取得された車両情報および利用者情報との関連について、利用者毎に機械学習が行われたものの結果である。そして、情報処理装置12は、取得した車両情報および利用者情報と、取得した学習結果とに基づいて利用者の感情を推定する。これにより、情報処理装置12は、内部カメラ58による撮影が停止されている場合であっても、利用者の感情を精度よく推定することができる。
〔変形例〕
第1の実施の形態では、機械学習装置92は、内部カメラ58が撮影した利用者の画像に基づいて利用者の感情を推定する。これを、生体センサ60が計測した利用者の生体情報に基づいて利用者の感情を推定するようにしてもよい。
機械学習装置92において、利用者の画像に基づく利用者の感情の推定と、利用者の生体情報に基づく利用者の感情の推定とは、両方行われてもよいし、一方が行われてもよい。
利用者は、内部カメラ58による撮影と同様に、生体センサ60による計測を好まない場合がある。その場合、生体センサ60による計測が停止され、その間、利用者の生体情報から利用者の感情を推定できない。したがって、生体センサ60による計測が停止されている場合にも、第1の実施の形態の情報処理装置12のように、取得した車両情報および利用者情報と、取得した学習結果とに基づいて利用者の感情を推定することは有効である。
以下に、生体センサ60が計測した利用者の生体情報に基づいて利用者の感情を推定する場合の情報処理装置12の構成について説明する。情報処理装置12による各処理は、第1の実施の形態において内部カメラ58が撮影した利用者の画像を用いて行われている処理を、生体センサ60が計測した利用者の生体情報を用いて処理するようにすればよい。
図7は、情報処理装置12の構成を示すブロック図である。以下、第1の実施の形態と異なる構成についてのみ説明する。
入力系のHMI28は、第1の実施の形態の内部カメラスイッチ62に代えて生体センサスイッチ63を有している。
生体センサスイッチ63は、生体センサ60による利用者の生体情報の計測を行うオン状態と、生体センサ60による利用者の生体情報の計測を停止するオフ状態とを切り替えるスイッチである。
情報処理装置12は、第1の実施の形態の内部カメラスイッチ情報取得部74に代えて生体センサスイッチ情報取得部75を、第1の実施の形態の利用者画像取得部76に代えて生体情報取得部77を有している。
生体センサスイッチ情報取得部75は、生体センサスイッチ63の状態(オンまたはオフ)を取得する。なお、生体センサスイッチ情報取得部75は、本発明のオフ情報取得部に相当する。
生体情報取得部77は、生体センサ60から利用者の生体情報を取得する。生体センサ60がオフ状態である場合には、利用者の生体情報は取得されない。なお、オフ状態とは生体センサ60からの情報が取得できない場合も含む。
機械学習装置92は、第1の実施の形態の内部カメラスイッチ情報取得部94に代えて生体センサスイッチ情報取得部95を、利用者画像取得部96に代えて生体情報取得部97を有している。
〔実施の形態から得られる技術的思想〕
上記実施の形態から把握しうる技術的思想について、以下に記載する。
情報処理装置(12)は、移動体(10)の利用者の撮影を停止するオフ情報を取得するオフ情報取得部(74)と、前記利用者を撮影した画像を取得する画像取得部(76)と、前記移動体の挙動を含む移動体情報を取得する移動体情報取得部(78)と、前記利用者の情報である利用者情報を取得する利用者情報取得部(80)と、少なくとも前記オフ情報が取得された場合に、取得された前記移動体情報および前記利用者情報に基づいて、前記利用者の感情を推定する推定部(88)と、を有する。これにより、情報処理装置は、内部カメラによる撮影が停止されている場合であっても、利用者の感情を推定することができる。
上記の情報処理装置であって、前記移動体情報は前記移動体の位置情報を含んでもよい。これにより、情報処理装置は、内部カメラによる撮影が停止されている場合であっても、利用者の感情を精度よく推定することができる。
上記の情報処理装置であって、取得された前記画像に基づいて前記利用者の感情を推定し、推定された前記利用者の感情と、取得された前記移動体情報および前記利用者情報との関連について、前記利用者毎に機械学習が行われた結果を取得する学習結果取得部(86)を有し、前記推定部は、取得された前記移動体情報および前記利用者情報と、取得された前記機械学習の結果とに基づいて前記利用者の感情を推定してもよい。これにより、情報処理装置は、内部カメラによる撮影が停止されている場合であっても、利用者の感情を精度よく推定することができる。
上記の情報処理装置であって、前記推定部は、前記利用者の感情として、少なくとも眠気を推定してもよい。これにより、情報処理装置は、内部カメラによる撮影が停止されている場合であっても、利用者の感情として眠気を推定することができる。
情報処理方法は、移動体(10)の利用者の撮影を停止するオフ情報を取得するオフ情報取得ステップと、前記利用者を撮影した画像を取得する画像取得ステップと、前記移動体の挙動を含む移動体情報を取得する移動体情報取得ステップと、前記利用者の情報である利用者情報を取得する利用者情報取得ステップと、少なくとも前記オフ情報が取得された場合に、取得された前記移動体情報および前記利用者情報に基づいて、前記利用者の感情を推定する推定ステップと、を有する。これにより、情報処理装置は、内部カメラによる撮影が停止されている場合であっても、利用者の感情を推定することができる。
情報処理装置(12)は、移動体(10)の利用者の生体情報の計測を停止するオフ情報を取得するオフ情報取得部(75)と、計測された前記利用者の前記生体情報を取得する生体情報取得部(77)と、前記移動体の挙動を含む移動体情報を取得する移動体情報取得部(78)と、前記利用者の情報である利用者情報を取得する利用者情報取得部(80)と、少なくとも前記オフ情報が取得された場合に、取得された前記移動体情報および前記利用者情報に基づいて、前記利用者の感情を推定する推定部(88)と、を有する。これにより、情報処理装置は、生体センサによる生体情報の計測が停止されている場合であっても、利用者の感情を推定することができる。
10…自動車(移動体) 12…情報処理装置
74…内部カメラスイッチ情報取得部(オフ情報取得部)
76…利用者画像取得部(画像取得部) 78…車両情報取得部(移動体情報取得部)
80…利用者情報取得部 86…学習結果取得部
88…感情推定部(推定部)

Claims (5)

  1. 移動体の利用者の撮影を停止するオフ情報を取得するオフ情報取得部と、
    前記利用者を撮影した画像を取得する画像取得部と、
    前記移動体の挙動を含む移動体情報を取得する移動体情報取得部と、
    前記利用者の情報である利用者情報を取得する利用者情報取得部と、
    少なくとも前記オフ情報が取得された場合に、取得された前記移動体情報および前記利用者情報に基づいて、前記利用者の感情を推定する推定部と、
    を有する、情報処理装置。
  2. 請求項1に記載の情報処理装置であって、
    前記移動体情報は前記移動体の位置情報を含む、情報処理装置。
  3. 請求項1または2に記載の情報処理装置であって、
    取得された前記画像に基づいて前記利用者の感情を推定し、推定された前記利用者の感情と、取得された前記移動体情報および前記利用者情報との関連について、前記利用者毎に機械学習が行われた結果を取得する学習結果取得部を有し、
    前記推定部は、取得された前記移動体情報および前記利用者情報と、取得された前記機械学習の結果とに基づいて前記利用者の感情を推定する、情報処理装置。
  4. 請求項1〜3のいずれか1項に記載の情報処理装置であって、
    前記推定部は、前記利用者の感情として、少なくとも眠気を推定する、情報処理装置。
  5. 移動体の利用者の撮影を停止するオフ情報を取得するオフ情報取得ステップと、
    前記利用者を撮影した画像を取得する画像取得ステップと、
    前記移動体の挙動を含む移動体情報を取得する移動体情報取得ステップと、
    前記利用者の情報である利用者情報を取得する利用者情報取得ステップと、
    少なくとも前記オフ情報が取得された場合に、取得された前記移動体情報および前記利用者情報に基づいて、前記利用者の感情を推定する推定ステップと、
    を有する、情報処理方法。
JP2019026460A 2019-02-18 2019-02-18 情報処理装置および情報処理方法 Pending JP2020130502A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019026460A JP2020130502A (ja) 2019-02-18 2019-02-18 情報処理装置および情報処理方法
US16/792,398 US20200265252A1 (en) 2019-02-18 2020-02-17 Information processing apparatus and information processing method
CN202010099270.8A CN111568447A (zh) 2019-02-18 2020-02-18 信息处理装置和信息处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019026460A JP2020130502A (ja) 2019-02-18 2019-02-18 情報処理装置および情報処理方法

Publications (1)

Publication Number Publication Date
JP2020130502A true JP2020130502A (ja) 2020-08-31

Family

ID=72042610

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019026460A Pending JP2020130502A (ja) 2019-02-18 2019-02-18 情報処理装置および情報処理方法

Country Status (3)

Country Link
US (1) US20200265252A1 (ja)
JP (1) JP2020130502A (ja)
CN (1) CN111568447A (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
MX2019006648A (es) * 2019-06-06 2020-12-07 Affect Sense S C Sistema de monitoreo, proceso, analisis y almacenamiento de señales fisiologicas para el reconocimiento de emociones.

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018179406A1 (ja) * 2017-03-31 2018-10-04 本田技研工業株式会社 車載装置、情報管理サーバ、情報管理システム、および方法

Also Published As

Publication number Publication date
CN111568447A (zh) 2020-08-25
US20200265252A1 (en) 2020-08-20

Similar Documents

Publication Publication Date Title
JP7288911B2 (ja) 情報処理装置、移動装置、および方法、並びにプログラム
KR102599937B1 (ko) 정보 처리 장치 및 정보 처리 방법
US11993293B2 (en) Information processing apparatus, moving apparatus, and method, and program
CN110892351B (zh) 车辆控制装置和车辆控制方法
US10317900B2 (en) Controlling autonomous-vehicle functions and output based on occupant position and attention
KR102672040B1 (ko) 정보 처리 장치 및 정보 처리 방법
EP3657465A1 (en) Vehicle control device and vehicle control method
KR102669020B1 (ko) 정보 처리 장치, 이동 장치, 및 방법, 그리고 프로그램
US20170343375A1 (en) Systems to dynamically guide a user to an autonomous-driving vehicle pick-up location by augmented-reality walking directions
US10460186B2 (en) Arrangement for creating an image of a scene
JP2017157196A (ja) 運転者監視システム
JPWO2019124158A1 (ja) 情報処理装置、情報処理方法、プログラム、表示システム、及び移動体
US10674003B1 (en) Apparatus and system for identifying occupants in a vehicle
JP2016215658A (ja) 自動運転装置および自動運転システム
WO2018087877A1 (ja) 車両制御システム、車両制御方法、および車両制御プログラム
US20230054224A1 (en) Information processing device, information processing method, and non-transitory computer readable storage medium
JP2020130502A (ja) 情報処理装置および情報処理方法
WO2022124164A1 (ja) 注目対象共有装置、注目対象共有方法
JP2024130745A (ja) 情報管理装置、情報管理方法、およびプログラム
JP2024130741A (ja) 情報管理装置、情報管理方法、およびプログラム
JP2024130750A (ja) 情報管理装置、情報管理方法、およびプログラム
JP2024141733A (ja) 運転支援装置、運転支援方法及び運転支援用コンピュータプログラム
JP2022111156A (ja) 車両制御装置および車両制御方法
CN116895184A (zh) 交通安全辅助系统
JP2024135707A (ja) 情報提供装置、利用者装置、情報提供方法、およびプログラム