Nothing Special   »   [go: up one dir, main page]

JP6544333B2 - コミュニケーション装置 - Google Patents

コミュニケーション装置 Download PDF

Info

Publication number
JP6544333B2
JP6544333B2 JP2016202097A JP2016202097A JP6544333B2 JP 6544333 B2 JP6544333 B2 JP 6544333B2 JP 2016202097 A JP2016202097 A JP 2016202097A JP 2016202097 A JP2016202097 A JP 2016202097A JP 6544333 B2 JP6544333 B2 JP 6544333B2
Authority
JP
Japan
Prior art keywords
emotion
eye
display
eye movement
communication device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016202097A
Other languages
English (en)
Other versions
JP2018062042A (ja
Inventor
美奈 結城
美奈 結城
真太郎 吉澤
真太郎 吉澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2016202097A priority Critical patent/JP6544333B2/ja
Priority to US15/722,204 priority patent/US10350761B2/en
Publication of JP2018062042A publication Critical patent/JP2018062042A/ja
Application granted granted Critical
Publication of JP6544333B2 publication Critical patent/JP6544333B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H11/00Self-movable toy figures
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H13/00Toy figures with self-moving parts, with or without movement of the toy as a whole
    • A63H13/005Toy figures with self-moving parts, with or without movement of the toy as a whole with self-moving head or facial features
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H3/00Dolls
    • A63H3/28Arrangements of sound-producing means in dolls; Means in dolls for producing sounds
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • B25J11/001Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means with emotions simulating means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0003Home robots, i.e. small robots for domestic use
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/70ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mental therapies, e.g. psychological therapy or autogenous training
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H2200/00Computerized interactive toys, e.g. dolls

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Epidemiology (AREA)
  • Public Health (AREA)
  • Primary Health Care (AREA)
  • Medical Informatics (AREA)
  • Human Computer Interaction (AREA)
  • General Business, Economics & Management (AREA)
  • Business, Economics & Management (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Social Psychology (AREA)
  • Child & Adolescent Psychology (AREA)
  • Developmental Disabilities (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Psychology (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Toys (AREA)
  • Manipulator (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本発明はコミュニケーション装置に関し、特に顔部を備えるコミュニケーション装置に関する。
近年、ユーザとコミュニケーションをとるコミュニケーション装置の開発が進んでいる。これに関し、コミュニケーション装置に顔部を設け、この顔部の表示を変化させる技術が知られている。
例えば、特許文献1では、顔全体の画像表示を行う表示部を備えたロボットについて開示している。また、特許文献2では、瞼と眼球を備えたロボットにおいて、眼球に対する、瞼の開閉度合い及び瞼の傾斜度合いを変化させることで、ロボットの感情又は視線を表現する技術について開示している。
特開2016−103277号公報 特開2006−289508号公報
人間を含む動物は、周辺環境の様子が気になる場合などに、視線をコミュニケーション相手以外に向けることがある。このような視線動作は、感情の表出中に発生することもある。したがって、このような視線動作の表現と感情の表現とを統合して表現することにより、動物として自然な顔の表現が可能となると考えられる。しかしながら、特許文献1では、表示部においてロボットの表情又は視線等について表現することについて開示するものの、表情と視線とを組み合わせた顔の表現方法については提供していない。また、特許文献2に記載のロボットは、音源方向を見る視線を瞼の態様により表現しているが、このロボットは感情を瞼の傾斜により表現するため、視線又は感情のいずれか一方しか表現することができず、視線と感情とを同時に表現することができない。
本発明は、上記した事情を背景としてなされたものであり、顔の自然な表現を行うことができるコミュニケーション装置を提供することを目的とする。
上記目的を達成するための本発明の一態様は、顔部を備えるコミュニケーション装置であって、前記顔部に設けられたディスプレイと、前記コミュニケーション装置の周辺の環境についての情報である環境情報を取得する環境情報取得手段と、前記顔部において表現する前記コミュニケーション装置の視線動作であって、前記環境情報取得手段により取得された環境情報に応じた視線動作を生成する視線動作生成手段と、予め定められた生成規則に従って、前記顔部において表現する前記コミュニケーション装置の感情を生成する感情生成手段と、前記視線動作生成手段により生成された視線動作と前記感情生成手段により生成された感情とを表現する目の画像を前記ディスプレイに表示する表示制御手段とを有するコミュニケーション装置である。
このコミュニケーション装置では、視線動作生成手段により生成された環境情報に応じた視線動作と、感情生成手段により生成された感情とを表現する目の画像がディスプレイに表示される。このため、視線及び感情を統合した表情を提示することができるので、顔の自然な表現を行うことができる。
上記の一態様において、好ましくは、前記環境情報取得手段は、前記環境情報として、コミュニケーション相手が存在する方向と移動物体が存在する方向とを取得し、前記視線動作生成手段は、前記コミュニケーション相手が存在する方向を見る視線動作と、前記移動物体が存在する方向を見る視線動作とを生成し、前記表示制御手段は、前記視線動作生成手段により生成された視線動作から1つの視線動作を選択し、選択された視線動作と前記感情生成手段により生成された感情とを表現する目の画像を前記ディスプレイに表示する。
このような構成によれば、周辺環境に存在する移動物体を見る視線を表示対象の候補とすることができる。このため、周辺環境の様子を気にかけた顔の表現を行うことが可能となる。
上記の一態様において、好ましくは、前記移動物体についての前記環境情報を前記環境情報取得手段が取得する際に、目を閉じた画像が前記ディスプレイに表示されていた場合、前記表示制御手段は、前記移動物体が存在する方向を見る視線動作を選択せずに、前記感情生成手段により生成された感情を表現する目の画像を前記ディスプレイに表示する。
このような構成によれば、移動物体が視認できない状況においては、その移動物体の方向を向く視線は表示されない。したがって、不自然な表示を回避することできる。
上記の一態様において、好ましくは、前記環境情報取得手段は、前記環境情報として、コミュニケーション相手が存在する方向と前記コミュニケーション装置の周辺の環境で発生した音の発生方向とを取得し、前記視線動作生成手段は、前記コミュニケーション相手が存在する方向を見る視線動作と、前記音の発生方向を見る視線動作とを生成し、前記表示制御手段は、前記視線動作生成手段により生成された視線動作から1つの視線動作を選択し、選択された視線動作と前記感情生成手段により生成された感情とを表現する目の画像を前記ディスプレイに表示する。
このような構成によれば、周辺環境における音の発生方向を見る視線を表示対象の候補とすることができる。このため、周辺環境の様子を気にかけた顔の表現を行うことが可能となる。
上記の一態様において、好ましくは、前記表示制御手段は、表現対象の感情が予め定められた感情に該当するときは、前記コミュニケーション相手が存在する方向を見る視線動作を選択する。
このような構成によれば、コミュニケーション相手以外に視線を向けることが不自然な感情表現中に、そのような視線を表現することを回避することできる。このため、自然な表情を提示することができる。
上記の一態様において、好ましくは、コミュニケーション相手との対話内容を判定する対話判定手段をさらに有し、前記視線動作生成手段は、さらに、前記対話判定手段により判定された対話内容に応じた視線動作を生成する。
このような構成によれば、対話内容に応じた視線を感情とともに表示することが可能となる。このため、対話内容に応じた視線により感情の表現を補助することができ、感情表現を豊かにすることができる。
上記の一態様において、好ましくは、前記ディスプレイの表示画面は、前記顔部において表現される目の大きさ及び形状に対応する大きさ及び形状を有する。
このような構成によれば、コミュニケーション装置の顔における目以外の部分をディスプレイにより構成する必要がない。このため、例えば目以外の顔の部分をより現実感のある部材により構成することが可能となる等、目以外の顔の部分の設計自由度を向上することができる。
本発明によれば、顔の自然な表現を行うことができるコミュニケーション装置を提供することができる。
実施の形態にかかるコミュニケーション装置の正面図である。 実施の形態にかかるコミュニケーション装置において、右を見ている視線を表現した画像が表示された例を示す図である。 実施の形態にかかるコミュニケーション装置のハードウェア構成の一例を示すブロック図である。 実施の形態にかかるコミュニケーション装置のソフトウェア構成の一例を示すブロック図である。 ネガティブという感情を顔部に表現する場合の表示例を示す図である。 ポジティブという感情を顔部に表現する場合の表示例を示す図である。 統合部による感情と視線の統合の一例を示す模式図である。 実施の形態にかかるコミュニケーション装置の処理の流れを示すフローチャートである。 統合部による処理の流れを示すフローチャートである。 コミュニケーション相手との触れ合いを交えたコミュニケーション装置の使用例について示す模式図である。 カメラによる撮像画像の一例を示す図である。 コミュニケーション相手と視線を合わせずに泣いた様子を表現する場合の表示例を示す図である。 コミュニケーション相手と視線を合わせずに泣いた様子を表現する場合の表示例を示す図である。 コミュニケーション相手を見ながら泣いた様子を表現する場合の表示例を示す図である。
以下、図面を参照して本発明の実施の形態について説明する。図1は、実施の形態にかかるコミュニケーション装置1の正面図である。図1に示されるように、本実施の形態にかかるコミュニケーション装置1は、動物を模した外観を有する装置であり、顔部10と、胴部20と、腕部30A、30Bと、脚部40A、40Bとを有する。
顔部10は、図1に示されるように、目部としてのディスプレイ11A、11B、鼻部12、耳部13A、13Bなどが設けられている。ディスプレイ11Aは、コミュニケーション装置1の顔の右目を構成している。ディスプレイ11Aの表示画面(表示パネル)は、顔部10において表現される右目の大きさ及び形状に対応する大きさ及び形状を有する。同様に、ディスプレイ11Bは、コミュニケーション装置1の顔の左目を構成している。ディスプレイ11Bの表示画面(表示パネル)は、顔部10において表現される左目の大きさ及び形状に対応する大きさ及び形状を有する。すなわち、コミュニケーション装置1においては、顔部10全体がディスプレイにより構成されているのではなく、顔部10における目に相当する部分のみがディスプレイ11A、11Bにおいて構成されている。コミュニケーション装置1において、顔部10の目以外の部分については顔の構成要素を模したディスプレイ以外の部材により構成されている。このように、本実施の形態では、コミュニケーション装置1の顔における目以外の部分は、ディスプレイにより構成されていない。したがって、目以外の顔の部分をより現実感のある部材により構成することが可能となる。また、顔部10の全てをディスプレイにより構成した場合、後述するカメラ150などの各種センサ機器を顔部10に設けることが難しいが、本実施の形態では、ディスプレイで構成される範囲が限定的であるため、設計自由度を向上することができる。
以下、ディスプレイ11Aとディスプレイ11Bとを特に区別せずに言及する場合、単にディスプレイ11と呼ぶこととする。ディスプレイ11の表示パネルは例えば液晶パネルであるが、これに限らず他の構成のディスプレイが用いられてもよい。
ディスプレイ11A、11Bは、それぞれ目についての画像を表示する。このため、ディスプレイ11の表示により図2に示されるようにコミュニケーション装置1の視線を表現することができる。図2では、右を見ている視線を表現した画像が表示された例を示している。なお、目についての画像は、眼球のみならず、瞼、眉、涙などの目に関連する要素の画像を含んでもよい。
本実施の形態において、鼻部12は、動物の鼻を模すために、顔部10において前方に突出している。そして、鼻部12の突出した先端には、後述する環境測定装置15として機能するカメラ150が設けられている。本実施の形態では、このようにカメラ150が顔部の突出した位置に設けられているため、カメラ150からコミュニケーション装置1の周辺を見渡すことが可能となる。したがって、カメラ150はコミュニケーション装置1の周辺の環境を良好に撮影することができる。
耳部13A、13Bには、それぞれ、後述する環境測定装置15として機能するマイクロフォン(不図示)が設けられている。このマイクロフォンにより、コミュニケーション装置1の周辺の環境の音が測定される。なお、マイクロフォンは、耳部13A又は耳部13Bのいずれか一方のみに設けられていてよいし、顔部10における耳部13A、13B以外の部分に設けられていてもよいし、コミュニケーション装置1における顔部10以外の部分に設けられていてもよい。
次に、コミュニケーション装置1のハードウェア構成について説明する。図3は、コミュニケーション装置1のハードウェア構成の一例を示すブロック図である。図3に示されるように、コミュニケーション装置1は、ディスプレイ11と、スピーカ14と、環境測定装置15と、制御装置16とを有する。
ディスプレイ11は、制御装置16の制御に従って、目についての画像を表示する。スピーカ14は、制御装置16の制御に従って、音声等を出力する。これにより、コミュニケーション装置1は、コミュニケーション相手に対し、話し掛けることができる。
環境測定装置15は、コミュニケーション装置1の周辺の環境についての情報を取得するために、周辺の環境を測定する装置である。具体的には、環境測定装置15には、カメラ150及びマクロフォンが含まれる。環境測定装置15は、測定したデータを制御装置16に出力する。したがって、環境測定装置15は、例えば、コミュニケーション相手を含む周辺環境の画像を撮影する。また、環境測定装置15は、例えば、コミュニケーション相手が発した音声、又は周辺環境における物音などを検出する。なお、環境測定装置15は、周辺の環境を測定することができる装置であればよく、カメラ150及びマイクロフォンに限られない。例えば、環境測定装置15は、対象物までの距離を測定するレーザレンジファインダ等の距離センサであってもよい。
制御装置16は、メモリ160及びプロセッサ161を含む。メモリ160は、例えば、揮発性メモリ及び不揮発性メモリの組み合わせによって構成される。メモリ160は、プロセッサ161により実行されるソフトウェア(コンピュータプログラム)などを格納するために使用される。
このプログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、Compact Disc Read Only Memory(CD-ROM)、CD-R、CD-R/W、半導体メモリ(例えば、マスクROM、Programmable ROM(PROM)、Erasable PROM(EPROM)、フラッシュROM、Random Access Memory(RAM))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
プロセッサ161は、メモリ160からソフトウェア(コンピュータプログラム)を読み出して実行することで、後述する図4に示す各部の処理を行う。このように、制御装置16は、コンピュータとしての機能を備えている。プロセッサ161は、例えば、マイクロプロセッサ、MPU(Micro Processing Unit)、又はCPU(Central Processing Unit)であってもよい。プロセッサ161は、複数のプロセッサを含んでもよい。
次に、プロセッサ161がソフトウェアを実行することで実現されるコミュニケーション装置1の構成について説明する。図4は、コミュニケーション装置1のソフトウェア構成の一例を示すブロック図である。図4に示されるように、コミュニケーション装置1は、対話判定部100と、環境情報取得部110と、視線動作生成部120と、感情生成部130と、統合部140とを有する。なお、対話判定部100は対話判定手段と称されることがあり、環境情報取得部110は環境情報取得手段と称されることがあり、視線動作生成部120は、視線動作生成手段と称されることがあり、感情生成部130は感情生成手段と称されることがあり、統合部140は表示制御手段と称されることがある。
対話判定部100は、現在、コミュニケーション相手と対話中であるか否かを判定する。例えば、対話判定部100は、マイクロフォンにより検出した相手の音声の音量が予め定められた閾値を超える場合に、対話中であると判定する。また、対話判定部100は、コミュニケーション相手との対話内容を判定してもよい。なお、対話内容の判定は、例えば、マイクロフォンにより検出された音声の解析結果、又はコミュニケーション装置1がコミュニケーション相手に発する音声内容から判定される。
環境情報取得部110は、コミュニケーション装置1の周辺の環境についての情報である環境情報を取得する。環境情報取得部110は、具体的には、環境測定装置15から得られたデータを解析することにより環境情報を取得する。例えば、環境情報取得部110は、環境情報として、コミュニケーション相手が存在する方向についての情報や、コミュニケーション装置1の周辺の環境に存在する移動物体の存在方向についての情報などを取得する。このため、より詳細には、例えば、環境情報取得部110は、環境情報として、コミュニケーション相手の位置、物体の位置、これらの移動の有無などを取得する。例えば、環境情報取得部110は、人物の顔の特徴点を用いた画像処理などによりカメラ150の撮影画像からコミュニケーション相手の顔の位置を認識することで、コミュニケーション相手の位置又はその移動を検出する。また、例えば、環境情報取得部110は、コミュニケーション相手を認識した後で、コミュニケーション相手以外の移動物体がカメラ150の撮像範囲内に入った場合、この移動物体をコミュニケーション相手以外の物体として認識することで、この物体の位置又はその移動を検出する。
また、環境情報取得部110は、環境情報として、コミュニケーション装置1の周辺の環境で発生した音情報を取得する。例えば、環境情報取得部110は、マイクロフォンにより検知された音を解析し、コミュニケーション装置1の周辺の環境で発生した音の発生方向を環境情報として取得する。なお、環境情報取得部110は、所定の大きさを超える音の発生方向を環境情報として取得してもよい。
なお、環境情報の取得にあたり、任意の技術を用いることができる。例えば、事前に撮影されたコミュニケーション装置1の周辺の環境の画像と環境情報取得時の撮影画像との差分を取ることにより、コミュニケーション相手及び物体についての情報を取得してもよい。
視線動作生成部120は、顔部10において表現するコミュニケーション装置1の視線動作(より具体的には、視線動作を示すパラメータ)を生成する。その際、視線動作生成部120は、環境情報取得部110により取得された環境情報に応じた視線動作を生成する。例えば、視線動作生成部120は、コミュニケーション相手を見る視線動作、移動物体が存在する方向を見る視線動作、音の発生方向を見る視線動作などを生成する。また、視線動作生成部120は、コミュニケーション相手を発見できない場合、コミュニケーション相手を探す視線動作を生成してもよい。コミュニケーション相手を見る視線動作とは、言い換えると、コミュニケーション相手が存在する方向を見る視線動作であり、具体的には、例えば、コミュニケーション相手の顔が存在する方向を見る視線動作である。視線動作生成部120は、生成した視線動作を統合部140に出力する。なお、視線動作生成部120が生成した視線動作は、ディスプレイ11に表示される視線動作の候補であり、視線動作生成部120が生成した視線動作のディスプレイ11への表示の採否は後述する統合部140により決定される。このように、環境情報に応じた視線動作が生成されるため、コミュニケーション装置1が、コミュニケーション相手を視認していること、及び、周辺の環境を認識していることを表現することが可能となる。このため、顔部10の豊かな表現が実現でき、コミュニケーション装置1に対する愛着や親近感をユーザに抱かせることができる。
感情生成部130は、予め定められた生成規則に従って、顔部10において表現するコミュニケーション装置の感情(より具体的には、感情を示すパラメータ)を生成する。感情生成部130により感情が生成され、後述する統合部140において感情が表現されることにより、コミュニケーション装置1の気持ち又は状態などをコミュニケーション相手に伝えることができる。よって、コミュニケーションを円滑に進めることを補助することができる。また、コミュニケーション装置1が飽きられることを抑制することもできる。なお、上述の生成規則としては、例えば、次のようなものが挙げられる。ただし、下記の生成規則には限定されない。
第1に、カメラ150の撮影画像から取得したコミュニケーション相手の顔からコミュニケーション相手の感情を推定し、その感情に共感する感情をコミュニケーション装置1の感情として生成する生成規則が挙げられる。すなわち、この場合、感情生成部130は、コミュニケーション相手の顔に応じた感情を生成することとなる。これにより、コミュニケーション相手の感情に応じた感情を表示することが可能となる。このため、コミュニケーション相手との自然なコミュニケーションを実現することができる。なお、感情の推定は、例えば、所定の顔画像とカメラ150の撮影画像とのパターンマッチング等により行うことができる。
第2に、対話判定部100により判定した対話内容から相手の感情を推定し、その感情に共感する感情をコミュニケーション装置1の感情として生成する生成規則が挙げられる。すなわち、この場合、感情生成部130は、対話判定部100により判定された対話内容に応じた感情を生成することとなる。これにより、対話内容に応じた感情を表示することが可能となる。このため、コミュニケーション相手との自然なコミュニケーションを実現することができる。なお、感情の推定は、例えば、所定の会話内容と対話判定部100により判定された対話内容とのパターンマッチング等により行うことができる。
第3に、コミュニケーション装置1の内部状態から自発的な感情を生成する生成規則が挙げられる。すなわち、この場合、感情生成部130は、内部状態に応じた感情を生成することとなる。これにより、自発的な感情の表示が可能となる。なお、内部状態とは、例えば、コミュニケーション装置1に電力を供給するためのバッテリの残量の減少度合い、コミュニケーション装置1の継続使用時間などである。例えば、感情生成部130は、内部状態に応じて疲れなどの感情を生成してもよい。
また、第4に、カメラ150の撮影画像から取得したコミュニケーション相手の行動(所作、手振りなど)に基づいて、コミュニケーション装置1の感情を生成する生成規則が挙げられる。この生成規則では、例えば、予め定められた行動に対して予め関連付けられている感情が生成される。すなわち、この場合、感情生成部130は、コミュニケーション相手の行動に応じた感情を生成することとなる。これにより、コミュニケーション相手の行動に反応した感情を表示することが可能となる。
なお、感情生成部130は、これらの生成規則に基づいて、同時に複数の感情を生成してもよい。感情生成部130は、生成した感情を統合部140に出力する。
簡単な構成としては、感情生成部130は、例えば、ポジティブ、ネガティブという2つの感情のいずれか又は両方を生成するが、感情の種類はこれらに限られない。感情生成部130により生成されうる感情の種類を増やすことにより、コミュニケーション装置1において、より豊かな感情表現を実現することが可能となる。なお、本実施の形態では、ネガティブという感情を顔部10に表現する場合、図5に示すように、泣いた目をした画像がディスプレイ11に表示されることとなる。また、本実施の形態では、ポジティブという感情を顔部10に表現する場合、図6に示すように、目を閉じて笑った様子を示す画像がディスプレイ11に表示されることとなる。
統合部140は、視線動作生成部120により生成された視線動作と感情生成部130により生成された感情とを表現する目の画像をディスプレイ11に表示するよう制御を行う。ただし、統合部140は、表現対象の感情を示す目の画像が目を閉じた画像である場合には、視線動作生成部120により生成された視線動作は表示対象とせず、感情のみを表示対象とすることとなる。以下、統合部140の具体的な構成について説明する。図4に示したように、統合部140は、感情決定部141と、視線動作選択部142と、表出出力部143とを有する。
感情決定部141は、感情生成部130により生成された感情が複数あった場合、これらの感情から1つの感情を決定する。なお、感情決定部141は1の感情を任意の方法により決定すればよい。例えば、感情決定部141は、予め定められた選択ルールに従って、感情生成部130により生成された複数の感情のうちいずれか1つを選択してもよい。また、感情決定部141は、生成規則毎に感情に重みづけを行い、複数の感情を統合した1つの感情を決定してもよい。なお、重みづけの値及び選択ルールは、医療従事者又は介護者などのユーザにより指定されてもよい。
視線動作選択部142は、視線動作生成部120により生成された視線動作から1つの視線動作を選択する。例えば、視線動作選択部142は、コミュニケーション相手を見る視線動作と、周辺の環境に応じた視線動作とが視線動作生成部120により生成された場合、いずれの視線動作を表現対象とするべきかを選択する。なお、視線動作選択部142は、任意の方法により選択すればよい。例えば、感情決定部141により決定された感情に応じて選択してもよいし、環境情報取得部110により取得された環境情報に応じて選択してもよいし、その他の要因により従って選択してもよい。より具体的な例を挙げると、視線動作選択部142は、感情決定部141により決定された感情が所定の感情に該当するか否かによって、視線動作を選択してもよい。例えば、コミュニケーション装置1の感情が怒りである場合、周辺の物音や移動物体が気にならないことが想定される。感情により視線動作を選択することで、このような動物の性質を実現することができる。また、視線動作選択部142は、環境情報取得部110により取得された音の大きさが所定以上である場合、音源方向を見る視線動作を選択し、所定未満である場合、コミュニケーション相手を見る視線方向を選択してもよい。また、視線動作選択部142は、コミュニケーション相手との対話継続時期間が1週間未満の場合、移動物体又は音源の存在方向を見る視線動作を選択し、コミュニケーション相手との対話継続時期間が1週間以上の場合、コミュニケーション相手を見る視線動作を選択してもよい。対話継続期間によるこのような制御を行う理由は、コミュニケーション相手との親密度が低い場合(すなわち対話継続期間が短い場合)には、コミュニケーションに対する集中度合いが低いことが想定されためである。
また、視線動作選択部142は、感情決定部141において決定された感情を表現しつつ、視線を動かすことが不自然であるか否かを判定してもよい。ここで、不自然である場合の例について説明する。例えば、コミュニケーション装置1が表現する感情が怒り又は驚きなどの特定の感情である場合、周辺の環境の物体の移動や物音に反応する視線動作を表現するのは不自然である。このような場合には、コミュニケーション相手を見る視線を動かさないことが自然である。この制御を実現するために、視線動作選択部142は、例えば、表現対象の感情、すなわち感情決定部141により決定された感情が、予め定められた感情に該当するときは、不自然であると判定する。このとき、後述する視線動作選択部142において、コミュニケーション相手を見る視線動作が選択されることとなる。なお、表現対象となりうる感情毎に不自然であるか否かを予め定義しておき、この定義情報を参照することにより視線動作選択部142の判定が行われてもよい。
また、次のような場合も不自然な例に該当する。移動物体についての環境情報を環境情報取得部110が取得する際に、図6に示したような目を閉じた画像がディスプレイ11に表示されていた場合、移動物体の存在方向を見る視線動作は不自然である。これは、目を閉じた状態で移動物体を視認することが不自然であるからである。よって、視線動作選択部142は、この場合、移動物体が存在する方向を見る視線動作を選択しない。このため、後述する表出出力部143は、移動物体が存在する方向を見る視線動作を選択せずに、感情生成部130により生成された感情を表現する目の画像をディスプレイ11に表示する。つまり、この場合、表出出力部143は、コミュニケーション相手を見る視線動作などといった、移動物体が存在する方向を見る視線動作ではない視線動作とともに感情を表示するか、又は、目を閉じた画像により表現される感情を表示することとなる。このような制御が行われることで、移動物体が視認できない状況において、その移動物体の方向を向くような視線の表示を抑制することができる。したがって、不自然な表示を回避することできる。
このように、不自然な表現が抑制されることにより、コミュニケーション相手に違和感を与えることを抑制することができ、コミュニケーション装置1に対する愛着や親近感をユーザに抱いてもらいやすくなる。
表出出力部143は、視線動作選択部142により選択された視線動作と感情決定部141により決定された感情とを表現する目の画像をディスプレイ11に表示するよう出力の制御を行う。表出出力部143は、一例として、次のようにして出力の制御を行う。ここで挙げる例では、視線動作と感情の組み合わせに応じた画像データが予めメモリ160に記憶されているものとする。表出出力部143は、視線動作選択部142及び感情決定部141の指示に応じた画像データをメモリ160から読み出して、ディスプレイ11に画像データを出力する。
図7は、統合部140による感情と視線の統合の一例を示す模式図である。図7は、感情決定部141により「ネガティブ」が表現対象の感情として決定され、視線動作選択部142により右方向を見るという視線動作が表現対象の視線動作として選択された場合の例を示している。この場合、統合部140は、右方向を向いて泣いた目の画像をディスプレイ11に表示する。
次に、コミュニケーション装置1における処理の流れについて説明する。図8は、コミュニケーション装置1の処理の流れを示すフローチャートである。コミュニケーション装置1は、図8に示すフローを繰り返す。これにより、例えば、コミュニケーション相手を見る視線で泣いた目の画像が表示されている状態から、コミュニケーション相手以外に目を向ける視線で泣いた目の画像が表示される状態へと変化させることができる。
以下、図8に示すフローチャートに沿って、処理の流れを説明する。まず、対話判定部100による判定処理が行われ(S10)、対話中であるか否かが判定される(S11)。対話中ではない場合(S11でNo)、表情の出力のための処理は終了する。このため、対話中でない場合の表示制御を省略することができ、バッテリの電力の消費を抑制することができる。対話中である場合(S11でYes)、環境情報取得部110による処理が行われる(S12)。続いて、感情生成部130による処理(S13)及び視線動作生成部120による処理(S14)が行われる。感情生成部130による処理(S13)及び視線動作生成部120による処理(S14)は、並列に行われてもよいし、いずれか一方の処理の後に他方の処理が行われてもよい。そして、最後に、統合部140による処理が行われる(S15)。
図9は、統合部140による処理の流れを示すフローチャートである。以下、図9に沿って、統合部140による処理の流れを説明する。まず、感情決定部141による処理が行われる(S151)、次に、視線動作選択部142による処理が行われる(S152)。なお、感情決定部141による処理(S151)と視線動作選択部142による処理(S152)は、並列に行われてもよいし、視線動作選択部142による処理(S152)の方が先に行われてもよい。その後、表出出力部143による処理が行われる(S153)。
以上、コミュニケーション装置1の処理の流れについて説明した。上述のコミュニケーション装置1では、視線動作生成部120により生成された環境情報に応じた視線と、感情生成部130により生成された感情とを表現する目の画像がディスプレイに表示される。このため、視線及び感情を統合した表情を提示することができるので、顔の自然な表現を行うことができる。また、視線動作生成部120により、周辺環境に存在する移動物体及び音源の存在方向を見る視線動作が生成される。このため、周辺環境の様子を気にかけた顔の表現を行うことが可能となる。すなわち、コミュニケーション装置1が周辺の環境を認識していることを表現することができる。また、コミュニケーション装置1では、表現対象の感情が所定の感情である場合にはコミュニケーション相手を見る視線が選択されるため、コミュニケーション相手以外に視線を向けることが不自然な感情表現中に、コミュニケーション相手以外に視線が向けられることを避けることができる。よって、より自然な表情を提示することができる。
コミュニケーション装置1は、コミュニケーション相手との対話のために使用されてもよいし、さらに、コミュニケーション相手との触れ合いを交えて使用されてもよい。触れ合いを交えることにより、より深いコミュニケーションの実現が可能となる。また、コミュニケーション装置1が動物を模している場合、触れ合いを伴うことにより、アニマルセラピーとしての効果も期待される。
図10は、コミュニケーション相手との触れ合いを交えたコミュニケーション装置1の使用例について示す模式図である。図10に示す使用例では、まず、泣いた目を表示したコミュニケーション装置1が、触れ合いを促すために、「涙を拭いて?」と音声出力する(図10の(a)参照)。これに応じたコミュニケーション相手が手50を差し出すと、コミュニケーション装置1は、移動物体である手50の方向を見つつ泣いた目を表示する(図10の(b)参照)。なお、手50が差し出されると、カメラ150は、図11に示すように、例えば、コミュニケーション相手51とコミュニケーション相手51の手50とを撮影することとなる。このため、手50の位置などといった環境情報が取得されることとなる。続いて、カメラ150による撮影画像において手50の占める領域が所定の割合(例えば半分)以上となると、手50が近距離に存在していると認識され、コミュニケーション装置1は目を閉じた表示に切り替える(図10の(c)参照)。そして、手50が離れると、コミュニケーション装置1は別の感情の表示に切り替える(図10の(d)参照)。なお、本実施の形態では、図10の(a)から(b)への視線の変動は、視線動作選択部142により選択される視線動作の推移により発生し、図10の(b)から(d)までの表示の切り替えは、感情決定部141により決定される感情の推移により発生する。図10に示した例では、「涙を拭いて?」とコミュニケーション相手に対してお願いすることで、触れ合いを積極的に促している。このため、コミュニケーション装置1とコミュニケーション相手との触れ合いが生じ、セラピー効果を促進することができる。また、その際、コミュニケーション相手の手を認識して視線を手の方向に向けるため、コミュニケーション相手からの働きかけをきちんと認識していることを伝えることができる。したがって、本物の動物とコミュニケーションをとっているような印象をコミュニケーション相手に与えることができる。
次に、上記実施の形態の変形例について説明する。
上記の実施の形態では、視線動作生成部120は、環境情報取得部110により取得された環境情報に応じた視線動作を生成した。しかしながら、視線動作生成部120は、環境情報に限らず、対話内容に基づいて視線動作を生成してもよい。すなわち、視線動作生成部120は、さらに、対話判定部100により判定された対話内容に応じた視線動作を生成してもよい。これにより、例えば、コミュニケーション相手に共感する悲しみの表現と、コミュニケーション装置1の自発的な悲しみの表現とを分けることができる。これについて、具体例を示して説明する。例えば、コミュニケーション相手にコミュニケーション装置1が叱られていると、対話判定部100により判定された場合、視線動作生成部120は、コミュニケーション相手以外の方向に視線を向ける視線動作を生成する。そして、視線動作選択部142は、コミュニケーション相手以外の方向に視線を向ける視線動作を表現対象として選択し、感情決定部141は悲しみを表現対象として選択する。これにより、図12又は図13に示すように、コミュニケーション相手と視線を合わせずに泣いた様子を表現することが可能となる。なお、図12は、横方向に視線を向けて泣く表示例を示し、図13は、うつむいて泣く表示例を示している。このようにして自発的な悲しみを表現することができる。また、例えば、コミュニケーション相手が怪我をして悲しんでいることが対話判定部100により判定された場合、視線動作生成部120は、コミュニケーション相手の方向に視線を向ける視線動作を生成する。そして、視線動作選択部142は、コミュニケーション相手の方向に視線を向ける視線動作を表現対象として選択し、感情決定部141は悲しみを表現対象として選択する。これにより、図14に示すように、コミュニケーション相手を見ながら泣いた様子を表現することが可能となる。このようにして共感による悲しみを表現することができる。
本変形例によれば、対話内容に応じた視線を感情とともに表示することが可能となる。このため、対話内容に応じた視線によって、感情の表現を補助することができ、感情表現を豊かにすることができる。すなわち、より細やかに表情を制御することができるため、本物の動物のような感情表現を再現することが可能となる。
なお、本発明は上記実施の形態及び変形例に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。例えば、上記実施の形態では、物体の移動や音の発生についての環境情報に基づいて視線動作が生成されたが、これらに限らず、環境情報として、匂い、温度などの他の情報が用いられてもよい。
1 コミュニケーション装置
10 顔部
11、11A、11B ディスプレイ
15 環境測定装置
16 制御装置
100 対話判定部
110 環境情報取得部
120 視線動作生成部
130 感情生成部
140 統合部
141 感情決定部
142 視線動作選択部
143 表出出力部
150 カメラ

Claims (5)

  1. 顔部を備えるコミュニケーション装置であって、
    前記顔部に設けられたディスプレイと、
    前記コミュニケーション装置の周辺の環境についての情報である環境情報を取得する環境情報取得手段と、
    前記顔部において表現する前記コミュニケーション装置の視線動作であって、前記環境情報取得手段により取得された環境情報に応じた視線動作を生成する視線動作生成手段と、
    予め定められた生成規則に従って、前記顔部において表現する前記コミュニケーション装置の感情を生成する感情生成手段と、
    前記視線動作生成手段により生成された視線動作と前記感情生成手段により生成された感情とを表現する目の画像を前記ディスプレイに表示する表示制御手段と
    を有し、
    前記環境情報取得手段は、前記環境情報として、コミュニケーション相手が存在する方向と移動物体が存在する方向とを取得し、
    前記視線動作生成手段は、前記コミュニケーション相手が存在する方向を見る視線動作と、前記移動物体が存在する方向を見る視線動作とを生成し、
    前記表示制御手段は、前記視線動作生成手段により生成された視線動作から1つの視線動作を選択し、選択された視線動作と前記感情生成手段により生成された感情とを表現する目の画像を前記ディスプレイに表示し、
    前記移動物体についての前記環境情報を前記環境情報取得手段が取得する際に、目を閉じた画像が前記ディスプレイに表示されていた場合、前記表示制御手段は、前記移動物体が存在する方向を見る視線動作を選択せずに、前記感情生成手段により生成された感情を表現する目の画像を前記ディスプレイに表示する
    コミュニケーション装置。
  2. 前記環境情報取得手段は、前記環境情報として、コミュニケーション相手が存在する方向と前記コミュニケーション装置の周辺の環境で発生した音の発生方向とを取得し、
    前記視線動作生成手段は、前記コミュニケーション相手が存在する方向を見る視線動作と、前記音の発生方向を見る視線動作とを生成し、
    前記表示制御手段は、前記視線動作生成手段により生成された視線動作から1つの視線動作を選択し、選択された視線動作と前記感情生成手段により生成された感情とを表現する目の画像を前記ディスプレイに表示する
    請求項1に記載のコミュニケーション装置。
  3. 前記表示制御手段は、表現対象の感情が予め定められた感情に該当するときは、前記コミュニケーション相手が存在する方向を見る視線動作を選択する
    請求項1又は2に記載のコミュニケーション装置。
  4. コミュニケーション相手との対話内容を判定する対話判定手段をさらに有し、
    前記視線動作生成手段は、さらに、前記対話判定手段により判定された対話内容に応じた視線動作を生成する
    請求項1乃至のいずれか1項に記載のコミュニケーション装置。
  5. 前記ディスプレイの表示画面は、前記顔部において表現される目の大きさ及び形状に対応する大きさ及び形状を有する
    請求項1乃至のいずれか1項に記載のコミュニケーション装置。
JP2016202097A 2016-10-13 2016-10-13 コミュニケーション装置 Active JP6544333B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016202097A JP6544333B2 (ja) 2016-10-13 2016-10-13 コミュニケーション装置
US15/722,204 US10350761B2 (en) 2016-10-13 2017-10-02 Communication device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016202097A JP6544333B2 (ja) 2016-10-13 2016-10-13 コミュニケーション装置

Publications (2)

Publication Number Publication Date
JP2018062042A JP2018062042A (ja) 2018-04-19
JP6544333B2 true JP6544333B2 (ja) 2019-07-17

Family

ID=61902961

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016202097A Active JP6544333B2 (ja) 2016-10-13 2016-10-13 コミュニケーション装置

Country Status (2)

Country Link
US (1) US10350761B2 (ja)
JP (1) JP6544333B2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019005842A (ja) * 2017-06-23 2019-01-17 カシオ計算機株式会社 ロボット、ロボットの制御方法及びプログラム
WO2019050034A1 (ja) * 2017-09-11 2019-03-14 Groove X株式会社 相手を見つめる自律行動型ロボット
US20190113915A1 (en) * 2017-10-12 2019-04-18 Aptiv Technologies Limited Automated security patrol vehicle
JP2019101492A (ja) 2017-11-28 2019-06-24 トヨタ自動車株式会社 コミュニケーション装置
JP6976209B2 (ja) 2018-03-28 2021-12-08 日立Astemo株式会社 プランジャポンプ
JP7322374B2 (ja) * 2018-10-03 2023-08-08 カシオ計算機株式会社 ロボットの制御装置、ロボット、ロボットの制御方法およびプログラム
KR102288658B1 (ko) * 2019-05-15 2021-08-11 엘지전자 주식회사 로봇 및 그의 제어 방법

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0233171A (ja) 1988-07-22 1990-02-02 Mita Ind Co Ltd トナー濃度制御装置
JPH11179061A (ja) * 1997-12-01 1999-07-06 Chin Kyo Lcdの目を持つぬいぐるみ人形
US20060128263A1 (en) * 2004-12-09 2006-06-15 Baird John C Computerized assessment system and method for assessing opinions or feelings
JP2006289508A (ja) 2005-04-05 2006-10-26 Sony Corp ロボット装置及びその表情制御方法
JP2006289507A (ja) 2005-04-05 2006-10-26 Sony Corp ロボット装置及びその制御方法
JP2007069302A (ja) * 2005-09-07 2007-03-22 Hitachi Ltd 動作表出装置
ATE524784T1 (de) 2005-09-30 2011-09-15 Irobot Corp Begleitroboter für persönliche interaktion
JP4565196B2 (ja) 2007-08-30 2010-10-20 株式会社国際電気通信基礎技術研究所 コミュニケーションロボット
US20100060713A1 (en) * 2008-09-10 2010-03-11 Eastman Kodak Company System and Method for Enhancing Noverbal Aspects of Communication
JP5982840B2 (ja) * 2012-01-31 2016-08-31 富士通株式会社 対話装置、対話プログラムおよび対話方法
JP6047394B2 (ja) * 2012-12-19 2016-12-21 住友理工株式会社 柔軟な表情表示装置
US8955750B2 (en) * 2013-07-05 2015-02-17 Retoy, LLC System and method for interactive mobile gaming
WO2016068262A1 (ja) * 2014-10-29 2016-05-06 京セラ株式会社 コミュニケーションロボット

Also Published As

Publication number Publication date
US10350761B2 (en) 2019-07-16
US20180104822A1 (en) 2018-04-19
JP2018062042A (ja) 2018-04-19

Similar Documents

Publication Publication Date Title
JP6544333B2 (ja) コミュニケーション装置
JP7487265B2 (ja) 外部条件に基づくウェアラブルディスプレイデバイスの自動制御
JP7578711B2 (ja) 最適視線弁別のためのアバタカスタマイズ
JP7344894B2 (ja) 眼追跡カメラからの顔の表情
EP3381175B1 (en) Apparatus and method for operating personal agent
KR102196380B1 (ko) 사용자의 감정 상태들을 사용하여 가상 이미지 생성 시스템을 제어하기 위한 기술
US8767014B2 (en) Automatic text scrolling on a display device
JP6391465B2 (ja) ウェアラブル端末装置およびプログラム
US9420169B2 (en) Imaging device, imaging method, and program
KR102400398B1 (ko) 애니메이션 캐릭터 헤드 시스템 및 방법
Wang et al. Human computer interaction with head pose, eye gaze and body gestures
CN113760101B (zh) 一种虚拟角色控制方法、装置、计算机设备以及存储介质
KR102351008B1 (ko) 감정 인식 장치 및 감정 인식 방법
JP2013154458A (ja) 対話装置、対話プログラムおよび対話方法
US20210312167A1 (en) Server device, terminal device, and display method for controlling facial expressions of a virtual character
JP7479618B2 (ja) 情報処理プログラム、情報処理方法、情報処理装置
JP2023511107A (ja) 中立アバタ
JP7066115B2 (ja) パブリックスピーキング支援装置、及びプログラム
WO2020175969A1 (ko) 감정 인식 장치 및 감정 인식 방법
WO2017085963A1 (ja) 情報処理装置、及び映像表示装置
JP6583754B2 (ja) 情報処理装置、ミラーデバイス、プログラム
Mansouri Benssassi et al. Wearable assistive technologies for autism: opportunities and challenges
JP2022008613A (ja) コミュニケーション装置
CN118227013A (zh) 数字人眼睛注视方向的跟随调整方法及装置、计算机可读存储介质、终端
Wambutt Sonic feedback cues for hand-gesture photo-taking: Designing non-visual feedback for a touch-less hand-gesture based photo-taking experience

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181120

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190521

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190603

R151 Written notification of patent or utility model registration

Ref document number: 6544333

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151