CN112074804B - 信息处理系统、信息处理方法和记录介质 - Google Patents
信息处理系统、信息处理方法和记录介质 Download PDFInfo
- Publication number
- CN112074804B CN112074804B CN201980029807.9A CN201980029807A CN112074804B CN 112074804 B CN112074804 B CN 112074804B CN 201980029807 A CN201980029807 A CN 201980029807A CN 112074804 B CN112074804 B CN 112074804B
- Authority
- CN
- China
- Prior art keywords
- user
- message
- condition
- information
- control unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 58
- 238000003672 processing method Methods 0.000 title claims abstract description 8
- 238000000034 method Methods 0.000 claims description 23
- 230000008859 change Effects 0.000 claims description 19
- 230000033001 locomotion Effects 0.000 claims description 16
- 238000004458 analytical method Methods 0.000 claims description 15
- 230000008569 process Effects 0.000 claims description 14
- 230000006870 function Effects 0.000 claims description 9
- 230000008921 facial expression Effects 0.000 claims description 4
- 230000014509 gene expression Effects 0.000 claims description 3
- 238000012545 processing Methods 0.000 description 52
- 238000010586 diagram Methods 0.000 description 26
- 239000003795 chemical substances by application Substances 0.000 description 23
- 230000006399 behavior Effects 0.000 description 21
- 238000004891 communication Methods 0.000 description 13
- 230000036760 body temperature Effects 0.000 description 11
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 9
- 238000001514 detection method Methods 0.000 description 8
- 230000000694 effects Effects 0.000 description 6
- 210000001508 eye Anatomy 0.000 description 6
- 238000005259 measurement Methods 0.000 description 6
- 230000000153 supplemental effect Effects 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 230000001133 acceleration Effects 0.000 description 4
- 230000008451 emotion Effects 0.000 description 4
- 230000036541 health Effects 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 239000000779 smoke Substances 0.000 description 4
- 239000000126 substance Substances 0.000 description 4
- 238000009825 accumulation Methods 0.000 description 3
- 210000003128 head Anatomy 0.000 description 3
- 241000255925 Diptera Species 0.000 description 2
- 210000005252 bulbus oculi Anatomy 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 210000004087 cornea Anatomy 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 230000006996 mental state Effects 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000001151 other effect Effects 0.000 description 2
- 238000001028 reflection method Methods 0.000 description 2
- 230000029058 respiratory gaseous exchange Effects 0.000 description 2
- 230000033764 rhythmic process Effects 0.000 description 2
- 206010011469 Crying Diseases 0.000 description 1
- LFQSCWFLJHTTHZ-UHFFFAOYSA-N Ethanol Chemical compound CCO LFQSCWFLJHTTHZ-UHFFFAOYSA-N 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000036772 blood pressure Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 235000021152 breakfast Nutrition 0.000 description 1
- 230000001680 brushing effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000010411 cooking Methods 0.000 description 1
- 238000011982 device technology Methods 0.000 description 1
- 238000010195 expression analysis Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000003370 grooming effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 230000003340 mental effect Effects 0.000 description 1
- 230000003183 myoelectrical effect Effects 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 230000000384 rearing effect Effects 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 210000003786 sclera Anatomy 0.000 description 1
- 230000004905 short-term response Effects 0.000 description 1
- 230000003860 sleep quality Effects 0.000 description 1
- 230000004622 sleep time Effects 0.000 description 1
- 230000036962 time dependent Effects 0.000 description 1
- 210000003462 vein Anatomy 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L51/00—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
- H04L51/04—Real-time or near real-time messaging, e.g. instant messaging [IM]
- H04L51/043—Real-time or near real-time messaging, e.g. instant messaging [IM] using or handling presence information
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B21/00—Projectors or projection-type viewers; Accessories therefor
- G03B21/14—Details
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F13/00—Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
- G06V40/176—Dynamic expression
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L51/00—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
- H04L51/04—Real-time or near real-time messaging, e.g. instant messaging [IM]
- H04L51/046—Interoperability with other network applications or services
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L51/00—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
- H04L51/21—Monitoring or handling of messages
- H04L51/224—Monitoring or handling of messages providing notification on incoming messages, e.g. pushed notifications of received messages
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
Landscapes
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Oral & Maxillofacial Surgery (AREA)
- User Interface Of Digital Computer (AREA)
- Information Transfer Between Computers (AREA)
Abstract
[问题]提供了一种信息处理系统、信息处理方法和记录介质,该信息处理系统、信息处理方法和记录介质用于通过在用户处于能够容易地接受信息的状态时呈现信息来实现更有效的信息呈现。[解决方案]该信息处理系统设置有控制单元,该控制单元基于关于用户的感测数据,在期望用户处于能够容易地接受消息的状态时,控制呈现单元向用户呈现消息。
Description
技术领域
本公开内容涉及信息处理系统、信息处理方法和记录介质。
背景技术
近年来,以智能手机以及诸如智能手表的可穿戴设备为代表的移动设备技术和通信技术得到发展,并且现在能够随时获取必要的信息。此外,与诸如大屏幕液晶显示器和单焦点投影仪的显示设备相关的技术也得到了很大的发展,因此现在很少限制显示信息的位置,并且已经开始能够在任何地方显示信息。
在这样的技术背景下,已经提出了用于在各种场景中显示信息的技术。例如,在下述专利文献1中,公开了在车辆中通过声音读出诸如电子邮件的信息之前立即显示图标,该图标反映该信息的内容。
此外,在下述专利文献2中公开了如下技术,该技术通过在入口等处安装投影仪并且由回家的家庭成员打开入口处的灯开关,从而启动投影仪,使投影仪发挥照明功能并投影消息。
此外,在下述专利文献3中公开了如下技术:在乘客从车辆上下车时,借助于附着至车辆的侧视镜的投影仪,将对乘客有用的信息或乘客需要的图像信息投影到路面上。
此外,在下述专利文献4中公开了预测用户的行为、生成引导图像、并且通过投影仪将引导图像显示在墙壁或走廊等上的投影导航。
此外,在下述专利文献5中公开了如下技术,该技术用于向佩戴使得任何真实对象都能够被用作用户界面(UI)的透明头戴式显示器(HMD)的用户显示诸如鼠标垫区域的UI图像。
引用列表
专利文献
专利文献1:日本公开特许公报第2005-352645号
专利文献2:日本公开特许公报第2014-021428号
专利文献3:日本公开特许公报第2017-087876号
专利文献4:日本公开特许公报第2014-123277号
专利文献5:国际公布小册子第WO 2014/045683号
发明内容
技术问题
然而,根据上述传统技术,没有考虑用户接收所呈现的信息的状况。因此,如果用户不处于能够容易地接受信息的状态如当用户处于恐慌时,在各个地点处呈现诸如消息的信息可能不允许充分地识别所呈现的信息并且所呈现的信息可能被忽略。
因此,根据本公开内容,提出了一种信息处理系统、信息处理方法和记录介质,该信息处理系统、信息处理方法和记录介质通过在用户处于能够容易地接受信息的状况时呈现信息来实现有效的信息呈现。
问题的解决方案
根据本公开内容,提供了一种信息处理系统,该信息处理系统包括控制单元,该控制单元在基于与用户相关的感测数据推测用户处于能够容易地接受消息的状况时,控制呈现单元向用户呈现消息。
根据本公开内容,提供了一种信息处理方法,其中,处理器执行处理,该处理包括在基于与用户相关的感测数据推测用户处于能够容易地接受消息的状况时,控制呈现单元向用户呈现消息。
根据本公开内容,提供了一种记录介质,该记录介质包括用于使计算机用作控制单元的程序,该控制单元在基于与用户相关的感测数据推测用户处于能够容易地接受消息的状况时,控制呈现单元向用户呈现消息。
本发明的有益效果
如上所述,根据本公开内容,通过在用户处于能够容易地接受信息的状况时信息的呈现来实现更有效的信息呈现。
上述效果不一定是限制性的,并且与该效果一起或者代替该效果,可以实现本说明书中公开的任何效果或者能够从本说明书中掌握的任何其他效果。
附图说明
[图1]图1是用于说明根据本公开内容的一个实施方式的信息处理系统的概述的图。
[图2]图2是示出根据实施方式的信息处理系统的整体配置的示例的图。
[图3]图3是示出根据实施方式的输出设备的配置的示例的框图。
[图4]图4是示出根据实施方式的管理服务器的配置的示例的框图。
[图5]图5是示出根据第一示例的信息呈现处理的流程的示例的序列图。
[图6]图6是示出根据第一示例的用于消息的输出控制处理的流程的示例的流程图。
[图7]图7是示出根据第一示例的基于感测数据的对用户状况的识别处理的流程的示例的序列图。
[图8]图8是示出根据第二示例的用于消息的累积处理的流程的示例的序列图。
[图9]图9是示出根据第二示例的消息呈现处理的流程的示例的序列图。
[图10]图10是示出根据第三示例的改变用户的状况的引导内容的示例的图。
[图11]图11是示出根据第三示例的消息呈现处理的流程的示例的序列图。
[图12]图12是示出根据第三示例的消息呈现处理的流程的示例的序列图。
[图13]图13是示出根据第三示例的消息呈现处理的流程的示例的序列图。
[图14]图14是用于说明根据第四示例的、对于用户在视觉上能够容易识别的地点的投影控制的图。
[图15]图15是示出根据第四示例的投影控制处理的流程的示例的流程图。
[图16]图16是示出根据第五示例的用于学习关于能够容易地接受消息的任何状况的确定的处理的流程的示例的序列图。
[图17]图17是示出根据第五示例的用于学习关于能够容易地接受消息的任何状况的确定的处理的流程的示例的序列图。
[图18]图18是示出根据第五示例的用于确定用户是否接受消息的处理的流程的示例的流程图。
具体实施方式
在下文中,将参照附图详细描述本公开内容的优选实施方式。在本说明书和附图中,通过对具有基本相同的功能配置的任何部件分配相同的附图标记,将省略冗余说明。
将按以下顺序进行描述。
1.根据本公开内容的一个实施方式的信息处理系统的概述
2.配置示例
2-1.系统配置的示例
2-2.输出设备1的配置的示例
2-3.管理服务器2的配置的示例
3.示例
3-1.第一示例(消息的呈现)
3-2.第二示例(根据消息内容和用户状态的呈现)
3-3.第三示例(用户状况的改变)
3-4.第四示例(视觉上用户能够识别的地点处的呈现)
3-5.第五示例(学习“能够容易地接受消息的状况”)
4.结论
1.根据本公开内容的一个实施方式的信息处理系统的概述
图1是用于说明根据本公开内容的一个实施方式的信息处理系统的概述的图。如图1所示,在根据本实施方式的信息处理系统中,使用输出设备1在日常生活的各种场景中执行信息呈现。输出设备1的假定示例包括将图像投影到诸如墙壁和地板的各种地点上的投影仪。投影仪可以是通过由用户手持或佩戴的便携的可穿戴投影仪,或者是固定在诸如房间、入口、厨房和浴室的各种地点中的任何地点处的固定投影仪。可穿戴投影仪可以是例如图1所示的肩坐式输出设备1A。(例如,该可穿戴投影仪可以由字符的紧密紧凑形状形成。此外,佩戴该肩坐式投影仪的方法没有特别限制,但是,例如,可以用夹子或带子将该肩坐式投影仪固定至其主体。)另外,该可穿戴投影仪可以附着至帽子、头盔、眼镜等(与其集成),可以通过挂在脖子上来佩戴,或者可以附着至缠绕在胸部或腰部的带子。此外,投影仪可以是能够在水平和倾斜方向上进行驱动的驱动式投影仪。输出设备1可以控制投影仪的角度等以将图像投影到预定的投影地点。此外,投影仪可以是除了能够在水平和倾斜方向上进行驱动之外,还能够向前、后、左、右等移动的移动投影仪。
通过使用这样各种投影仪中的任何投影仪,根据实施方式的信息处理系统允许在日常生活中的各种场景中向用户呈现信息。
如上所述,如果用户不处于用户能够根据状况接受信息的状态,例如,如果用户正在与朋友聊天,如果用户处于嘈杂的环境中,如果用户匆忙,如果用户处于恐慌中,如果用户兴奋,或者如果用户正在剧烈运动;在各个地点处呈现诸如消息的信息可能不能够充分地识别所呈现的信息,并且所呈现的信息可能被忽略。此外,即使用户在这样的情况下能够识别消息,用户也可能处于用户在精神上不能接受该消息的状态(例如,用户可能忽视该消息或者可能感到不愉快)。
因此,根据实施方式,通过在用户处于能够容易地接受信息的状况时执行信息呈现,鉴于用户接受信息呈现的状况,实现了更有效的信息呈现。根据实施方式的输出设备1设置有用于检测用户或周围环境的状况的各种传感器(例如,检测语音或环境声音的麦克风;测量室内/室外位置的位置测量单元;检测体温、心率等的生物传感器;检测运动的运动传感器;以及检测与对象的距离的距离测量传感器)。输出设备1基于各种传感数据,确定用户是否处于能够容易地接受信息的状况,并且如果用户处于能够容易地接受信息的状况则执行信息呈现。例如,图1所示的输出设备1A具有生物传感器122a,在软线的末端具有生物传感器122a的软线从输出设备1A中抽出并且附着至用户的身体,并且持续地检测用户的心率、体温等。
在本说明书中,“能够容易地接受信息的状况”可以是例如用户的精神状态平静的情况、用户的情绪平静的状态、用户放松的状态、或者用户不知情的状态。用户的这样的精神状况能够通过例如以下来识别:包括心率、体温和呼吸的生物传感器数据;和/或面部表情、喃喃自语和运动。此外,除了这样的精神状态之外,还可以将用户没有与其他人进行交谈的情况、用户没有匆忙地到处移动的情况、用户静止的情况、用户处于安静环境中的情况、以及用户独自一人的情况推测为“能够容易地接受信息的状况”。这些状态能够通过例如分析由麦克风收集的语音数据或者分析从运动传感器数据检测到的加速度信息来识别。
此外,可以基于例如用户的以下基本行为来确定“能够容易地接受信息的状况”。
·当在用户使用PC的情况下给定时间段内没有键盘输入时(用户不可能处于工作状态,并且因此在不干扰用户的情况下用户能够接受信息呈现)。
·当用户在早晨醒来(用户处于接受信息的状态)时向代理终端(例如AI扬声器)说第一句话的情况。
输出设备1向用户呈现的信息可以是来自根据上下文推荐内容或行为的代理系统的响应,或者可以是由呈现各种类型的信息的信息呈现系统呈现的信息,例如电子邮件、消息、通知信息、推荐信息、广告信息和健康信息。根据实施方式的信息处理系统可以用作控制从这样的各种系统输出的各种类型的信息呈现给用户的定时的公共基础(平台)。
此外,从输出设备1呈现给用户的信息可以是例如文本、语音数据或图像(运动图像或静止图像)中的任何一个,或包括文本、语音数据或图像(运动图像或静止图像)中的至少任何一个的组合。如果信息是来自代理系统的响应,则可以显示代理的图像(字符图像),并且可以以代理的语音读出消息,从而可以使信息更容易被用户接受。
此外,输出设备1可以通过将信息投影到墙壁、走廊、天花板或一件家具(例如桌子)上来呈现信息,或者如图1所示,通过将信息投影到镜子、蒸汽(白烟状物质)、水面(锅中装有的热水或油)等上来呈现信息。例如,在图1所示的示例中,由于当用户在看镜子并刷牙时用户处于平静状态,因此输出设备1A将代理投影到镜子的表面上并且以语音输出来自代理系统的消息。另外,当用户将自己浸泡在浴缸中并放松时,输出设备1A将代理投影到蒸汽或浴室中的镜面上,并且以语音输出来自代理系统的消息。此外,当用户在烹饪期间等待水沸腾的同时处于空闲时刻时,设置在厨房中的固定输出设备1B将代理投影到锅中的水面上,并且以语音输出来自代理系统的信息。在这些示例的每一个中,将代理投影在用户的视野中吸引用户的注意力,通过语音输出、文本显示等呈现信息,并且使得用户能够无压力地接受信息。代理的语音例如从输出设备1中提供的扬声器输出。代理的语音可以通过使用定向扬声器或蚊式声音以语音输出,使得仅用户能够听到该语音。此外,代理的语音可以是声音定位(如音频增强现实(AR))的,以便从投影代理的方向听到该语音。
此外,根据实施方式的信息处理系统可以通过比较所呈现的信息的内容和用户的状况来不同地输出信息。因此,能够在能够容易地接受的时间呈现与用户的状况匹配的能够容易地接受的消息。
此外,当用户不处于能够容易地接受信息的状况时,根据实施方式的信息处理系统可以呈现提示用户的状况改变的信息,使用户处于能够容易地接受信息的状况,并且此后执行信息呈现。
上面已经描述了根据实施方式的信息处理系统的概述。输出设备1不一定是通过将图像投影到真实对象上来显示图像的投影仪,还可以是:具有显示屏的显示设备,例如智能电话、智能手环、智能手表、平板终端、PC、电视设备或游戏设备;或透明或非透明头戴式显示器(HMD)。当使用透明HMD时,代理图像可以通过图像被叠加地显示在真实空间上的AR显示在用户的视野中。此外,当用户正在利用非透明HMD观看虚拟空间视频时,可以在虚拟空间视频上显示代理图像。另外,输出设备1可以是不具有显示装置的语音输出设备,例如智能耳机或智能项链。
接下来将参照附图具体描述根据实施方式的信息处理系统的配置。
2.配置的示例
2-1.系统配置的示例
图2是示出根据实施方式的信息处理系统的整体配置的示例的图。如图2所示,根据实施方式的信息处理系统包括输出设备1和管理服务器2。输出设备1和管理服务器2可以经由网络3彼此连接。输出设备1可以是用户携带的可穿戴投影仪,或固定投影仪。
例如,当管理服务器2从代理系统服务器4接收到消息时,如果用户处于能够容易地接受消息的状况,则管理服务器2根据基于用户的感测数据的用户状况来控制输出设备1输出消息,该感测数据是从输出设备1获取的。本文中描述了从代理系统接收消息的情况作为示例,但是实施方式不限于该示例。例如,管理服务器2可以从通用信息呈现系统接收信息,该通用信息呈现系统例如是内容推荐系统(推荐各种类型的内容信息,例如音乐、电影、事件和游戏)或健康护理系统(呈现健康管理信息),或者可以从邮件服务器或社交网络服务器接收消息。
此外,管理服务器2不一定从向用户作出一个直接且短期的会话的响应的通用代理系统接收消息,并且可以例如从被称为主机系统的新系统接收消息,该消息提示用户改变行为以便用户从长期的角度逐渐解决问题。主机是提示用户自发地改变行为的虚拟代理的示例,并且主机系统可以例如自动地生成针对特定社区或针对每个用户的预定行为准则,基于行为准则间接地提示行为的改变,并且从而解决社区中的问题。当用户在不知道行为准则的情况下根据主机(像主人一样)的话行事时,能够解决社区中的问题或者用户能够根据社区中的价值观行事,并且因此能够在用户不知道这种改善的情况下改善社区的状况。
2-2.输出设备1的配置的示例
接下来将参照图3描述输出设备1的配置。图3是示出根据实施方式的输出设备1的配置的示例的框图。如图3所示,控制设备1具有控制单元100、通信单元110、输入单元120、输出单元130和存储单元140。
控制单元100用作算术处理设备和控制设备,并且根据各种程序控制输出设备1中的整体操作。控制单元100例如由诸如中央处理单元(CPU)或微处理器的电子电路实现。此外,控制单元100可以包括:只读存储器(ROM),其在其中存储要使用的程序、算术参数等;以及随机存取存储器(RAM),其在其中临时存储适当改变的参数等。
此外,根据实施方式的控制单元100可以执行:控制从通信单元110向管理服务器2发送从传感器122获取的感测数据;以及控制从输出单元130输出经由通信单元110从管理服务器2接收的信息。另外,控制单元100可以执行各种感测数据的分析(例如语音识别、生物数据的分析、基于摄像装置图像和/或距离测量数据的对象识别、运动状态的识别、表情分析、运动分析、姿势识别、面部识别或视线识别)。
通信单元110
通信单元110有线或无线地连接至网络3,并且在网络上向管理服务器2发送数据并且从管理服务器2接收数据。通信单元110经由例如有线/无线局域网(LAN)、Wi-Fi(注册商标)、蓝牙(注册商标)或移动通信网络(长期演进(LTE)或第三代(3G)移动通信系统)可通信地连接至网络3。
输入单元120
输入单元120具有操作输入单元121和传感器122,并且将从操作输入单元121或传感器122获取的信息输入到控制单元100中。操作输入单元121检测用户在输出设备1上的操作的输入。操作输入单元121可以是例如触摸传感器、压力传感器或接近传感器;或者可以被物理地配置为按钮、开关和控制杆中的任何一个。
传感器122包括感测用户状况或周围环境并且将感测到的数据输入到控制单元100中的各种传感器。传感器122可以是,例如:位置测量单元(使用全球定位系统(GPS)等测量室外位置,或者使用蓝牙、Wi-Fi等测量室内位置);摄像装置;麦克风(在下文中,被称为话筒);距离测量传感器;热传感器(例如,设置在固定投影仪中并且测量用户的体温);超声波传感器;运动传感器(例如,加速度传感器、陀螺传感器或磁场传感器);生物传感器(检测例如体温、静脉、脉搏、心率、呼吸、排汗、血压、脑电波、眼电位、肌电值、眼球运动、视线等);或环境传感器(例如,用于照度、空气温度和/或湿度)。
输出单元130
输出单元130是根据控制单元100的控制向用户呈现信息的呈现单元。输出单元130具有投影仪131和扬声器132。投影仪131是能够将图像投影到诸如墙壁、地板、天花板、镜面和蒸汽的各种地点上的信息显示装置的示例。投影仪131在本文中用作信息显示装置,但是信息显示装置不限于投影仪131,根据实施方式的信息显示装置可以是由液晶显示(LCD)设备、有机发光二极管(OLED)设备等实现的显示单元。
扬声器132根据控制单元100的控制再现语音信号。扬声器132可以是例如定向扬声器。使用定向扬声器只允许用户听到代理的语音。此外,通过考虑用户的年龄等使用蚊式声音,扬声器132可以仅使用户听到代理的语音。另外,扬声器132能够通过控制单元100再现声音定位的语音信号来实现语音AR,使得从投影代理的图像的方向听到代理的语音。
存储单元140
存储单元140由只读存储器(ROM)和随机存取存储器(RAM)实现,只读存储器在其中存储通过控制单元100执行的处理中使用的程序和算术参数等,随机存取存储器在其中临时存储适当改变的参数等。
以上具体描述了根据实施方式的输出设备1的配置的示例。输出设备1的配置不限于图3所示的示例,并且例如,输出设备1可以由多个设备形成,或者输出单元130还可以具有显示设备。
2-3.管理服务器2的配置的示例
接下来将参照图4描述管理服务器2的配置。图4是示出根据实施方式的管理服务器2的配置的示例的框图。如图4所示,管理服务器2(信息处理设备)具有控制单元200、通信单元210和存储单元220。
控制单元200
控制单元200用作算术处理设备和控制设备,并且根据各种程序控制管理服务器2中的总体操作。控制单元200例如由诸如中央处理单元(CPU)或微处理器的电子电路实现。此外,控制单元200可以包括:只读存储器(ROM),其在其中存储要使用的程序、算术参数等;以及随机存取存储器(RAM),其在其中临时存储适当改变的参数等。
此外,根据实施方式的控制单元200还用作用户管理单元201、状况识别单元202、消息管理单元203和消息呈现控制单元204。
用户管理单元201管理与操作输出设备1的每个用户相关的信息(例如识别信息;包括年龄、性别等的属性信息;偏好信息和/或输出设备1的终端信息)。关于每个用户的信息可以存储在存储单元220中。
状况识别单元202基于已经从输出设备1接收的感测数据或对感测数据的分析结果来执行对用户自己或用户周围的环境的状况的识别。例如,状况识别单元202执行对用户是否正在与某人交谈、用户是否处于恐慌或匆忙、用户是否处于嘈杂环境、用户是否独自一人、用户是否处于静止不动和平静、用户是否兴奋等的识别。此外,状况识别单元202可以推测用户是否处于能够容易地接受消息的状况。
消息管理单元203与用户的标识信息等相关联地管理已经从代理系统服务器4接收并且要被传送给用户的信息。如上所述,要传送给用户的信息可以是:从代理到用户的响应消息;寻址到用户的电子邮件;经由社交网络寻址到用户的消息;到用户的通知信息、推荐信息、广告信息或健康信息等。此外,要传送给用户的信息可以是从主机系统(指示用户的行为准则的主机)接收的并且提示用户自发地改变用户的行为的消息。消息管理单元203将这些与用户相关联的消息累积到存储单元220中。
在状况识别单元202推测用户处于能够容易地接受消息的状况的情况下,消息呈现控制单元204从存储单元220中提取寻址到该用户的消息并且执行控制,使得从输出设备1向该用户呈现消息。在从代理系统服务器4接收到消息时,消息呈现控制单元204可以基于状况识别单元202对用户的当前状况的识别结果,确定是否能够(实时地)呈现该消息。此外,如果不能呈现该消息,则消息呈现控制单元204可以执行控制,使得当此后状况识别单元202推测用户已经进入能够容易地接受消息的状况时,呈现该消息。
此外,消息呈现控制单元204可以将用户状况与消息的内容进行比较,并且如果消息的内容与用户状况相匹配,则消息呈现控制单元204可以执行控制,使得当用户处于能够容易地接受消息的状况时呈现该消息。
此外,如果状况识别单元202已经推测用户不处于能够容易地接受消息的状况,则消息呈现控制单元204可以发送消息以改变用户状况(例如用户自己的状况如他的情绪,或者用户周围的环境)。
通信单元210
通信单元210有线或无线地连接至网络3,并且经由网络3向每个输出设备1发送数据并且从每个输出设备1接收数据。通信单元210通过例如有线/无线局域网(LAN)、蓝牙或无线保真(Wi-Fi)(注册商标)可通信地连接至网络3。
存储单元220
存储单元220由ROM和RAM实现,ROM中存储通过控制单元200执行的处理中要使用的程序、算术参数等,RAM中临时存储适当改变的参数等。例如,根据实施方式的存储单元220可以在其中存储从代理系统服务器4接收的消息。
上面已经具体描述了根据实施方式的管理服务器2的配置。图4所示的管理服务器2的配置仅是示例,并且实施方式不限于该示例。例如,管理服务器2的配置的至少一部分可以在外部设备中,或者控制单元200的功能的至少一部分可以由输出设备1、边缘服务器等实现。此外,图4所示的所有存储单元140和控制单元200的部件可以设置在输出设备1中,并且根据用户状况对从代理系统服务器4接收的消息的呈现的控制可以借助于输出设备1中的应用来执行。
3.示例
接下来将使用附图具体描述根据实施方式的信息处理系统的示例。
3-1.第一示例(消息的呈现)
首先,将参照图5至图7描述实施方式的第一示例。在第一示例中,当用户处于能够容易地接受消息的状况时向用户呈现消息使得能够更有效地呈现信息。
图5是示出根据第一示例的信息呈现处理的流程的示例的序列图。如图5所示,首先,输出设备1检查管理服务器2是否存在消息(步骤S103)。
随后,管理服务器2中的用户管理单元201执行对消息的搜索(步骤S106)。用户管理单元201可以通过查询代理系统服务器4来搜索要传送给用户的消息,或者从预先从代理系统服务器4接收并累积在存储单元220中的消息中搜索寻址到用户的消息。
随后,管理服务器2将检索到的消息发送至输出设备1(步骤S109)。
随后,输出设备1从传感器122获取感测数据(步骤S112),并且将获取的感测数据发送至管理服务器2(步骤S115)。输出设备1可以将感测数据的分析结果实时地发送至管理服务器2。
随后,管理服务器2中的状况识别单元202基于从输出设备1发送的信息(例如,感测数据或感测数据的分析结果),执行用户状况的识别(步骤S118)。稍后将参照图7描述用户状况的识别的处理的细节。
随后,如果已经推测用户处于能够容易地接受消息的状况(步骤S121/是),则管理服务器2向输出设备1通知用户处于能够容易地接受消息的状况的事实(步骤S124)。
输出设备1根据来自管理服务器2的通知,执行向用户输出消息的控制(步骤S127)。稍后将参照图6描述向用户输出消息的控制的细节。
因此,第一示例使得当用户处于能够容易地接受消息的状况时,能够向用户输出消息。
用于消息的输出控制处理
将参照图6描述上述步骤S127所表示的用于消息的输出控制处理的示例。图6是示出根据第一示例的用于消息的输出控制处理的流程的示例的流程图。本文将描述使用投影仪131输出消息的情况。
如图6所示,如果用户处于能够容易地接受消息的状况(步骤S130/是),则输出设备1中的控制单元100基于传感器122的感测数据来确定在投影仪131可以进行投影的距离处是否存在单色平面(步骤S133)。具体地,控制单元100分析由传感器122获取的摄像装置图像和距离测量数据,并且确定在可以从投影仪131进行投影的距离处是否存在具有能够用于投影的形状的对象(本文中是具有单色的平面)。
或者,控制单元100类似地分析摄像装置图像和距离测量数据,并且确定在从投影仪131可以进行投影的距离处是否存在镜面、静止水面或白烟状物质(步骤S136和S139)。
随后,如果在投影仪131可以进行投影的距离处存在单色平面、镜面、静止水面或白烟状物质(步骤S133/是、步骤S136/是、或步骤S139/是),则控制单元100使用字符(代理图像)或多媒体内容(消息文本、运动图像、静止图像等)借助于投影仪131显示(投影)消息(步骤S142)。此外,控制单元100可以与代理图像的显示一起从扬声器132输出消息的语音数据(代理语音数据)作为多媒体内容。
如上所述,当使用投影仪131呈现消息时,输出设备1从用户的周围适当地确定适当的投影地点(满足给定条件的投影地点),并且执行控制以使得(通过控制投影仪131的驱动)将消息投影到投影地点。因此,在日常生活的各种场景中,当用户处于能够容易地接受消息的状况时,能够在任何地方呈现消息。
用户状况的识别处理
接下来,下面将参照图7描述由图5所示的上述步骤S112至S121表示的用户状况的识别处理的细节。
图7是示出根据第一示例的基于感测数据的对用户状况的识别处理的流程的示例的序列图。如图7所示,首先,输出设备1通过话筒获取语音信息,分析语音数据(步骤S153),并且将分析结果(特征值数据)发送至管理服务器2(步骤S156)。
随后,基于分析结果,管理服务器2的状况识别单元202确定是否存在用户的讲话语音(步骤S159)以及用户周围的环境是否嘈杂(步骤S162)。
此外,输出设备1利用生物传感器(例如心率传感器和体温传感器)测量用户的身体状况(步骤S165),并且将测量结果(身体状况数据)发送至管理服务器2(步骤S168)。
随后,管理服务器2的状况识别单元202基于测量结果,确定是否维持在用户的心率不太高且用户的体温正常的平静状态(步骤S171)。具体地,状况识别单元202确定用户的心率是否没有超过预定值以及用户的体温是否正常。
此外,输出设备1利用运动传感器(加速度传感器、陀螺传感器等)检测用户的运动(步骤S174),并且将检测结果(运动信息)发送至管理服务器2(步骤S177)。
随后,管理服务器2的状况识别单元202基于检测结果确定用户是否正在剧烈运动(步骤S180)。用户是否在剧烈运动可以例如根据通过分析加速度数据等获取的特征值来确定,或者通过与预定阈值进行比较来确定。
然后,如果没有用户的讲话语音(步骤S159/否),用户周围的环境不嘈杂(步骤S162/否),保持用户的心率不太高且用户的体温正常的平静状态(步骤S171/是),并且用户没有剧烈运动(步骤S180/否),则管理服务器2的状况识别单元202推测用户处于能够容易地接受消息的状况(步骤S183)。
上面已经描述了根据第一示例的用户状况的识别处理的示例。该示例使得当用户处于用户能够容易地接受消息的状况时能够呈现消息,并且使得能够更有效地呈现消息。对于来自主机系统并且(间接地)提示行为的改变的消息,用户更优选地处于能够容易地接受消息的状况。由主机系统呈现的消息可以例如(例如通过投影育儿状态的摄像装置图像)让没有帮助分担家务和育儿的父亲知道他妻子独自挣扎的状态或哭闹的婴儿的状态。例如,当用户(父亲)将自己浸泡在浴缸中并且感到轻松时,这样消息的呈现更期望让父亲自然地感觉到帮助家务和育儿(即,接受消息并且使其自发地改变他的行为)。此外,同事对关于用户在办公室的凌乱的桌子不太高兴的事实的通知的呈现(例如,通过对人们如何看待凌乱的桌子的摄像装置图像进行投影)更期望使用户自然地感觉到整理桌子(即,使用户接受消息并且自发地改变他的行为)。
图7所示的确定标准仅是示例,并且第一示例不限于该示例。
此外,图7中所示的步骤S153至S162(基于语音数据的确定处理)、步骤S165至S171(基于生物数据的确定处理)以及步骤S174至S180(基于运动数据的确定处理)的顺序不限于图7所示的顺序,并且可以彼此并行地或以不同的顺序执行这些步骤的集合。
3-2.第二示例(根据消息内容和用户状态的呈现)
接下来将描述实施方式的第二示例。在第二示例中,除了根据关于第一示例描述的用户状况的定时之外,当用户状态与通过消息的内容与用户状态的比较而呈现的消息的内容匹配时,消息的呈现使得消息的呈现的效果能够进一步增强。即,即使用户处于能够容易地接受消息的状况,如果消息的内容与用户的状态(例如身体状况或情绪)不匹配,也不执行消息的呈现。
例如,如果消息的内容包括诸如锻炼或外出的与运动或身体运动相关的关键字,则期望当用户处于用户的身体状况良好并且用户充满精力的状态时呈现消息。另一方面,如果消息的内容包括诸如休息或回家的与保存体力相关的关键字,则期望当用户处于用户的身体状况不佳并且用户疲劳的状态时呈现消息。因此,例如,考虑到用户的身体状况,当用户疲劳时,不呈现推荐锻炼的消息。
下面将参照图8和图9具体描述根据第二示例的操作和处理。
图8是示出根据第二示例的用于消息的累积处理的流程的示例的序列图。如图8所示,首先,主机系统服务器生成提示用户自发地改变其行为的消息(步骤S193),并且将该消息发送至管理服务器2(步骤S196)。本文将提示用户自发地改变其行为并且由主机系统呈现的消息描述为消息的示例,但是不限于该示例,根据第二示例,该消息可以是由通用代理系统呈现的响应消息、从任何信息呈现系统呈现的信息等。
随后,管理服务器2的消息管理单元203对从主机系统服务器接收的消息执行语义分析(步骤S199)。
随后,管理服务器2的消息管理单元203确定该消息是否具有当向用户显示该消息时应当考虑的用户的状态的内容(步骤S202)。例如,如果该消息包括与用户的状态相关的预定关键字(例如,与需要体力的事物相关的关键字,例如“锻炼”,或与保存体力相关的关键字,例如“休息”),则消息管理单元203确定消息具有应当考虑的用户的状态的内容。
随后,如果确定消息具有应当考虑的用户的状态的内容(步骤S202/是),则消息管理单元203将与消息内容匹配的用户状态的条件与消息相关联,该条件用作补充信息(步骤S205)。用户状态的条件可以是例如“身体状况良好/不适”、“有精力/无精力”或“良好/疲劳”。
然后,消息管理单元203将接收到的消息累积到存储单元220中(步骤S208)。
如上所述,当管理服务器2的消息管理单元203从系统获取寻址到用户的消息时,消息管理单元203对消息内容执行语义分析,并且对于应当考虑的用户状态的消息,消息管理单元203能够预先与作为用户状态的条件的补充信息相关联地累积消息。
可以连续地执行这样的消息的累积处理。接下来将参照图9描述当将已经累积的消息从输出设备1呈现给用户时的操作和处理。
图9是示出根据第二示例的消息呈现处理的流程的示例的序列图。图9所示的步骤S103至S124处的处理与参照图5关于第一示例描述的相同附图标记的处理相同。即,如果存在要呈现给用户的消息,则执行用于推测当前用户状况是否是能够容易地接受消息的状况的处理。
随后,尽管在第一示例中,当从管理服务器2接收到通知时执行用于消息的输出控制处理,该通知是用户处于能够容易地接受消息的状况的事实,但是在第二示例中,输出设备1检查在上述步骤S109处从管理服务器2发送的消息是否具有与其相关联的补充信息(用户状态的条件)(步骤S213)。
随后,如果补充信息已经与从管理服务器2发送的消息相关联(步骤S213/是),则输出设备1分析从传感器122获取的感测数据(步骤S216),并且将分析结果发送至管理服务器2(步骤S219)。
随后,管理服务器2的状况识别单元202基于传感数据的分析结果,执行用户状态的识别(步骤S222),并且将识别结果发送至输出设备1(步骤S225)。
识别用户状态可以是例如当体温正常、没有叹息、语音很大和/或用户微笑时识别“身体状况良好”,或者当体温高于正常体温、叹息次数大于预定值、语音很小、用户沉默和/或用户不微笑时识别“身体状况不佳”。
随后,输出设备1确定由来自管理服务器2的识别结果指示的用户状态是否与已经与消息相关联的补充信息(用户状态的条件)匹配(步骤S228)。作为补充信息的用户状态的条件可以是例如如上所述的“身体状况良好/不佳”、“有精力/无精力”或“良好/疲劳”,并且输出设备1确定用户的当前状态是否与该条件匹配。
如果用户的状态与补充信息匹配(步骤S228/是),则输出设备1执行对用户的消息的输出控制(步骤S127)。用于消息的输出控制的细节与第一示例中的细节相同(参见图6)。如果在上述步骤S213处没有补充信息已经与消息相关联(步骤S213/否),在不考虑用户状态与内容之间的任何匹配的情况下,可以执行对用户的消息的输出控制(步骤S127)。
因此,当用户处于能够容易地接受消息的状况并且要呈现的消息的内容与用户的状态匹配时,能够呈现消息。
此外,输出设备1可以呈现从管理服务器2接收的多个消息中的具有与用户的状态相匹配的内容的消息。例如,在用于增加家庭聚会的时间的行为改变消息包括“为什么你不去击球中心并且在那里进行适度的锻炼?”消息和“让我们早点回家”消息的情况下,如果用户的身体状况不佳并且用户疲惫,则可以呈现后一消息,并且如果用户的身体状况良好并且用户充满精力,则可以呈现前一消息。来自主机系统的并且推荐锻炼的前一消息使得用户能够通过以下方式获得用于家庭聚会的时间:通过锻炼使用户缓解压力;根据对用户的压力量减少酒精摄入量;从而改善用户的睡眠质量;使唤醒时间取决于早睡时长;以及使用户与其家人一起吃早餐。此外,来自主机系统的后一消息使得用户能够通过以下方式获得家庭聚会的时间:使用户早点回家;从而使他的生活节奏与其他家庭成员的生活节奏相匹配;以及使用户与家人一起吃晚餐。
3-3.第三示例(用户状况的改变)
接下来将描述实施方式的第三示例。在第三示例中,当用户处于用户难以接受消息的状况时,呈现将用户的状况改变为能够容易地接受消息的状况的控制引导(在下文中,也称为引导内容)。因此,能够增加在消息能够被容易地接受的状况下能够呈现消息的机会。
此外,如果消息的内容与用户状态不匹配,则呈现将用户的状态改变为与消息的内容匹配的状态的一些引导内容。因此,能够增加能够呈现具有与用户的状态相匹配的内容的消息的机会。
例如,图10示出了改变用户的状况或状态的引导内容的示例。图10是示出根据第三示例的改变用户的状况的引导内容的示例的图。
如图10所示,例如,如果用户正在进行对话,则可以呈现(由输出设备1投影的)请求用户安静的引导显示图像500,以便引导用户处于能够容易地接受消息的安静状况。此外,如果用户处于疲劳和不适的状态,则可以呈现用户的孩子或家人的摄影图像501、或具有使用户欢呼的用户喜爱的角色的图像502等,以便更有效地呈现具有与良好状态匹配的内容的消息。此外,如果用户兴奋、匆忙或恐慌,则可以呈现直接消息504等,例如“平静下来!”或“深呼吸。”,以便引导用户处于能够容易地接受消息的平静状况。
将参照图11至图13描述第三示例中的这样的操作和处理。
图11至图13是示出根据第三示例的消息呈现处理的流程的示例的序列图。
图11所示的步骤S103至步骤S121的处理与参照图5关于第一示例描述的相同附图标记的处理相同。即,如果存在要呈现给用户的消息,则执行用于推测当前用户状况是否是能够容易地接受消息的状况的处理。
随后,如果已经推测用户不处于能够容易地接受消息的状况(步骤S121/否),则管理服务器2选择控制用户的状况的引导图像(即,将用户的状况改变为能够容易地接受消息的状况)(步骤S253),并且将引导图像发送至输出设备1(步骤S256)。例如,引导图像已经预先累积在存储单元220中,并且管理服务器2基于当前用户状况选择适当的引导图像。
随后,输出设备1控制所接收的引导图像的输出(步骤S259)。在引导图像的输出的控制中,例如,借助于投影仪131将引导图像投影到周围的适当投影地点。关于第一示例,参照图6描述的用于消息的输出控制处理能够适用于用于引导图像的投影控制的细节。即,如果在能够投影的距离处存在单色平面、镜面、静止水面、白烟状物质等,则输出设备1将引导图像投影到该地点。
期望呈现引导图像以将用户的状况改变为能够容易地接受消息的状况。在已经呈现了引导图像之后,如图11所示,再次重复从步骤S112开始的上述处理。
相反,如果推测用户处于能够容易地接受消息的状况(步骤S121/是),如图12所示,管理服务器2向输出设备1通知用户处于能够容易地接受消息的状况的事实(步骤S124)。
随后,输出设备1检查是否已经将补充信息(用户状态的条件)与从管理服务器2发送的消息相关联(步骤S213),并且如果没有补充信息与从管理服务器2发送的消息相关联(步骤S213/否),则输出设备1执行对用户的消息的输出控制(步骤S127)。步骤S124、S213和S127处的处理与参照图9描述的关于第二示例的相同附图标记的处理相同。
随后,如果补充信息已经与从管理服务器2发送的消息相关联(步骤S213/是),如图13所示,则输出设备1获取感测数据并且将感测数据发送至管理服务器2(步骤S216和S219),并且从管理服务器2获取用户的状态的识别结果(步骤S222和S225)。
随后,输出设备1确定由来自管理服务器2的识别结果指示的用户状态是否与已经与消息相关联的补充信息(用户状态的条件)匹配(步骤S228)。步骤S216至S228处的上述处理与关于第二示例描述的图9示出的相同附图标记的处理相同。
随后,如果用户状态与消息的补充信息(用户状态的条件)不匹配(步骤S228/否),则输出设备1向管理服务器2通知用户状态与消息的补充信息不匹配的事实(步骤S263)。
随后,根据补充信息,管理服务器2选择控制(改变)用户的状态(例如情绪)以匹配由补充信息指示的用户状态的条件的引导图像(步骤S266),并且将引导图像发送至输出设备(步骤S269)。
然后,输出设备1对所接收的引导图像执行输出控制(步骤S272)。在用于引导图像的输出控制中,例如,借助于投影仪131将引导图像投影到适当的周围投影地点。关于第一示例,参照图6描述的用于消息的输出控制处理能够适用于用于引导图像的投影控制的细节。即,如果在能够投影的距离处存在单色平面、镜面、静止水面、白烟状物质等,则输出设备1将引导图像投影到该地点。
期望呈现引导图像以将用户状态改变为与消息内容匹配的状态。在已经呈现了引导图像之后,如图13所示,再次重复从步骤S216开始的上述处理。
如果用户状态与消息的补充信息(用户状态的条件)匹配(步骤S228/是),则输出设备1执行对用户的消息的输出控制(图12中的步骤S127)。
3-4.第四示例(视觉上用户能够识别的地点处的呈现)
接下来将描述实施方式的第四示例。在上述第一示例至第三示例的每个示例中,当向用户呈现消息或引导图像时,例如,通过借助于投影仪131将消息或引导图像适当投影到用户周围的适当投影地点,使得能够在日常生活的各种场景中的任何地方显示消息或引导图像。即使投影地点(投影目标)是适当的地点(对象),如果投影地点在用户的后面、用户正在看不同的地点或者焦点没有在投影地点上,则投影地点实际上可能是用户视觉上难以识别的地点。
因此,在第四示例中,如图14所示,当在基于用户的头部或面部取向、视线等确定的视觉上能够识别的区域中存在适当的投影地点时,进行控制以使得将到用户的消息或引导图像投影到投影地点使得能够在日常生活的各种场景中更可靠地向用户呈现消息。例如,输出设备1可以根据用户的视线是否指向投影地点来执行投影控制,或者根据用户的焦点是否在投影地点上来执行投影控制。
下面将参照图15描述根据第四示例的这样的投影控制。
图15是示出根据第四示例的投影控制处理的流程的示例的流程图。图15中的步骤S130至步骤S139处的处理与关于第一示例描述的图6中所示的相同附图标记的处理相同。即,当在用户处于能够容易地接受消息的状况的情况下显示消息时,输出设备1执行确定用户周围的适当投影地点(例如,处于能够投影的距离处的单色平面、镜面、静止水面、白烟状物质等)的处理。
随后,输出设备1利用视线检测传感器检测用户的视线(步骤S303),并且确定用户的视线是否指向在上述步骤S133至步骤S139处确定的适当投影地点的方向(步骤S306)。视线检测传感器是传感器122的示例,并且所使用的检测视线的方法可以是例如基于来自眼电位传感器的检测结果执行检测的方法、通过向眼球发射红外(IR)光并检测从眼球反射的光来执行检测的方法(角膜反射方法、巩膜反射方法等)、或者基于使用可见光摄像装置的眼睛的参考点(例如眼睛的内角或角膜反射)和眼睛的移动点(例如虹膜或瞳孔)的位置来执行检测的方法。此外,基于其中已经捕获了用户的面部的摄像装置视频或运动传感器的感测数据,输出设备1可以确定用户的面部取向或头部方向,并且将用户的面部取向或头部方向视为视线方向。
随后,如果用户的视线指向投影地点的方向(步骤S306/是),则输出设备1借助于例如眼睛屈光计传感器(例如自动屈光计)来测量用户的焦点是否在投影地点上(即,图像是否已经形成在视网膜的前面)(步骤S309)。
随后,如果焦点在投影地点上(步骤S312/是),则输出设备1执行消息或引导图像的投影(步骤S315)。
输出设备1可以确定多个适当的投影地点,并且从这些投影地点中选择用户在视觉上容易识别的地点。此外,在图15所示的流程图中,基于视线方向和焦点来确定投影地点是否是用户在视觉上容易识别的地点,但是第四示例不限于该确定。例如,可以使用视线方向和焦点中的任一个来执行确定,或者可以基于另一因素(例如投影地点是否在用户的前面、投影地点是否在行进方向上、投影地点是否在视野的范围内、或者投影地点是否被预测为将立即指向视线的地点)来执行确定。
3-5.第五示例(学习“能够容易地接受消息的状况”)
最后将描述实施方式的第五示例。用户是否处于能够容易地接受消息的状况可以通过将感测数据与预定标准(预先设置的预定标准)进行比较来确定,该感测数据是从诸如话筒、摄像装置、生物传感器和运动传感器的各种传感器中的任何一个获取的,但是该确定标准可以根据用户周围的环境等而改变,并且可能无法仅通过使用预先确定的给定规则来实现准确的确定。
因此,在第五示例中,基于在已经呈现消息之后用户的反应(反馈),获悉用户是否处于“能够容易地接受消息的状况”,并且因此能够更加准确地确定状况。例如,在投影代理图像并且以语音输出消息的情况下,如果用户看向代理并说出接受消息的一个或多个词,例如“明白。”或“好的。”,则可以获悉用户处于“能够容易地接受消息的状况”。此外,如果观察到消息呈现之后的用户行为,并且与消息呈现之前的行为相比在消息呈现之后的行为发生了变化,则可以获悉用户处于“能够容易地接受消息的状况”。
下面将参照图16至图18描述根据第五示例的这样的投影控制。
图16和图17是示出根据第五示例的用于确定用户是否处于能够容易地接受消息的状况的学习处理的流程的示例的序列图。
图16中所示的步骤S103至步骤S118处的处理与参照图5关于第一示例描述的相同附图标记的处理相同。即,如果存在要传送给用户的消息,则基于在输出设备1处获取的感测数据,执行管理服务器2对用户状况的识别。
随后,管理服务器2将用户状况的识别结果发送至输出设备1(步骤S330)。在管理服务器2处已经执行了后述的用户状况识别的学习并且已经记录了“能够容易地接受的状况”的数据的情况下,管理服务器2将该数据与用户状况的识别结果一起发送至输出设备1。
随后,如果不能从管理服务器2获取关于“能够容易地接受的状况”的数据(即,如果没有执行“能够容易地接受的状况”的学习)(步骤S333/否),则输出设备1执行对消息的输出控制(步骤S127)。消息的输出控制的细节与第一示例中的细节相同(参见图6)。
随后,基于在已经呈现消息之后用户的反应,输出设备1确定用户是否已经接受消息(步骤S339)。稍后将参照图18描述用于该确定的处理的细节。
随后,如果确定用户已经接受了该消息(步骤S342/是),则输出设备1向管理服务器2通知消息已经被接受的事实(步骤S345)。
然后,管理服务器2将上述步骤S118处的用户状况的识别结果存储为“(用户对消息)能够容易地接受的状况”(步骤S348)。
相反,如果确定用户没有接受该消息(步骤S342/否),则输出设备1不通知管理服务器2。
如上所述,管理服务器2能够了解每个用户的能够容易地接受消息的状况。因此,例如,一些人可能处于当他们剧烈运动时(例如当他们在体育馆的跑步机器上跑步时)能够容易地接受消息的状况,并且因此能够获悉因人而异的能够容易地接受的状况。
在上述步骤S333处,如果能够从管理服务器2获取关于“能够容易地接受的状况”的数据(即,已经执行了“能够容易地接受的状况”的学习)(步骤S333/是),则如图17所示输出设备1确定所识别的用户状况是否与“能够容易地接受的状况”匹配(步骤S353)。
随后,如果识别的用户状况与“能够容易地接受的状况”匹配(步骤S353/是),则输出设备1执行对消息的输出控制(步骤S127)。消息的输出控制的细节与第一示例中的细节相同(参见图6)。
随后,基于在已经呈现消息之后用户的反应,输出设备1确定用户是否已经接受消息(步骤S339)。稍后将参照图18描述用于该确定的处理的细节。在第五示例中,用户的能够容易地接受消息的状况可能根据用户周围的环境等而改变,并且因此即使基于学习结果已经确定用户处于能够容易地接受消息的状况并且已经呈现了消息,也再次观察用户此后的反应,并且确定消息是否实际已经被接受。
随后,如果确定用户没有接受该消息(步骤S362/否),则输出设备1向管理服务器2通知消息没有被接受的事实(步骤S365)。
管理服务器2从已经记录了关于“能够容易地接受的状况”的数据中删除这次的用户状况(不接受消息的状况)(步骤S368)。因此,获悉了能够容易地接受消息的状况发生改变的情况,并且将能够更新“能够容易地接受的状况”。
如果用户已经接受了该消息(步骤S362/是),则输出设备1不通知管理服务器2。
消息是否已经被接受的确定处理
接下来将参照图18描述由上述步骤S339表示的消息是否已经被接受的确定处理的示例。
图18是示出根据第五示例的用于确定用户是否已经接受消息的处理流程的示例的流程图。
如图18所示,首先,输出设备1基于借助于传感器122(摄像装置)捕获了其中具有用户的面部的摄像装置图像,对用户执行面部识别和视线分析(步骤S363),并且确定用户是否已经面向作为消息呈现而投影的代理图像(即,用户是否将他的视线或面部指向代理图像)(步骤S366)。
随后,如果用户没有面向代理图像(步骤S366/否),则输出设备1确定消息没有被接受(步骤S378)。例如,如果用户在刚刚观看代理图像后立即将他的视线移开、如果用户的焦点不在代理图像上、如果用户没有仔细地观看代理图像、或者如果用户已经观看了代理图像但看上去不满意,则输出设备1可以确定消息没有被接受。
随后,基于由传感器122(话筒)收集的语音数据,输出设备1执行语音识别(步骤S369),并且确定是否已经检测到指示消息的接受的语音(步骤S372)。
随后,如果没有检测到指示消息的接受的语音(“理解了。”、“好的。”、“听上去不错。”、“明白了。”、“听起来很有趣”等)(步骤S372/否),则输出设备1确定消息没有被接受(步骤S378)。不限于例如当没有检测到指示消息的接受的语音时的情况,例如当用户叹气、用户轻拍他的舌头、或者已经检测到指示用户感觉消息的呈现受阻碍的语音时,输出设备1可以确定消息没有被接受。
如果用户正面向代理图像(步骤S366/是)并且已经检测到指示消息的接受的语音(步骤S372/是),则输出设备1确定消息已经被接受(步骤S375)。
作为本文中的示例,基于视线和语音来执行是否已经接受消息的确定,但是第五示例不限于该示例。例如,可以使用视线和语音中的任一个来执行确定,或者可以基于另一元素(例如在消息呈现之后用户的行为或姿势)来执行确定。
4.结论
如上所述,根据本公开内容的实施方式的信息处理系统通过在用户处于能够容易地接受信息的状况时执行信息呈现来实现更有效的信息呈现。
以上参照附图详细描述了本公开内容的优选实施方式,但本技术并不限定于该示例。明显的是,本公开内容的技术领域的普通技术人员可以在本专利的权利要求书中记载的技术思想的范围内得到各种修改例或修订例,并且应当理解,这些修改例或修订例同样合理地属于本公开内容的技术范围。
例如,可以生成计算机程序,该计算机程序用于使硬件发挥上述输出设备1或管理服务器2的功能,该硬件例如是在输出设备1或管理服务器2中内部设置的CPU、ROM和RAM。此外,还可以提供其中存储有计算机程序的计算机可读存储介质。
此外,本说明书中描述的效果仅是说明性或示例性的,而不是限制性的。即,除了上述效果之外或者代替上述效果,根据本公开内容的技术可以实现根据本说明书中的描述对本领域技术人员而言明显的其他效果。
本技术还可以包括以下配置。
(1)
一种信息处理系统,包括:
控制单元,所述控制单元当基于与用户相关的感测数据推测所述用户处于容易接受消息的状况时,控制呈现单元向所述用户呈现消息。
(2)
根据(1)所述的信息处理系统,其中,所述控制单元根据所述用户周围的噪声状况、所述用户的生物信息、所述用户的表情以及所述用户的运动信息中的至少任何一个,来推测所述用户是否处于容易接受所述消息的状况。
(3)
根据(1)或(2)所述的信息处理系统,其中,
所述呈现单元是投影仪,并且
当所述用户周围存在满足给定条件的投影地点时,所述控制单元控制所述投影仪将所述消息投影到所述投影地点。
(4)
根据(3)所述的信息处理系统,其中,所述控制单元基于所述用户周围的感测数据来确定满足所述给定条件的投影地点。
(5)
根据(3)所述的信息处理系统,其中,当存在所述用户在视觉上能够识别的投影地点时,所述控制单元控制所述投影仪将所述消息投影到所述投影地点。
(6)
根据(5)所述的信息处理系统,其中,所述控制单元基于与所述用户相关的感测数据对所述用户执行视线分析,并且确定所述用户在视觉上能够识别的所述投影地点。
(7)
根据(1)至(6)中任一项所述的信息处理系统,其中,所述控制单元控制所述呈现单元呈现能够被所述用户感知的消息。
(8)
根据(7)所述的信息处理系统,其中,所述控制单元借助于图像或声音中的至少任何一种来呈现所述消息。
(9)
根据(1)至(8)中任一项所述的信息处理系统,其中,即使已经推测出用户处于容易接受消息的状况,所述控制单元也根据所述消息的内容进行控制以不执行对所述用户的消息呈现。
(10)
根据(9)所述的信息处理系统,其中,所述控制单元进行控制以:
当所述消息的内容与所述用户的状态匹配时,执行对所述用户的消息呈现,以及
当所述消息的内容与所述用户的状态不匹配时,不执行对所述用户的消息呈现。
(11)
根据(1)至(10)中任一项所述的信息处理系统,其中,当推测出所述用户未处于容易接受消息的状况时,所述控制单元呈现用于使所述用户的状况成为更容易接受消息的状况的控制引导。
(12)
根据(11)所述的信息处理系统,其中,所述控制引导是旨在改变所述用户周围的噪声状况、所述用户的生物信息、所述用户的表情以及所述用户的运动信息中的至少任何一个的图像或声音。
(13)
根据(10)所述的信息处理系统,其中,当推测出所述用户的状态与所述消息的内容不匹配时,所述控制单元呈现用于使所述用户的状态与所述消息的内容匹配的控制引导。
(14)
根据(1)至(13)中任一项所述的信息处理系统,其中,所述控制单元执行以下操作:
基于与所述用户相关的感测数据来检测所述用户对由所述呈现单元呈现的所述消息的反应,以及
通过学习所述检测的结果与所述用户的状况之间的关系来更新所述用户的容易接受消息的状况。
(15)
根据(1)至(14)中任一项所述的信息处理系统,其中,所述控制单元控制所述呈现单元向所述用户呈现从外部代理系统提供的消息。
(16)
一种信息处理方法,其中,处理器执行包括以下处理:
当基于与用户相关的感测数据推测所述用户处于容易接受消息的状况时,控制呈现单元向所述用户呈现消息。
(17)
一种记录介质,其中记录有程序,所述程序用于使计算机用作:
控制单元,所述控制单元当基于与用户相关的感测数据推测所述用户处于容易接受消息的状况时,控制呈现单元向所述用户呈现消息。
附图标记列表
1 输出设备
2 管理服务器
3 网络
4 代理系统服务器
100 控制单元
110 通信单元
120 输入单元
121 操作输入单元
122 传感器
122a 生物传感器
130 输出单元
131 投影仪
132 扬声器
140 存储单元
200 控制单元
201 用户管理单元
202 状况识别单元
203 消息管理单元
204 消息呈现控制单元
210 通信单元
220 存储单元
Claims (14)
1.一种信息处理系统,包括:
控制单元,
基于用户的生物信息和所述用户的面部表情中的至少一个来确定所述用户是否处于容易接受消息的状况;
当确定所述用户处于容易接受消息的状况时,通过比较(1)通过所述用户的身体状态的感测数据确定的所述用户的身体状态与(2)所述消息的内容指示的期望的所述用户的身体状态,来确定是否向所述用户呈现所述消息;并且
仅当确定向所述用户呈现所述消息时,才使投影仪投影所述消息。
2.根据权利要求1所述的信息处理系统,其中,
当所述用户周围存在满足给定条件的投影地点时,所述控制单元控制所述投影仪将所述消息投影到所述投影地点。
3.根据权利要求2所述的信息处理系统,其中,所述控制单元基于所述用户周围的感测数据来确定满足所述给定条件的投影地点。
4.根据权利要求2所述的信息处理系统,其中,当存在所述用户在视觉上能够识别的投影地点时,所述控制单元控制所述投影仪将所述消息投影到所述投影地点。
5.根据权利要求4所述的信息处理系统,其中,所述控制单元基于与所述用户相关的感测数据对所述用户执行视线分析,并且确定所述用户在视觉上能够识别的投影地点。
6.根据权利要求1所述的信息处理系统,其中,所述控制单元控制所述呈现单元呈现能够被所述用户感知的消息。
7.根据权利要求6所述的信息处理系统,其中,所述控制单元借助于图像和声音中的至少任何一种来呈现所述消息。
8.根据权利要求1所述的信息处理系统,其中,当推测出所述用户未处于容易接受消息的状况时,所述控制单元呈现用于使所述用户的状况成为更容易接受消息的状况的控制引导。
9.根据权利要求8所述的信息处理系统,其中,所述控制引导是旨在改变所述用户周围的噪声状况、所述用户的生物信息、所述用户的表情以及所述用户的运动信息中的至少任何一个的图像或声音。
10.根据权利要求1所述的信息处理系统,其中,当推测出所述用户的状态与所述消息的内容不匹配时,所述控制单元呈现用于使所述用户的状态与所述消息的内容匹配的控制引导。
11.根据权利要求1所述的信息处理系统,其中,所述控制单元:
基于与所述用户相关的感测数据来检测所述用户对由所述呈现单元呈现的所述消息的反应,以及
通过学习所述检测的结果与所述用户的状况之间的关系来更新所述用户的容易接受消息的状况。
12.根据权利要求1所述的信息处理系统,其中,所述控制单元控制所述呈现单元向所述用户呈现从外部代理系统提供的消息。
13.一种信息处理方法,其中,处理器执行包括以下的处理:
基于用户的生物信息和所述用户的面部表情中的至少一个来确定所述用户是否处于容易接受消息的状况;
当确定所述用户处于容易接受消息的状况时,通过比较(1)通过所述用户的身体状态的感测数据确定的所述用户的身体状态与(2)所述消息的内容指示的期望的所述用户的身体状态,来确定是否向所述用户呈现所述消息;并且
仅当确定向所述用户呈现所述消息时,才使投影仪投影所述消息。
14.一种记录介质,其中记录有程序,所述程序用于使计算机用作:
控制单元,
基于用户的生物信息和所述用户的面部表情中的至少一个来确定所述用户是否处于容易接受消息的状况;
当确定所述用户处于容易接受消息的状况时,通过比较(1)通过所述用户的身体状态的感测数据确定的所述用户的身体状态与(2)所述消息的内容指示的期望的所述用户的身体状态,来确定是否向所述用户呈现所述消息;并且
仅当确定向所述用户呈现所述消息时,才使投影仪投影所述消息。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018090706A JP2021128350A (ja) | 2018-05-09 | 2018-05-09 | 情報処理システム、情報処理方法、および記録媒体 |
JP2018-090706 | 2018-05-09 | ||
PCT/JP2019/005729 WO2019215983A1 (ja) | 2018-05-09 | 2019-02-18 | 情報処理システム、情報処理方法、および記録媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112074804A CN112074804A (zh) | 2020-12-11 |
CN112074804B true CN112074804B (zh) | 2024-11-08 |
Family
ID=68468300
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201980029807.9A Active CN112074804B (zh) | 2018-05-09 | 2019-02-18 | 信息处理系统、信息处理方法和记录介质 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11544968B2 (zh) |
JP (1) | JP2021128350A (zh) |
CN (1) | CN112074804B (zh) |
WO (1) | WO2019215983A1 (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020090322A1 (ja) * | 2018-11-01 | 2020-05-07 | ソニー株式会社 | 情報処理装置、その制御方法及びプログラム |
US11137875B2 (en) * | 2019-02-22 | 2021-10-05 | Microsoft Technology Licensing, Llc | Mixed reality intelligent tether for dynamic attention direction |
GB2613619B (en) * | 2021-12-09 | 2024-07-31 | Arafat Khalil | Projector |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1787535A (zh) * | 2004-12-08 | 2006-06-14 | 株式会社Ntt都科摩 | 信息通知系统、信息通知方法 |
CN107211104A (zh) * | 2015-02-03 | 2017-09-26 | 索尼公司 | 信息处理装置、信息处理方法和程序 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4481682B2 (ja) * | 2004-02-25 | 2010-06-16 | キヤノン株式会社 | 情報処理装置及びその制御方法 |
JP2005352645A (ja) | 2004-06-09 | 2005-12-22 | Nissan Motor Co Ltd | 情報提供装置および情報提供方法 |
US20060133586A1 (en) * | 2004-12-08 | 2006-06-22 | Ntt Docomo, Inc. | Information notification system and information notification method |
JP6051648B2 (ja) | 2012-07-23 | 2016-12-27 | セイコーエプソン株式会社 | プロジェクター、およびその制御方法 |
WO2014045683A1 (ja) | 2012-09-21 | 2014-03-27 | ソニー株式会社 | 制御装置および記憶媒体 |
US9232247B2 (en) * | 2012-09-26 | 2016-01-05 | Sony Corporation | System and method for correlating audio and/or images presented to a user with facial characteristics and expressions of the user |
JP5942840B2 (ja) | 2012-12-21 | 2016-06-29 | ソニー株式会社 | 表示制御システム及び記録媒体 |
WO2016157658A1 (ja) * | 2015-03-31 | 2016-10-06 | ソニー株式会社 | 情報処理装置、制御方法、およびプログラム |
WO2017018015A1 (ja) * | 2015-07-28 | 2017-02-02 | ソニー株式会社 | 通信装置、情報処理システム、記録媒体、および情報処理方法 |
JP6570425B2 (ja) | 2015-11-06 | 2019-09-04 | アルパイン株式会社 | 車両用投射装置および車両用投射システム |
CN107087152B (zh) * | 2017-05-09 | 2018-08-14 | 成都陌云科技有限公司 | 三维成像信息通信系统 |
-
2018
- 2018-05-09 JP JP2018090706A patent/JP2021128350A/ja active Pending
-
2019
- 2019-02-18 CN CN201980029807.9A patent/CN112074804B/zh active Active
- 2019-02-18 US US17/044,066 patent/US11544968B2/en active Active
- 2019-02-18 WO PCT/JP2019/005729 patent/WO2019215983A1/ja active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1787535A (zh) * | 2004-12-08 | 2006-06-14 | 株式会社Ntt都科摩 | 信息通知系统、信息通知方法 |
CN107211104A (zh) * | 2015-02-03 | 2017-09-26 | 索尼公司 | 信息处理装置、信息处理方法和程序 |
Also Published As
Publication number | Publication date |
---|---|
CN112074804A (zh) | 2020-12-11 |
WO2019215983A1 (ja) | 2019-11-14 |
US11544968B2 (en) | 2023-01-03 |
US20210049352A1 (en) | 2021-02-18 |
JP2021128350A (ja) | 2021-09-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110874129B (zh) | 显示系统 | |
CN113986016B (zh) | 智能助理 | |
JP6760267B2 (ja) | 情報処理装置、制御方法、およびプログラム | |
AU2014236686B2 (en) | Apparatus and methods for providing a persistent companion device | |
US10224060B2 (en) | Interactive home-appliance system, server device, interactive home appliance, method for allowing home-appliance system to interact, and nonvolatile computer-readable data recording medium encoded with program for allowing computer to implement the method | |
TW494308B (en) | Control method | |
WO2019003616A1 (ja) | 情報処理装置、情報処理方法及び記録媒体 | |
US11308787B2 (en) | Information processing system, recording medium, and information processing method | |
CN112074804B (zh) | 信息处理系统、信息处理方法和记录介质 | |
CN110996796A (zh) | 信息处理设备、方法和程序 | |
US20200004321A1 (en) | Information processing device, information processing method, and program | |
CN109040462A (zh) | 行程提醒方法、装置、存储介质及穿戴式设备 | |
US11707694B2 (en) | Message delivery apparatus and methods | |
CN110693654B (zh) | 智能轮椅调节的方法、智能轮椅调节的装置及电子设备 | |
JP2018186326A (ja) | ロボット装置及びプログラム | |
US11270682B2 (en) | Information processing device and information processing method for presentation of word-of-mouth information | |
US20240169319A1 (en) | Information processing system, activity sensor, and non-transitory recording medium | |
Mansouri Benssassi et al. | Wearable assistive technologies for autism: opportunities and challenges | |
WO2024214708A1 (ja) | 行動制御システム | |
US20240319789A1 (en) | User interactions and eye tracking with text embedded elements | |
JP2024159685A (ja) | 電子機器 | |
JP2024159674A (ja) | 行動制御システム | |
JP2024128408A (ja) | 情報処理装置及び介護ロボットの制御方法 | |
JP2024159687A (ja) | エージェントシステム | |
CN112424772A (zh) | 信息处理系统、信息处理方法和记录介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant |