Nothing Special   »   [go: up one dir, main page]

CN109948780A - 基于人工智能的辅助决策方法、装置及设备 - Google Patents

基于人工智能的辅助决策方法、装置及设备 Download PDF

Info

Publication number
CN109948780A
CN109948780A CN201910192813.8A CN201910192813A CN109948780A CN 109948780 A CN109948780 A CN 109948780A CN 201910192813 A CN201910192813 A CN 201910192813A CN 109948780 A CN109948780 A CN 109948780A
Authority
CN
China
Prior art keywords
user
strategy
model
information
event
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910192813.8A
Other languages
English (en)
Inventor
梁舰
史晓波
王波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangsu Jicui Institute of Organic Optoelectronics Co Ltd
Original Assignee
Jiangsu Jicui Institute of Organic Optoelectronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiangsu Jicui Institute of Organic Optoelectronics Co Ltd filed Critical Jiangsu Jicui Institute of Organic Optoelectronics Co Ltd
Priority to CN201910192813.8A priority Critical patent/CN109948780A/zh
Publication of CN109948780A publication Critical patent/CN109948780A/zh
Pending legal-status Critical Current

Links

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明实施例提供一种基于人工智能的辅助决策方法、装置及设备,所述方法包括:获取第一信息采集装置组的第一类数据;利用人工智能识别系统对所述第一类数据分别进行第一层识别,识别出所述第一类数据中包含的关键要素;将多种所述关键要素作为可选元素进行排列组合,形成一组或多组待识别组合,利用人工智能系统对一组或多组所述待识别组合进行第二层识别,以得到用户的行为模型或正在经历的事件模型;根据所述行为模型或所述事件模型调用策略。

Description

基于人工智能的辅助决策方法、装置及设备
技术领域
本发明涉及计算机技术领域,具体而言,涉及一种基于人工智能的辅助决策方法、装置及设备。
背景技术
随着人工智能的发展,各个领域都使用到了相关的技术。在一些所处环境的适应性更新还没有得到很好的应用,因此,伴随着的生活的追求越来越高,这方面也需要进一步地改进。
发明内容
有鉴于此,本发明实施例的目的在于提供一种基于人工智能的辅助决策方法、装置及设备。
本发明实施例提供的一种基于人工智能的辅助决策方法,包括:
获取第一信息采集装置组的第一类数据,所述第一类数据为所述第一信息采集装置组采集以用户为第一人称视角时可接受到的同步信息,所述同步信息包括:音频信息、图像或影像信息,环境信息中的至少一项;
利用人工智能识别系统对所述第一类数据分别进行第一层识别,识别出所述第一类数据中包含的关键要素,所述关键要素包括:语音关键词,人物身份及关系,物品及属性,物体及运动状态,空间关系,时序关系,天气状况,温度,湿度,空气流动速度,环境亮度,色度,光线角度,光谱,声音分贝,声音波形;
将多种所述关键要素作为可选元素进行排列组合,形成一组或多组待识别组合,利用人工智能系统对一组或多组所述待识别组合进行第二层识别,以得到用户的行为模型或正在经历的事件模型;
根据所述行为模型或所述事件模型调用策略。
可选地,在所述根据所述行为模型或所述事件模型调用策略的步骤之前,所述方法还包括:
根据所述行为模型或所述事件模型调用策略步骤之前,所述方法还包括:
获得用户的身份识别号及基本信息;
获得第二信息采集装置组的第二类数据,所述第二类数据包括所述用户产生的用户表现信息或/及语音数据,所述用户表现信息包括行为动作信息集合、体征信息集合、脑电信息中的至少一种;
基于所述身份识别号及所述基本信息,对所述第二类数据进行识别,以得到所述用户行为表现对应的用户状态;
根据所述用户的用户状态为识别到的当前事件设置评分,所述评分用于评价当前的事件对所述用户的影响效果;
当所述当前事件的评分变化满足策略触发条件时,则根据所述当前事件的触发条件生成或修正策略组合。
可选地,所述方法还包括:
根据所述第二信息采集装置组的第二类数据对反馈信息为当前识别到的事件或事件模型设置权重,所述权重用于标识当前事件模型对不同用户的影响程度或差异;
根据每个事件模型的权重将已存储的所有事件模型按照权重进行排序,形成策略序列。
可选地,所述方法还包括:
获取指定时间段内用户经历的具有相关事件模型的历史数据,所述历史数据包括历史经历的事件模型的次数、持续时间、间隔时间,情绪响应或情绪波动的强度,最近一次相关事件模型发生时间与当前时间的时间差;
根据每件事件模型经历的历史次数为每件事件模型赋值第一历史权重;
根据每件事件模型距离当下的时间间隔为每件事件模型模型赋值第二历史权重;
根据每件事件模型的所述第一历史权重及所述第二历史权重进行加权计算,以得到每件事件模型的权重;
根据每件事件模型的权重对每件事件模型进行排序,其中,每件事件模型作为待推荐的策略,排序后的事件模型序列形成策略序列。
可选地,所述方法还包括:
获得以用户为视角所接收到的第三类数据,所述第三类数据包括音频数据、图像数据、环境数据中的任意组合;
将所述第三类数据输入所述人工智能识别系统的第一识别模型进行识别,得到用户当前经历的当前事件模型;
所述根据所述行为模型或所述事件模型调用策略的步骤,包括:
根据所述当前事件模型生成策略清单,所述策略清单包含至少一个可执行的策略,所述可执行的策略为待选策略中的策略;执行从所述策略清单中的至少一项的策略。
可选地,所述根据所述行为模型或所述事件模型调用策略的步骤之前,还包括:
获得用户产生的第四类数据,所述第四类数据包括行为动作信息、体征信息和/或脑电信息;
将所述第四类数据输入所述人工智能识别系统的第二识别模型进行识别,得到该用户的用户的用户状态;
所述根据所述行为模型或所述事件模型调用策略的步骤,包括:
根据所述用户的用户状态及所述事件模型生成策略清单,所述策略清单包含至少一个可执行的策略,所述可执行的策略为待选策略清单中的策略;并执行从所述策略清单中的至少一项的策略。
可选地,应用于基于人工智能的辅助决策系统,所述方法还包括:
接收用户授权指示,所述授权指示用于开启所述基于人工智能的辅助决策执行策略的权限;
所述执行所述可执行的策略中的指定的策略的步骤包括:根据用户历史使用习惯在所述策略清单中获取使用户的用户状态反馈评分排序最佳时,对应的事件模型对应的策略,并执行该策略。
可选地,所述执行从所述策略清单中的至少一项的策略的步骤,包括:
接收在所述策略清单中的选择操作;
执行所述选择操作所选择对应的策略。
可选地,所述根据所述用户的用户状态及所述事件模型生成策略清单的步骤,包括:
将所述当前事件模型与历史存储的事件模型进行匹配,识别出所述当前事件模型对应的用户的当前用户状态;
根据所述当前用户状态生成补充用户情绪的策略清单。
可选地,所述执行从所述策略清单中的至少一项的策略的步骤,包括:
根据上述的至少一项的策略中的内容生成控制指令,根据所述控制指令控制目标设备执行上述的至少一项的策略。
可选地,所述根据上述的至少一项的策略中的内容生成控制指令,控制目标设备执行上述的至少一项的策略的步骤,包括:
根据当前环境中的环境参数与上述的至少一项的策略计算的环境参数差距,所述环境参数差距为所述视觉参数与所述可执行的策略各个角度的光线差距、各个方位的音频差距;
生成用于补偿所述环境参数差距的控制指令,并根据所述控制指令执行上述的至少一项的策略。
可选地,上述的至少一项的策略仅包括目标声光环境时;上述的根据上述的至少一项的策略中的内容生成控制指令,控制目标设备执行上述的至少一项的策略的步骤,包括:
计算所述目标声光环境与采集到的当前环境中的声光环境的环境参数差距,所述环境参数差距为所述当前声光环境与所述目标声光环境各个角度的光线差距、各个方位的音频差距;
生成用于补偿所述环境参数差距的控制指令;
根据所述指令控制不同位置的照明系统以及音频设备的启动或控制不同位置的照明系统以及音频的展示数据的大小。
可选地,所述利用人工智能识别系统对所述第一类数据分别进行第一层识别,识别出所述第一类数据中包含的关键要素的步骤,包括:
将所述第一类数据进行拆分成多元子数据;
将每个子数据输入对应的识别模型进行识别,得到所述第一类数据中包含的一种或多种影响元素。
本发明实施例还提供一种基于人工智能的辅助决策装置,包括:
第一获得模块,用于获取第一信息采集装置组的第一类数据,所述第一类数据为所述第一信息采集装置组采集以用户为第一人称视角时可接受到的同步信息,所述同步信息包括:音频信息、图像或影像信息,环境信息中的至少一项;
第一识别模块,用于利用人工智能识别系统对所述第一类数据分别进行第一层识别,识别出所述第一类数据中包含的关键要素,所述关键要素包括:语音关键词,人物身份及关系,物品及属性,物体及运动状态,空间关系,时序关系,天气状况,温度,湿度,空气流动速度,环境亮度,色度,光线角度,光谱,声音分贝,声音波形;
组合模块,用于将多种所述关键要素作为可选元素进行排列组合,形成一组或多组待识别组合;
第二识别模块,用于利用人工智能系统对一组或多组所述待识别组合进行第二层识别,以得到用户的行为模型或正在经历的事件模型;
调用模块,用于根据所述行为模型或所述事件模型调用策略。
可选地,还包括:
第二获得模块,用于获得用户的身份识别号及基本信息;
第二获得模块,用于获得第二信息采集装置组的第二类数据,所述第二类数据包括所述用户产生的用户表现信息或/及语音数据,所述用户表现信息包括行为动作信息集合、体征信息集合、脑电信息中的至少一种;
第三识别模块,用于基于所述身份识别号及所述基本信息,对所述第二类数据进行识别,以得到所述用户行为表现对应的用户状态;
第一设置模块,用于根据所述用户的用户状态为识别到的当前事件设置评分,所述评分用于评价当前的事件对所述用户的影响效果;
修正模块,用于当所述当前事件的评分变化满足策略触发条件时,则根据所述当前事件的触发条件生成或修正策略组合;
所述调用模块,还用于:调用所述修正模块得到的修正策略组合。
可选地,还包括:排序模块,用于:根据所述第二信息采集装置组的第二类数据对反馈信息为当前识别到的事件模型设置权重,所述权重用于标识当前事件模型对不同用户的影响程度;
根据每个事件模型的权重将已存储的所有事件模型按照权重进行排序,形成策略序列。
可选地,所述排序模块,还用于:
获取指定时间段内用户经历的具有相关事件模型的历史数据,所述历史数据包括历史经历的事件模型的次数、持续时间、间隔时间,情绪响应或情绪波动的强度,最近一次相关事件模型发生时间与当前时间的时间差;
根据每件事件模型经历的历史次数为每件事件模型赋值第一历史权重;
根据每件事件模型距离当下的时间间隔为每件事件模型模型赋值第二历史权重;
根据每件事件模型的所述第一历史权重及所述第二历史权重进行加权计算,以得到每件事件模型的权重;
根据每件事件模型的权重对每件事件模型进行排序,其中,每件事件模型作为待推荐的策略,排序后的事件模型序列形成策略序列。
本发明实施例还提供一种基于人工智能的辅助决策设备,包括:
所述辅助决策设备包括存储器以及处理器,所述存储器用于存储支持处理器执行上述方法的程序,所述处理器被配置为用于执行所述存储器中存储的程序。
本发明实施例还提供一种基于人工智能的辅助决策系统,包括:相互通信连接的交互终端和服务器;
所述交互终端用于获取第一信息采集装置组的第一类数据,所述第一类数据为所述第一信息采集装置组采集以用户为第一人称视角时可接受到的同步信息,所述同步信息包括:音频信息、图像或影像信息,环境信息中的至少一项;
所述服务器用于利用人工智能识别系统对所述第一类数据分别进行第一层识别,识别出所述第一类数据中包含的关键要素,所述关键要素包括:语音关键词,人物身份及关系,物品及属性,物体及运动状态,空间关系,时序关系,天气状况,温度,湿度,空气流动速度,环境亮度,色度,光线角度,光谱,声音分贝,声音波形;并将多种所述关键要素作为可选元素进行排列组合,形成一组或多组待识别组合;利用人工智能系统对一组或多组所述待识别组合进行第二层识别,以得到用户的行为模型或正在经历的事件模型;根据所述行为模型或所述事件模型调用策略,并发送给所述交互终端,以使所述交互终端执行所述策略组合对应的操作。
可选地,所述交互终端还用于获得第二信息采集装置组的第二类数据,所述第二类数据包括所述用户产生的用户表现信息或/及语音数据,所述用户表现信息包括行为动作信息集合、体征信息集合、脑电信息中的至少一种;
所述服务器还用于对所述第二类数据进行识别,以得到所述用户行为表现对应的用户状态;根据所述用户的用户状态为识别到的当前事件设置评分,所述评分用于评价当前的事件对所述用户的影响效果;当所述当前事件的评分变化满足策略触发条件时,则根据所述当前事件的触发条件生成或修正策略组合。
与现有技术相比,本发明实施例的基于人工智能的辅助决策方法、装置及设备,通过对用户所在环境的识别,可以为用户适应性的推荐一些可以使用的策略,从而使用户当前所处的环境可以更好地适应用户当前的需要,提高用户体验。
为使本发明的上述目的、特征和优点能更明显易懂,下文特举实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本发明实施例提供的服务器与本地终端进行交互的示意图。
图2为本发明实施例提供的交互终端的方框示意图。
图3为本发明实施例提供的基于人工智能的辅助决策方法的流程图。
图4为本发明实施例提供的另一基于人工智能的辅助决策方法的流程图。
图5为本发明实施例提供的基于人工智能的辅助决策装置的功能模块示意图。
具体实施方式
下面将结合本发明实施例中附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。同时,在本发明的描述中,术语“第一”、“第二”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
然而有点时候,人们表面波澜不惊,内心却是波涛汹涌;有点时候心中万马奔腾,脸上却要保持微笑;其实很多词汇中如喜极而泣,笑里藏针,喜怒不形于色等都反映出了面部表情有时并不能真实的反映心理情绪或用户状态变化情况,因此面部表情识别情绪变化的方式准确性不高。此外,不同人因性别、性格、年龄、身体状态、激素水平、心理敏感性不同,情绪波动的感受也差异很大,传统的情绪识别剔除个体差异的处理方式,也无法达到。
现有的控制方法是用户通过语言指令或者操作指令的输入,实现设备的控制调节,无法基于用户的潜意识需求或情绪变化需求,准确、快速的进行个性化的调整。例如,办公室或书房的亮度变化目前可以进行手动开关或语言控制,但是这表明用户的显意识已经发现房间太黑并且已经影响了其工作状态,因此需要其先跳出所处的工作状态去调整工作环境,这样其工作思路实际上就被打断了;另一种情况,像路灯可以根据环境的亮度而控制路灯的亮度,但是这种机械的亮度控制方式不能灵活的适应不同用户的在不同工作情境下对于亮度的不同偏好,无法实现主动的适应用户的环境调控需求,需要被动的接受指令控制,也无法通过学习用户的性格特点和生活习惯优化控制方案或执行策略。再如,我们感觉天气冷了会去开空调,但是我们穿的衣服厚薄不同,对冷热的敏感度不同,有时候从外面运动回来比较热,穿的比较单薄,之后沉迷工作无法自拔,显意识上没有注意到温度变化,容易造成受凉,或者冷到已经影响注意力,从所处的工作状态跳出来去调整室内温度,这样工作思路就被打断了。
基于上述问题的发现,本申请提供以下几个实施例,提供可以有效地解决上述技术问题的方法,利用用户的身体和心理状态对外部要素组合的变化所产生的实时反馈数据作为评价参考,对辅助决策系统的人工智能模块进行训练,让辅助决策系统“主动”进行学习并发现用户对环境的调控习惯和实时的需求。
其中,能够实现本申请实施例的方法的运用环境可以是一套基于人工智能的辅助决策系统,也可以是由单一基于人工智能的辅助决策设备执行。首先,下面分别就两种可能的实现方式进行介绍。
实施例一
如图1所示,是本发明实施例提供的基于人工智能的辅助决策系统进行交互的示意图。本实施例中,本实施例中的基于人工智能的辅助决策系统包括:服务器100和交互终端200。上述的服务器100可以通过网络或蓝牙与一个或多个交互终端200进行通信连接,以进行数据通信或交互。上述的交互终端可以是网络服务器、数据库服务器等。所述交互终端200可以是虚拟现实设备(Virtual Reality,英文简称:VR)、增强现实设备(AugmentedReality,英文简称:AR)、混合现实设备(Mixed Reality,英文简称:MR)、个人电脑(personal computer,英文简称:PC)、平板电脑、智能手机、个人数字助理(personaldigital assistant,英文简称:PDA)等。
如图2所示,是上述的交互终端200的方框示意图。上述的交互终端200存储器211、存储控制器212、处理器213、外设接口214、输入输出单元215、音频单元216、显示单元217以及采集单元218。本领域普通技术人员可以理解,图2所示的结构仅为示意,其并不对交互终端200的结构造成限定。例如,交互终端200还可包括比图1中所示更多或者更少的组件,或者具有与图1所示不同的配置。上述的交互终端200可以是用户使用的个人电脑,也可以是提供给用户可以操作的包括显示屏的操作设备。
上述的存储器211、存储控制器212、处理器213、外设接口214、输入输出单元215、音频单元216、显示单元217以及采集单元218各元件相互之间直接或间接地电性连接,以实现数据的传输或交互。例如,这些元件相互之间可通过一条或多条通讯总线或信号线实现电性连接。
其中,存储器211可以是,但不限于,随机存取存储器(Random Access Memory,RAM),只读存储器(Read Only Memory,ROM),可编程只读存储器(Programmable Read-OnlyMemory,PROM),可擦除只读存储器(Erasable Programmable Read-Only Memory,EPROM),电可擦除只读存储器(Electric Erasable Programmable Read-Only Memory,EEPROM)等。其中,存储器211用于存储程序,处理器213在接收到执行指令后,执行所述程序,本发明实施例任一实施例揭示的过程定义的交互终端200所执行的方法可以应用于处理器213中,或者由处理器213实现。
上述的处理器213是一种集成电路芯片,具有信号的处理能力。上述的处理器213包括中央处理器(Central Processing Unit,简称CPU)、图形处理器(GraphicsProcessing Unit,简称GPU)或神经网络处理器(Neural-network Process Unit,简称NPU)或张量处理单元(Tensor Processing Unit,简称TPU)的至少一种,或其组合。可以实现或者执行本发明实施例中的公开的各方法、步骤及逻辑框图。所述通用处理器还包括分布式设置的多个微处理器,可以处理常规的数据处理任务。
上述的外设接口214将各种输入/输入装置耦合至处理器213以及存储器211。在一些实施例中,外设接口214,处理器213以及存储控制器212可以在单个芯片中实现。在其他一些实例中,他们可以分别由独立的芯片实现。
上述的输入输出单元215用于提供给用户输入数据或向系统提供反馈。所述输入输出单元215可以是脑-机交互装置、眼球轨迹追踪装置、手势识别输入装置、语音输入装置、触控输入装置、鼠标或键盘等。
上述的音频单元216向用户提供音频接口,其可包括一个或多个麦克风、一个或者多个扬声器以及音频电路。
上述的显示单元217在交互终端200与用户之间提供一个交互界面(例如用户操作界面)或用于显示图像数据给用户参考。在本实施例中,所述显示单元是XR(AR,VR,MR)设备的显示模块,在另一实施例中也可以是液晶显示器或触控显示器。
上述的采集单元218用于获取周边环境中的数据。其中,周边环境中的数据可以包括音频数据、视频数据、图像数据等。因此,上述的采集单元218可以被实施为图像采集设备及音频采集设备等。
在本实施例中,交互终端200首先获得以用户为视角所接收到的第一类数据,所述第一类数据为所述第一信息采集装置组采集以用户为第一人称视角时可接受到的同步信息,所述同步信息包括:音频信息、图像或影像信息,环境信息及其任意组合,并进行数据化处理。
服务器100用于利用人工智能识别系统对所述第一类数据分别进行识别,识别出所述第一类数据中包含的关键要素,所述关键要素包括:语音关键词,人物身份及关系,物品及属性,物体及运动状态,空间关系,时序关系,天气阴晴,温度,湿度,空气流动速度,环境亮度,色度,光线角度,光谱,声音分贝,声音波形;将多种所述关键要素作为可选元素进行排列组合,形成一组或多组待识别组合;利用人工智能系统对一组或多组所述待识别组合进行第二层识别,匹配用户的行为模型或正在经历的事件模型;根据所述行为模型或所述事件模型调用策略,并发送给所述交互终端,以使所述交互终端执行所述策略组合对应的操作。
交互终端200还可以用于获得第二信息采集装置组的第二类数据,所述第二类数据包括所述用户产生的用户表现信息,所述用户表现信息包括行为动作信息、体征信息、脑电信息的任意组合。
上述的服务器100还用于对所述用户表现信息进行识别,并与所述基本信息年龄、性别和性格模型匹配,得到所述用户行为表现对应的用户状态;将根据所述用户的用户状态为当前识别到的事件设置标签,所述标签用于评价当前的事件或事件模型对所述用户的影响,所述标签包括:积极性事件、消极性事件和中性事件;根据每个事件的标签为每个事件赋值情绪权重,根据所述事件模型和事件评分修正策略组合的调用。
进一步地,上述的基于人工智能的辅助决策系统还能够执行更多的步骤,具体地可以参考下面通过方法实施例三中介绍的详细内容。
实施例二
本实施例中提供一种基于人工智能的辅助决策设备。本实施例中的基于人工智能的辅助决策设备可以包括:存储器以及处理器。其中,存储器用于存储支持处理器执行下面实施例三将介绍的方法的程序,处理器被配置为用于执行所述存储器中存储的程序。
关于本实施例中的基于人工智能的辅助决策设备的各个设备的结构的实现,在此不再赘述,具体的可以参考实施例中交互终端中的各个处理器、存储器的相关介绍。
实施例三
请参阅图3,是本发明实施例提供的应用于实施例一种的基于人工智能的辅助决策系统,或的实施例二中的基于人工智能的辅助决策设备中的基于人工智能的辅助决策设备方法的流程图。下面将对图3所示的具体流程进行详细阐述。
步骤S301,获取第一信息采集装置组的第一类数据。
上述的第一类数据包括所述第一信息采集装置组采集以用户为第一人称视角时可接受到的同步信息,所述同步信息包括:音频信息、图像或影像信息,环境信息中的至少一项。进一步地,还可以将上述的第一类数据进行数据化处理,使上述的第一类数据形成识别模型可用的向量、矩阵等形式的数据。
上述的音频信息可以表征用户的听觉可接受到的信息转换的音频信息。
上述的图像或影像信息可以表征用户的视觉可接受到的信息采集转换的图像或影像信息。
本实施例中,以目标用户为例进行描述,目标用户表示当前登入基于人工智能的辅助决策系统的用户账号对应的用户。进一步地,每个账号内还可以存储有与该账号对应的用户相关的信息。其中,相关的信息可以包括,但不限于,与目标用户相关的人物关系(与目标用户为母女、父子、夫妻等)、及人物图像(对应人物的照片)、用户历史习惯数据等。进一步地,历史习惯数据可以是在为用户推荐相关策略之前采集到的数据。
步骤S302,利用人工智能识别系统对所述第一类数据分别进行第一层识别,识别出所述第一类数据中包含的关键要素。
上述的步骤S302,可以包括:将所述第一类数据进行拆分成多元子数据;将每个子数据输入对应的识别模型进行识别,得到所述第一类数据中包含的一种或多种影响元素。
上述的人工智能识别系统可以包括多个识别模型,每个识别模型用于对一类数据进行识别。每个识别模型可以是一神经网络模型。
进一步地,每个识别模型可以使用目标类型的数据训练得到。例如,用于识别人物身份及关系的识别模型可以包括人脸识别部分,以及人脸数据匹配部分。分别使用人脸识别部分对待识别数据中的人脸进行识别,然后使用人脸数据匹配部分将识别到的人脸在数据库中进行查找,从而找到识别到的人脸的人物身份及关系。其中,人脸识别部分可以使用人脸图像数据作为训练数据对一待训练模型进行训练得到。
上述的关键要素可以包括:语音关键词,人物身份及关系,物品及属性,物体及运动状态,空间关系,时序关系,天气状况,温度,湿度,空气流动速度,环境亮度,色度,光线角度,光谱,声音分贝,声音波形。
上述的语音关键词可以是由用户产生的声音,也可以是由用户周边的其它物发出的声音。
在一个实施方式中,用户发出的声音可以是“哈哈哈”的笑声,也可以是“哎”的叹气声。进一步地,还可以根据用户的声音识别出用户是积极的状态还是消极的状态。进一步地,用户发出的还可以是歌曲,可以通过歌曲识别模型对歌曲进行识别,通过歌曲的类型可以识别出用户当前的心情,例如,如果是欢快的歌曲类型,则可以表示用户当前心态积极;再例如,用户在唱悲伤的歌曲,则可以表示用户当前心态消极。
在另一个实施方式中,周边的其它物发出的声音可以是周边动物发出的叫声、也可以是周边设备(例如,音乐播放器、电脑)等设备产生的音乐、视频等声音。
上述的物品可以包括:人物、动物、生活物品、阳光。属性可以包括人物的属性可以是人物身份(是否为目标用户),例如,目标用户当前登入上述的基于人工智能的辅助决策系统的用户账号对应的用户;动物属性可以是动物类型(如:狗、猫)等;阳光属性可以包括阳光明媚、阴天等。
物体可以包括人物、动物等。上述的运动状态可以包括闲坐、跑步、学习中等。
新闻信息或社会事件信息,识别人物及事件结果,对用户状态的影响。
上述的空间关系可以包括检测到的对象所处位置;或是检测到的光与检测到的人物的位置关系;或是空间状态。空间关系可以包括当前检测的空间中的人物的位置,空间中用户与不同物体的距离,空间中用户与不同人物关系及距离;周边的光线的发射位置(光源所在位置)与用户的位置的相对关系;空间状态可以是空间的宽敞、干净、明亮,或狭窄、拥挤、阴暗,并对空间状态进行评分。
上述的时序关系可以包括上述的第一类数据中包括有多个事件、每件事件之间发生的时间先后顺序。在一个实例中,在一段时间中采集得到上述的第一类数据,可以包括第一阶段的音乐播放、第二阶段的坐着学习、第三阶段的音乐播放。则可以通过采集时间标记第一阶段、第二阶段、及第三阶段的时间。通过人工智能的算法,根据不同的事件发生的顺序,对用户的行为习惯及相应的情绪表现进行学习;以及学习不同事件的效用衰减曲线,从而调整推荐策略的排序方式,以解决用户在同样的当下情景下,因为当天经历的事件及事件时效的不同,导致推荐相同的策略产生的效果不同,例如,用户喜欢某一首歌,每次情绪不好的时候都会推荐这首歌舒缓情绪,但是如果当天这位歌手出现一些意外的新闻让用户的心情出现巨大的波动,此时推荐该歌曲有可能会导致用户的情绪向不好的方向发展,此时需要通过算法推荐策略选项。
上述的天气阴晴可以通过室外温度,采集到的图像的颜色等特征标识。
上述的空气流动速度可以包括通过传感器检测得到。
上述的温度,湿度,环境亮度,色度,光线角度,光谱,声音分贝,声音波形可以通过采集设备,例如,声音传感器采集声音分贝,声音波形等数据。
上述的人物身份及关系,可以通过人脸识别模型识别出人像,再根据预先存储的人物关系进行匹配可以查找出人物的身份及与目标用户的关系。
上述的人工智能识别系统可以包括多个神经网络识别模型,每个神经网络模型用于识别一种关键要素。具体地上述的人工智能识别系统至少可以包括音乐识别模型、物体及运动状态识别模型、空间关系识别模型、时序关系识别模型、天气阴晴识别模型、空气流动速度识别模型、光线角度识别模型。其中,可以直接通过传感器、温度计、湿度计等检测设备可以直接测试得到的,则可以通过检测设备直接检测得到。
具体地,可以根据第一类数据的具体类型选择合适的神经网络模型进行识别。例如,上述第一类数据中包括图像数据。通过对图像识别模型对图像中的对象进行识别,可以识别出图像中的人像、动物等。
步骤S303,将多种所述关键要素作为可选元素进行排列组合,形成一组或多组待识别组合。
步骤S304,利用人工智能系统对一组或多组所述待识别组合进行第二层识别,以得到用户的行为模型或正在经历的事件模型。
可以根据采集到的第一类数据进行识别得到的多个关键要素进行组合。
在一个实例中,根据目标用户对应的第一类数据对应的关键要素可以包括:天气阴晴,温度,湿度,空气流动速度,环境亮度,色度,光线角度,光谱,户外环境图像等。在此实例中,上述的天气阴晴,温度,湿度,空气流动速度,环境亮度,色度,光线角度,光谱,户外环境图像各个关键要素的组合可以形成一个户外光照环境。在一个户外玩耍中带来了愉快的心情,可以通过采集设备记录这个户外环境数据形成一个周围环境组合。
在另一个实例中,根据目标用户对应的第一类数据对应的关键要素可以包括:环境亮度,色度,光线角度,光谱等。在此实例中,上述的环境亮度,色度,光线角度,光谱各个关键要素的组合可以形成一个灯光环境。在此实例中,可以用于根据记录的摄影棚拍摄环境中。
在另一个实例中,根据目标用户对应的第一类数据对应的关键要素可以包括:环境亮度,色度,光线角度,光谱、目标用户等。在此实例中,上述的环境亮度,色度,光线角度,光谱、目标用户各个关键要素的组合可以形成一个目标用户所处的灯光环境。在此实例中,可以用于根据记录的摄影棚拍摄环境中。
在另一个实例中,可以根据对图像的识别,若识别到一摄影棚、摄像机、站在摄影棚内的人物,则可以识别出用户在经历照片拍摄事件。
上述的事件模型可以是用户正在经历的一件或者多件事情,例如,用户正在听歌、看电影、晒日光浴。上述的事件模型还可以是用户当前所处的环境中的环境状态。例如,所处环境中有东北方向照射的阳光、三个方向输出的风或光等。上述的事件模型也可以包括用户正常经历的事情及用户当前所处的环境中的环境状态。
步骤S305,根据所述行为模型或所述事件模型调用策略。
上述的策略组合包括,但不限于:灯光组合、灯光与声音组合、灯光与音乐组合、音乐组合、影视剧节目组合等。
本实施例中,通过正在经历的事件可以得到目标用户当前的心情,或者正在经历的事情,从而可以为目标用户推荐能够匹配合适的策略组合。
在一个实例中,通过对第一类数据的识别可以获取目标用户的心情状态,如果是心情比较消极,则可以调用能够使目标用户能够缓解消极状态的策略组合。例如,收集的历史数据中,在听其中一类音乐的时候可以有比较积极的心情,并在当时生成一条可选的调用策略,则此时可以调用该策略执行播放该类音乐的动作。
在一个实例中,用户当前的正在一个摄影棚,则可以根据调出与目标用户匹配的摄影环境数据,如用户在摄影或自拍时对那些采光角度的照片比较满意,并分别形成了可选的调用策略,并根据当下环境的特点提供可执行的调用方案对摄影环境进行调整。其中,匹配的摄影环境数据包括光的亮度、光的方向、光的颜色等。
通过对用户正在经历的事件进行识别,从而可以得到用户当前可能的状态,进一步地,可以根据识别到的事件为用户推荐合适的策略组合,可以更好地满足用户的当前需求。
在图3的基础上,还可以对目标用户的当前用户状态进行检测识别,具体可以包括以下的步骤,具体如图4所示。
在步骤S305之前,在其它实施例中基于人工智能的辅助决策方法还可以包括。
步骤S401,获得身份识别号及基本信息。
上述的基本信息可以包括,但不限于:年龄、性别和性格模型等。
上述的身份识别号可以通过当前设备的登录信息中获取,也可以通过从后台服务器中获取目标用户的相关数据,也可以从本地设备中的存储器中获取。
步骤S402,获得第二信息采集装置组的第二类数据。
上述的第二类数据包括用户产生的用户表现信息,其中,用户表现信息包括行为动作信息、体征信息及脑电信息中的至少一种。例如,上述的第二类数据可以包括:行为动作信息和体征信息。
上述的第二类数据还可以包括采集到的用户的回答的语音数据。可选地,在执行步骤S402之前还可以包括:播放音频询问消息,该音频消息可以包括:咨询用户当前状态的问题。上述的回答的语音数据可以是用户基于上述的音频询问消息。
步骤S403,基于所述身份识别号及所述基本信息,对所述第二类数据进行识别,以得到所述用户行为表现对应的用户状态。
在一种实施方式中,通过图像识别表情模型对用户的脸上的表情可以得到用户的表情。
上述的图像识别表情模型通过用户的表情图像进行训练得到。进一步地,上述的图像识别表情模型的训练网络可以是任意的基础网络。训练数据可以是多个被标记的人脸图像集。各个图像的标记可以包括开心、微笑、哭泣、难过等。
在另一种实施方式,通过对用户的体征信息和/或脑电信息形成的集合的数据集合进行训练得到的体征识别模型。
本实施例中,可以通过对用户脸上的表情的识别,可以匹配出用户当前的表情。
上述的用户状态可以包括开心、难过、哭泣、激动、平静、愉悦等。
步骤S404,将根据所述用户的用户状态为当前识别到的事件设置评分。
上述的评分用于评价当前的事件对所述用户的影响效果。
根据评分的分值区间评价当前的事件或事件模型对所述用户的影响,根据分值区间范围可将事件分为积极性事件、消极性事件和中性事件。根据所述当前事件的评分变化,产生或修正策略组合。即为策略的生成方法,例如消极性事件、中性事件和积极性事件、对用的评分区间分别是0-60分,61-80分,81-100分(上述的评分区间节点仅为示例),则当第二事件在第一事件后发生时,导致用户的情绪或用户状态发生变化,进而导致评分从50分变成85分,则变化后的事件落在积极性事件区间范围内,则该第二事件的触发条件可以生成一个可被选择的策略,用于解决第一事件及类似事件模型构成的事件影响,在周围触发条件满足的情况下可被调用。而再如,第三事件在第一事件后发生时,导致用户的情绪或用户状态发生变化,进而导致评分从50分变成59分,则第三事件的影响效用有限,则不生成可被选择的策略。
在一个实例中,通过步骤S403可以得到用户的当前的用户状态,进一步地,通过对用户周边的环境的识别可以得到用户当前的事件。
用户当前经历的事件对应的用户的心情是开心等愉悦类的心情,则可以为用户当前经历的事件设置积极事件。
步骤S405,根据所述当前事件的评分变化,则根据所述当前事件的触发条件生成或修正策略组合。
在本实施例中,可以将上述的当前事件对应的策略组合进行存储,并在需要使用时,作为待选策略推荐给用户,以调节用户的状态。
还可以实时的生成策略组合,作为推荐策略展示在用户当前所处环境。通过将推荐策略进行展示,可以使用户处于适宜的环境中,从而使用户的状态能够达到较为积极的状态。
在上述的各个步骤的基础上,基于人工智能的辅助决策方法还可以包括以下步骤。
首先,根据第二信息采集装置组的第二类数据对反馈信息为当前识别到的事件模型设置权重。
具体地,根据第二类数据可以得到用户状态,则可以根据用户的所述用户状态,或/及采集到的用户反馈信息为当前识别到的事件或事件模型设置权重,所述权重用于标识当前事件模型对不同用户的影响程度或差异。
然后,再根据每个事件模型的权重将已存储的所有事件模型按照权重进行排序,形成策略序列。
本实施例中,通过上述的步骤S403可以得到用户经历的事件时所处的用户状态,通过用户状态可以为不同的事件设置权重。
具体地,用户的用户状态可以设置分值,分值越高,对应事件的权重也可以越高。
通过为每件事设置对应的权重可以将用户经历的事件设置权重,可以在为用户推荐策略组合的时候可以为用户推荐合适的策略组合,能够更好地满足用户的需求,提高用户的情绪满足感。
发明人在上述为事件设置权重的基础上,进一步地思考,还可以在已有的事件权重的基础上,还可以根据用户再次经历相同的时候的用户状态更新权重,具体可表现为以下内容。
首先,获取指定时间段内用户经历的具有相关事件模型的历史数据,所述历史数据包括历史经历的事件模型的次数、持续时间、间隔时间,情绪响应或情绪波动的强度,最近一次相似事件发生时间与当前时间的时间差。
然后,根据每件事件经历的历史次数为每件事件赋值第一历史权重;根据每件事件发生时间与当前时间的时间差为每件事件模型赋值第二历史权重。
最后,根据每件事件模型的所述第一历史权重及所述第二历史权重进行加权计算,以得到每件事件模型的权重。
再然后,可以根据每件事件模型的权重对每件事件模型进行排序。
其中,每件事件模型作为待推荐的策略,排序后的事件模型序列形成策略序列。
每个事件模型中可以包括一个或多个事件。待推荐的策略可以包括一个或者多个事件模型,也可以仅包括一个或者多个事件模型中的部分事件。例如,第一事件模型中包括第一事件、第二事件,第二事件模型包括第三事件及第四事件。则一个策略可以是第一事件模型、第一事件模型和第二事件模型的组合、第一事件、第三事件、第二事件及第四事件的组合等。可选地,可以将一个事件模型作为一个待选策略。
进一步地,通过上述的对各个事件模型的权重的计算,可以了解到一个事件模型对用户的影响,能够带来积极的影响的事件模型在可以作为待推荐的策略进行存储。
具体地,用户再次经历事件模型A时,表现出比第一次经历事件模型A更积极的用户状态,则可以为事件模型A设置更高的权重。
具体地,用户再次经历事件模型B时,表现出比第一次经历事件模型B消极的用户状态,则可以降低事件模型B的权重。
通过随着用户的表现的采集评估或用户对事件的态度适应性的调整行为的学习,可以使基于人工智能的辅助决策方法推荐的策略组合更能够满足用户的需求。
上述提供的方案为基于人工智能的辅助决策方法直接得到策略组合,发明人进一步地思考,在上述的基于人工智能的辅助决策方法直接调用策略组合的基础上,基于人工智能的辅助决策方法还可以为用户推荐多组策略,然后由用户选择,具体可以包括以下步骤。
首先,获得以用户为视角所接收到的第三类数据,所述第三类数据包括音频数据、图像数据、环境数据中的任意组合。
其次,将所述第三类数据输入上述的人工智能识别系统的第一识别模型进行识别,得到用户当前经历的当前事件模型。
最后,上述的步骤S305可以可以被实施为:根据所述当前事件模型生成策略清单,所述策略清单包含至少一个可执行的策略,并执行从所述策略清单中的至少一项的策略。
上述的第一识别模型可是一神经网络模型,该神经网络模型通过相关的数据进行训练得到可以对应数据进行识别的模型。例如,上述的第一识别模型用于对音乐进行识别,则可以使用音乐数据对待训练的神经网络模型进行训练,以得到可以识别音乐的第一识别模型。再例如,上述的第一识别模型可以用于对光照分布进行识别,从而可以使用采集的光照图像数据及光线传感器采集到的数据作为训练数据对一待训练的神经网络模型进行训练,从而可以得到用于识别光照分布的第一识别模型。
上述的第三类数据可以是与第一类数据相似的数据,关于根据第三类数据进行识别得到当前事件模型可以与步骤S302-S304实现方式相同,具体可以参考上述步骤的具体描述,在此不再赘述。
进一步地,可以根据用户当前经历的事件推荐多个策略组合,可以供用户选择。
在一个实例中,通过对第三类数据的识别,可以识别到用户正在经历摄影棚的拍摄,则可以为用户推荐多组灯光组合,并显示,或者点亮不同策略组合对应的灯光组合,用户可以根据显示的或者点亮的组合进行选择。
在另一个实例中,通过对第三类数据的识别,可以识别到用户当前的心态很低落,则可以为用户推荐一些能够使用户开心的策略组合,例如,呈现户外阳光组、播放音乐等。
进一步地,在一种可能的情况中,通过采集目标用户的周边环境可以得到用户正在经历的事件为一些消极事件,或者目标用户当前的状态为闲坐的状态,发明人进一步地研究可以根据用户当前的心情为用户推荐合适的策略可以提高用户的体验。基于上述研究,在一些实施例中,还可以包括以下步骤。
首先,获得用户产生的第四类数据。其中,第四类数据可以包括行为动作信息、体征信息和/或脑电信息。
然后,将所述第四类数据输入上述的人工智能识别系统的第二识别模型进行识别,以得到该用户的用户用户状态。
再次,上述的步骤S305可以可以被实施为:根据所述用户用户状态生成策略清单,并执行从所述策略清单中的至少一项的策略。上述的策略清单包含至少一个可执行的策略,所述可执行的策略为待选策略中的策略。
进一步地,可以从上述的执行从所述策略清单中的至少一项的策略可以被实施为:从上述的策略清单中随机选择一个策略进行执行;也可以从上述的策略清单中选择策略对应的事件模型的权重最高的策略;还可以选择一个当前环境中能够执行的一个策略。
上述的第二识别模型用于通过用户表现信息从而实现对用户的用户状态进行识别。第二识别模型可以是神经网络模型,第二识别模型可以使用各类用户表现数据作为训练数据训练得到的模型。上述的用户表现数据包括采集到的心电数据、行为动作数据、体征数据、脑电数据等。
上述的第四类数据可以是与第二类数据相似的数据,关于根据第四类数据进行识别得到用户用户状态可以与步骤S403-S405实现方式相同,具体可以参考上述步骤的具体描述,在此不再赘述。
在一种实施方式中,上述的执行从所述策略清单中的至少一项的策略的步骤包括:接收在所述策略清单中的选择操作;执行所述选择操作所选择对应的策略。
详细地,一显示界面可以显示上述的策略清单中的每个策略对应的选择按钮,任意一选择按钮被选中后,可以执行该按钮对应的策略。
在一种实施方式中,上述的根据所述用户的用户状态及所述事件模型生成策略清单的步骤,包括:将所述当前事件模型与历史存储的事件模型进行匹配,识别出所述当前事件模型对应的用户的当前用户状态;根据所述当前用户状态生成补充用户情绪的策略清单。
在一个实例中,用户当前处于心情比较低落的状态,可以为用户推荐权重较高的事件模型对应的策略。例如,使人欢快的歌曲组合、另外心情愉悦的夕阳光照等。
在另一个实例中,用户当前处于心情比较激动、高涨,可以为用户推荐权重较低的事件模型对应的策略。通过执行权重交底的事件模型可以使心情平静、冷静。
在一种实施方式中,基于人工智能的辅助决策系统可以根据用户授权情况执行对应策略组合。在一个实例中,基于人工智能的辅助决策系统可以在用户授权的情况下可以直接为用户提供可用的策略,并执行策略对应的一个或者多个事件;在另一个实例中,在用户未授权的基础上,基于人工智能的辅助决策系统可以为用户推荐策略,但是不能直接执行策略对应的一个或者多个事件,需要接收到用户的确认操作后执行策略对应的一个或者多个事件。
在一实施方式中,上述的执行从所述策略清单中的至少一项的策略的步骤,包括:根据上述的至少一项的策略中的内容生成控制指令,根据所述控制指令控制目标设备执行上述的至少一项的策略。
通过生成对应控制目标设备的控制指令,可以方便目标设备直接执行策略组合的动作,以使用户能够在需要的环境中。
在一些实施方式中,上述的根据上述的至少一项的策略中的内容生成控制指令,控制目标设备执行上述的至少一项的策略的步骤,包括:根据当前环境中的环境参数与上述的至少一项的策略计算的环境参数差距,所述环境参数差距为所述视觉参数与所述可执行的策略各个角度的光线差距、各个方位的音频差距;生成用于补偿所述环境参数差距的控制指令,并根据所述控制指令执行上述的至少一项的策略。
在一实施方式中,上述的至少一项的策略仅包括目标声光环境时;上述的根据上述的至少一项的策略中的内容生成控制指令,控制目标设备执行上述的至少一项的策略的步骤,包括:计算所述目标声光环境与采集到的当前环境中的声光环境的环境参数差距,所述环境参数差距为所述当前声光环境与所述目标声光环境各个角度的光线差距、各个方位的音频差距;生成用于补偿所述环境参数差距的控制指令;根据所述指令控制不同位置的照明系统以及音频设备的启动或控制不同位置的照明系统以及音频的展示数据的大小。
在一些实施例中,基于人工智能的辅助决策方法可以应用于基于人工智能的辅助决策系统,基于人工智能的辅助决策方法还可以包括:接收用户授权指示,所述授权指示用于开启所述基于人工智能的辅助决策执行策略的权限;上述的步骤S305可以包括:根据用户历史使用习惯在所述策略清单中获取使用户用户状态最好时对应的事件模型对应的策略,并执行该策略。
在一种实施方式,上述的交互终端中提供一操作界面,该操作界面可以接受用户的操作指令。
具体地,上述的操作界面可以包括设置按钮,该设置按钮被点击后可以启动授权或关闭授权。上述的按钮可以是设置在操作界面的显示界面范围内的电容按键,也可以是设置在操作界面的非显示界面的机械按键。
根据本实施例中的方法,可以为用户适应性的推荐一些可以使用的策略,从而使用户当前所处的环境可以更好地适应用户当前的需要,提高用户体验。
实施例四
请参阅图5,是本发明实施例提供的图1所示的基于人工智能的辅助决策装置的功能模块示意图。本实施例中的基于人工智能的辅助决策装置的各个模块用于执行上述方法实施例中的各个步骤。基于人工智能的辅助决策装置包括:
第一获得模块501,用于获取第一信息采集装置组的第一类数据,所述第一类数据为所述第一信息采集装置组采集以用户为第一人称视角时可接受到的同步信息,所述同步信息包括:音频信息、图像或影像信息,环境信息中的至少一项;
第一识别模块502,用于利用人工智能识别系统对所述第一类数据分别进行第一层识别,识别出所述第一类数据中包含的关键要素,所述关键要素包括:语音关键词,人物身份及关系,物品及属性,物体及运动状态,空间关系,时序关系,天气状况,温度,湿度,空气流动速度,环境亮度,色度,光线角度,光谱,声音分贝,声音波形;
组合模块503,用于将多种所述关键要素作为可选元素进行排列组合,形成一组或多组待识别组合;
第二识别模块504,用于利用人工智能系统对一组或多组所述待识别组合进行第二层识别,以得到用户的行为模型或正在经历的事件模型;
调用模块505,用于根据所述行为模型或所述事件模型调用策略。
在一些实施例中,上述的基于人工智能的辅助决策装置还包括:
第二获得模块,用于获得用户的身份识别号及基本信息;
第二获得模块,用于获得第二信息采集装置组的第二类数据,所述第二类数据包括所述用户产生的用户表现信息或/及语音数据,所述用户表现信息包括行为动作信息集合、体征信息集合、脑电信息中的至少一种;
第三识别模块,用于基于所述身份识别号及所述基本信息,对所述第二类数据进行识别,以得到所述用户行为表现对应的用户状态;
第一设置模块,用于根据所述用户的用户状态为识别到的当前事件设置评分,所述评分用于评价当前的事件对所述用户的影响效果;
修正模块,用于当所述当前事件的评分变化满足策略触发条件时,则根据所述当前事件的触发条件生成或修正策略组合;
所述调用模块,还用于:调用所述修正模块得到的修正策略组合。
关于本实施例的其它细节还可以进一步地参考上述方法实施例中的描述,在此不再赘述。
本发明实施例的基于人工智能的辅助决策装置,通过对用户所在环境的识别,可以为用户适应性的推荐一些可以使用的策略,从而使用户当前所处的环境可以更好地适应用户当前的需要,提高用户体验。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,也可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,附图中的流程图和框图显示了根据本发明的多个实施例的装置、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现方式中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
另外,在本发明各个实施例中的各功能模块可以集成在一起形成一个独立的部分,也可以是各个模块单独存在,也可以两个或两个以上模块集成形成一个独立的部分。
所述功能如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。或者通过5G通信技术与XR技术的结合,通过云端输出服务的方式实现商业化。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。

Claims (12)

1.一种基于人工智能的辅助决策方法,其特征在于,包括:
获取第一信息采集装置组的第一类数据,所述第一类数据为所述第一信息采集装置组采集以用户为第一人称视角时可接受到的同步信息,所述同步信息包括:音频信息、图像或影像信息,环境信息中的至少一项;
利用人工智能识别系统对所述第一类数据分别进行第一层识别,识别出所述第一类数据中包含的关键要素,所述关键要素包括:语音关键词,人物身份及关系,物品及属性,物体及运动状态,空间关系,时序关系,天气状况,温度,湿度,空气流动速度,环境亮度,色度,光线角度,光谱,声音分贝,声音波形;
将多种所述关键要素作为可选元素进行排列组合,形成一组或多组待识别组合,利用人工智能系统对一组或多组所述待识别组合进行第二层识别,以得到用户的行为模型或正在经历的事件模型;
根据所述行为模型或所述事件模型调用策略。
2.如权利要求1所述的基于人工智能的辅助决策方法,其特征在于,根据所述行为模型或所述事件模型调用策略步骤之前,所述方法还包括:
获得用户的身份识别号及基本信息;
获得第二信息采集装置组的第二类数据,所述第二类数据包括所述用户产生的用户表现信息或/及语音数据,所述用户表现信息包括行为动作信息集合、体征信息集合、脑电信息中的至少一种;
基于所述身份识别号及所述基本信息,对所述第二类数据进行识别,以得到所述用户行为表现对应的用户状态;
根据所述用户的用户状态为识别到的当前事件设置评分,所述评分用于评价当前的事件对所述用户的影响效果;
当所述当前事件的评分变化满足策略触发条件时,则根据所述当前事件的触发条件生成或修正策略组合。
3.如权利要求2所述的基于人工智能的辅助决策方法,其特征在于,所述方法还包括:
根据所述第二信息采集装置组的第二类数据对反馈信息为当前识别到的事件模型设置权重,所述权重用于标识当前事件模型对不同用户的影响程度;
根据每个事件模型的权重将已存储的所有事件模型按照权重进行排序,形成策略序列。
4.如权利要求3所述的基于人工智能的辅助决策方法,其特征在于,所述方法还包括:
获取指定时间段内用户经历的具有相关事件模型的历史数据,所述历史数据包括历史经历的事件模型的次数、持续时间、间隔时间,情绪响应或情绪波动的强度,最近一次相关事件模型发生时间与当前时间的时间差;
根据每件事件模型经历的历史次数为每件事件模型赋值第一历史权重;
根据每件事件模型距离当下的时间间隔为每件事件模型模型赋值第二历史权重;
根据每件事件模型的所述第一历史权重及所述第二历史权重进行加权计算,以得到每件事件模型的权重;
根据每件事件模型的权重对每件事件模型进行排序,其中,每件事件模型作为待推荐的策略,排序后的事件模型序列形成策略序列。
5.如权利要求1所述的基于人工智能的辅助决策方法,其特征在于,所述根据所述行为模型或所述事件模型调用策略的步骤之前,还包括:
获得以用户为视角所接收到的第三类数据,所述第三类数据包括音频数据、图像数据、环境数据中的任意组合;
将所述第三类数据输入所述人工智能识别系统的第一识别模型进行识别,得到用户当前经历的当前事件模型;
所述根据所述行为模型或所述事件模型调用策略的步骤,包括:
根据所述当前事件模型生成策略清单,所述策略清单包含至少一个可执行的策略,所述可执行的策略为待选策略中的策略,并执行从所述策略清单中的至少一项的策略。
6.如权利要求1所述的基于人工智能的辅助决策方法,其特征在于,所述根据所述行为模型或所述事件模型调用策略的步骤之前,还包括:
获得用户产生的第四类数据,所述第四类数据包括行为动作信息、体征信息和/或脑电信息;
将所述第四类数据输入所述人工智能识别系统的第二识别模型进行识别,得到该用户的用户的用户状态;
所述根据所述行为模型或所述事件模型调用策略的步骤,包括:
根据所述用户的用户状态及所述事件模型生成策略清单,所述策略清单包含至少一个可执行的策略,所述可执行的策略为待选策略清单中的策略;并执行从所述策略清单中的至少一项的策略。
7.如权利要求5或6所述的基于人工智能的辅助决策方法,其特征在于,应用于基于人工智能的辅助决策系统,所述方法还包括:
接收用户授权指示,所述授权指示用于开启所述基于人工智能的辅助决策执行策略的权限;
所述执行所述可执行的策略中的指定的策略的步骤包括:根据用户历史使用习惯在所述策略清单中获取使用户的用户状态反馈评分排序最佳时,对应的事件模型对应的策略,并执行该策略。
8.如权利要求5或6所述的基于人工智能的辅助决策方法,其特征在于,所述执行从所述策略清单中的至少一项的策略的步骤包括:
接收在所述策略清单中的选择操作;
执行所述选择操作所选择对应的策略。
9.如权利要求5或6所述的基于人工智能的辅助决策方法,其特征在于,所述根据所述用户的用户状态及所述事件模型生成策略清单的步骤,包括:
将当前事件模型与历史存储的事件模型进行匹配,识别出所述当前事件模型对应的用户的当前用户状态;
根据所述当前用户状态生成补充用户情绪的策略清单。
10.一种基于人工智能的辅助决策装置,其特征在于,包括:
第一获得模块,用于获取第一信息采集装置组的第一类数据,所述第一类数据为所述第一信息采集装置组采集以用户为第一人称视角时可接受到的同步信息,所述同步信息包括:音频信息、图像或影像信息,环境信息中的至少一项;
第一识别模块,用于利用人工智能识别系统对所述第一类数据分别进行第一层识别,识别出所述第一类数据中包含的关键要素,所述关键要素包括:语音关键词,人物身份及关系,物品及属性,物体及运动状态,空间关系,时序关系,天气状况,温度,湿度,空气流动速度,环境亮度,色度,光线角度,光谱,声音分贝,声音波形;
组合模块,用于将多种所述关键要素作为可选元素进行排列组合,形成一组或多组待识别组合;
第二识别模块,用于利用人工智能系统对一组或多组所述待识别组合进行第二层识别,以得到用户的行为模型或正在经历的事件模型;
调用模块,用于根据所述行为模型或所述事件模型调用策略。
11.如权利要求10所述的基于人工智能的辅助决策装置,其特征在于,还包括:
第二获得模块,用于获得用户的身份识别号及基本信息;
第二获得模块,用于获得第二信息采集装置组的第二类数据,所述第二类数据包括所述用户产生的用户表现信息或/及语音数据,所述用户表现信息包括行为动作信息集合、体征信息集合、脑电信息中的至少一种;
第三识别模块,用于基于所述身份识别号及所述基本信息,对所述第二类数据进行识别,以得到所述用户行为表现对应的用户状态;
第一设置模块,用于根据所述用户的用户状态为识别到的当前事件设置评分,所述评分用于评价当前的事件对所述用户的影响效果;
修正模块,用于当所述当前事件的评分变化满足策略触发条件时,则根据所述当前事件的触发条件生成或修正策略组合;
所述调用模块,还用于:调用所述修正模块得到的修正策略组合。
12.一种基于人工智能的辅助决策设备,其特征在于,包括:
所述辅助决策设备包括存储器以及处理器,所述存储器用于存储支持处理器执行权利要求1~9任一项所述方法的程序,所述处理器被配置为用于执行所述存储器中存储的程序。
CN201910192813.8A 2019-03-14 2019-03-14 基于人工智能的辅助决策方法、装置及设备 Pending CN109948780A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910192813.8A CN109948780A (zh) 2019-03-14 2019-03-14 基于人工智能的辅助决策方法、装置及设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910192813.8A CN109948780A (zh) 2019-03-14 2019-03-14 基于人工智能的辅助决策方法、装置及设备

Publications (1)

Publication Number Publication Date
CN109948780A true CN109948780A (zh) 2019-06-28

Family

ID=67009958

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910192813.8A Pending CN109948780A (zh) 2019-03-14 2019-03-14 基于人工智能的辅助决策方法、装置及设备

Country Status (1)

Country Link
CN (1) CN109948780A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111680126A (zh) * 2020-06-10 2020-09-18 牛猛 一种基于人工智能的行为决策控制系统及方法
CN112513817A (zh) * 2020-08-14 2021-03-16 华为技术有限公司 一种主cpu与npu的数据交互方法及计算设备
CN112785267A (zh) * 2021-01-23 2021-05-11 南京利特嘉软件科技有限公司 一种基于mvc框架技术的飞行信息管理方法及系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101924833A (zh) * 2010-08-13 2010-12-22 宇龙计算机通信科技(深圳)有限公司 一种终端控制方法及终端
CN105615902A (zh) * 2014-11-06 2016-06-01 北京三星通信技术研究有限公司 情绪监控方法和装置
CN105681900A (zh) * 2015-12-31 2016-06-15 宇龙计算机通信科技(深圳)有限公司 一种信息处理方法及移动终端
CN108039988A (zh) * 2017-10-31 2018-05-15 珠海格力电器股份有限公司 设备控制处理方法及装置
CN108604246A (zh) * 2016-12-29 2018-09-28 华为技术有限公司 一种调节用户情绪的方法及装置
CN108764010A (zh) * 2018-03-23 2018-11-06 姜涵予 情绪状态确定方法及装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101924833A (zh) * 2010-08-13 2010-12-22 宇龙计算机通信科技(深圳)有限公司 一种终端控制方法及终端
CN105615902A (zh) * 2014-11-06 2016-06-01 北京三星通信技术研究有限公司 情绪监控方法和装置
CN105681900A (zh) * 2015-12-31 2016-06-15 宇龙计算机通信科技(深圳)有限公司 一种信息处理方法及移动终端
CN108604246A (zh) * 2016-12-29 2018-09-28 华为技术有限公司 一种调节用户情绪的方法及装置
CN108039988A (zh) * 2017-10-31 2018-05-15 珠海格力电器股份有限公司 设备控制处理方法及装置
CN108764010A (zh) * 2018-03-23 2018-11-06 姜涵予 情绪状态确定方法及装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111680126A (zh) * 2020-06-10 2020-09-18 牛猛 一种基于人工智能的行为决策控制系统及方法
CN111680126B (zh) * 2020-06-10 2023-06-20 牛猛 一种基于人工智能的行为决策控制系统及方法
CN112513817A (zh) * 2020-08-14 2021-03-16 华为技术有限公司 一种主cpu与npu的数据交互方法及计算设备
CN112785267A (zh) * 2021-01-23 2021-05-11 南京利特嘉软件科技有限公司 一种基于mvc框架技术的飞行信息管理方法及系统

Similar Documents

Publication Publication Date Title
Kossaifi et al. Sewa db: A rich database for audio-visual emotion and sentiment research in the wild
US11829524B2 (en) Moving content between a virtual display and an extended reality environment
CN110246569A (zh) 可穿戴装置和从先前会话检索并显示关键词的方法及介质
JP5866728B2 (ja) 画像認識システムを備えた知識情報処理サーバシステム
US10223838B2 (en) Method and system of mobile-device control with a plurality of fixed-gradient focused digital cameras
CN106462598A (zh) 信息处理设备、信息处理方法与程序
CN109978812A (zh) 摄像系统、学习装置、摄像装置和学习方法
CN109154979A (zh) 用于分析图像和提供反馈的可佩戴设备和方法
CN106873773A (zh) 机器人交互控制方法、服务器和机器人
CN109982124A (zh) 用户场景智能分析方法、装置和存储介质
CN109948780A (zh) 基于人工智能的辅助决策方法、装置及设备
CN108984618A (zh) 数据处理方法和装置、电子设备和计算机可读存储介质
Lan et al. Eyesyn: Psychology-inspired eye movement synthesis for gaze-based activity recognition
US12112012B2 (en) User-customized location based content presentation
KR102305177B1 (ko) Ai 개체에 대한 정보 수집 플랫폼 및 이를 통한 정보 수집 방법
CN110443122A (zh) 信息处理方法及相关产品
KR20230117767A (ko) 사용자 행동 데이터 및 멀티 모달 단말기를 기반으로 데이터를 수집, 저장, 제어, 학습 및 활용 방법 및 시스템
Yan et al. Home-Based Real-Time Abnormal Movement Detection System Deployed on On-Device Artificial Intelligence
KR101901826B1 (ko) 공간 콘텐츠 체험 정보의 시각화 및 보상 시스템
Gao et al. Identity-free artificial emotional intelligence via micro-gesture understanding
US12141416B2 (en) Protocol for facilitating presentation of extended reality content in different physical environments
US20240242827A1 (en) Electronic device for generating multi-persona and operation method of the same
US20240355010A1 (en) Texture generation using multimodal embeddings
WO2024069534A1 (en) Adaptive extended reality content presentation in multiple physical environments
CN117407579A (zh) 内容推荐方法以及相关设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20190628

RJ01 Rejection of invention patent application after publication