CN112214683B - 基于异构信息网络的混合推荐模型处理方法、系统和介质 - Google Patents
基于异构信息网络的混合推荐模型处理方法、系统和介质 Download PDFInfo
- Publication number
- CN112214683B CN112214683B CN202010940794.5A CN202010940794A CN112214683B CN 112214683 B CN112214683 B CN 112214683B CN 202010940794 A CN202010940794 A CN 202010940794A CN 112214683 B CN112214683 B CN 112214683B
- Authority
- CN
- China
- Prior art keywords
- user
- recommendation model
- information network
- project
- characteristic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 15
- 239000013598 vector Substances 0.000 claims abstract description 37
- 238000000034 method Methods 0.000 claims abstract description 20
- 238000012545 processing Methods 0.000 claims abstract description 9
- 230000006870 function Effects 0.000 claims description 54
- 239000011159 matrix material Substances 0.000 claims description 22
- 238000004364 calculation method Methods 0.000 claims description 9
- 238000013527 convolutional neural network Methods 0.000 claims description 9
- 238000006243 chemical reaction Methods 0.000 claims description 6
- 238000000354 decomposition reaction Methods 0.000 claims description 5
- 238000004458 analytical method Methods 0.000 abstract description 5
- 238000012549 training Methods 0.000 description 9
- 238000013135 deep learning Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000012417 linear regression Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- ZLIBICFPKPWGIZ-UHFFFAOYSA-N pyrimethanil Chemical compound CC1=CC(C)=NC(NC=2C=CC=CC=2)=N1 ZLIBICFPKPWGIZ-UHFFFAOYSA-N 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9536—Search customisation based on social or collaborative filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了一种基于异构信息网络的混合推荐模型处理方法、系统和介质,所述混合推荐模型的处理过程包括:构建异构信息网络;获取所述异构信息网络中符合第一预设要求的第一用户特征和第一项目特征,以及获取所述异构信息网络中符合第二预设要求的第二用户特征和第二项目特征;将所述符合第三预设要求的第一用户特征与第二用户特征,以及第一项目特征与第二项目特征进行拼接,得到拼接特征向量;根据所述拼接特征向量定义预测函数;定义所述预测函数对应的损失函数;通过所述预测函数和所述损失函数优化所述混合推荐模型。本发明在进行推荐时展现推荐的可解释性,便于推荐模型的推荐分析与大范围应用。本发明可应用于信息推荐技术领域。
Description
技术领域
本发明涉及信息推荐技术领域,尤其是一种基于异构信息网络的混合推荐模型处理方法、系统和介质。
背景技术
推荐模型将用户获取信息的方式从主动检索跳跃到了接受个性化推荐,使用户可以准确且快速获取信息。但是,在推荐系统的应用过程中,由于用户和被推荐的项目之间存在诸多标签、社交关联以及其他信息,而现有的推荐系统大部分专注于结构化数据或者非结构化数据的推荐,且未能在结合结构化与非结构化数据进行推荐时展现推荐的可解释性,从而不利于推荐模型的推荐分析与大范围应用。
发明内容
为解决上述技术问题之一,本发明的目的在于:提供一种于基于异构信息网络的混合推荐模型处理方法、系统和介质,其能在进行推荐时展现推荐的可解释性,便于推荐模型的推荐分析与大范围应用。
第一方面,本发明实施例提供了:
一种基于异构信息网络的混合推荐模型处理方法,包括以下步骤:
构建混合推荐模型;
通过所述混合推荐模型生成目标推荐产品信息;
其中,所述混合推荐模型的通过以下步骤进行处理:
构建异构信息网络;
获取所述异构信息网络中符合第一预设要求的第一用户特征和第一项目特征,以及获取所述异构信息网络中符合第二预设要求的第二用户特征和第二项目特征;
将所述符合第三预设要求的第一用户特征与第二用户特征,以及第一项目特征与第二项目特征进行拼接,得到拼接特征向量;
根据所述拼接特征向量定义预测函数;
定义所述预测函数对应的损失函数;
通过所述预测函数和所述损失函数优化所述混合推荐模型。
进一步地,所述获取所述异构信息网络中符合第一预设要求的第一用户特征和第一项目特征,包括:
通过元结构描述所述异构信息网络中若干个用户信息与项目信息的关联关系;
通过相似度算法计算具备所述关联关系的用户信息与项目信息的相似度矩阵;
通过分解算法获取所述相似度矩阵对应的第一用户特征和第一项目特征。
进一步地,所述获取所述异构信息网络中符合第二预设要求的第二用户特征和第二项目特征,其具体为:
通过卷积神经网络模型获取所述异构信息网络中不具备所述关联关系的第二用户特征和第二项目特征。
进一步地,所述将所述符合第三预设要求的第一用户特征与第二用户特征,以及第一项目特征与第二项目特征进行拼接,得到拼接特征向量,包括:
将所述第二用户特征和所述第二项目特征的维度转换为与所述第一用户特征和所述第一项目特征相同的维度;
将维度转换后的第二用户特征与所述第一用户特征进行第一次拼接,将维度转换后的第二项目特征与所述第一项目特征进行第一次拼接;
将满足第三预设要求的拼接后的用户特征和项目特征进行第二次拼接,得到拼接特征向量。
进一步地,所述根据所述拼接特征向量定义预测函数,包括:
获取所述异构信息网络中用户信息和项目信息对应的历史平均分;
根据所述拼接特征向量和所述历史平均分通过因子分解机定义预测函数。
进一步地,所述定义所述预测函数对应的损失函数,其具体为:
通过正则化去惩罚参数定义所述预测函数对应的损失函数。
进一步地,所述通过所述预测函数和所述损失函数优化所述混合推荐模型,包括:
根据所述预测函数和所述损失函数计算预测评分值;
获取真实评分值;
计算所述预测评分值与所述真实评分值的均方根误差;
根据所述真实评分值优化所述混合推荐模型。
进一步地,所述优化所述混合推荐模型,其具体为:
通过加速近端梯度算法优化所述混合推荐模型。
第二方面,本发明实施例提供了:
一种基于异构信息网络的混合推荐模型处理系统,包括:
至少一个存储器,用于存储程序;
至少一个处理器,用于加载所述程序以执行所述的基于异构信息网络的混合推荐模型处理方法。
第三方面,本发明实施例提供了:
一种存储介质,其中存储有处理器可执行的指令,所述处理器可执行的指令在由处理器执行时用于实现所述的基于异构信息网络的混合推荐模型处理方法。
本发明的有益效果是:本发明通过构建混合推荐模型,并在混合推荐模型中构建异构信息网络,获取异构信息网络中的用户特征和项目特征,接着将获取到满足第三预设要求的用户特征和项目特征进行拼接,得到拼接特征向量,并定义预测函数和损失函数,通过预测函数和损失函数优化混合推荐模型,从而使得优化后的混合推荐模型在进行推荐时展现推荐的可解释性,便于推荐模型的推荐分析与大范围应用。
附图说明
图1为本发明一种具体实施例的混合推荐模型的处理流程图。
具体实施方式
下面结合附图和具体实施例对本发明做进一步的详细说明。对于以下实施例中的步骤编号,其仅为了便于阐述说明而设置,对步骤之间的顺序不做任何限定,实施例中的各步骤的执行顺序均可根据本领域技术人员的理解来进行适应性调整。
在以下的描述中,涉及到“一些实施例”,其描述了所有可能实施例的子集,但是可以理解,“一些实施例”可以是所有可能实施例的相同子集或不同子集,并且可以在不冲突的情况下相互结合。
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同。本文中所使用的术语只是为了描述本申请实施例的目的,不是旨在限制本申请。
首先,对本申请中出现的名词进行解释:
推荐模型:一种信息处理模型,从数据中挖掘用户和项目的潜在信息,基于此来预测用户对项目是否喜欢以及喜欢程度。将用户的信息获取方式由主动的检索转变为接受个性化精准推送。
异构信息网络:英文全称为Heterogeneous Information Network,简称为HIN。HIN可以承载网络中的多种节点类型和节点之间的多种关联类型,能更加精准的定义出信息网络中的不同于语意从而挖掘出更深层次的信息。
卷积神经网络:卷积神经网络。是一类包含卷积计算且具有深度结构的前馈神经网络,是深度学习的代表算法之一。
元结构:Meta-Graph,一种包含单个源节点n和单个目标节点m的有向无关图。其中,n的入度为0,m的出度为0。
数据稀疏场景:在推荐平台中,将以存在的用户和产品历史关联记录对比所有的用户和产品笛卡尔积关联数量,该数值极低时将该现象被描述为数据稀疏场景。
冷启动:对于新加入推荐平台的用户或产品,由于其未存在历史交互记录而无法高效进行推荐,称为冷启动。
因子分解机:因子分解机为每个维度的特征xi学习一个表征向量vi,其中这个向量的维度可以设定,以K来表示。在计算特征交叉信息时,两两特征相乘后的权重为这两个特征的表向量的点积。在模型训练时,除了训练偏置项以及每个特征的单独权重外,还需训练每个特征的表征向量。
深度学习:深度学习是机器学习的分支,是一种以人工神经网络为架构,对数据进行表征学习的算法。
特征组合:将多种模型获取的特征进行拼接,用于实现完整特征下的回归或分类任务。
Text_CNN:将卷积神经网络技术应用于文本信息,挖掘其文本特征。
FunkSVD:FunkSVD采取一种线性回归的思想将矩阵C分解成两个矩阵(P,Q),且分解后特征向量维度可控。
Group Lasso:一种正则化器,能够以组为单位的参数约束办法。
近端加速梯度下降:针对非凸非光滑的损失函数,用以优化非凸损失函数的一组参数,核心思想是在损失函优化中以临近算子替代梯度以调整训练参数。
Spark:Spark是一款由Scala语言开发,为大规模数据处理而设计的快速通用的计算引擎。
GeoHash:经纬度转换成一个字符串,不同长度的字符串可以代表一块区域范围。
LDA主题模型:LDA(Latent Dirichlet Allocation)是一种文档主题生成模型,也称为一个三层贝叶斯概率模型,包含词、主题和文档三层结构。
RSME:均方根误差,其描述整体预测分数与真实评分之间的差距大小,可以衡量推荐系统的表现。
本发明实施例提供了一种基于异构信息网络的混合推荐模型处理方法,本实施例可应用于服务端,所述服务端可与多个终端设备交互,所述终端设备可以为电脑等电子产品。
本实施例包括以下步骤:
构建混合推荐模型;
通过所述混合推荐模型生成目标推荐产品信息;
其中,所述混合推荐模型的通过如图1所示步骤进行处理:
S11、构建异构信息网络;本步骤是基于所述混合推荐模型内的所有数据构建的。该所有数据包括用户信息、项目信息以及与该用户信息和项目信息相关联的其他信息。
S12、获取所述异构信息网络中符合第一预设要求的第一用户特征和第一项目特征,以及获取所述异构信息网络中符合第二预设要求的第二用户特征和第二项目特征;所述第一预设要求为用户信息与项目信息具备直接关联关系的数据。所述第二预设要求为用户信息与项目信息不具备直接关联关系的数据。
在一些实施例中,所述获取所述异构信息网络中符合第一预设要求的第一用户特征和第一项目特征,其可以通过以下方式实现:
通过元结构描述所述异构信息网络中若干个用户信息与项目信息的关联关系;接着通过相似度算法计算具备所述关联关系的用户信息与项目信息的相似度矩阵;然后通过FunkSVD分解算法获取所述相似度矩阵对应的第一用户特征和第一项目特征。其中,该第一用户特征和第一项目特征为隐式向量。
而针对异构信息网络中无法直接构建关联关系的用户信息和项目信息,则通过卷积神经网络模型获取所述异构信息网络中的第二用户特征和第二项目特征。
S13、将所述符合第三预设要求的第一用户特征与第二用户特征,以及第一项目特征与第二项目特征进行拼接,得到拼接特征向量;所述第三预设要求是指属于同一个User或者Item的特征。
在一些实施例中,所述将所述符合第三预设要求的第一用户特征与第二用户特征,以及第一项目特征与第二项目特征进行拼接,得到拼接特征向量,其可通过以下方式实现:
将所述第二用户特征和所述第二项目特征的维度转换为与所述第一用户特征和所述第一项目特征相同的维度;
将维度转换后的第二用户特征与所述第一用户特征进行第一次拼接,将维度转换后的第二项目特征与所述第一项目特征进行第一次拼接;
将满足第三预设要求的拼接后的用户特征和项目特征进行第二次拼接,得到拼接特征向量。
S14、根据所述拼接特征向量定义预测函数;
在一些实施例中,所述根据所述拼接特征向量定义预测函数,包括:
获取所述异构信息网络中用户信息和项目信息对应的历史平均分;
根据所述拼接特征向量和所述历史平均分通过因子分解机定义预测函数。
S15、定义所述预测函数对应的损失函数;其具体可通过正则化去惩罚参数定义所述预测函数对应的损失函数。
S16、通过所述预测函数和所述损失函数优化所述混合推荐模型。
在一些实施例中,所述通过所述预测函数和所述损失函数优化所述混合推荐模型,包括:
根据所述预测函数和所述损失函数计算预测评分值并获取真实评分值;
计算所述预测评分值与所述真实评分值的均方根误差;
根据所述真实评分值优化所述混合推荐模型,具体地,可通过加速近端梯度算法优化所述混合推荐模型。
在本实施例中,以电商平台为例进行详细阐述,其具体过程包括:
步骤一、构建异构信息网络;通过构建多条元结构Meta-Graph用于描述异构信息网络中多条用户信息User到项目信息Item的关联关系;
在本步骤中,利用邻接矩阵相乘以及Hadamard积,获取得到多个User-Item相似度矩阵,例如,设计了9条User到Item的关联关系,则最终可计算得到9条User-Item相似度矩阵。
接着通分解算法FunkSVD将所有的User-Item相似度矩阵分解为User隐式特征矩阵和Item隐式特征矩阵,至此,将获取到9个User隐式特征矩阵和Item隐式特征矩阵,即获取第一用户特征和第一项目特征。
步骤二、针对异构信息网络中不具备直接关联关系的用户信息和项目信息,通过卷积神经网络进行特征提取,得到第二用户特征和第二项目特征。
步骤三、由于步骤一中获取的第一用户特征和第一项目特征的维度为F,为了便于计算,将步骤二中获取的第二用户特征和第二项目特征的维度也转换为F。
其中,假设在异构信息网络模型中设计了L条Meta-Graph,则将获得L个第二用户特征和第二项目特征且维度为F,将同属于一个User或者Item隐式特征矩阵进行拼接,最终每个User或者Item将获得(L+1)*1维度的特征向量。其中,第i个User和第i个Item的完整特征向量分别如公式1和2所示:
假设需要预测第i个User对第i个Item的评分预测,则以xn表示所需的所有特征,其维度如公式3所示:
其中,xn表示连接后第n个样本的特征向量,公式3所描述的xn可理解为预测用户i对产品j评分所需的完整特征集合,L表示用户和产品的隐式向量矩阵个数,组合基于卷积神经网络的特征后共(L+1)组,F表示每个矩阵分解后的用户和产品的隐式向量维度。
为了使得基于不同元路径分离出来用于预测用户i对产品j的所有特征能交互进行计算,本实施例使用因子分解机MF进行预测,其具体为;
不同于二阶多项式核SVM,因子分解机为每个维度的特征xi学习一个表征向量vi,可以理解为类似于特征ID的embedding向量,其中这个向量的维度可以设定,以K来表示。在计算特征交叉信息时,两两特征相乘后的权重为这两个特征的表向量的点积。模型训练时,除了训练偏置项以及每个特征的单独权重外,还需训练每个特征的表征向量。同时,User在为Item打分时,当前User和Item的历史平均分也具有重要参考价值,因此,本实施例将这两个历史平均分融入因子分解机中,优化后的预测函数如公式4所示:
其中,表示当前用户的历史平均分,/>表示当前商品的历史平均分,<vi,vj>表示特征/>与/>的标准向量的点积,根据公式4,即可在数据稀疏的场景下计算得到预测得分且模型具有很好的泛化能力。
接着定义损失函数,其具体为:
完成单个评分预测模型的构建之后,为了训练混合推荐模型中的参数以拟合真实值,本实施先定义出完整的真实评分和预测评分的误差值,为使得其误差总值尽可能的小,其具体如公式5所示:
其中,为预测得分,yn为真实得分。
当Meta-Graph数量过多时,由其获取多个相似度矩阵再分离成若干个用户和产品隐式向量矩阵,那么用户i对产品j进行预测时,需要将一个User和Item的所有特征参与计算,这可能会引入噪声。其次,在多条Meta-Graph中可能存在某些路径重复,例如,存在路径M1:(U,R,B)和M2:(U,R,B,U,B)时,明显地M1被M2包含在内;同时,还可能存在某些路径是无用的,由这个路径计算得到的相似度矩阵再分解出来的用户和产品隐式特征向量,其对应参数在最终的预测模型中并没有做出多大贡献反而是噪音。此外,如此多的特征卷入,需要训练大量参数,当模型训练完时,大量的参数在实时推荐中效率极低。因此,在定义完整的损失函数并训练时,本实施例加入正则项去惩罚参数,使得混合推荐模型在后续优化过程中能够挑选出有用的Meta-Graph路径,而忽略无用路径,以降低推荐时的计算成本。
在本实施例中,为了解决上述问题,其映入稀疏约束Group Lasso分组最小回归算法作为正则化项,其是一种能够以组为单位的参数约束方法。其中,基于L2范式的分组最小回归算法的公式如6所示:
其中,G表示分组的总数,从第一组开始遍历;||pg||2表示该组所有参数的L2范式值,即改组所有元素的平方和再开方。将公式6作为正则化加入损失函数中,其能极大的约束每组参数。
而在利用FM进行预测是,一组输入需要的特征个数为2*(L+1)*F,对于每个特征一一对应二代参数个数同样为2*(L+1)*F,该参数集可以F个参数为一组,分为2(L+1)组,对该参数集最小回归算法如公式7所示:
其中,||wl||为第l组的参数,每组参数的维度为F,求得针对w的每组参数的L2范式的累加和。而针对交叉计算的部分,FM为每个特征学习了一个维度为K的表征向量,将上述参数用集合V表示,则可将集合V看作一个矩阵,格式为(2*(L+1)*F,K),该矩阵如公式8所示:
其中,Vl表示第l组参数矩阵;F表示计算矩阵Vl的Frobenius范数,简称F-范数,其是一种矩阵范数,记作||·||F。矩阵A的Frobenius范数定义为矩阵A各项元素的绝对值平方的总和再开方,其计算公式如公式9所示:
完成两个Group Lasso的定义后,将其作为正则化加入后,可得到如公式10所示的完整的损失函数,其中,N=d=2*(L+1),λ表示对应参数w或者V的权重值,Φ表示对应参数的正则项。
步骤四、计算当前损失函数对应参数下的预测评分值与真实评分值之间的均方根误差RSME。
步骤五、优化混合推荐模型:训练过程中,参数以组为单位(根据Meta-Graph的设计以及基于卷积神经网络模型)进行优化,过程中将保留有效参数组,抛弃无效参数组。
步骤六、重复步骤四和步骤五,直到均方根误差RSME低于阈值后,确定模型训练完成。
综上所述,本实施例在基于数据稀疏场景下,构建异构信息网络描述推荐平台中各类对象的关联关系,通过复杂的关联关系挖掘结构化数据以及非结构化数据的丰富特征以用以推荐,提高推荐模型的推荐精度,缓解冷启动问题,且异构信息网络的搭建具有很强的拓展性,能够灵活的迁入更多数据对象丰富异构信息网络中对象间的关联关系。同时,本发明实施例提出的混合推荐模型,能够实现实施推荐的可解释性,使得每条推荐有迹可循、有理可依,有利于推荐分析。
本发明实施例提供了一种基于异构信息网络的混合推荐模型处理系统,包括:
至少一个存储器,用于存储程序;
至少一个处理器,用于加载所述程序以执行所述的基于异构信息网络的混合推荐模型处理方法。
本发明方法实施例的内容均适用于本系统实施例,本系统实施例所具体实现的功能与上述方法实施例相同,并且达到的有益效果与上述方法达到的有益效果也相同。
此外,本发明实施例还提供了一种存储介质,其中存储有处理器可执行的指令,所述处理器可执行的指令在由处理器执行时用于实现所述的基于异构信息网络的混合推荐模型处理方法。
以上是对本发明的较佳实施进行了具体说明,但本发明并不限于所述实施例,熟悉本领域的技术人员在不违背本发明精神的前提下还可做作出种种的等同变形或替换,这些等同的变形或替换均包含在本申请权利要求所限定的范围内。
Claims (7)
1.一种基于异构信息网络的混合推荐模型处理方法,其特征在于,包括以下步骤:
构建混合推荐模型;
通过所述混合推荐模型生成目标推荐产品信息;
其中,所述混合推荐模型的通过以下步骤进行处理:
构建异构信息网络;
获取所述异构信息网络中符合第一预设要求的第一用户特征和第一项目特征,以及获取所述异构信息网络中符合第二预设要求的第二用户特征和第二项目特征;
将所述第二用户特征和所述第二项目特征的维度转换为与所述第一用户特征和所述第一项目特征相同的维度;
将维度转换后的第二用户特征与所述第一用户特征进行第一次拼接,将维度转换后的第二项目特征与所述第一项目特征进行第一次拼接;
将满足第三预设要求的拼接后的用户特征和项目特征进行第二次拼接,得到拼接特征向量,所述第一预设要求为用户信息与项目信息具备直接关联关系的数据,所述第二预设要求为用户信息与项目信息不具备直接关联关系的数据,所述第三预设要求是指属于同一个User或者Item的特征;
根据所述拼接特征向量定义预测函数,包括获取所述异构信息网络中用户信息和项目信息对应的历史平均分,根据所述拼接特征向量和所述历史平均分通过因子分解机定义预测函数;
所述预测函数的表达式为:
其中,表示当前用户的历史平均分,/>表示当前商品的历史平均分,<vi,vj>表示特征与/>的标准向量的点积;
通过正则化去惩罚参数定义所述预测函数对应的损失函数,包括:
引入稀疏约束Group Lasso分组最小回归算法作为正则化项,基于L2范式的分组最小回归算法的公式如下所示:
其中,G表示分组的总数,从第一组开始遍历;||pg||2表示该组所有参数的L2范式值,即改组所有元素的平方和再开方;
利用FM进行预测,参数集最小回归算法如公式下所示:
其中,||wl||为第l组的参数,每组参数的维度为F,求得针对w的每组参数的L2范式的累加和;
对于交叉计算,FM为每个特征学习了一个维度为K的表征向量,将所述参数集用集合V表示,将集合V看作一个矩阵,公式如下所示:
其中,Vl表示第l组参数矩阵;F表示计算矩阵Vl的Frobenius范数,简称F-范数,其是一种矩阵范数,记作||·||F,矩阵A的Frobenius范数定义为矩阵A各项元素的绝对值平方的总和再开方,其计算公式如下所示:
完成Group Lasso的定义后,将其作为正则化加入后,可得到如下所示的完整的损失函数;
其中,λ表示对应参数w或者V的权重值,Φ表示对应参数的正则项;
通过所述预测函数和所述损失函数优化所述混合推荐模型。
2.根据权利要求1所述的一种基于异构信息网络的混合推荐模型处理方法,其特征在于,所述获取所述异构信息网络中符合第一预设要求的第一用户特征和第一项目特征,包括:
通过元结构描述所述异构信息网络中若干个用户信息与项目信息的关联关系;
通过相似度算法计算具备所述关联关系的用户信息与项目信息的相似度矩阵;
通过分解算法获取所述相似度矩阵对应的第一用户特征和第一项目特征。
3.根据权利要求1所述的一种基于异构信息网络的混合推荐模型处理方法,其特征在于,所述获取所述异构信息网络中符合第二预设要求的第二用户特征和第二项目特征,其具体为:
通过卷积神经网络模型获取所述异构信息网络中不具备所述关联关系的第二用户特征和第二项目特征。
4.根据权利要求3所述的一种基于异构信息网络的混合推荐模型处理方法,其特征在于,所述通过所述预测函数和所述损失函数优化所述混合推荐模型,包括:
根据所述预测函数和所述损失函数计算预测评分值;
获取真实评分值;
计算所述预测评分值与所述真实评分值的均方根误差;
根据所述真实评分值优化所述混合推荐模型。
5.根据权利要求1-4任一项所述的一种基于异构信息网络的混合推荐模型处理方法,其特征在于,所述优化所述混合推荐模型,其具体为:
通过加速近端梯度算法优化所述混合推荐模型。
6.一种基于异构信息网络的混合推荐模型处理系统,其特征在于,包括:
至少一个存储器,用于存储程序;
至少一个处理器,用于加载所述程序以执行如权利要求1-5任一项所述的基于异构信息网络的混合推荐模型处理方法。
7.一种存储介质,其中存储有处理器可执行的指令,其特征在于,所述处理器可执行的指令在由处理器执行时用于实现如权利要求1-5任一项所述的基于异构信息网络的混合推荐模型处理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010940794.5A CN112214683B (zh) | 2020-09-09 | 2020-09-09 | 基于异构信息网络的混合推荐模型处理方法、系统和介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010940794.5A CN112214683B (zh) | 2020-09-09 | 2020-09-09 | 基于异构信息网络的混合推荐模型处理方法、系统和介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112214683A CN112214683A (zh) | 2021-01-12 |
CN112214683B true CN112214683B (zh) | 2024-05-14 |
Family
ID=74049577
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010940794.5A Active CN112214683B (zh) | 2020-09-09 | 2020-09-09 | 基于异构信息网络的混合推荐模型处理方法、系统和介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112214683B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112925913B (zh) * | 2021-03-09 | 2023-08-29 | 北京百度网讯科技有限公司 | 用于匹配数据的方法、装置、设备和计算机可读存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106779941A (zh) * | 2016-12-14 | 2017-05-31 | 山东大学 | 基于矩阵和张量联合分解的汽车推荐方法及系统 |
CN107562795A (zh) * | 2017-08-01 | 2018-01-09 | 广州市香港科大霍英东研究院 | 基于异构信息网络的推荐方法及装置 |
CN110598130A (zh) * | 2019-09-30 | 2019-12-20 | 重庆邮电大学 | 一种融合异构信息网络和深度学习的电影推荐方法 |
CN111523040A (zh) * | 2020-04-28 | 2020-08-11 | 重庆邮电大学 | 一种基于异构信息网络的社交推荐方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106503022B (zh) * | 2015-09-08 | 2020-12-01 | 北京邮电大学 | 推送推荐信息的方法和装置 |
US11657322B2 (en) * | 2018-08-30 | 2023-05-23 | Nec Corporation | Method and system for scalable multi-task learning with convex clustering |
-
2020
- 2020-09-09 CN CN202010940794.5A patent/CN112214683B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106779941A (zh) * | 2016-12-14 | 2017-05-31 | 山东大学 | 基于矩阵和张量联合分解的汽车推荐方法及系统 |
CN107562795A (zh) * | 2017-08-01 | 2018-01-09 | 广州市香港科大霍英东研究院 | 基于异构信息网络的推荐方法及装置 |
CN110598130A (zh) * | 2019-09-30 | 2019-12-20 | 重庆邮电大学 | 一种融合异构信息网络和深度学习的电影推荐方法 |
CN111523040A (zh) * | 2020-04-28 | 2020-08-11 | 重庆邮电大学 | 一种基于异构信息网络的社交推荐方法 |
Non-Patent Citations (2)
Title |
---|
基于异质信息网络表示学习的推荐算法研究与实现;胡斌斌;《中国优秀硕士学位论文全文数据库(信息科技辑)》;I138-1361 * |
项目计算机辅助受理的申请代码与研究方向;唐华等;《电子与信息学报》;第249页至第254页 * |
Also Published As
Publication number | Publication date |
---|---|
CN112214683A (zh) | 2021-01-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
AU2016256753B2 (en) | Image captioning using weak supervision and semantic natural language vector space | |
Suthaharan et al. | Decision tree learning | |
Chen et al. | General functional matrix factorization using gradient boosting | |
CN114565104A (zh) | 语言模型的预训练方法、结果推荐方法及相关装置 | |
CN109582956A (zh) | 应用于句子嵌入的文本表示方法和装置 | |
Zhang et al. | Cross-domain recommendation with semantic correlation in tagging systems | |
CN111291549B (zh) | 文本处理方法、装置、存储介质和电子设备 | |
CN108875090B (zh) | 一种歌曲推荐方法、装置和存储介质 | |
CN110750640A (zh) | 基于神经网络模型的文本数据分类方法、装置及存储介质 | |
CN112667877A (zh) | 一种基于旅游知识图谱的景点推荐方法及设备 | |
CN113011172A (zh) | 文本处理方法、装置、计算机设备和存储介质 | |
CN113761868A (zh) | 文本处理方法、装置、电子设备及可读存储介质 | |
AlGhamdi et al. | Learning to recommend items to wikidata editors | |
CN117453885A (zh) | 提问信息处理方法、装置、设备、存储介质及产品 | |
CN112214683B (zh) | 基于异构信息网络的混合推荐模型处理方法、系统和介质 | |
Liu et al. | Resume parsing based on multi-label classification using neural network models | |
Santacruz et al. | Learning the sub-optimal graph edit distance edit costs based on an embedded model | |
CN110633363B (zh) | 一种基于nlp和模糊多准则决策的文本实体推荐方法 | |
CN110020214B (zh) | 一种融合知识的社交网络流式事件检测系统 | |
CN111382232A (zh) | 问答信息处理方法、装置及计算机设备 | |
CN116957006A (zh) | 预测模型的训练方法、装置、设备、介质及程序产品 | |
Bartosova et al. | Ranking of Search Requests in the Digital Information Retrieval System Based on Dynamic Neural Networks | |
CN115129930A (zh) | 一种视频的信息处理方法、装置、计算机设备和存储介质 | |
Krishnan et al. | Optimization assisted convolutional neural network for sentiment analysis with weighted holoentropy-based features | |
CN115129863A (zh) | 意图识别方法、装置、设备、存储介质和计算机程序产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |