CN112001353B - 一种基于多任务联合监督学习的行人再识别方法 - Google Patents
一种基于多任务联合监督学习的行人再识别方法 Download PDFInfo
- Publication number
- CN112001353B CN112001353B CN202010914875.8A CN202010914875A CN112001353B CN 112001353 B CN112001353 B CN 112001353B CN 202010914875 A CN202010914875 A CN 202010914875A CN 112001353 B CN112001353 B CN 112001353B
- Authority
- CN
- China
- Prior art keywords
- network
- layer
- attribute
- feature
- features
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24147—Distances to closest patterns, e.g. nearest neighbour classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Molecular Biology (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Multimedia (AREA)
- Probability & Statistics with Applications (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于多任务联合监督学习的行人再识别方法,包括如下步骤:S1、构建多任务深度学习网络,包括骨干网络以及分支网络;分支网络包括:部件分割网络:接收骨干网络的输出,用于图像中人体部件分类;属性特征网络:接收骨干网络以及部件分割网络的输出,进行属性特征识别;全局特征网络:接收骨干网络的输出,进行全局特征识别;S2:构建损失函数:利用全局特征和属性特征拼接之后的特征进行损失计算,得到多任务深度学习网络的损失函数。本发明通过属性及身份的联合监督学习,使得识人系统更加鲁棒,精准。
Description
技术领域
本发明属于行人再识别技术领域,具体涉及一种基于多任务联合监督学习的行人再识别方法。
背景技术
行人再识别旨在给定被查询人员图像或视频,从多个网络摄像机获取的行人图像集合中检索出被查询人员的图像。通常检索时间范围设定在当天内,基本可以认为被查询人员的外观和着装属性保持不变。由于被查询人员在多个摄像头下行走时,会出现部分/全部遮挡,姿势变化,环境光变化,低图像分辨率等情况,检索难度较大。
目前,基于深度学习的行人再识别解决方案在实际应用中表现出了出良好的检索性能。其中,行人属性,例如性别,年龄,衣服的颜色,头发,背包的有无等可以显着提高分类和识别准确性。现有的行人再识别深度学习方案,有只学习行人属性特征的方案,只学习行人身份特征的方案,同时学习行人身份特征和属性特征的方案,这些方案都是简单的单任务/多任务学习,本质上还是将属性特征的学习和身份特征的学习看作两个独立的学习任务,未有更进一步地利用这两个任务之间的相关性来提升整体识别准确性。
举例说明:如中国公开发明专利申请:一种基于多任务深度学习的行人再识别方法(公开号为:CN110852276A),该申请中公开了多任务实现的行人重识别方法,其主要方案为利用三个并列的深度学习网络进行训练,以其中两个学习网络的输出结果进行拼接为最终输出,这也是上述中提到的非常典型的多任务学习,多个任务之间为并列关系,三个结果相互不能形成影响,其结果中还是单独对全局特征或者属性之间的对比。
再如中国公开发明专利申请:基于行人身份和属性特征联合识别验证的行人再识别方法(公开号为:CN 110580460 A),该申请同样提出了身份特征与属性特征联合识别的方法,但是其具体的技术方案是对行人身份特征和行人属性特征的同时学习,使神经网络的特征层既能学习到行人高层的整体身份特征,又能抓取到中层的语义特征,使这两种特征在同一个神经网络中得到有效融合【记载于说明书的第0027段中】,诸如以上所述,该申请的身份特征学习与行人属性特征的学习,本质上还是相互独立的,其最后总的损失函数也是仅仅对多个学习任务损失函数的求和。
发明内容
本发明的目的在于提供一种基于多任务联合监督学习的行人再识别方法;
发明思路在于:首先要明确身份信息与属性信息的融合阶段必须是在训练阶段,所以选择在损失函数中引入结构化属性特征约束,使得学习打的非结构化的全局特征更加鲁棒,从而实现属性联合身份分类的识别。
为实现上述目的,本发明提供如下技术方案:
一种基于多任务联合监督学习的行人再识别方法,包括如下识别模型训练步骤:S1、构建多任务深度学习网络,包括骨干网络以及分支网络;
分支网络包括:部件分割网络:接收骨干网络的输出,用于图像中人体部件分类;
属性特征网络:接收骨干网络以及部件分割网络的输出,进行属性特征识别;
全局特征网络:接收骨干网络的输出,进行全局特征识别;
S2:构建损失函数:利用全局特征和属性特征拼接之后的特征进行损失计算,得到多任务深度学习网络的损失函数。
进一步的,所述人体部件分割网络包括依次连接的3×3逆卷积层、BN层、relu层和1×1卷积层。
进一步的,所述属性特征网络包括依次连接的部件特征提取层、部件特征融合层、属性分类层。所述部件特征提取层,将部件分割网络输出的8×48×16的张量去除背景层,得到7×48×16的张量,将该7×48×16的张量进行resize处理后与骨干网络输出的2048×48×16张量进行加权求和得到7个2048维的张量,根据通道顺序可以获知7个部件特征所属人体部位,将这7个部件特征求平均作为全身特征。所述部件特征融合层,将7个部件特征及全身特征共8个特征如图3所示按属性所需输入进行分组拼接,头/全身拼接作为性别/年龄的判别特征,头作为发型/头饰的判别特征,大臂/小臂/躯干拼接作为上衣颜色/花纹/款式的判别特征,躯干/大腿/小腿/脚拼接作为下衣颜色/花纹/款式的判别特征,全身作为人物动作的判别特征,全身作为附属物信息的判别特征。所述属性分类层,包括并行的与行人属性数量相同的属性分类器,将各属性的判别特征输入各属性分类器中得到各属性分类得分,将各属性分类得分拼接成50维向量作为属性特征输出;所述属性分类器,包括依次连接的BN层、全连接层和softmax层。
进一步的,所述全局特征网络包括依次连接的池化层、向量拼接层、BN层、全连接层和softmax层;所述池化层,对输入进行全局平均池化和全局最大池化;所述向量拼接层,对全局平均池化结果和全局最大池化进行拼接。
进一步的,所述属性包括性别,年龄,头发长度,袖子长度,下身衣服长度,下身衣服类型,是否佩戴帽子,是否背包,是否拎包,是否手拿包,上身衣服颜色以及下身衣服颜色。
进一步的,所述全局特征与属性特征的拼接包括:将全局特征网络输出的2048维全局特征归一化后和50维属性特征归一化后拼接,得到2098维特征。
进一步的,所述损失函数如下:
其中,P和K为一个训练batch中所选取得P个人,每人K张图片,a为anchor,p为正样本,n为相对a的负样本,(a,p)表示正样本对(a,n)表示负样本对,dat1为50维属性特征的距离,d为2098维拼接特征的距离。
与现有技术相比,本发明的有益效果是:本发明中部件分割网络提取人体局部特征能够将属性的关注点聚焦到相应位置,例如,头部的局部特征输入到属性中发型/头饰/性别/年龄的分类器,这样能够明显提升属性分类准确度。
训练过程中,采用属性联合身份分类识别,在损失函数中引入结构化属性特征约束,能够使得学习到的非结构化的全局特征更加鲁棒。
应用过程中,将非结构化的全局特征和结构化的属性特征拼接到一起,能够明显提升行人搜索的准确性。
附图说明
图1为本发明的多任务深度学习网络结构图。
图2为本发明实施例中提及的属性特征网络结构图。
图3为本发明实施例提及的人体各部件特征分组拼接示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本实施例提出一种基于多任务联合监督学习的行人再识别方法,具体为:
首先构建多任务学习网络,包括包括骨干网络以及分支网络;参照图1所示,分支网络包括部件分割网络、属性特征网络以及全局特征网络。
其中,部件分割网络的输入是骨干网络倒数第二层;
属性特征网络的输入是部件分割网络和骨干网络的最后一层;
全局特征网络的输入是骨干网络的最后一层。
具体的:采用ResNet作为骨干网络,骨干网络最后一层conv5_1的stride由2改为1。可参照【CN110852276A一种基于多任务深度学习的行人再识别方法】中的骨干网络。
部件分割网络的输入是ResNet conv4_x层(1024×24×8),输出是8×48×16的张量,具体的,部件分割网络的结构参见专利【CN110852276A一种基于多任务深度学习的行人再识别方法】中的部件分割网络:所述人体部件分割网络包括依次连接的3×3逆卷积层、BN层、relu层和1×1卷积层。部件分割结果为8×48×16的张量,即有48×16的二维向量每个像素点有一个长度为8的一维向量,这个长度为8的一维向量对应该像素点部件分割的结果。8个部件优选为:背景/头部/上臂/下臂/躯干/臀部及大腿/小腿/脚(参照图3所示)。
属性特征网络的输入是ResNet conv5_x层(2048×24×8)和部件分割网络输出的8×48×16的张量。
所述属性特征网络包括依次连接的部件特征提取层、部件特征融合层、属性分类层。所述部件特征提取层,将部件分割网络输出的8×48×16的张量去除背景层,得到7×48×16的张量,将该7×48×16的张量进行resize处理后与骨干网络输出的2048×48×16张量进行加权求和得到7个2048维的张量,根据通道顺序可以获知7个部件特征所属人体部位,将这7个部件特征求平均作为全身特征。所述部件特征融合层,将7个部件特征及全身特征共8个特征如图3所示按属性所需输入进行分组拼接,头/全身拼接作为性别/年龄的判别特征,头作为发型/头饰的判别特征,大臂/小臂/躯干拼接作为上衣颜色/花纹/款式的判别特征,躯干/大腿/小腿/脚拼接作为下衣颜色/花纹/款式的判别特征,全身作为人物动作的判别特征,全身作为附属物信息的判别特征。所述属性分类层,包括并行的与行人属性数量相同的属性分类器,将各属性的判别特征输入各属性分类器中得到各属性分类得分,将各属性分类得分拼接成50维向量作为属性特征输出(参照图2所示);所述属性分类器,包括依次连接的BN层、全连接层和softmax层。
具体地,12种属性为:性别(男/女),年龄(儿童/青少年/成年/老年),发型(披肩长/披肩短/束发),头饰(帽子/耳机/其他),上衣颜色(黑/白/紫/黄/灰/蓝/绿/棕/红),上衣花纹(纯色/logo/条纹/格纹/碎花),上衣款式(长袖/短袖),下衣颜色(黑/白/紫/黄/灰/蓝/绿/棕/红),下衣花纹(纯色/logo/条纹/格纹/碎花),下衣款式(长裤/短裤),人物动作(骑车/步行),附属物信息(双肩包/单肩包/手提包/其他)。
全局特征网络的输入是ResNet conv5_x层(2048×24×8)输出是2048维的张量;全局特征网络包括依次连接的池化层、向量拼接层、BN层、全连接层和softmax层;所述池化层,对输入进行全局平均池化和全局最大池化;所述向量拼接层,对全局平均池化结果和全局最大池化进行拼接输出拼接向量feature f_t;所述BN层,对拼接后的向量feature f_t进行批量标准化得到feature f_i;所述softmax层,输出ID结果向量feature f_id。可参照【CN110852276A一种基于多任务深度学习的行人再识别方法】中的全局特征网络。
全局特征网络输出的2048维的张量在进行损失函数计算的时候不仅考虑到行人的ID信息还考虑到行人的属性信息,具体地,将2048维全局特征归一化后和50维属性特征归一化后拼接,得到2098维特征作为计算Loss的特征,在计算不同行人的hard tripletloss时,改进后的损失函数如下:
其中,P和K为一个训练batch中所选取得P个人,每人K张图片,a为anchor,p为正样本,n为相对a的负样本,(a,p)表示正样本对(a,n)表示负样本对,为50维属性特征的距离d,为2098维拼接特征的距离。这样的加权方式对属性特征距离近但拼接特征距离远的负样本对减弱监督力度,对属性特征距离远但拼接特征距离近的负样本对加强监督力度。这样做的目的是,通过判断属性相似度为监督学习增加了一个图片是否肉眼观察相似的判断,然后,增加关注肉眼观察明显错误的样本对,减少关注肉眼观察非常相似的错误样本对,可以增强特征的鲁棒性,减少模型过拟合的风险。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化囊括在本发明内。不应将权利要求中的任何附图标记视为限制所涉及的权利要求。
Claims (5)
1.一种基于多任务联合监督学习的行人再识别方法,其特征在于:包括如下识别模型训练步骤:S1、构建多任务深度学习网络,包括骨干网络以及分支网络;
分支网络包括:部件分割网络:接收骨干网络的输出,用于图像中人体部件分类;
属性特征网络:接收骨干网络以及部件分割网络的输出,进行属性特征识别;
全局特征网络:接收骨干网络的输出,进行全局特征识别;
S2:构建损失函数:利用全局特征和属性特征拼接之后的特征进行损失计算,得到多任务深度学习网络的损失函数;
全局特征与属性特征的拼接包括:将全局特征网络输出的2048维全局特征归一化后和50维属性特征归一化后拼接,得到2098维特征;
所述损失函数如下:
其中,P和K为一个训练batch中所选取得P个人,每人K张图片,a为anchor,p为正样本,n为相对a的负样本,(a,p)表示正样本对(a,n)表示负样本对,dat1为50维属性特征的距离,d为2098维拼接特征的距离。
2.如权利要求1所述的一种基于多任务联合监督学习的行人再识别方法,其特征在于:所述人体部件分割网络包括依次连接的3×3逆卷积层、BN层、relu层和1×1卷积层。
3.如权利要求1所述的一种基于多任务联合监督学习的行人再识别方法,其特征在于:所述属性特征网络包括依次连接的部件特征提取层、部件特征融合层、属性分类;
所述部件特征提取层,将部件分割网络输出的8×48×16的张量去除背景层,得到7×48×16的张量,将该7×48×16的张量进行resize处理后与骨干网络输出的2048×48×16张量进行加权求和得到7个2048维的张量,根据通道顺序可以获知7个部件特征所属人体部位,将这7个部件特征求平均作为全身特征;
所述部件特征融合层,将7个部件特征及全身特征共8个特征按属性所需输入进行分组拼接,头/全身拼接作为性别/年龄的判别特征,头作为发型/头饰的判别特征,大臂/小臂/躯干拼接作为上衣颜色/花纹/款式的判别特征,躯干/大腿/小腿/脚拼接作为下衣颜色/花纹/款式的判别特征,全身作为人物动作的判别特征,全身作为附属物信息的判别特征;
所述属性分类层,包括并行的与行人属性数量相同的属性分类器,将各属性的判别特征输入各属性分类器中得到各属性分类得分,将各属性分类得分拼接成50维向量作为属性特征输出;
所述属性分类器,包括依次连接的BN层、全连接层和softmax层。
4.如权利要求3所述的一种基于多任务联合监督学习的行人再识别方法,其特征在于:所述属性包括性别,年龄,头发长度,袖子长度,下身衣服长度,下身衣服类型,是否佩戴帽子,是否背包,是否拎包,是否手拿包,上身衣服颜色以及下身衣服颜色。
5.如权利要求1所述的一种基于多任务联合监督学习的行人再识别方法,其特征在于:所述全局特征网络包括依次连接的池化层、向量拼接层、BN层、全连接层和softmax层;所述池化层,对输入进行全局平均池化和全局最大池化;所述向量拼接层,对全局平均池化结果和全局最大池化进行拼接。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010914875.8A CN112001353B (zh) | 2020-09-03 | 2020-09-03 | 一种基于多任务联合监督学习的行人再识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010914875.8A CN112001353B (zh) | 2020-09-03 | 2020-09-03 | 一种基于多任务联合监督学习的行人再识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112001353A CN112001353A (zh) | 2020-11-27 |
CN112001353B true CN112001353B (zh) | 2023-02-17 |
Family
ID=73466161
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010914875.8A Active CN112001353B (zh) | 2020-09-03 | 2020-09-03 | 一种基于多任务联合监督学习的行人再识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112001353B (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112712170B (zh) * | 2021-01-08 | 2023-06-20 | 西安交通大学 | 基于输入加权脉冲神经网络的神经形态视觉目标分类系统 |
CN112800978B (zh) * | 2021-01-29 | 2024-09-24 | 北京金山云网络技术有限公司 | 属性识别方法、部位属性提取网络的训练方法和装置 |
CN112686228B (zh) * | 2021-03-12 | 2021-06-01 | 深圳市安软科技股份有限公司 | 行人属性识别方法、装置、电子设备及存储介质 |
CN113128410A (zh) * | 2021-04-21 | 2021-07-16 | 湖南大学 | 一种基于轨迹关联学习的弱监督行人重识别方法 |
CN113436165A (zh) * | 2021-06-23 | 2021-09-24 | 合肥迈思泰合信息科技有限公司 | 一种基于人工智能的视频图像检测系统及其检测方法 |
CN113657186B (zh) * | 2021-07-26 | 2024-05-31 | 浙江大华技术股份有限公司 | 一种基于行人重识别的特征提取方法、装置和存储介质 |
CN113822236A (zh) * | 2021-11-22 | 2021-12-21 | 杭州云栖智慧视通科技有限公司 | 一种基于人体语义部件的上衣颜色替换方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107330396A (zh) * | 2017-06-28 | 2017-11-07 | 华中科技大学 | 一种基于多属性和多策略融合学习的行人再识别方法 |
CN110580460A (zh) * | 2019-08-28 | 2019-12-17 | 西北工业大学 | 基于行人身份和属性特征联合识别验证的行人再识别方法 |
CN110728216A (zh) * | 2019-09-27 | 2020-01-24 | 西北工业大学 | 一种基于行人属性自适应学习的无监督行人再识别方法 |
CN110796026A (zh) * | 2019-10-10 | 2020-02-14 | 湖北工业大学 | 一种基于全局特征拼接的行人重识别方法 |
WO2020040391A1 (ko) * | 2018-08-24 | 2020-02-27 | 전북대학교산학협력단 | 결합심층네트워크에 기반한 보행자 인식 및 속성 추출 시스템 |
CN110852276A (zh) * | 2019-11-12 | 2020-02-28 | 智慧视通(杭州)科技发展有限公司 | 一种基于多任务深度学习的行人再识别方法 |
-
2020
- 2020-09-03 CN CN202010914875.8A patent/CN112001353B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107330396A (zh) * | 2017-06-28 | 2017-11-07 | 华中科技大学 | 一种基于多属性和多策略融合学习的行人再识别方法 |
WO2020040391A1 (ko) * | 2018-08-24 | 2020-02-27 | 전북대학교산학협력단 | 결합심층네트워크에 기반한 보행자 인식 및 속성 추출 시스템 |
CN110580460A (zh) * | 2019-08-28 | 2019-12-17 | 西北工业大学 | 基于行人身份和属性特征联合识别验证的行人再识别方法 |
CN110728216A (zh) * | 2019-09-27 | 2020-01-24 | 西北工业大学 | 一种基于行人属性自适应学习的无监督行人再识别方法 |
CN110796026A (zh) * | 2019-10-10 | 2020-02-14 | 湖北工业大学 | 一种基于全局特征拼接的行人重识别方法 |
CN110852276A (zh) * | 2019-11-12 | 2020-02-28 | 智慧视通(杭州)科技发展有限公司 | 一种基于多任务深度学习的行人再识别方法 |
Non-Patent Citations (1)
Title |
---|
基于深层特征融合的行人重识别方法;熊炜等;《计算机工程与科学》;20200215(第02期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN112001353A (zh) | 2020-11-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112001353B (zh) | 一种基于多任务联合监督学习的行人再识别方法 | |
CN109711281B (zh) | 一种基于深度学习的行人重识别与特征识别融合方法 | |
Yamaguchi et al. | Paper doll parsing: Retrieving similar styles to parse clothing items | |
CN110852276B (zh) | 一种基于多任务深度学习的行人再识别方法 | |
CN110443189B (zh) | 基于多任务多标签学习卷积神经网络的人脸属性识别方法 | |
CN111597870B (zh) | 一种基于注意力机制与多任务学习的人体属性识别方法 | |
US20190188456A1 (en) | Image processing device, image processing method, and computer program product | |
US20020076100A1 (en) | Image processing method for detecting human figures in a digital image | |
CN112801015B (zh) | 一种基于注意力机制的多模态人脸识别方法 | |
CN111639544A (zh) | 基于多分支跨连接卷积神经网络的表情识别方法 | |
CN110633624B (zh) | 一种基于多特征融合的机器视觉人体异常行为识别方法 | |
CN112131970A (zh) | 一种基于多通道时空网络和联合优化损失的身份识别方法 | |
CN112669343A (zh) | 一种基于深度学习的壮族少数民族服饰分割方法 | |
CN112084998A (zh) | 一种基于属性信息辅助的行人再识别方法 | |
Sharma | Designing of face recognition system | |
CN113420697B (zh) | 基于表观和形状特征的换装视频行人重识别方法及系统 | |
CN116311377A (zh) | 基于图像内与图像间关系的换衣行人重识别方法和系统 | |
CN116129473A (zh) | 基于身份引导的联合学习换衣行人重识别方法及系统 | |
Yang et al. | Intelligent mirror system based on facial expression recognition and color emotion adaptation——iMirror | |
CN111860250A (zh) | 基于人物细粒度特征的图像识别方法及装置 | |
CN117636436A (zh) | 基于注意力机制的多人实时面部表情识别方法和系统 | |
CN111191527A (zh) | 属性识别方法、装置、电子设备及可读存储介质 | |
CN109359578A (zh) | 加权融合三通道特征步态表征方法 | |
CN117333901A (zh) | 基于衣服统一和多样融合的换衣行人重识别方法 | |
CN114821202A (zh) | 一种基于用户偏好的服装推荐方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |