CN113345053B - 一种智能配色方法及系统 - Google Patents
一种智能配色方法及系统 Download PDFInfo
- Publication number
- CN113345053B CN113345053B CN202110738545.2A CN202110738545A CN113345053B CN 113345053 B CN113345053 B CN 113345053B CN 202110738545 A CN202110738545 A CN 202110738545A CN 113345053 B CN113345053 B CN 113345053B
- Authority
- CN
- China
- Prior art keywords
- color
- color matching
- matching model
- picture
- keywords
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 38
- 238000012549 training Methods 0.000 claims abstract description 27
- 238000013528 artificial neural network Methods 0.000 claims abstract description 18
- 239000013598 vector Substances 0.000 claims description 23
- 238000004422 calculation algorithm Methods 0.000 claims description 14
- 238000012795 verification Methods 0.000 claims description 12
- 238000012545 processing Methods 0.000 claims description 10
- 230000011218 segmentation Effects 0.000 claims description 10
- 239000003086 colorant Substances 0.000 claims description 5
- 238000004364 calculation method Methods 0.000 claims description 4
- 238000007621 cluster analysis Methods 0.000 claims description 4
- 238000013016 damping Methods 0.000 claims description 3
- 230000004927 fusion Effects 0.000 claims description 3
- 238000005457 optimization Methods 0.000 claims description 3
- 230000003068 static effect Effects 0.000 claims 4
- 238000013461 design Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 238000007405 data analysis Methods 0.000 description 1
- 238000013079 data visualisation Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 208000015181 infectious disease Diseases 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/40—Filling a planar surface by adding surface attributes, e.g. colour or texture
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Biophysics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及配色技术领域,具体的说是一种智能配色方法及系统,所述方法包括以下步骤:步骤1:建立色彩语义数据库,所述色彩语义数据库中存储与色块RGB值以及与所述色块关联的色块关键字;步骤2:建立基于BP神经网络的配色模型,以步骤1中色块关键字作为配色模型的输入数据,色块RGB值作为配色模型的输出数据,训练配色模型;步骤3:利用步骤1中色彩语义数据库中的色块RGB值和色块关键字作为样本验证并优化配色模型,得到优化后的配色模型;步骤4:将客户的需求关键字输入步骤3得到的配色模型,配色模型输出需求关键字以及相应的色块的RGB值,得到配色方案。
Description
技术领域
本发明涉及配色技术领域,具体的说是一种智能配色方法及系统。
背景技术
色彩的搭配在设计的创作过程中是重要内容之一。优秀的色彩搭配不仅能够增添作品的冲击力与感染力,提升作品的吸引力,让观赏者更好的欣赏与理解作品。因此,作为一个优秀的平面设计师必须要具备较强的色彩搭配能力。色彩在平面设计中不仅可以突出作品的特色和主题,同时也能够美化设计的版面,增强整个设计作品的美感,并且给观看者留下更深的印象。
随着信息技术的迅速发展,大数据时代已经来临。越来越多的政府、企业需要借助多维度的数据分析开展工作,因此,数据可视化工具的使用也愈加广泛。而优秀的的配色方案不仅可以满足客户的审美需求,更可以突出数据本身的信息价值。研究配色方案系统,可以为设计师提供基本的配色方案,协助设计师迅速输出效果图,提升工具的开发进度。
因此,针对以上不足,本发明急需提供一种智能配色方法及系统。
发明内容
本发明的目的在于提供一种智能配色方法及系统,以解决现有技术中的上述问题。
本发明提供的智能配色方法,包括以下步骤:步骤1:建立色彩语义数据库,所述色彩语义数据库中存储与色块RGB值以及与所述色块关联的色块关键字;步骤2:建立基于BP神经网络的配色模型,以步骤1中色块关键字作为配色模型的输入数据,色块RGB值作为配色模型的输出数据,训练配色模型;步骤3:利用步骤1中色彩语义数据库中的色块RGB值和色块关键字作为样本验证并优化配色模型,得到优化后的配色模型;步骤4:将客户的需求关键字输入步骤3得到的配色模型,配色模型输出需求关键字以及相应的色块的RGB值,得到配色方案。
如上所述的智能配色方法,进一步优选为,步骤1中所述色块和色块关键字的获取方法具体包括:步骤11:获取图像源及图像源详情,并提取所述图像源中的图片,得到图片和图片详情;步骤12:采用K-means均值聚类算法对步骤11中得到的图片进行聚类分析,得到图片色块;步骤13:对图片详情进行分词处理,得到图片关键词;步骤14:将所述图片色块与所述图片关键词关联,得到色块的RGB值与色块关键字。
如上所述的智能配色方法,进一步优选为,步骤11所述图像源为静态图片、视频和动态图片,所述图片为静态图片以及逐帧提取自所述视频和所述动态图片图像帧。
如上所述的智能配色方法,进一步优选为,步骤12具体包括:步骤121:获取步骤11中的图片并设置待提取的颜色数量,从图片中随机选取若干像素作为初始聚类中心,并设定聚类中心的向量值;步骤122:利用欧式距离法将图片中像素与初始聚类中心进行匹配;步骤123:重新步骤122中每个聚类中心的向量值以及每个聚类的样本向量平均值,并根据计算得到的聚类中心的向量值和聚类的样本向量平均值计算得到准误差平方和;步骤124:若相邻两聚类的准误差平方和的绝对值复合预设条件,则算法收敛,计算结束,否则返回步骤121,重新计算聚类中心;步骤125:重复上述步骤,逐个迭代运算重新分类,直至算法收敛,直至提取出预设的n中主要色块,所述主要色块为既定配色。
如上所述的智能配色方法,进一步优选为,聚类的样本向量平均值由下列公式计算得到:
P为聚类的样本向量平均值,pi为第i个聚类样本,i∈[1,n];
准误差平方和由下列公式计算得到:
式中,SSE为准误差平方和;mi为第i个聚类中心点,i∈[1,n];p为聚类样本,p∈Ci,其中Ci表示第i个聚类集群,共n个聚类集群,i∈[1,n]。
如上所述的智能配色方法,进一步优选为,步骤13具体包括:步骤131:对源图像详情进行切割,中每个句子进行分词和词性标注,并保留具有指定词性的单词以构成候选关键词,多个所述候选关键词组成关键词图模型,每个所述候选关键词为构成图模型的节点;步骤132:计算关键词图模型中各节点的权重,并按照权重大小的顺序获取若干节点以构成候选标签;若候选标签形成相邻词组,则组合多词标签;步骤133:选取步骤S4中的候选标签或多词标签作为需求关键字。
如上所述的智能配色方法,进一步优选为,步骤132具体包括:步骤1321:采用共现关系构造任意两个节点之间的边,并将存在边的两个节点添加至图模型中以构成一个无向无权边图;步骤1322:确认无向无权边图中任意节点的词语位置、词性和领域特征的权重分配,通过多特征融合得出综合权重。
如上所述的智能配色方法,进一步优选为,步骤1322中,各节点的综合权重采用下列公式进行计算:
式中,WS(Vi)表示节点Vi的权重,WS(Vj)表示节点Vj的权重;
d为阻尼因子,表示图中任意一个节点跳转到其他节点的概率值;
In(Vi)表示指向节点Vi的所有节点的集合,In(Vi)=loge(Vi);Out(Vj)表示节点Vj指向的所有节点Vj的集合;
ωji为点Vj到点Vi Vj边的权重;ωjk为点Vj到点VkVj边的权重。
如上所述的智能配色方法,进一步优选为,步骤2中建立基于BP神经网络的配色模型具体包括:步骤2.1:基于BP神经网络的输入层、隐含层及输出层三层结构,建立配色模型;步骤2.2:在步骤2.1建立的配色模型中引入训练算法,将步骤1中色块关键字输入配色模型,配色模型输出色块的RGB值;步骤2.3:将步骤1中色块的RGB值与步骤3.2中配色模型的输出结果进行对比,根据对比结果调整配色模型;步骤2.4:设定提取RGB值与输出结果的对比相似度,基于不同的源图像,循环执行步骤2.2-步骤2.3,至对比结果超过设定的对比相似度,完成配色模型的训练。
如上所述的智能配色方法,进一步优选为,在建立并训练配色模型的过程中,BP神经网络的隐含层为单隐层,隐层节点数设定为5。
本发明还公开了一种智能配色系统,其包括:收集处理模块,用于获取图片和图片详情,并提取所述图片的色块和关键字,所述色块与所述关键字一一对应;构建模块,基于BP神经网络构建配色模型;训练模块,用于将收集处理模块的关键字作为配色模型的输入数据,将色块作为配色模型的输出数据,训练配色模型;输入输出模块,用于将关键字输入配色模型,进而将配色模型的输出结果发送至设定验证模块;设定验证模块,用于设定配色模型具有实用性的阈值,并基于收集处理模块提取的色块,验证输入输出模块的输出结果是否满足具有实用性的阈值;优化模块,在设定验证模块的验证结果不具有实用性时,用于优化配色模型,得到最终优化的配色模型,最终优化配色模型的输出结果满足设定阈值;应用模块,用于基于最终优化配色模型和用户需求关键字,输出配色方案。
本发明与现有技术相比具有以下的优点:
本发明通过对现有图片的详情和主要配色的RGB值训练得到配色模型,进而通过配色模型实现由客户需求自动导出配色方案的效果,给UI设计师提供基础的配色依据,帮助其提高输出效果图的效率。
附图说明
为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明中智能配色方法的流程图;
图2为本发明中配色模型的流程图。
具体实施方式
如图1-2所示,本实施例公开了智能配色方法,包括以下步骤:
步骤1:建立色彩语义数据库,所述色彩语义数据库中存储与色块RGB值以及与所述色块关联的色块关键字;
步骤2:建立基于BP神经网络的配色模型,以步骤1中色块关键字作为配色模型的输入数据,色块RGB值作为配色模型的输出数据,训练配色模型;
步骤3:利用步骤1中色彩语义数据库中的色块RGB值和色块关键字作为样本验证并优化配色模型,得到优化后的配色模型;
步骤4:将客户的需求关键字输入步骤3得到的配色模型,配色模型输出需求关键字以及相应的色块的RGB值,得到配色方案。
进一步的,步骤1中所述色块和色块关键字的获取方法具体包括:
步骤11:获取图像源及图像源详情,并提取所述图像源中的图片,得到图片和图片详情;
步骤12:采用K-means均值聚类算法对步骤11中得到的图片进行聚类分析,得到图片色块;
步骤13:对图片详情进行分词处理,得到图片关键词;
步骤14:将所述图片色块与所述图片关键词关联,得到色块的RGB值与色块关键字。
进一步的,步骤11所述图像源为静态图片、视频和动态图片,所述图片为静态图片以及逐帧提取自所述视频和所述动态图片图像帧。
进一步的,步骤12中具体包括:
步骤121:获取步骤11中的图片并设置待提取的颜色数量,从图片中随机选取若干像素作为初始聚类中心,并设定聚类中心的向量值;
步骤122:利用欧式距离法将图片中像素与初始聚类中心进行匹配;
步骤123:重新步骤122中每个聚类中心的向量值以及每个聚类的样本向量平均值,并根据计算得到的聚类中心的向量值和聚类的样本向量平均值计算得到准误差平方和;
步骤124:若相邻两聚类的准误差平方和的绝对值复合预设条件,则算法收敛,计算结束,否则返回步骤121,重新计算聚类中心;
步骤125:重复上述步骤,逐个迭代运算重新分类,直至算法收敛,直至提取出预设的n中主要色块,所述主要色块为既定配色。
具体的,步骤121中,设置需要被提取的主色的个数为n,选定聚类中心,j代表待聚类的所有数据,为寻找聚类中心需要迭代运算的次数,设定聚类中心的向量值为:
Zj(I),j=1,2,...k。其中,Zj(I)代表聚类中心的向量值,j代表待聚类的所有数据,j=1,2,…k。根据需要配色的数量确定,如需要5种配色,则此处选取Zj(I)=5。
步骤122中,计算图片中像素与各初始聚类中心的距离,并将像素划分到与其距离最小的聚类中心中,即:
D(xi,Zj(I))=min{D(xi,Zj(I)),j=1,2,...,n},则xi∈wk。
步骤123中,聚类中心的向量值由下列公式计算得到:
聚类的样本向量平均值由下列公式计算得到:
准误差平方和由下列公式计算得到:
步骤123中,若|Jc(I)-Jc(I-1)|<ξ,j=1,2,...,k,则算法收敛,计算结束。否则返回第二步,计算新的聚类中心:
进一步的,步骤13具体包括:
步骤131:对源图像详情进行切割,中每个句子进行分词和词性标注,并保留具有指定词性的单词以构成候选关键词,多个所述候选关键词组成关键词图模型,每个所述候选关键词为构成图模型的节点;
步骤132:计算关键词图模型中各节点的权重,并按照权重大小的顺序获取若干节点以构成候选标签;若候选标签形成相邻词组,则组合多词标签;
步骤133:选取步骤S4中的候选标签或多词标签作为需求关键字。
具体的,步骤132具体包括:
步骤1321:采用共现关系构造任意两个节点之间的边,并将存在边的两个节点添加至图模型中以构成一个无向无权边图;
步骤1322:确认无向无权边图中任意节点的词语位置、词性和领域特征的权重分配,通过多特征融合得出综合权重。
具体的,步骤1322中,各节点的综合权重采用下列公式进行计算:
式中,WS(Vi)表示节点Vi的权重,WS(Vj)表示节点Vj的权重;
d为阻尼因子,表示图中任意一个节点跳转到其他节点的概率值;
In(Vi)表示指向节点Vi的所有节点的集合,In(Vi)=loge(Vi);Out(Vj)表示节点Vj指向的所有节点的集合;Vk表示节点Vj指向的节点;
ωji为点Vj到点Vi Vj边的权重;ωjk为点Vj到点VkVj边的权重。
进一步的,步骤2中建立基于BP神经网络的配色模型具体包括:
步骤2.1、基于BP神经网络的输入层、隐含层及输出层三层结构,建立配色模型;
步骤2.2、在步骤2.1建立的配色模型中引入训练算法,将步骤1中色块关键字输入配色模型,配色模型输出色块的RGB值;
步骤2.3、将步骤1中色块的RGB值与步骤3.2中配色模型的输出结果进行对比,根据对比结果调整配色模型;
步骤2.4、设定提取RGB值与输出结果的对比相似度,基于不同的源图像,循环执行步骤2.2-步骤2.3,至对比结果超过设定的对比相似度,完成配色模型的训练。
具体的,在建立并训练配色模型的过程中,BP神经网络的隐含层为单隐层,具体的,根据如下公式计算隐含层节点数:
其中m为隐含层节点数,n为输入层节点数,l为输出层节点数,α为1~10之间的常数,这里取α=7.5。
本实施例中,隐层节点数设定为5,输入层节点数为3个,输出层节点数为3个,则神经网络的权值和阀值总数nω为3*5+3*5+5+5=40。
在色彩语义数据库中挑选色块和色块关键字作为训练样本,其中训练样本的数量为P,给定的训练误差为ε,其中:
nω是神经网络的权值和阀值数量之和,P为训练样本的数量,ε为给定的训练误差。
根据迭代步数为2000,训练目标为0.001,训练函数为trainlm,隐节点传递函数为logsig,输出节点传递函数为purelin构建神经网络模型,其中:purelin函数公式为y=x。
如图1所示,客户的需求关键字可以按照关键词、风格、行业因子以及时间进行拆分。
此外,所述色彩语义数据库中还存储有文字、文学作品、诗词歌赋等,通过对文字诗词歌赋以及文学作品的分词处理,并与数据库中的配色相匹配,得到特定场景或词语的配色或图片,如诗句“日出江花红胜火,春来江水绿如蓝。”可以通过分词后,检索出相应的配色或是符合此诗描述场景的图片,直接将诗词转化为具象图片。
进一步的,本实施例还公开了智能配色系统,其包括:
收集处理模块,用于获取图片和图片详情,并提取所述图片的色块和关键字,所述色块与所述关键字一一对应;
构建模块,基于BP神经网络构建配色模型;
训练模块,用于将收集处理模块的关键字作为配色模型的输入数据,将色块作为配色模型的输出数据,训练配色模型;
输入输出模块,用于将关键字输入配色模型,进而将配色模型的输出结果发送至设定验证模块;
设定验证模块,用于设定配色模型具有实用性的阈值,并基于收集处理模块提取的色块,验证输入输出模块的输出结果是否满足具有实用性的阈值;
优化模块,在设定验证模块的验证结果不具有实用性时,用于优化配色模型,得到最终优化的配色模型,最终优化配色模型的输出结果满足设定阈值;
应用模块,用于基于最终优化配色模型和用户需求关键字,输出配色方案。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。
Claims (9)
1.一种智能配色方法,其特征在于,包括以下步骤:
步骤1:建立色彩语义数据库,所述色彩语义数据库中存储与色块RGB值以及与所述色块关联的色块关键字;所述色彩语义数据库还包括文学作品,其中,文学作品用于进行分词处理后搜索转化为配色图片,所述配色图片为具有色块RGB值和色块关键字的对应匹配关系图片;
步骤2:建立基于BP神经网络的配色模型,以步骤1中色块关键字作为配色模型的输入数据,色块RGB值作为配色模型的输出数据,训练配色模型;
步骤3:利用步骤1中色彩语义数据库中的色块RGB值和色块关键字作为样本验证并优化配色模型,得到优化后的配色模型;
步骤4:将客户的需求关键字输入步骤3得到的配色模型,配色模型输出需求关键字以及相应的色块的RGB值,和/或者,将客户的需求关键字在配色图片中识别,得到配色方案;步骤1中所述色块和色块关键字的获取方法具体包括:
步骤11:获取图像源及图像源详情,并提取所述图像源中的图片,得到图片和图片详情;其中,所述图像源为静态图片、视频和动态图片,所述图片为静态图片以及逐帧提取自所述视频和所述动态图片图像帧;
步骤12:采用K-means均值聚类算法对步骤11中得到的图片进行聚类分析,得到图片色块;
步骤13:对图片详情进行分词处理,得到图片关键词;
步骤14:将所述图片色块与所述图片关键词关联,得到色块的RGB值与色块关键字。
2.根据权利要求1所述的智能配色方法,其特征在于,
步骤12具体包括:
步骤121:获取步骤11中的图片并设置待提取的颜色数量,从图片中随机选取若干像素作为初始聚类中心,并设定聚类中心的向量值;
步骤122:利用欧式距离法将图片中像素与初始聚类中心进行匹配;
步骤123:重新步骤122中每个聚类中心的向量值以及每个聚类的样本向量平均值,并根据计算得到的聚类中心的向量值和聚类的样本向量平均值计算得到准误差平方和;
步骤124:若相邻两聚类的准误差平方和的绝对值符合预设条件,则算法收敛,计算结束,否则返回步骤121,重新计算聚类中心;
步骤125:重复上述步骤,逐个迭代运算重新分类,直至算法收敛,直至提取出预设的n种主要色块,所述主要色块为既定配色。
3.根据权利要求2所述的智能配色方法,其特征在于,
聚类的样本向量平均值由下列公式计算得到:
P为聚类的样本向量平均值,pi为第i个聚类样本,i∈[1,n];
准误差平方和由下列公式计算得到:
式中,SSE为准误差平方和;mi为第i个聚类中心点,i∈[1,n];p为聚类样本,p∈Ci,其中Ci表示第i个聚类集群,共n个聚类集群,i∈[1,n]。
4.根据权利要求3所述的智能配色方法,其特征在于,步骤13具体包括:
步骤131:对源图像详情进行切割,将源图像详情中的每个句子进行分词和词性标注,并保留具有指定词性的单词以构成候选关键词,多个所述候选关键词组成关键词图模型,每个所述候选关键词为构成图模型的节点;
步骤132:计算关键词图模型中各节点的权重,并按照权重大小的顺序获取若干节点以构成候选标签;若候选标签形成相邻词组,则组合多词标签;
步骤133:选取步骤S4中的候选标签或多词标签作为需求关键字。
5.根据权利要求4所述的智能配色方法,其特征在于,步骤132具体包括:
步骤1321:采用共现关系构造任意两个节点之间的边,并将存在边的两个节点添加至图模型中以构成一个无向无权边图;
步骤1322:确认无向无权边图中任意节点的词语位置、词性和领域特征的权重分配,通过多特征融合得出综合权重。
6.根据权利要求5所述的智能配色方法,其特征在于,步骤1322中,各节点的综合权重采用下列公式进行计算:
式中,WS(Vi)表示节点Vi的权重,WS(Vj)表示节点Vj的权重;
d为阻尼因子,表示图中任意一个节点跳转到其他节点的概率值;
In(Vi)表示指向节点Vi的所有节点的集合,In(Vi)=loge(Vi);Out(Vj)表示节点Vj指向的所有节点Vj的集合;
ωji为点Vj到点ViVj边的权重;ωjk为点Vj到点VkVj边的权重。
7.根据权利要求6所述的智能配色方法,其特征在于,步骤2中建立基于BP神经网络的配色模型具体包括:
步骤2.1:基于BP神经网络的输入层、隐含层及输出层三层结构,建立配色模型;
步骤2.2:在步骤2.1建立的配色模型中引入训练算法,将步骤1中色块关键字输入配色模型,配色模型输出色块的RGB值;
步骤2.3:将步骤1中色块的RGB值与步骤2.2中配色模型的输出结果进行对比,根据对比结果调整配色模型;
步骤2.4:设定提取RGB值与输出结果的对比相似度,基于不同的源图像,循环执行步骤2.2-步骤2.3,至对比结果超过设定的对比相似度,完成配色模型的训练。
8.根据权利要求7所述的智能配色方法,其特征在于,在建立并训练配色模型的过程中,BP神经网络的隐含层为单隐层,隐层节点数设定为5。
9.一种智能配色系统,其特征在于,其包括:
收集处理模块,用于获取图片和图片详情,并提取所述图片的色块和关键字,所述色块与所述关键字一一对应;所述色块和色块关键字的获取方法具体包括:获取图像源及图像源详情,并提取所述图像源中的图片,得到图片和图片详情;其中,所述图像源为静态图片、视频和动态图片,所述图片为静态图片以及逐帧提取自所述视频和所述动态图片图像帧;采用K-means均值聚类算法对步骤11中得到的图片进行聚类分析,得到图片色块;对图片详情进行分词处理,得到图片关键词;将所述图片色块与所述图片关键词关联,得到色块的RGB值与色块关键字;所述色块和色块关键字的获取方法,还包括:文学作品,其中,文学作品用于进行分词处理后搜索转化为配色图片,所述配色图片为具有色块RGB值和色块关键字的对应匹配关系图片;
构建模块,基于BP神经网络构建配色模型;
训练模块,用于将收集处理模块的关键字作为配色模型的输入数据,将色块作为配色模型的输出数据,训练配色模型;
输入输出模块,用于将关键字输入配色模型,进而将配色模型的输出结果发送至设定验证模块;
设定验证模块,用于设定配色模型具有实用性的阈值,并基于收集处理模块提取的色块,验证输入输出模块的输出结果是否满足具有实用性的阈值;
优化模块,在设定验证模块的验证结果不具有实用性时,用于优化配色模型,得到最终优化的配色模型,最终优化配色模型的输出结果满足设定阈值;
应用模块,用于基于最终优化配色模型和用户需求关键字,和/或者,将客户的需求关键字在配色图片中识别,输出配色方案。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110738545.2A CN113345053B (zh) | 2021-06-30 | 2021-06-30 | 一种智能配色方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110738545.2A CN113345053B (zh) | 2021-06-30 | 2021-06-30 | 一种智能配色方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113345053A CN113345053A (zh) | 2021-09-03 |
CN113345053B true CN113345053B (zh) | 2023-12-26 |
Family
ID=77481871
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110738545.2A Active CN113345053B (zh) | 2021-06-30 | 2021-06-30 | 一种智能配色方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113345053B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113743109B (zh) * | 2021-09-09 | 2024-03-29 | 浙江工业大学 | 一种基于用户情感的产品智能化配色设计系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106202042A (zh) * | 2016-07-06 | 2016-12-07 | 中央民族大学 | 一种基于图的关键词抽取方法 |
CN108549626A (zh) * | 2018-03-02 | 2018-09-18 | 广东技术师范学院 | 一种慕课的关键词提取方法 |
CN111080739A (zh) * | 2019-12-26 | 2020-04-28 | 山东浪潮通软信息科技有限公司 | 一种基于bp神经网络的bi配色方法及系统 |
-
2021
- 2021-06-30 CN CN202110738545.2A patent/CN113345053B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106202042A (zh) * | 2016-07-06 | 2016-12-07 | 中央民族大学 | 一种基于图的关键词抽取方法 |
CN108549626A (zh) * | 2018-03-02 | 2018-09-18 | 广东技术师范学院 | 一种慕课的关键词提取方法 |
CN111080739A (zh) * | 2019-12-26 | 2020-04-28 | 山东浪潮通软信息科技有限公司 | 一种基于bp神经网络的bi配色方法及系统 |
Non-Patent Citations (1)
Title |
---|
张善文.图像模式识别.西安电子科学出版社,2020,108-109. * |
Also Published As
Publication number | Publication date |
---|---|
CN113345053A (zh) | 2021-09-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110162591B (zh) | 一种面向数字教育资源的实体对齐方法及系统 | |
CN104298710B (zh) | 自动发现受欢迎的地标 | |
CN102334118B (zh) | 基于用户兴趣学习的个性化广告推送方法与系统 | |
CN114067385B (zh) | 基于度量学习的跨模态人脸检索哈希方法 | |
Shetty et al. | Segmentation and labeling of documents using conditional random fields | |
CN110598018B (zh) | 一种基于协同注意力的草图图像检索方法 | |
Yin et al. | Yes," Attention Is All You Need", for Exemplar based Colorization | |
CN102222101A (zh) | 一种视频语义挖掘方法 | |
CN111985520A (zh) | 一种基于图卷积神经网络的多模态分类方法 | |
CN110347868B (zh) | 用于图像搜索的方法和系统 | |
CN109214346A (zh) | 基于层次信息传递的图片人体动作识别方法 | |
JP4511135B2 (ja) | データ分布を表現する方法、データ要素を表現する方法、データ要素の記述子、照会データ要素を照合または分類する方法、その方法を実行するように設定した装置、コンピュータプログラム並びにコンピュータ読み取り可能な記憶媒体 | |
CN104008177B (zh) | 面向图像语义标注的规则库结构优化与生成方法及系统 | |
Caicedo et al. | Multimodal fusion for image retrieval using matrix factorization | |
CN113345053B (zh) | 一种智能配色方法及系统 | |
Han et al. | Text-to-Image Person Re-identification Based on Multimodal Graph Convolutional Network | |
CN106951501B (zh) | 一种基于多图匹配的三维模型检索方法 | |
CN116756363A (zh) | 一种由信息量引导的强相关性无监督跨模态检索方法 | |
Doulamis et al. | A neural network approach to interactive content-based retrieval of video databases | |
CN107491814B (zh) | 一种用于知识推送的过程案例分层知识模型构建方法 | |
CN109670071A (zh) | 一种序列化多特征指导的跨媒体哈希检索方法和系统 | |
CN114860978A (zh) | 基于文本的行人搜索任务语义对齐方法及系统 | |
CN115100694A (zh) | 一种基于自监督神经网络的指纹快速检索方法 | |
Doulamis et al. | Nonlinear relevance feedback: improving the performance of content-based retrieval systems | |
Umamaheswaran et al. | Variants, meta-heuristic solution approaches and applications for image retrieval in business–comprehensive review and framework |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |