Nothing Special   »   [go: up one dir, main page]

CN113345053B - 一种智能配色方法及系统 - Google Patents

一种智能配色方法及系统 Download PDF

Info

Publication number
CN113345053B
CN113345053B CN202110738545.2A CN202110738545A CN113345053B CN 113345053 B CN113345053 B CN 113345053B CN 202110738545 A CN202110738545 A CN 202110738545A CN 113345053 B CN113345053 B CN 113345053B
Authority
CN
China
Prior art keywords
color
color matching
matching model
picture
keywords
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110738545.2A
Other languages
English (en)
Other versions
CN113345053A (zh
Inventor
王浩
张现丰
刘海军
王璇章
聂耳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Hualu Media Information Technology Co ltd
Original Assignee
Beijing Hualu Media Information Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Hualu Media Information Technology Co ltd filed Critical Beijing Hualu Media Information Technology Co ltd
Priority to CN202110738545.2A priority Critical patent/CN113345053B/zh
Publication of CN113345053A publication Critical patent/CN113345053A/zh
Application granted granted Critical
Publication of CN113345053B publication Critical patent/CN113345053B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/40Filling a planar surface by adding surface attributes, e.g. colour or texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Biophysics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及配色技术领域,具体的说是一种智能配色方法及系统,所述方法包括以下步骤:步骤1:建立色彩语义数据库,所述色彩语义数据库中存储与色块RGB值以及与所述色块关联的色块关键字;步骤2:建立基于BP神经网络的配色模型,以步骤1中色块关键字作为配色模型的输入数据,色块RGB值作为配色模型的输出数据,训练配色模型;步骤3:利用步骤1中色彩语义数据库中的色块RGB值和色块关键字作为样本验证并优化配色模型,得到优化后的配色模型;步骤4:将客户的需求关键字输入步骤3得到的配色模型,配色模型输出需求关键字以及相应的色块的RGB值,得到配色方案。

Description

一种智能配色方法及系统
技术领域
本发明涉及配色技术领域,具体的说是一种智能配色方法及系统。
背景技术
色彩的搭配在设计的创作过程中是重要内容之一。优秀的色彩搭配不仅能够增添作品的冲击力与感染力,提升作品的吸引力,让观赏者更好的欣赏与理解作品。因此,作为一个优秀的平面设计师必须要具备较强的色彩搭配能力。色彩在平面设计中不仅可以突出作品的特色和主题,同时也能够美化设计的版面,增强整个设计作品的美感,并且给观看者留下更深的印象。
随着信息技术的迅速发展,大数据时代已经来临。越来越多的政府、企业需要借助多维度的数据分析开展工作,因此,数据可视化工具的使用也愈加广泛。而优秀的的配色方案不仅可以满足客户的审美需求,更可以突出数据本身的信息价值。研究配色方案系统,可以为设计师提供基本的配色方案,协助设计师迅速输出效果图,提升工具的开发进度。
因此,针对以上不足,本发明急需提供一种智能配色方法及系统。
发明内容
本发明的目的在于提供一种智能配色方法及系统,以解决现有技术中的上述问题。
本发明提供的智能配色方法,包括以下步骤:步骤1:建立色彩语义数据库,所述色彩语义数据库中存储与色块RGB值以及与所述色块关联的色块关键字;步骤2:建立基于BP神经网络的配色模型,以步骤1中色块关键字作为配色模型的输入数据,色块RGB值作为配色模型的输出数据,训练配色模型;步骤3:利用步骤1中色彩语义数据库中的色块RGB值和色块关键字作为样本验证并优化配色模型,得到优化后的配色模型;步骤4:将客户的需求关键字输入步骤3得到的配色模型,配色模型输出需求关键字以及相应的色块的RGB值,得到配色方案。
如上所述的智能配色方法,进一步优选为,步骤1中所述色块和色块关键字的获取方法具体包括:步骤11:获取图像源及图像源详情,并提取所述图像源中的图片,得到图片和图片详情;步骤12:采用K-means均值聚类算法对步骤11中得到的图片进行聚类分析,得到图片色块;步骤13:对图片详情进行分词处理,得到图片关键词;步骤14:将所述图片色块与所述图片关键词关联,得到色块的RGB值与色块关键字。
如上所述的智能配色方法,进一步优选为,步骤11所述图像源为静态图片、视频和动态图片,所述图片为静态图片以及逐帧提取自所述视频和所述动态图片图像帧。
如上所述的智能配色方法,进一步优选为,步骤12具体包括:步骤121:获取步骤11中的图片并设置待提取的颜色数量,从图片中随机选取若干像素作为初始聚类中心,并设定聚类中心的向量值;步骤122:利用欧式距离法将图片中像素与初始聚类中心进行匹配;步骤123:重新步骤122中每个聚类中心的向量值以及每个聚类的样本向量平均值,并根据计算得到的聚类中心的向量值和聚类的样本向量平均值计算得到准误差平方和;步骤124:若相邻两聚类的准误差平方和的绝对值复合预设条件,则算法收敛,计算结束,否则返回步骤121,重新计算聚类中心;步骤125:重复上述步骤,逐个迭代运算重新分类,直至算法收敛,直至提取出预设的n中主要色块,所述主要色块为既定配色。
如上所述的智能配色方法,进一步优选为,聚类的样本向量平均值由下列公式计算得到:
P为聚类的样本向量平均值,pi为第i个聚类样本,i∈[1,n];
准误差平方和由下列公式计算得到:
式中,SSE为准误差平方和;mi为第i个聚类中心点,i∈[1,n];p为聚类样本,p∈Ci,其中Ci表示第i个聚类集群,共n个聚类集群,i∈[1,n]。
如上所述的智能配色方法,进一步优选为,步骤13具体包括:步骤131:对源图像详情进行切割,中每个句子进行分词和词性标注,并保留具有指定词性的单词以构成候选关键词,多个所述候选关键词组成关键词图模型,每个所述候选关键词为构成图模型的节点;步骤132:计算关键词图模型中各节点的权重,并按照权重大小的顺序获取若干节点以构成候选标签;若候选标签形成相邻词组,则组合多词标签;步骤133:选取步骤S4中的候选标签或多词标签作为需求关键字。
如上所述的智能配色方法,进一步优选为,步骤132具体包括:步骤1321:采用共现关系构造任意两个节点之间的边,并将存在边的两个节点添加至图模型中以构成一个无向无权边图;步骤1322:确认无向无权边图中任意节点的词语位置、词性和领域特征的权重分配,通过多特征融合得出综合权重。
如上所述的智能配色方法,进一步优选为,步骤1322中,各节点的综合权重采用下列公式进行计算:
式中,WS(Vi)表示节点Vi的权重,WS(Vj)表示节点Vj的权重;
d为阻尼因子,表示图中任意一个节点跳转到其他节点的概率值;
In(Vi)表示指向节点Vi的所有节点的集合,In(Vi)=loge(Vi);Out(Vj)表示节点Vj指向的所有节点Vj的集合;
ωji为点Vj到点Vi Vj边的权重;ωjk为点Vj到点VkVj边的权重。
如上所述的智能配色方法,进一步优选为,步骤2中建立基于BP神经网络的配色模型具体包括:步骤2.1:基于BP神经网络的输入层、隐含层及输出层三层结构,建立配色模型;步骤2.2:在步骤2.1建立的配色模型中引入训练算法,将步骤1中色块关键字输入配色模型,配色模型输出色块的RGB值;步骤2.3:将步骤1中色块的RGB值与步骤3.2中配色模型的输出结果进行对比,根据对比结果调整配色模型;步骤2.4:设定提取RGB值与输出结果的对比相似度,基于不同的源图像,循环执行步骤2.2-步骤2.3,至对比结果超过设定的对比相似度,完成配色模型的训练。
如上所述的智能配色方法,进一步优选为,在建立并训练配色模型的过程中,BP神经网络的隐含层为单隐层,隐层节点数设定为5。
本发明还公开了一种智能配色系统,其包括:收集处理模块,用于获取图片和图片详情,并提取所述图片的色块和关键字,所述色块与所述关键字一一对应;构建模块,基于BP神经网络构建配色模型;训练模块,用于将收集处理模块的关键字作为配色模型的输入数据,将色块作为配色模型的输出数据,训练配色模型;输入输出模块,用于将关键字输入配色模型,进而将配色模型的输出结果发送至设定验证模块;设定验证模块,用于设定配色模型具有实用性的阈值,并基于收集处理模块提取的色块,验证输入输出模块的输出结果是否满足具有实用性的阈值;优化模块,在设定验证模块的验证结果不具有实用性时,用于优化配色模型,得到最终优化的配色模型,最终优化配色模型的输出结果满足设定阈值;应用模块,用于基于最终优化配色模型和用户需求关键字,输出配色方案。
本发明与现有技术相比具有以下的优点:
本发明通过对现有图片的详情和主要配色的RGB值训练得到配色模型,进而通过配色模型实现由客户需求自动导出配色方案的效果,给UI设计师提供基础的配色依据,帮助其提高输出效果图的效率。
附图说明
为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明中智能配色方法的流程图;
图2为本发明中配色模型的流程图。
具体实施方式
如图1-2所示,本实施例公开了智能配色方法,包括以下步骤:
步骤1:建立色彩语义数据库,所述色彩语义数据库中存储与色块RGB值以及与所述色块关联的色块关键字;
步骤2:建立基于BP神经网络的配色模型,以步骤1中色块关键字作为配色模型的输入数据,色块RGB值作为配色模型的输出数据,训练配色模型;
步骤3:利用步骤1中色彩语义数据库中的色块RGB值和色块关键字作为样本验证并优化配色模型,得到优化后的配色模型;
步骤4:将客户的需求关键字输入步骤3得到的配色模型,配色模型输出需求关键字以及相应的色块的RGB值,得到配色方案。
进一步的,步骤1中所述色块和色块关键字的获取方法具体包括:
步骤11:获取图像源及图像源详情,并提取所述图像源中的图片,得到图片和图片详情;
步骤12:采用K-means均值聚类算法对步骤11中得到的图片进行聚类分析,得到图片色块;
步骤13:对图片详情进行分词处理,得到图片关键词;
步骤14:将所述图片色块与所述图片关键词关联,得到色块的RGB值与色块关键字。
进一步的,步骤11所述图像源为静态图片、视频和动态图片,所述图片为静态图片以及逐帧提取自所述视频和所述动态图片图像帧。
进一步的,步骤12中具体包括:
步骤121:获取步骤11中的图片并设置待提取的颜色数量,从图片中随机选取若干像素作为初始聚类中心,并设定聚类中心的向量值;
步骤122:利用欧式距离法将图片中像素与初始聚类中心进行匹配;
步骤123:重新步骤122中每个聚类中心的向量值以及每个聚类的样本向量平均值,并根据计算得到的聚类中心的向量值和聚类的样本向量平均值计算得到准误差平方和;
步骤124:若相邻两聚类的准误差平方和的绝对值复合预设条件,则算法收敛,计算结束,否则返回步骤121,重新计算聚类中心;
步骤125:重复上述步骤,逐个迭代运算重新分类,直至算法收敛,直至提取出预设的n中主要色块,所述主要色块为既定配色。
具体的,步骤121中,设置需要被提取的主色的个数为n,选定聚类中心,j代表待聚类的所有数据,为寻找聚类中心需要迭代运算的次数,设定聚类中心的向量值为:
Zj(I),j=1,2,...k。其中,Zj(I)代表聚类中心的向量值,j代表待聚类的所有数据,j=1,2,…k。根据需要配色的数量确定,如需要5种配色,则此处选取Zj(I)=5。
步骤122中,计算图片中像素与各初始聚类中心的距离,并将像素划分到与其距离最小的聚类中心中,即:
D(xi,Zj(I))=min{D(xi,Zj(I)),j=1,2,...,n},则xi∈wk
步骤123中,聚类中心的向量值由下列公式计算得到:
聚类的样本向量平均值由下列公式计算得到:
准误差平方和由下列公式计算得到:
步骤123中,若|Jc(I)-Jc(I-1)|<ξ,j=1,2,...,k,则算法收敛,计算结束。否则返回第二步,计算新的聚类中心:
进一步的,步骤13具体包括:
步骤131:对源图像详情进行切割,中每个句子进行分词和词性标注,并保留具有指定词性的单词以构成候选关键词,多个所述候选关键词组成关键词图模型,每个所述候选关键词为构成图模型的节点;
步骤132:计算关键词图模型中各节点的权重,并按照权重大小的顺序获取若干节点以构成候选标签;若候选标签形成相邻词组,则组合多词标签;
步骤133:选取步骤S4中的候选标签或多词标签作为需求关键字。
具体的,步骤132具体包括:
步骤1321:采用共现关系构造任意两个节点之间的边,并将存在边的两个节点添加至图模型中以构成一个无向无权边图;
步骤1322:确认无向无权边图中任意节点的词语位置、词性和领域特征的权重分配,通过多特征融合得出综合权重。
具体的,步骤1322中,各节点的综合权重采用下列公式进行计算:
式中,WS(Vi)表示节点Vi的权重,WS(Vj)表示节点Vj的权重;
d为阻尼因子,表示图中任意一个节点跳转到其他节点的概率值;
In(Vi)表示指向节点Vi的所有节点的集合,In(Vi)=loge(Vi);Out(Vj)表示节点Vj指向的所有节点的集合;Vk表示节点Vj指向的节点;
ωji为点Vj到点Vi Vj边的权重;ωjk为点Vj到点VkVj边的权重。
进一步的,步骤2中建立基于BP神经网络的配色模型具体包括:
步骤2.1、基于BP神经网络的输入层、隐含层及输出层三层结构,建立配色模型;
步骤2.2、在步骤2.1建立的配色模型中引入训练算法,将步骤1中色块关键字输入配色模型,配色模型输出色块的RGB值;
步骤2.3、将步骤1中色块的RGB值与步骤3.2中配色模型的输出结果进行对比,根据对比结果调整配色模型;
步骤2.4、设定提取RGB值与输出结果的对比相似度,基于不同的源图像,循环执行步骤2.2-步骤2.3,至对比结果超过设定的对比相似度,完成配色模型的训练。
具体的,在建立并训练配色模型的过程中,BP神经网络的隐含层为单隐层,具体的,根据如下公式计算隐含层节点数:
其中m为隐含层节点数,n为输入层节点数,l为输出层节点数,α为1~10之间的常数,这里取α=7.5。
本实施例中,隐层节点数设定为5,输入层节点数为3个,输出层节点数为3个,则神经网络的权值和阀值总数nω为3*5+3*5+5+5=40。
在色彩语义数据库中挑选色块和色块关键字作为训练样本,其中训练样本的数量为P,给定的训练误差为ε,其中:
nω是神经网络的权值和阀值数量之和,P为训练样本的数量,ε为给定的训练误差。
根据迭代步数为2000,训练目标为0.001,训练函数为trainlm,隐节点传递函数为logsig,输出节点传递函数为purelin构建神经网络模型,其中:purelin函数公式为y=x。
如图1所示,客户的需求关键字可以按照关键词、风格、行业因子以及时间进行拆分。
此外,所述色彩语义数据库中还存储有文字、文学作品、诗词歌赋等,通过对文字诗词歌赋以及文学作品的分词处理,并与数据库中的配色相匹配,得到特定场景或词语的配色或图片,如诗句“日出江花红胜火,春来江水绿如蓝。”可以通过分词后,检索出相应的配色或是符合此诗描述场景的图片,直接将诗词转化为具象图片。
进一步的,本实施例还公开了智能配色系统,其包括:
收集处理模块,用于获取图片和图片详情,并提取所述图片的色块和关键字,所述色块与所述关键字一一对应;
构建模块,基于BP神经网络构建配色模型;
训练模块,用于将收集处理模块的关键字作为配色模型的输入数据,将色块作为配色模型的输出数据,训练配色模型;
输入输出模块,用于将关键字输入配色模型,进而将配色模型的输出结果发送至设定验证模块;
设定验证模块,用于设定配色模型具有实用性的阈值,并基于收集处理模块提取的色块,验证输入输出模块的输出结果是否满足具有实用性的阈值;
优化模块,在设定验证模块的验证结果不具有实用性时,用于优化配色模型,得到最终优化的配色模型,最终优化配色模型的输出结果满足设定阈值;
应用模块,用于基于最终优化配色模型和用户需求关键字,输出配色方案。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。

Claims (9)

1.一种智能配色方法,其特征在于,包括以下步骤:
步骤1:建立色彩语义数据库,所述色彩语义数据库中存储与色块RGB值以及与所述色块关联的色块关键字;所述色彩语义数据库还包括文学作品,其中,文学作品用于进行分词处理后搜索转化为配色图片,所述配色图片为具有色块RGB值和色块关键字的对应匹配关系图片;
步骤2:建立基于BP神经网络的配色模型,以步骤1中色块关键字作为配色模型的输入数据,色块RGB值作为配色模型的输出数据,训练配色模型;
步骤3:利用步骤1中色彩语义数据库中的色块RGB值和色块关键字作为样本验证并优化配色模型,得到优化后的配色模型;
步骤4:将客户的需求关键字输入步骤3得到的配色模型,配色模型输出需求关键字以及相应的色块的RGB值,和/或者,将客户的需求关键字在配色图片中识别,得到配色方案;步骤1中所述色块和色块关键字的获取方法具体包括:
步骤11:获取图像源及图像源详情,并提取所述图像源中的图片,得到图片和图片详情;其中,所述图像源为静态图片、视频和动态图片,所述图片为静态图片以及逐帧提取自所述视频和所述动态图片图像帧;
步骤12:采用K-means均值聚类算法对步骤11中得到的图片进行聚类分析,得到图片色块;
步骤13:对图片详情进行分词处理,得到图片关键词;
步骤14:将所述图片色块与所述图片关键词关联,得到色块的RGB值与色块关键字。
2.根据权利要求1所述的智能配色方法,其特征在于,
步骤12具体包括:
步骤121:获取步骤11中的图片并设置待提取的颜色数量,从图片中随机选取若干像素作为初始聚类中心,并设定聚类中心的向量值;
步骤122:利用欧式距离法将图片中像素与初始聚类中心进行匹配;
步骤123:重新步骤122中每个聚类中心的向量值以及每个聚类的样本向量平均值,并根据计算得到的聚类中心的向量值和聚类的样本向量平均值计算得到准误差平方和;
步骤124:若相邻两聚类的准误差平方和的绝对值符合预设条件,则算法收敛,计算结束,否则返回步骤121,重新计算聚类中心;
步骤125:重复上述步骤,逐个迭代运算重新分类,直至算法收敛,直至提取出预设的n种主要色块,所述主要色块为既定配色。
3.根据权利要求2所述的智能配色方法,其特征在于,
聚类的样本向量平均值由下列公式计算得到:
P为聚类的样本向量平均值,pi为第i个聚类样本,i∈[1,n];
准误差平方和由下列公式计算得到:
式中,SSE为准误差平方和;mi为第i个聚类中心点,i∈[1,n];p为聚类样本,p∈Ci,其中Ci表示第i个聚类集群,共n个聚类集群,i∈[1,n]。
4.根据权利要求3所述的智能配色方法,其特征在于,步骤13具体包括:
步骤131:对源图像详情进行切割,将源图像详情中的每个句子进行分词和词性标注,并保留具有指定词性的单词以构成候选关键词,多个所述候选关键词组成关键词图模型,每个所述候选关键词为构成图模型的节点;
步骤132:计算关键词图模型中各节点的权重,并按照权重大小的顺序获取若干节点以构成候选标签;若候选标签形成相邻词组,则组合多词标签;
步骤133:选取步骤S4中的候选标签或多词标签作为需求关键字。
5.根据权利要求4所述的智能配色方法,其特征在于,步骤132具体包括:
步骤1321:采用共现关系构造任意两个节点之间的边,并将存在边的两个节点添加至图模型中以构成一个无向无权边图;
步骤1322:确认无向无权边图中任意节点的词语位置、词性和领域特征的权重分配,通过多特征融合得出综合权重。
6.根据权利要求5所述的智能配色方法,其特征在于,步骤1322中,各节点的综合权重采用下列公式进行计算:
式中,WS(Vi)表示节点Vi的权重,WS(Vj)表示节点Vj的权重;
d为阻尼因子,表示图中任意一个节点跳转到其他节点的概率值;
In(Vi)表示指向节点Vi的所有节点的集合,In(Vi)=loge(Vi);Out(Vj)表示节点Vj指向的所有节点Vj的集合;
ωji为点Vj到点ViVj边的权重;ωjk为点Vj到点VkVj边的权重。
7.根据权利要求6所述的智能配色方法,其特征在于,步骤2中建立基于BP神经网络的配色模型具体包括:
步骤2.1:基于BP神经网络的输入层、隐含层及输出层三层结构,建立配色模型;
步骤2.2:在步骤2.1建立的配色模型中引入训练算法,将步骤1中色块关键字输入配色模型,配色模型输出色块的RGB值;
步骤2.3:将步骤1中色块的RGB值与步骤2.2中配色模型的输出结果进行对比,根据对比结果调整配色模型;
步骤2.4:设定提取RGB值与输出结果的对比相似度,基于不同的源图像,循环执行步骤2.2-步骤2.3,至对比结果超过设定的对比相似度,完成配色模型的训练。
8.根据权利要求7所述的智能配色方法,其特征在于,在建立并训练配色模型的过程中,BP神经网络的隐含层为单隐层,隐层节点数设定为5。
9.一种智能配色系统,其特征在于,其包括:
收集处理模块,用于获取图片和图片详情,并提取所述图片的色块和关键字,所述色块与所述关键字一一对应;所述色块和色块关键字的获取方法具体包括:获取图像源及图像源详情,并提取所述图像源中的图片,得到图片和图片详情;其中,所述图像源为静态图片、视频和动态图片,所述图片为静态图片以及逐帧提取自所述视频和所述动态图片图像帧;采用K-means均值聚类算法对步骤11中得到的图片进行聚类分析,得到图片色块;对图片详情进行分词处理,得到图片关键词;将所述图片色块与所述图片关键词关联,得到色块的RGB值与色块关键字;所述色块和色块关键字的获取方法,还包括:文学作品,其中,文学作品用于进行分词处理后搜索转化为配色图片,所述配色图片为具有色块RGB值和色块关键字的对应匹配关系图片;
构建模块,基于BP神经网络构建配色模型;
训练模块,用于将收集处理模块的关键字作为配色模型的输入数据,将色块作为配色模型的输出数据,训练配色模型;
输入输出模块,用于将关键字输入配色模型,进而将配色模型的输出结果发送至设定验证模块;
设定验证模块,用于设定配色模型具有实用性的阈值,并基于收集处理模块提取的色块,验证输入输出模块的输出结果是否满足具有实用性的阈值;
优化模块,在设定验证模块的验证结果不具有实用性时,用于优化配色模型,得到最终优化的配色模型,最终优化配色模型的输出结果满足设定阈值;
应用模块,用于基于最终优化配色模型和用户需求关键字,和/或者,将客户的需求关键字在配色图片中识别,输出配色方案。
CN202110738545.2A 2021-06-30 2021-06-30 一种智能配色方法及系统 Active CN113345053B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110738545.2A CN113345053B (zh) 2021-06-30 2021-06-30 一种智能配色方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110738545.2A CN113345053B (zh) 2021-06-30 2021-06-30 一种智能配色方法及系统

Publications (2)

Publication Number Publication Date
CN113345053A CN113345053A (zh) 2021-09-03
CN113345053B true CN113345053B (zh) 2023-12-26

Family

ID=77481871

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110738545.2A Active CN113345053B (zh) 2021-06-30 2021-06-30 一种智能配色方法及系统

Country Status (1)

Country Link
CN (1) CN113345053B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113743109B (zh) * 2021-09-09 2024-03-29 浙江工业大学 一种基于用户情感的产品智能化配色设计系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106202042A (zh) * 2016-07-06 2016-12-07 中央民族大学 一种基于图的关键词抽取方法
CN108549626A (zh) * 2018-03-02 2018-09-18 广东技术师范学院 一种慕课的关键词提取方法
CN111080739A (zh) * 2019-12-26 2020-04-28 山东浪潮通软信息科技有限公司 一种基于bp神经网络的bi配色方法及系统

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106202042A (zh) * 2016-07-06 2016-12-07 中央民族大学 一种基于图的关键词抽取方法
CN108549626A (zh) * 2018-03-02 2018-09-18 广东技术师范学院 一种慕课的关键词提取方法
CN111080739A (zh) * 2019-12-26 2020-04-28 山东浪潮通软信息科技有限公司 一种基于bp神经网络的bi配色方法及系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
张善文.图像模式识别.西安电子科学出版社,2020,108-109. *

Also Published As

Publication number Publication date
CN113345053A (zh) 2021-09-03

Similar Documents

Publication Publication Date Title
CN110162591B (zh) 一种面向数字教育资源的实体对齐方法及系统
CN104298710B (zh) 自动发现受欢迎的地标
CN102334118B (zh) 基于用户兴趣学习的个性化广告推送方法与系统
CN114067385B (zh) 基于度量学习的跨模态人脸检索哈希方法
Shetty et al. Segmentation and labeling of documents using conditional random fields
CN110598018B (zh) 一种基于协同注意力的草图图像检索方法
Yin et al. Yes," Attention Is All You Need", for Exemplar based Colorization
CN102222101A (zh) 一种视频语义挖掘方法
CN111985520A (zh) 一种基于图卷积神经网络的多模态分类方法
CN110347868B (zh) 用于图像搜索的方法和系统
CN109214346A (zh) 基于层次信息传递的图片人体动作识别方法
JP4511135B2 (ja) データ分布を表現する方法、データ要素を表現する方法、データ要素の記述子、照会データ要素を照合または分類する方法、その方法を実行するように設定した装置、コンピュータプログラム並びにコンピュータ読み取り可能な記憶媒体
CN104008177B (zh) 面向图像语义标注的规则库结构优化与生成方法及系统
Caicedo et al. Multimodal fusion for image retrieval using matrix factorization
CN113345053B (zh) 一种智能配色方法及系统
Han et al. Text-to-Image Person Re-identification Based on Multimodal Graph Convolutional Network
CN106951501B (zh) 一种基于多图匹配的三维模型检索方法
CN116756363A (zh) 一种由信息量引导的强相关性无监督跨模态检索方法
Doulamis et al. A neural network approach to interactive content-based retrieval of video databases
CN107491814B (zh) 一种用于知识推送的过程案例分层知识模型构建方法
CN109670071A (zh) 一种序列化多特征指导的跨媒体哈希检索方法和系统
CN114860978A (zh) 基于文本的行人搜索任务语义对齐方法及系统
CN115100694A (zh) 一种基于自监督神经网络的指纹快速检索方法
Doulamis et al. Nonlinear relevance feedback: improving the performance of content-based retrieval systems
Umamaheswaran et al. Variants, meta-heuristic solution approaches and applications for image retrieval in business–comprehensive review and framework

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant