Nothing Special   »   [go: up one dir, main page]

JPH03224076A - Graphic coloring system - Google Patents

Graphic coloring system

Info

Publication number
JPH03224076A
JPH03224076A JP1943890A JP1943890A JPH03224076A JP H03224076 A JPH03224076 A JP H03224076A JP 1943890 A JP1943890 A JP 1943890A JP 1943890 A JP1943890 A JP 1943890A JP H03224076 A JPH03224076 A JP H03224076A
Authority
JP
Japan
Prior art keywords
neural network
color information
parameter
output
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP1943890A
Other languages
Japanese (ja)
Other versions
JP2770523B2 (en
Inventor
Tatsuo Ota
太田 竜男
Hiroyuki Onda
隠田 博之
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP1943890A priority Critical patent/JP2770523B2/en
Publication of JPH03224076A publication Critical patent/JPH03224076A/en
Application granted granted Critical
Publication of JP2770523B2 publication Critical patent/JP2770523B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

PURPOSE:To automatically set halftone coloring status by outputting or displaying a graphic colored from color information obtained by inputting a parameter to a neural network learned by a pair of parameter color information and with a neural network learning means. CONSTITUTION:The color information can be obtained by supplying the parameter of the pair 21 of parameter color information to the neural network 1. The neural network learning means 2 updates the weight value of the neural network 1 by using obtained color information and the color information of the pair of parameter color information. After such work is performed for several times by using plural pairs of parameter color information and weight is converged, it is recognized that learning is completed, and the color information in accordance with an arbitrary parameter can be obtained by using the neural network for which the learning is completed. In such a way, a color can be varied arbitrarily corresponding to the parameter.

Description

【発明の詳細な説明】 〔概 要〕 図形又は絵画等を表示する装置に於いて、パラメータに
応じて色を任意に変化させることを目的とし、 パラメータが入力される入力層と、前記入力層の出力値
に重みをかけたものを演算し出力する複数の中間層と、
前記中間層の複数の出力に重みがかけられた複数の値に
演算処理を施し、前記演算結果を色情報として出力する
複数の出力層とを有するニューラルネットワークトと、
パラメータと色情報を対応させた複数のパラメータ色情
報組を格納する手段と、前記パラメータ色情報のパラメ
ータを前記ニューラルネットワークの入力層に与えて得
られる出力層の出力値と、前記パラメータに対応する色
情報との誤差から前記ニューラルネットワークの重み値
を更新するニューラルネットワーク学習手段と、前記パ
ラメータ色情報組とニューラルネットワーク学習手段に
よって学習されたニューラルネットワークにパラメータ
を入力して得られた色情報から着色された図形を出力又
は表示する表示出力手段を有する構成とする。
[Detailed Description of the Invention] [Summary] In a device for displaying figures, paintings, etc., the purpose is to arbitrarily change colors according to parameters, and the invention includes an input layer into which parameters are input, and the input layer. multiple intermediate layers that calculate and output weighted output values;
a neural network having a plurality of output layers that perform arithmetic processing on a plurality of values obtained by weighting the plurality of outputs of the intermediate layer and output the arithmetic results as color information;
means for storing a plurality of parameter color information sets in which parameters are associated with color information; an output value of an output layer obtained by applying the parameter of the parameter color information to an input layer of the neural network; and a value corresponding to the parameter; Neural network learning means for updating weight values of the neural network based on errors with color information, and coloring from color information obtained by inputting parameters to the neural network trained by the parameter color information set and the neural network learning means. The configuration includes a display output means for outputting or displaying the displayed figure.

〔産業上の利用分野〕[Industrial application field]

本発明は、衣料デザイン関連等の彩色作業における色彩
の変化を、それらの色に影響を及ぼすパラメータ(感覚
的なパラメータ、例えば温かいや、冷たい等、又非線形
なパラメータや、季節等の年月時分等のパラメータ)に
対する色変化として捉え、様々な色を任意に表示するシ
ステムに関する。
The present invention analyzes changes in colors in coloring work related to clothing design, etc., using parameters that affect those colors (sensory parameters, such as warm or cold, non-linear parameters, and year, month, and time such as seasons). This system relates to a system that arbitrarily displays various colors by viewing them as color changes with respect to parameters (such as minutes, etc.).

〔従来の技術〕[Conventional technology]

従来から画面の情報を幾つかの領域に区切り、その複数
の領域の色を与えられたパラメータにより変化させるシ
ステムがアニメーション等の画像処理の分野で実施され
ている。例えば、第9図の画像を考える。第9図は風景
を示す図である。■の領域を空、■の領域を地面、■の
領域を家の窓とする。これらの領域の色を与えられた時
刻情報にしたがって変化させる。例えば、朝の時刻(午
前8時や午前9時)と夕方の時刻(午後5時や6時)等
では、風景の色が異なる。朝の時刻では空は青いが、夕
方の時刻はオレンジや赤である。この時刻に応じて前記
領域の色を変化させるシステムを実現する場合、従来で
は、その時刻に応じた色データをデータベースとして用
意しておく又は、関数として表現する等の手段が考えら
れていた。
2. Description of the Related Art Conventionally, systems have been implemented in the field of image processing such as animation that divide information on a screen into several areas and change the colors of the multiple areas based on given parameters. For example, consider the image in FIG. FIG. 9 is a diagram showing the scenery. Let the area of ■ be the sky, the area of ■ be the ground, and the area of ■ be the window of the house. The colors of these areas are changed according to the given time information. For example, the color of the landscape is different depending on the morning time (8:00 a.m. or 9:00 a.m.) and the evening time (5:00 p.m. or 6:00 p.m.). The sky is blue in the morning, but in the evening it is orange or red. In order to realize a system that changes the color of the area according to the time, conventional methods have been considered such as preparing color data corresponding to the time as a database or expressing it as a function.

〔発明が解決しようとする課題〕[Problem to be solved by the invention]

しかしながら、前記のデータベースとして用意しておく
手段であるとデータベースのデータ量が大きくなってし
まう。仮に、1日の時刻に応じて変化させる場合はデー
タ量は差はど大きいものでも無いが、−年という季節の
変化を持たせるとするとデータ量は莫大なものとなって
しまう。関数によって実現する場合は、複雑な関数とな
ってしまう。
However, if the above-mentioned method is prepared as a database, the amount of data in the database becomes large. For example, if the data is changed according to the time of day, the difference in the amount of data will not be large, but if it is made to change according to the season of -year, the amount of data will be enormous. If it is realized by a function, the function will be complicated.

又、−旦システムが実現し、修正する場合を考えると、
データベースとして用意しておく手段の場合は修正する
データも莫大なものとなる。又、関数の場合は関数相互
間に矛盾が生じない様にしなければならない。
Also, considering the case where the system is realized and modified,
If the method is prepared as a database, the amount of data to be corrected will be enormous. Furthermore, in the case of functions, it is necessary to ensure that there are no contradictions between the functions.

従って、パラメータ値が異なる状態における対象画面の
彩色状況を自動的に生成するのは困難であり、パラメー
タの状況の推移によってはその都度利用者が直す必要が
あった。又、直す際の作業は非常に困難なものであった
Therefore, it is difficult to automatically generate the coloring status of the target screen when the parameter values are different, and the user has to correct the coloring status each time depending on the change in the parameter status. In addition, the repair work was extremely difficult.

よって、本発明の目的は、画面の初期状態における彩色
状況にこだわらず、−船釣、離散的な彩色状況を利用者
が適宜設定することにより、中間的な彩色状況を自動的
に設定してくれる着色システムを実現することである。
Therefore, an object of the present invention is to automatically set intermediate coloring conditions by allowing the user to appropriately set discrete coloring conditions without being concerned with the coloring condition in the initial state of the screen. The aim is to realize a coloring system that gives a unique coloring effect.

(課題を解決する為の手段〕 第1図は本発明の原理説明図である。本発明は、パラメ
ータが入力される入力層と、前記入力層の出力値に重み
をかけたものを演算し出力する複数の中間層と、前記中
間層の複数の出力に重みがかけられた複数の値に演算処
理を施し、前記演算結果を色情報として出力する複数の
出力層とを有するニューラルネットワーク1と、パラメ
ータと色情報を対応させた複数のパラメータ色情報組を
格納する手段21と、前記パラメータ色情報のパラメー
タを前記ニューラルネットワークの入力層に与えて得ら
れる出力層の出力値と、前記パラメータに対応する色情
報との誤差から前記ニューラルネットワークの重み値を
更新するニューラルネットワーク学習手段2と、前記パ
ラメータ色情報組とニューラルネットワーク学習手段に
よって学習されたニューラルネットワークにパラメータ
を入力して得られた色情報から着色された図形を出力又
は表示する表示出力手段6を有する構成とする。
(Means for Solving the Problems) Fig. 1 is an explanatory diagram of the principle of the present invention.The present invention calculates an input layer into which parameters are input and a weighted value of the output value of the input layer. A neural network 1 having a plurality of intermediate layers that output, and a plurality of output layers that perform arithmetic processing on a plurality of values obtained by weighting the plurality of outputs of the intermediate layer, and output the calculation results as color information. , means 21 for storing a plurality of parameter color information sets in which parameters are associated with color information; an output value of an output layer obtained by applying the parameters of the parameter color information to the input layer of the neural network; a neural network learning means 2 for updating the weight value of the neural network based on the error with the corresponding color information; and a color obtained by inputting parameters to the neural network trained by the parameter color information set and the neural network learning means. The configuration includes a display output means 6 that outputs or displays figures colored from information.

〔作 用〕[For production]

ニューラルネットワーク1にパラメータ色情報組21の
パラメータを与え、色情報を得る。前記得られた色情報
とパラメータ色情報組の色情報を用いて、ニューラルネ
ットワーク学習手段2は、ニューラルネットワーク1の
重み値を更新する。
The parameters of the parameter color information set 21 are given to the neural network 1 to obtain color information. The neural network learning means 2 updates the weight values of the neural network 1 using the obtained color information and the color information of the parameter color information set.

前記作業を複数のパラメータ色情報組を用いて複数回行
う。重みが収束したら、学習終了とし、前記学習終了し
たニューラルネットワークを用いて、任意のパラメータ
に応じた色情報を得る。
The above operation is performed multiple times using multiple parameter color information sets. When the weights converge, the learning is completed, and color information corresponding to an arbitrary parameter is obtained using the neural network for which the learning has been completed.

仮に、修正する際には、新たに、パラメータ色情報組を
用意して、追加の学習を行うことによって修正を簡単に
行うことが出来る。従来の様にデータヘースをユーザー
が書き換えたり、関数を訂正したり等の煩雑な処理は無
い。
If corrections are to be made, the corrections can be easily made by preparing a new set of parameter color information and performing additional learning. Unlike conventional methods, there is no need for the user to rewrite data files or correct functions.

〔実施例〕〔Example〕

第2図は、本発明の一実施例の構成図である。 FIG. 2 is a configuration diagram of an embodiment of the present invention.

この装置は第9図の色を与えられた時刻情報に応じて変
化させる装置とする。図中、1はニューラルネットワー
ク、2はニューラルネットワーク操作部、3はニューラ
ルネットワーク実行部、5はパラメータ入力部、6はデ
イスプレィ装置、7はパラメータ入力装置、8は彩色情
報抽出装置、9はイメージ入力装置である。
This device is a device that changes the colors shown in FIG. 9 according to given time information. In the figure, 1 is a neural network, 2 is a neural network operation unit, 3 is a neural network execution unit, 5 is a parameter input unit, 6 is a display device, 7 is a parameter input device, 8 is a color information extraction device, and 9 is an image input unit. It is a device.

イメージ入力装置9 (スキャナー等)から入力された
データは、彩色情報抽出部8によって、予め設定された
領域毎に色が抽出される。例えば第9図の場合、■、■
、■の領域の色を抽出するものとする。彩色情報抽出部
8の動作は第7図のフローチャートによって示されてい
る。
Data input from an image input device 9 (scanner, etc.) is extracted by a coloring information extraction section 8 for each preset area. For example, in the case of Figure 9, ■,■
, ■ The color of the region is extracted. The operation of the coloring information extraction section 8 is shown in the flowchart of FIG.

ステップ1 イメージ入力装置から、入力データを受ける。Step 1 Receives input data from an image input device.

この時のデータはRGBのドツト情報としてデータが入
力される。
The data at this time is input as RGB dot information.

ステップ2 前記RGBが混合されているデータの領域内のRGBの
割合を調べることにより、単一の中間色表現とする。
Step 2 A single neutral color representation is obtained by examining the ratio of RGB in the area of the data in which the RGB is mixed.

ステップ3 前記変換後の色成分をRGBで数値化するこの数値化は
256階調(0〜255)で行うものとする。例えば、
紫なら(255,0,255)である。
Step 3 Convert the color components after the conversion into numerical values using RGB. This numerical conversion is performed using 256 gradations (0 to 255). for example,
For purple, it is (255, 0, 255).

彩色情報抽出部8で得られたデータは、ニューラルネッ
トワーク学習パターン生成部4に送られる。ニューラル
ネットワーク学習パターン生成部4では、前記色情報と
時刻の情報を対応つける。
The data obtained by the coloring information extraction section 8 is sent to the neural network learning pattern generation section 4. The neural network learning pattern generation unit 4 associates the color information with time information.

時刻の情報はユーザーが入力するものとする。このニュ
ーラルネットワーク学習パターン生成部4は具体的には
エディタと考えて差し支えない。
Time information shall be input by the user. Specifically, this neural network learning pattern generation section 4 can be considered as an editor.

ここでパラメータと色情報の組が作成される。Here, a set of parameters and color information is created.

第8図に示すのが時刻と色情報の組である。例えば、1
月1日は、空の色の、土の色■、窓の色■はそれぞれ、
RGBが、(0,185,166)。
FIG. 8 shows a set of time and color information. For example, 1
On the first day of the month, the color of the sky, the color of the soil■, and the color of the window■ are respectively
RGB is (0,185,166).

(103,122,135)、(21,157゜152
)である。
(103,122,135), (21,157°152
).

この様にして、複数のパラメータと色情報の組を用意す
る。組は30〜50位である。
In this way, a plurality of sets of parameters and color information are prepared. The groups are ranked 30th to 50th.

次に、この得られた情報はニューラルネットワーク操作
部2のメモリ領域21 (第3図)に格納される。
Next, this obtained information is stored in the memory area 21 (FIG. 3) of the neural network operating section 2.

第3図中、1は第2図のニユーラルネソトワ−り、3は
第2図のニューラルネットワーク実行部、2はニューラ
ルネットワーク操作部である。
In FIG. 3, 1 is the neural network controller shown in FIG. 2, 3 is the neural network execution section shown in FIG. 2, and 2 is the neural network operation section.

ニューラルネットワーク操作部2はニューラルネットワ
ーク1の学習を行うものとする。
It is assumed that the neural network operation unit 2 performs learning of the neural network 1.

第3図のニューラルネットワーク1中、11はネットワ
ークであり、12はメモリ領域であり、重み値と途中の
計算を使用するデータを格納する領域である。11ネツ
トワークはここではソフトで実現しているものとし、そ
のフローチャートは第5図に示されている。また、第4
図に入力層、中間層、出力層の構成を示す。
In the neural network 1 shown in FIG. 3, 11 is a network, and 12 is a memory area, which is an area for storing weight values and data used for intermediate calculations. It is assumed here that the 11 network is realized by software, and its flowchart is shown in FIG. Also, the fourth
The figure shows the configuration of the input layer, intermediate layer, and output layer.

第4図中、h−1,h−2は入力層であり、hlには年
月日が入力される。h−2には時刻が入力される。i−
1,i−nは中間層であり、入力層の出力に重みWih
が掛けられる。各接続での重みは異なるものである。
In FIG. 4, h-1 and h-2 are input layers, and the year, month, and day are input to hl. Time is input to h-2. i-
1, i−n is the intermediate layer, and the output of the input layer has a weight Wih
is multiplied. The weights on each connection are different.

J−11,・・・、J−33は出力層である。J-11, . . . , J-33 are output layers.

J−11,J−12,J−13は空の色■のRGBを出
力する。J−21,1−22,J−23は土の色■のR
GBを出力する。J−3LJ−32゜J−33は窓の色
■のRGBを出力するものとする。
J-11, J-12, and J-13 output RGB of the sky color ■. J-21, 1-22, J-23 are soil color ■R
Output GB. J-3LJ-32°J-33 is assumed to output RGB of the window color ■.

第5図に従って、その動作を説明する。The operation will be explained according to FIG.

ステップ51 xl、、=Σ)’ps+Wthを求める(w=hはメモ
リ12のものを使用する)。          (1
)式(1+exp(−x pi+θi))   (21
式ステップ52 ypi=1/ 但し、 h   : i   : p   : θ1 : Wl: x91 : h層(入力層)のユニット番号 i層(中間層)のユニット番号 入力信号のパターン番号 i層の1番ユニットの闇値 h−4層間の内部結合の重み値 り層の各ユニットからi層の1番ユニ ットへの入力の積和 yい:p番目パターンの入力信号に対するh層のh番ユ
ニットからの出力 ypt:1)番目パターンの入力信号に対するi層の1
番ユニットからの出力 ステップ53 Ypiをメモリ12のYpiの格納領域に格納する。
Step 51 xl, ,=Σ)'ps+Wth is determined (w=h uses the one in the memory 12). (1
) formula (1+exp(-x pi+θi)) (21
Formula Step 52 ypi=1/ However, h: i: p: θ1: Wl: x91: Unit number of h layer (input layer) Unit number of i layer (middle layer) Pattern number of input signal Unit 1 of i layer Dark value h - Weight value of internal connection between 4 layers Sum of products of inputs from each unit of the layer to the 1st unit of the i layer y: Output from the h unit of the h layer for the input signal of the p pattern ypt: 1 of the i layer for the input signal of the 1)th pattern
Output step 53 from the unit No. 53: Ypi is stored in the Ypi storage area of the memory 12.

ステップ54 前記ステップ51〜53の処理を前中間層のノードI−
1,I−Nの各出力Yp、を求めたら終了する。
Step 54 The processes of steps 51 to 53 are carried out on the previous intermediate layer node I-
After obtaining each output Yp of 1, I-N, the process ends.

このステップ51〜54では各ノード■−1゜1−N毎
にYpffiを求めている。
In steps 51 to 54, Ypffi is determined for each node -1°1-N.

次に中間層の出力を用いて、上記ステップ51〜54の
処理を行う。
Next, the processing in steps 51 to 54 described above is performed using the output of the intermediate layer.

ステップ55〜57の演算の仕方は上記ステップ51〜
54と同様である。
The calculation method in steps 55 to 57 is as follows from steps 51 to 57 above.
It is similar to 54.

その結果、J−11,・・・、J−33は出力層からR
GBのデータが得られる。
As a result, J-11,..., J-33 are R from the output layer.
You can get GB data.

重み、Wik+wJ1は最初はランダムな値が格納され
ているので、前記J−11,・・・・、J−33の出力
は、第8図の時刻データを与えても、その通りのRGB
のデータが得られない。そこで、バック・プロパゲーシ
ョン法で重みの学習を行う。
Since the weight, Wik+wJ1, is initially stored with a random value, the outputs of J-11, ..., J-33 will be the same RGB even if the time data shown in Fig.
data cannot be obtained. Therefore, we use the back propagation method to learn the weights.

前記バック・プロパゲーション法は第3図のニューラル
ネットワーク操作部2が行うものとする。
It is assumed that the back propagation method is performed by the neural network operating section 2 shown in FIG.

第6図はそれをソフトウェアで実現した場合のフローチ
ャートである。
FIG. 6 is a flowchart when this is realized by software.

以下動作を説明する。バンク・プロパゲーション法(D
、E、Rumelhart、 G、E、Hinton、
 and R,J。
The operation will be explained below. Bank propagation method (D
, E. Rumelhart, G. E. Hinton,
and R,J.

Williams、 ”Learning Inter
nal Representationsby Err
orPropagation 、 PARALLEL 
DISTRIBUTEDPROCESSING、 Vo
l、 1.1)I)、 318−364. The M
ITPress、 1986)について最初に詳述する
ことにする。
Williams, “Learning Inter
nal Representations by Err
orPropagation, PARALLEL
DISTRIBUTED PROCESSING, Vo
l, 1.1) I), 318-364. The M
ITPress, 1986) will first be described in detail.

バンク・プロパゲーション法では、階層ネットワークの
重み値Wihと閾値θ曇とを誤差のフィードバンクによ
り適応的に自動調節して学習することになる。(1) 
(21式から明らかなように、重み値W、hと閾値θ、
との調節は同時に実行される必要があるが、この作業は
相互に干渉する難しい作業となる。そこで、本出願人は
、先に出願の[特願昭62−333484号(昭和62
年12月28日出願、“ネットワーク構成データ処理装
置”)」で開示したように、入力側のh層に常に“1”
を出力するとともにその出力に対して閾値θ、を重み値
として割り付けるユニットを設けることで、閾値θ1を
重み値wihO中に組み込んで闇値θ、を重み値として
扱うようにすることを提案した。このようにすることで
、上述の(11T21式は、 Xpi=Σ3’phWih          (3)
式)’pt= 1 / (1+exp(Xpl))  
    (4)式(3) (41弐から類推によって次
の(51(61式が得られる。
In the bank propagation method, the weight value Wih and the threshold value θ of the hierarchical network are adaptively and automatically adjusted and learned using an error feedbank. (1)
(As is clear from Equation 21, the weight values W, h and the threshold value θ,
It is necessary to perform the adjustment at the same time, but this is a difficult task that interferes with each other. Therefore, the present applicant previously applied for [Patent Application No. 1984-333484
As disclosed in "Network Configuration Data Processing Apparatus" filed on December 28, 2013, "1" is always stored in the h layer on the input side.
We proposed that by providing a unit that outputs and assigns a threshold value θ as a weight value to the output, the threshold value θ1 is incorporated into the weight value wihO, and the darkness value θ is treated as a weight value. By doing this, the above equation (11T21 becomes Xpi=Σ3'phWih (3)
Formula)'pt=1/(1+exp(Xpl))
(4) Formula (3) (412) By analogy, the following (51 (61 formula) is obtained.

すなわち、 xpj:Σyp正W j i           (
51式’jp== 1 / (1+exp(Xpj))
      (61式但し、 j :j層のユニット番号 W、i:i−j層間の内部結合の重み値xpJ:i層の
各ユニットからj層の1番ユニットへの入力の積和 )’pjCp番目パターンの入力信号に対するj層の3
番ユニットからの出力 まず、適当な範囲の乱数を、重みの初期値として、学習
パターンのセントを提示する毎に、以下に示す重み更新
規則に従って、重みをインクリメンタルに改良する。こ
れを誤差が求める値以下になるまで反復する。
That is, xpj: Σyp positive W j i (
51 formula'jp== 1 / (1+exp(Xpj))
(Formula 61, where j: unit number W of the j layer, i: weight value of internal connection between the i-j layers xpJ: sum of products of inputs from each unit of the i layer to the first unit of the j layer) 'pjCpth 3 of the j layer for the input signal of the pattern
First, a random number in an appropriate range is used as the initial value of the weight, and each time the cent of the learning pattern is presented, the weight is incrementally improved according to the weight update rule shown below. This process is repeated until the error becomes less than the desired value.

重み更新規則としては基本的には最急降下法の考え方を
用いる。
Basically, the idea of the steepest descent method is used as the weight update rule.

まず、各パターンごとの教師入力ベクトルとネットワー
クの出力ベクトルとの誤差の二乗和E。
First, the sum of squares E of the error between the teacher input vector and the network output vector for each pattern.

とそれらの総和であるEを定義する。この教師人力ベク
トルはメモリ12に時刻と対応付けて記憶されているR
GBデータである。
and define E as their sum. This teacher human power vector is stored in the memory 12 in association with the time R
This is GB data.

ステップ61 ステップ62 E−ΣEp 但し、 dpjep番目パタ番目パタ一対人力j層j番目ユニッ
トへの教師信号 E2をp番目パターン入力に対するネ・ノドワークのエ
ネルギー、Eをネットワークのエネルギーと呼ぶ。この
エネルギーに対して、最急降下法の考え方を適用する。
Step 61 Step 62 E-ΣEp However, the teacher signal E2 to the j-th unit of the j-th layer of the dpjep-th pata-th pata-to-human power is called the energy of the node work for the p-th pattern input, and E is the energy of the network. Apply the steepest descent method to this energy.

最急降下法の場合には、以下のようにt回目の重みの更
新量ΔWjt(t)を決める。
In the case of the steepest descent method, the t-th weight update amount ΔWjt(t) is determined as follows.

Wji Wik 但し、 wH,:h層り番目ユニットとiNi番目ユニット間の
重み wH:i層i番目ユニットとjNj番目ユニット間の重
み ε(>0):学習定数(learning rate)
t :更新回数 バ、7り・プロパゲーション法では更に、収束の加速を
行う目的で、以下のようにモーメンタムの項を付は加え
た式を重み更新規則として用いる。
Wji Wik However, wH,: Weight between the hth layer unit and iNith unit wH: Weight between the ith layer i unit and jNjth unit ε (>0): Learning constant (learning rate)
t: Number of Updates In the propagation method, an equation with a momentum term added as shown below is used as a weight update rule for the purpose of accelerating convergence.

但し、 ε (>O):学習定数(learning rate
)α(>Q):モーメンタム (lllomen tu
m)t    :更新回数 この重み更新を反復することにより、Eを小さくし、最
終的に誤差を求める値以下に持っていくのがバンク・プ
ロパゲーション法である。
However, ε (>O): learning constant (learning rate
)α(>Q): Momentum
m) t: Number of updates The bank propagation method reduces E by repeating this weight update, and finally brings it below the value for which the error is sought.

次にハック・プロパゲーションを実行する際に必要とな
る全パターンに対するエネルギーEのWl、等に関する
偏微分の計算方法を以下に説明する。
Next, a method of calculating partial differentials of energy E with respect to Wl, etc. for all patterns required when executing hack propagation will be explained below.

まずネットワークの各ユニットの処理の式を示す。First, we will show the processing equations of each unit in the network.

Xpi−Σ yphW=h Xpj= Σ )’ptWji y、、1.:p番目パターン入力値に対するh層(ここ
では入力層)のh番目のユニ、トからの出力 Ypi:1)番目パターン入力値に対するi層(ここで
は中間層)のi番目のユニットからの出力 yl、J:p番目パターン入力値に対するj層(ここで
は中間層)のj番目のユニットからの出力 xpi:1層のi番目のユニットへのp番目パターン入
力に対する総和 Xpj’J層のj番目のユニットへのp番目パターン人
力に対する総和 ここで、各パターンに対するエネルギーのy□に関する
偏微分を求める。
Xpi-Σ yphW=h Xpj=Σ)'ptWji y,,1. : Output from the h-th unit of the h layer (input layer here) for the p-th pattern input value Ypi: Output from the i-th unit of the i layer (here the middle layer) for the 1)-th pattern input value yl, J: Output from the j-th unit of the j-th layer (here, the middle layer) for the p-th pattern input value xpi: Summation Xpj' for the p-th pattern input to the i-th unit of the first layer The total sum for the p-th pattern human power to the unit of .Here, the partial differential of the energy for each pattern with respect to y□ is determined.

δ ypJ を得る。ここで出てきた値を62.と置く。即ち、δ)
’pJ とする。このδ2、を使って、各パターンに対するエネ
ルギーのXpjに関する偏微分は、次のように表される
Obtain δ ypJ. The value that came out here is 62. Put it as. That is, δ)
'pJ. Using this δ2, the partial differential of energy with respect to Xpj for each pattern is expressed as follows.

この式を使えば、各パターンに対するエネルギーのWj
、に関する偏微分が以下のように得られる。
Using this formula, the energy Wj for each pattern is
The partial differential with respect to , is obtained as follows.

同様にして、各パターンに対するエネルギーのW3.、
に関する偏微分を計算する。まず各パターンに対するエ
ネルギーE、の1層の出力ypiに対する偏微分を求め
ると、 σYpi       dX pj   a Y pi
を得る。更に、各パターンに対するエネルギーEpのi
屑入カニニットへの総和Xpiに対する偏微分を計算す
ると、 δXpi δypJ δxp、 −Σ δpj Y pj  (1−3’ pi)   
Y p□(L y p=)を得る。この式により、各パ
ターンに対するエネルギーのh−i層間の重みに関する
偏微分を求めると、以下の積和で表される弐を得る。
Similarly, energy W3 for each pattern. ,
Compute the partial derivative with respect to . First, find the partial differential of the energy E for each pattern with respect to the output ypi of the first layer, σYpi dX pj a Y pi
get. Furthermore, i of the energy Ep for each pattern
Calculating the partial differential with respect to the total sum Xpi to the scrap crabite, δXpi δypJ δxp, -Σ δpj Y pj (1-3' pi)
Y p□ (L y p=) is obtained. By calculating the partial differential of the energy for each pattern with respect to the weight between h-i layers using this equation, we obtain 2 expressed by the following sum of products.

W86 0 Xpi 6Wih 全入カバターンに対するエネルギーの重みによる偏微分
は、各パターンに対するエネルギーの重みによる偏微分
の和として表される。
W86 0 Xpi 6Wih The partial differential due to the energy weight for the fully-input cover pattern is expressed as the sum of the partial differential due to the energy weight for each pattern.

δWJI a W j i δWih δWih 以上の様にして、ステップ63とステップ64が実行さ
れる。
δWJI a W j i δWih δWih Steps 63 and 64 are executed as described above.

次に、 ステップ66.67で弐(71(8)を実行する。ステ
ソノプロ8 更新前の重みWjiにΔW、□をたしてWjiを更新ス
テップ69 ステップ68と同様の処理をWi、に行う。
Next, in steps 66 and 67, 2 (71(8)) is executed. StesonoPro 8 Adds ΔW and □ to the weight Wji before updating to update Wji. Step 69 The same process as in step 68 is performed on Wi.

ステップ70 W;H,W、hをメモリ12に格納する。Step 70 W: Store H, W, h in the memory 12.

ステップ71 ステップ63〜70を全重みに対して行う。Step 71 Steps 63-70 are performed for all weights.

ステップ72 メモリ21のデータをニューラルネットワーク11にデ
ータ数以上の回数与え、その結果からステップ61〜7
1の動作を行う。
Step 72: Give the data in the memory 21 to the neural network 11 a number of times greater than the number of data, and from the result, step 61 to 7
Perform operation 1.

誤差(Ep)があらかじめ決められた所定数以下になっ
たら収束したと考え、学習を終了する。
When the error (Ep) becomes less than or equal to a predetermined number, it is considered that convergence is achieved, and learning is terminated.

以上の処理によって、学習によって重み値が得られたニ
ューラルネットワーク1に対して、パラメータ入力装置
7(具体的にはキーボード等)から、任意の月日時刻デ
ータを打ち込む。そのデータをパラメータ入力部5が受
け、ニューラルネットワーク実行部3に渡し、前記月日
時刻データをニューラルネットワーク1に送り、RGB
データを得る。
Through the above processing, arbitrary month, day, and time data are entered into the neural network 1 whose weight values have been obtained through learning from the parameter input device 7 (specifically, a keyboard or the like). The parameter input unit 5 receives the data, passes it to the neural network execution unit 3, sends the month, date and time data to the neural network 1, and sends the RGB
Get data.

そのRGBによって、第9図の絵の色を変えてデイスプ
レィ装置6に出力する。
The color of the picture shown in FIG. 9 is changed according to the RGB and outputted to the display device 6.

その修正等をする時は、データを追加して再学習すれば
良い。
When making corrections, all you have to do is add data and re-learn.

実施例では、時刻と色情報を対応させているが、温かい
とか寒い等を数値表現して色と対応させることも可能で
ある。又、デイスプレィで表示したが、プリンタで出力
しても良い。
In the embodiment, time and color information are associated, but it is also possible to express warm, cold, etc. numerically and associate it with color. Furthermore, although the information is displayed on a display, it may also be output using a printer.

以上説明した様に、本発明は、本発明の要旨の観点から
種々の変形が可能であり、本発明はそれらを排除するも
のでは無い。
As explained above, the present invention can be modified in various ways from the viewpoint of the gist of the present invention, and the present invention does not exclude them.

〔効 果〕〔effect〕

以上説明した様に、本発明では色を出力する為にニュー
ラルネットワークを利用しているので簡単に学習できる
As explained above, since the present invention uses a neural network to output colors, it can be easily learned.

又、本発明により、利用者は図形の作画中に彩色状況を
細かく設定する必要はなくなり、デッサン的な線画情報
と大まかな彩色情報のみを指定することで作画における
高速化が図れる。
Further, according to the present invention, the user does not need to set the coloring situation in detail while drawing a figure, and by specifying only sketch-like line drawing information and rough coloring information, speeding up of drawing can be achieved.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明の原理説明図、第2図は発明の一実施例
、第3図、第4図はニューラルネットワークの説明図、
第5図はニューラルネットワークのフローチャート、第
6図はニューラルネットワーク操作部2のフローチャー
ト、第7図は前処理部8のフローチャート、第8図はパ
ラメータ色情報の説明図、第9図は従来例及び実施例で
の出力画面の例である。 1はニューラルネットワーク、2はニューラルネットワ
ーク操作部、3はニューラルネットワーク実行部、5は
パラメータ入力部、6はデイスプレィ装置、7はパラメ
ータ入力装置、8は彩色情報抽出装置、9はイメージ入
力装置である。 1 本発明の原理説明図 第 図 芙 施 例 男 図 爽 克 例 第 図 前処理部のフローチャート 第7囚 1月日〕〔時亥り〕 ■    ■ 〔空の色〕 (上の色〕 (RG  B)(RG  B) ■ ・・・ 〔意の色〕 (RG  β) 1.1 12’00 4、+  17100 01g5 +66 103122135202148 
20 121 +gs  41’21157152 50158162 パラメータ色情報の説明図 第 8 図 従来例及び実施例での出力画面の側 部 図
Fig. 1 is an explanatory diagram of the principle of the present invention, Fig. 2 is an embodiment of the invention, Figs. 3 and 4 are explanatory diagrams of a neural network,
5 is a flowchart of the neural network, FIG. 6 is a flowchart of the neural network operation section 2, FIG. 7 is a flowchart of the preprocessing section 8, FIG. 8 is an explanatory diagram of parameter color information, and FIG. 9 is a conventional example and a flowchart of the preprocessing section 8. It is an example of an output screen in an example. 1 is a neural network, 2 is a neural network operation unit, 3 is a neural network execution unit, 5 is a parameter input unit, 6 is a display device, 7 is a parameter input device, 8 is a color information extraction device, and 9 is an image input device. . 1 Explanation of the principle of the present invention Figure 1. Example Flowchart of the preprocessing section 7th prison January date] [Time delay] ■ ■ [Sky color] (Top color) (RG B) (RG B) ■ ... [Color of will] (RG β) 1.1 12'00 4, + 17100 01g5 +66 103122135202148
20 121 +gs 41'21157152 50158162 Explanatory diagram of parameter color information Fig. 8 Side view of output screen in conventional example and embodiment

Claims (1)

【特許請求の範囲】 パラメータが入力される入力層と、前記入力層の出力値
に重みをかけたものを演算し出力する複数の中間層と、
前記中間層の複数の出力に重みがかけられた複数の値に
演算処理を施し、前記演算結果を色情報として出力する
複数の出力層とを有するニューラルネットワーク(1)
と、 パラメータと色情報を対応させた複数のパラメータ色情
報組を格納する手段(21)と、前記パラメータと色情
報のパラメータを前記ニューラルネットワークの入力層
を与えて得られる出力層の出力値と、前記パラメータに
対応する色情報との誤差から前記ニューラルネットワー
クの重み値を更新するニューラルネットワーク学習手段
(2)と、 前記パラメータ色情報組とニューラルネットワーク学習
手段によって学習されたニューラルネットワークにパラ
メータを入力して得られた色情報から着色された図形を
出力又は表示する表示出力手段(6)を有することを特
徴とする図形着色方式。
[Claims] An input layer into which parameters are input, a plurality of intermediate layers which calculate and output weighted output values of the input layer;
A neural network (1) comprising a plurality of output layers that perform arithmetic processing on a plurality of values obtained by weighting the plurality of outputs of the intermediate layer and output the arithmetic results as color information.
and means (21) for storing a plurality of parameter color information sets in which parameters and color information are associated with each other, and an output value of an output layer obtained by applying the parameters and color information to the input layer of the neural network. , a neural network learning means (2) for updating a weight value of the neural network based on an error between the color information corresponding to the parameter; and inputting parameters to the neural network trained by the parameter color information set and the neural network learning means. A figure coloring method characterized by comprising a display output means (6) for outputting or displaying a figure colored from the color information obtained.
JP1943890A 1990-01-30 1990-01-30 Figure coloring method Expired - Fee Related JP2770523B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1943890A JP2770523B2 (en) 1990-01-30 1990-01-30 Figure coloring method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1943890A JP2770523B2 (en) 1990-01-30 1990-01-30 Figure coloring method

Publications (2)

Publication Number Publication Date
JPH03224076A true JPH03224076A (en) 1991-10-03
JP2770523B2 JP2770523B2 (en) 1998-07-02

Family

ID=11999299

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1943890A Expired - Fee Related JP2770523B2 (en) 1990-01-30 1990-01-30 Figure coloring method

Country Status (1)

Country Link
JP (1) JP2770523B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021010765A1 (en) * 2019-07-18 2021-01-21 네이버웹툰 유한회사 Device and method for coloring sketch image
JP2022058683A (en) * 2017-05-01 2022-04-12 株式会社Preferred Networks Line drawing automatic coloring program, line drawing automatic coloring device and graphical user interface program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022058683A (en) * 2017-05-01 2022-04-12 株式会社Preferred Networks Line drawing automatic coloring program, line drawing automatic coloring device and graphical user interface program
WO2021010765A1 (en) * 2019-07-18 2021-01-21 네이버웹툰 유한회사 Device and method for coloring sketch image
US11922543B2 (en) 2019-07-18 2024-03-05 Naver Webtoon Ltd. Device and method for coloring sketch image with color pointer

Also Published As

Publication number Publication date
JP2770523B2 (en) 1998-07-02

Similar Documents

Publication Publication Date Title
EP0327817B1 (en) Associative pattern conversion system and adaptation method thereof
Kose Modelling of colour perception of different age groups using artificial neural networks
Kurian et al. An adaptive neuro-fuzzy model for the prediction and control of light in integrated lighting schemes
JP3247803B2 (en) Fuzzy neural network system
JPH03224076A (en) Graphic coloring system
CN115512156A (en) Self-distillation training method for training image classification model
JPH07121498A (en) Method for constructing neural network
Farahat et al. Interactive approach for solving multi-level multiobjective quadratic fractional programming problems with fuzzy parameters in the constraints
JPH05342189A (en) Learning system for network type information processor
Glez-Morcillo et al. Gaudii: An automated graphic design expert system
Rasmani et al. Subsethood-based fuzzy rule models and their application to student performance classification
JPH096881A (en) Neural network
PARK Stylistic Reproductions of Mondrian’s Composition With Red, Yellow, and Blue
Chambers II. The Systems Approach to Resource Allocation
JP2813567B2 (en) Inference rule determination apparatus and inference rule determination method
Takanashi et al. Image Classification Using l 1-fidelity Multi-layer Convolutional Sparse Representation
Lin A NEW MODIFIED LEVENBERG–MARQUARDT ALGORITHM IS USED IN BACK PROPAGATION NEURAL NETWORK (BPNN) TO A NONLINEAR DYNAMIC SYSTEM: A CASE STUDY
JPH11175494A (en) Neural network
CN114579546A (en) Geographical big data default value supplementing method based on multivariable countermeasure generation network
JPH07121595A (en) Color simulator for design evaluation
JPH05242063A (en) Neural network system
PARK WITH RED, YELLOW, AND BLUE
JP2553725B2 (en) Reasoning device
JP3608237B2 (en) Neural network learning device
JPH05150992A (en) Automatic developing method of fuzzy inference to neural network

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees