Nothing Special   »   [go: up one dir, main page]

JP6553664B2 - Model learning device, score calculation device, method, data structure, and program - Google Patents

Model learning device, score calculation device, method, data structure, and program Download PDF

Info

Publication number
JP6553664B2
JP6553664B2 JP2017044172A JP2017044172A JP6553664B2 JP 6553664 B2 JP6553664 B2 JP 6553664B2 JP 2017044172 A JP2017044172 A JP 2017044172A JP 2017044172 A JP2017044172 A JP 2017044172A JP 6553664 B2 JP6553664 B2 JP 6553664B2
Authority
JP
Japan
Prior art keywords
data
feature vector
query
similar
score
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017044172A
Other languages
Japanese (ja)
Other versions
JP2018147392A (en
Inventor
崇之 梅田
崇之 梅田
豪 入江
豪 入江
隆行 黒住
隆行 黒住
杵渕 哲也
哲也 杵渕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
NTT Inc
Original Assignee
Nippon Telegraph and Telephone Corp
NTT Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp, NTT Inc filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2017044172A priority Critical patent/JP6553664B2/en
Publication of JP2018147392A publication Critical patent/JP2018147392A/en
Application granted granted Critical
Publication of JP6553664B2 publication Critical patent/JP6553664B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、モデル学習装置、スコア計算装置、方法、データ構造、及びプログラムに係り、特に、クエリデータと参照データとの類似度スコアを計算するためのモデル学習装置、スコア計算装置、方法、データ構造、及びプログラムに関する。   The present invention relates to a model learning device, a score calculation device, a method, a data structure, and a program, and in particular, a model learning device, a score calculation device, a method, and data for calculating a similarity score between query data and reference data. It relates to structure and program.

商標出願時、登録済み商標画像との類否が登録審査の一基準となる。   At the time of trademark application, similarity with registered trademark images is one of the criteria for registration examination.

多くの商標画像はある概念を抽象化して記述されている。例えば「人」について、全身を詳細に描いたイラストがある一方で、棒人間など丸や四角などプリミティブな記号の組合せで表現される場合がある。   Many trademark images are described by abstracting a certain concept. For example, “person” may be represented by a combination of primitive symbols such as circles and squares, such as stick figures, while there are illustrations depicting the whole body in detail.

出願商標画像に対して、このような過去に登録された膨大な抽象的な商標画像との類否を判断することは、時間効率性・客観性の観点から非常に困難である。   It is very difficult to determine the similarity between the application trademark image and such a large number of abstract trademark images registered in the past from the viewpoint of time efficiency and objectivity.

このような状況から、商標審査官(and/or 出願の事前調査を行うユーザ)による抽象化された概念についての類否判定をサポートする手法が要望されている。   Under such circumstances, there is a demand for a method that supports the similarity determination of the abstracted concept by the trademark examiner (the user who conducts the preliminary search of the and / or application).

また、クエリ、正解画像、不正解画像のセットを基に、クエリ-類似画像間のスコアは高くなるように、反対にクエリ-非類似画像間のスコアは低くなるように学習することを目的とした損失関数が提案されている(非特許文献1)。   Also, based on a set of queries, correct images, and incorrect images, the purpose is to learn so that the score between query-similar images is high and the score between query-non-similar images is low. Loss function is proposed (Non-Patent Document 1).

Jiang Wang et al., " Learning Fine-grained Image Similarity with Deep Ranking", インターネット検索<URL:https://arxiv.org/pdf/1404.4661v1.pdf>Jiang Wang et al., "Learning Fine-grained Image Similarity with Deep Ranking", Internet Search <URL: https://arxiv.org/pdf/1404.4661v1.pdf>

本発明では、精度よく類似度スコアを計算することができるモデル学習装置、スコア計算装置、方法、データ構造、及びプログラムを提供することを目的とする。   It is an object of the present invention to provide a model learning device, a score calculation device, a method, a data structure, and a program that can calculate a similarity score with high accuracy.

上記目的を達成するために、第1の発明に係るモデル学習装置は、データを入力とし特徴ベクトルを出力するための多層構造ニューラルネットワークを学習するモデル学習装置であって、クエリデータ、前記クエリデータに類似する類似データ、及び前記クエリデータに類似しない非類似データに基づいて、全結合層の出力に対して正規化を行う前記多層構造ニューラルネットワークから出力される前記クエリデータの特徴ベクトルと前記類似データの特徴ベクトルとの類似度スコア、及び前記クエリデータの特徴ベクトルと前記非類似データの特徴ベクトルとの類似度スコアを含む損失関数を用いて、前記クエリデータの特徴ベクトルと前記類似データの特徴ベクトルとの類似度スコアが高く、前記クエリデータの特徴ベクトルと前記非類似データの特徴ベクトルとの類似度スコアが低くなるように、前記多層構造ニューラルネットワークのパラメータを学習する学習部を含んで構成されている。   In order to achieve the above object, a model learning device according to a first aspect of the present invention is a model learning device that learns a multi-layered neural network for receiving data and outputting feature vectors, which includes query data and query data And the similar to the feature vector of the query data output from the multi-layered structure neural network that performs normalization on the output of the entire combined layer based on similar data similar to L and dissimilar data not similar to the query data. The feature vector of the query data and the feature of the similar data using a loss function including the similarity score of the data to the feature vector and the similarity score of the feature vector of the query data and the feature vector of the dissimilar data The similarity score with the vector is high, and the feature vector of the query data and the As the similarity score between the feature vector data it is lowered, and is configured to include a learning unit for learning the parameters of the multi-layered structure neural network.

第2の発明に係るモデル学習方法は、データを入力とし特徴ベクトルを出力するための多層構造ニューラルネットワークを学習するモデル学習装置におけるモデル学習方法であって、学習部が、クエリデータ、前記クエリデータに類似する類似データ、及び前記クエリデータに類似しない非類似データに基づいて、全結合層の出力に対して正規化を行う前記多層構造ニューラルネットワークから出力される前記クエリデータの特徴ベクトルと前記類似データの特徴ベクトルとの類似度スコア、及び前記クエリデータの特徴ベクトルと前記非類似データの特徴ベクトルとの類似度スコアを含む損失関数を用いて、前記クエリデータの特徴ベクトルと前記類似データの特徴ベクトルとの類似度スコアが高く、前記クエリデータの特徴ベクトルと前記非類似データの特徴ベクトルとの類似度スコアが低くなるように、前記多層構造ニューラルネットワークのパラメータを学習する。   A model learning method according to a second aspect of the present invention is a model learning method in a model learning device for learning a multi-layered structure neural network for inputting data and outputting a feature vector, wherein the learning unit comprises query data and query data And the similar to the feature vector of the query data output from the multi-layered structure neural network that performs normalization on the output of the entire combined layer based on similar data similar to L and dissimilar data not similar to the query data. Using a loss function including a similarity score with a feature vector of data and a similarity score between the feature vector of the query data and the feature vector of the dissimilar data, the feature vector of the query data and the feature of the similar data The similarity score with the vector is high, and the feature vector of the query data As the similarity score between the feature vector of the dissimilar data is low, it learns the parameters of the multi-layered structure neural network.

第3の発明に係るモデル学習装置は、データを入力とし特徴ベクトルを出力するための多層構造ニューラルネットワークを学習するモデル学習装置であって、クエリデータ、前記クエリデータに類似する類似データ、及び前記クエリデータに類似しない非類似データに基づいて、前記多層構造ニューラルネットワークから出力される前記クエリデータの特徴ベクトルと前記類似データの特徴ベクトルとの類似度スコア、前記クエリデータの特徴ベクトルと前記非類似データの特徴ベクトルとの類似度スコア、前記特徴ベクトルとは異なる情報を用いて計算された前記クエリデータと前記類似データとの類似度スコア、及び前記特徴ベクトルとは異なる情報を用いて計算された前記クエリデータと前記非類似データとの類似度スコアを含む損失関数を用いて、前記クエリデータの特徴ベクトルと前記類似データの特徴ベクトルとの類似度スコアが高く、前記クエリデータの特徴ベクトルと前記非類似データの特徴ベクトルとの類似度スコアが低くなるように、前記多層構造ニューラルネットワークのパラメータを学習する学習部を含んで構成されている。   A model learning device according to a third aspect of the present invention is a model learning device for learning a multi-layered structure neural network for inputting data and outputting a feature vector, comprising: query data; similar data similar to the query data; Similarity score between the feature vector of the query data output from the multilayer structure neural network and the feature vector of the similar data based on dissimilar data not similar to the query data, the dissimilarity of the query data and the feature vector Similarity score between data and feature vector, similarity score between the query data and the similar data calculated using information different from the feature vector, and calculated using information different from the feature vector Loss including similarity score between the query data and the dissimilar data The similarity score between the feature vector of the query data and the feature vector of the similar data is high, and the similarity score between the feature vector of the query data and the feature vector of the dissimilar data is low, using a number. And a learning unit configured to learn parameters of the multi-layered neural network.

第4の発明に係るモデル学習方法は、データを入力とし特徴ベクトルを出力するための多層構造ニューラルネットワークを学習するモデル学習装置におけるモデル学習方法であって、学習部が、クエリデータ、前記クエリデータに類似する類似データ、及び前記クエリデータに類似しない非類似データに基づいて、前記多層構造ニューラルネットワークから出力される前記クエリデータの特徴ベクトルと前記類似データの特徴ベクトルとの類似度スコア、前記クエリデータの特徴ベクトルと前記非類似データの特徴ベクトルとの類似度スコア、前記特徴ベクトルとは異なる情報を用いて計算された前記クエリデータと前記類似データとの類似度スコア、及び前記特徴ベクトルとは異なる情報を用いて計算された前記クエリデータと前記非類似データとの類似度スコアを含む損失関数を用いて、前記クエリデータの特徴ベクトルと前記類似データの特徴ベクトルとの類似度スコアが高く、前記クエリデータの特徴ベクトルと前記非類似データの特徴ベクトルとの類似度スコアが低くなるように、前記多層構造ニューラルネットワークのパラメータを学習する。   A model learning method according to a fourth aspect of the invention is a model learning method in a model learning device for learning a multi-layered structure neural network for inputting data and outputting a feature vector, the learning unit comprising query data and query data A similarity score between a feature vector of the query data output from the multi-layer structure neural network and a feature vector of the similar data based on similar data similar to the data and dissimilar data not similar to the query data; The similarity score between the feature vector of data and the feature vector of the dissimilar data, the similarity score between the query data and the similar data calculated using information different from the feature vector, and the feature vector The dissimilarity to the query data calculated using different information Similarity score between the feature vector of the query data and the feature vector of the similar data is high using a loss function including the similarity score with the data, and the feature vector of the query data and the feature vector of the dissimilar data The parameters of the multi-layered neural network are trained so that the similarity score with.

第5の発明に係るスコア計算装置は、クエリデータと参照データとの類似度を表すスコアを算出するスコア計算装置であって、クエリデータ及び参照データに基づいて、予め学習された、全結合層の出力に対して正規化を行う多層構造ニューラルネットワークから出力される前記クエリデータの特徴ベクトルと、前記多層構造ニューラルネットワークから出力される前記参照データの特徴ベクトルとを求め、前記クエリデータの特徴ベクトルと、前記参照データの特徴ベクトルとの類似度スコアを計算するスコア計算部と、前記特徴ベクトルとは異なる情報を用いて、前記クエリデータと前記参照データとの類似度スコアを計算する他手法スコア計算部と、前記スコア計算部によって計算された前記類似度スコアと、前記他手法スコア計算部によって計算された前記類似度スコアとを統合した統合スコアを計算するスコア統合部と、を含んで構成されている。   A score calculation device according to a fifth aspect of the present invention is a score calculation device for calculating a score representing the degree of similarity between query data and reference data, wherein all joint layers learned in advance based on query data and reference data Calculating a feature vector of the query data output from the multilayer structure neural network that performs normalization on the output of the second output data and a feature vector of the reference data output from the multilayer structure neural network, the feature vector of the query data A score calculation unit for calculating a similarity score with the feature vector of the reference data, and another method score for calculating a similarity score between the query data and the reference data using information different from the feature vector A calculation unit, the similarity score calculated by the score calculation unit, and the other method score calculation unit Thus it is configured to include a score integration unit that calculates a calculated combined score that integrates with the similarity score, the.

第6の発明に係るデータ構造は、クエリデータと参照データとの間の類似度スコアを算出するために用いられるパラメータであって、入力を、クエリデータ、前記クエリデータに類似する類似データ、前記クエリデータに類似しない非類似データとし、出力を、コサイン類似度を求めるための、前記クエリデータの正規化された特徴ベクトル、前記類似データの正規化された特徴ベクトル、前記非類似データの正規化された特徴ベクトルとする多層構造ニューラルネットワークのパラメータを含むデータ構造である。   A data structure according to a sixth aspect of the present invention is a parameter used to calculate a similarity score between query data and reference data, the input comprising query data, similar data similar to the query data, The non-similar data not similar to the query data, and the output being the normalized feature vector of the query data, the normalized feature vector of the similar data, and the non-similar data normalization to obtain cosine similarity It is a data structure including the parameters of the multi-layered structure neural network as a set feature vector.

また、第7の発明のプログラムは、コンピュータを、上記のモデル学習装置又はスコア計算装置を構成する各部として機能させるためのプログラムである。   A program according to a seventh aspect is a program for causing a computer to function as each part constituting the model learning device or the score calculation device.

以上説明したように、本発明のモデル学習装置、方法、及びプログラムによれば、損失関数を用いて、前記クエリデータの特徴ベクトルと前記類似データの特徴ベクトルとの類似度スコアが高く、前記クエリデータの特徴ベクトルと前記非類似データの特徴ベクトルとの類似度スコアが低くなるように、全結合層の出力に対して正規化を行う多層構造ニューラルネットワークのパラメータを学習することにより、精度よく類似度スコアを計算するためのモデルを学習することができる。   As described above, according to the model learning apparatus, method, and program of the present invention, the similarity score between the feature vector of the query data and the feature vector of the similar data is high using the loss function, and the query By learning the parameters of a multilayered neural network that normalizes the output of all connected layers so that the similarity score between the feature vector of the data and the feature vector of the dissimilar data is low, the similarity is accurately obtained. A model for calculating the degree score can be learned.

本発明のスコア計算装置及びプログラムによれば、全結合層の出力に対して正規化を行う多層構造ニューラルネットワークから出力される前記クエリデータの特徴ベクトルと、多層構造ニューラルネットワークから出力される参照データの特徴ベクトルとを求め、類似度スコアを計算し、特徴ベクトルとは異なる情報を用いて、クエリデータと参照データとの類似度スコアを計算し、統合することにより、精度よく類似度スコアを計算することができる。   According to the score calculation apparatus and program of the present invention, the feature vector of the query data output from the multilayer structure neural network that performs normalization on the output of all the combined layers, and the reference data output from the multilayer structure neural network The feature score is calculated and the similarity score is calculated. Using the information different from the feature vector, the similarity score between the query data and the reference data is calculated and integrated to calculate the similarity score with high accuracy. can do.

本発明のデータ構造によれば、入力を、クエリデータ、類似データ、非類似データとし、出力を、コサイン類似度を求めるための、クエリデータの正規化された特徴ベクトル、類似データの正規化された特徴ベクトル、非類似データの正規化された特徴ベクトルとする多層構造ニューラルネットワークのパラメータにより、精度よく類似度スコアを計算するためのモデルを学習することができる。   According to the data structure of the present invention, the input is query data, similar data, non-similar data, and the output is normalized feature vector of query data for finding cosine similarity, normalized similar data A model for calculating the similarity score with high accuracy can be learned by using the parameters of the multilayered neural network as the feature vector and the normalized feature vector of the dissimilar data.

(A)DNN「Illustration2Vec」の構成を示す図、及び(B)本発明の第1の実施の形態のDNNモデルの構成を示す図である。(A) The figure which shows the structure of DNN "Illustration2Vec", and (B) The figure which shows the structure of the DNN model of the 1st Embodiment of this invention. 各図形の有無をビットとして各商標画像をバイナリで表現した例を示す図である。It is a figure which shows the example which represented each brand image in binary with the presence or absence of each figure as a bit. 本発明の第1の実施の形態に係るモデル学習装置の構成を示すブロック図である。FIG. 1 is a block diagram showing a configuration of a model learning device according to a first embodiment of the present invention. 本発明の第1の実施の形態に係るスコア計算装置の構成を示すブロック図である。It is a block diagram showing composition of a score calculation device concerning a 1st embodiment of the present invention. 本発明の第1の実施の形態に係るモデル学習装置におけるモデル学習処理ルーチンの内容を示すフローチャートである。It is a flowchart which shows the content of the model learning process routine in the model learning apparatus which concerns on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係るスコア計装置におけるスコア計算処理ルーチンの内容を示すフローチャートである。It is a flowchart which shows the content of the score calculation process routine in the score meter apparatus which concerns on the 1st Embodiment of this invention. DNN特徴ベクトルを用いて得られたスコアと他手法で得られたスコアとを統合する方法を説明するための図である。It is a figure for demonstrating the method to integrate the score obtained by using a DNN feature vector, and the score obtained by the other method. DNN特徴ベクトルを用いて得られたスコアと他手法で得られたスコアとを含む損失関数を用いてDNNのパラメータを学習する方法を説明するための図である。It is a figure for demonstrating the method of learning the parameter of DNN using the loss function containing the score obtained using the DNN feature vector, and the score obtained by the other method. DNN特徴ベクトルを用いて得られたスコアと他手法で得られたスコアとを統合する方法を説明するための図である。It is a figure for demonstrating the method to integrate the score obtained by using a DNN feature vector, and the score obtained by the other method. 本発明の第2の実施の形態に係るモデル学習装置の構成を示すブロック図である。It is a block diagram which shows the structure of the model learning apparatus which concerns on the 2nd Embodiment of this invention. 本発明の第2の実施の形態に係るスコア計算装置の構成を示すブロック図である。It is a block diagram which shows the structure of the score calculation apparatus which concerns on the 2nd Embodiment of this invention. 本発明の第2の実施の形態に係るモデル学習装置におけるモデル学習処理ルーチンの内容を示すフローチャートである。It is a flowchart which shows the content of the model learning process routine in the model learning apparatus which concerns on the 2nd Embodiment of this invention. 本発明の第2の実施の形態に係るスコア計装置におけるスコア計算処理ルーチンの内容を示すフローチャートである。It is a flowchart which shows the content of the score calculation process routine in the score scale apparatus which concerns on the 2nd Embodiment of this invention.

以下、図面を参照して本発明の実施の形態を詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

<本発明の実施の形態の概要>
イラスト画像分類用のDNN「Illustration2Vec」は「一般イラストの多クラス分類」を目的に設計されているため(図1(A)参照)、本発明の実施の形態におけるDNNでは、次の3点を改良している(図1(B)参照)。
<Overview of the embodiment of the present invention>
The DNN for illustration image classification “Illustration2Vec” is designed for the purpose of “multi-class classification of general illustrations” (see FIG. 1A). Therefore, the DNN according to the embodiment of the present invention has the following three points. It is improving (refer to FIG. 1 (B)).

(1)色情報を除外する(グレースケール化を行って入力画像を1チャネルとする)。
(2)正規化層を導入して、コサイン類似度へ適応させる。
(3)検索ランキングに適した損失関数Triplet-lossを導入する。
(1) Exclude color information (use grayscale to make input image one channel).
(2) Introduce a normalization layer to adapt to cosine similarity.
(3) A loss function Triplet-loss suitable for search ranking is introduced.

また、正規化層では、ベクトルの各要素を2乗して合計した値で各要素を除算する処理(L2正規化)を行う。   Further, the normalization layer performs a process (L2 normalization) of dividing each element by a value obtained by squaring and summing each element of the vector.


・・・(1)

... (1)

ただし、yは、正規化層の出力値であり、特徴ベクトルに相当する。また、xは、前層の出力値(上記図1(B)の例では、全結合層の出力である4096次元のベクトル)である。yを用いてTriplet Lossを計算する。   Here, y is the output value of the normalization layer, and corresponds to a feature vector. Further, x is the output value of the previous layer (in the example of FIG. 1B above, a 4096-dimensional vector that is the output of all coupling layers). Calculate Triplet Loss using y.

ここで、正規化層を導入する理由について説明する。   Here, the reason for introducing the normalization layer will be described.

Triplet Lossの距離計算はユークリッド距離で行われる。一方で一般に、画像検索における距離(類似度)はコサイン類似度が適していることが多い。   Distance calculation of Triplet Loss is performed by Euclidean distance. On the other hand, in general, cosine similarity is often suitable for the distance (similarity) in image search.

ユークリッド距離dは以下の式で表わされる。   The Euclidean distance d is expressed by the following equation.

コサイン類似度cosは以下の式で表わされる。   The cosine similarity cos is expressed by the following equation.

L2正規化を行った場合、||x||=1となるため、ユークリッド距離とコサイン類似度は等価になる。従って、正規化層を導入して、全結合層の出力値に対してL2正規化を行うことにより、コサイン類似度へ適応させることができる。   When L2 normalization is performed, || x || = 1, so the Euclidean distance and the cosine similarity are equivalent. Therefore, it is possible to adapt to the cosine similarity by introducing a normalization layer and performing L2 normalization on the output values of all coupling layers.

次に、Tripletデータの選択方法について説明する。   Next, a method for selecting Triplet data will be described.

TripletLossの計算にはあるクエリ画像に対して類似画像と非類似画像の両方からなる正解データが必要となるが、検索における類否は、多くの場合に主観評価によって決まり、またDNNの学習には大量のデータが必要となるため、データ収集のコストが高い。   Although the calculation of TripletLoss requires correct data consisting of both similar and dissimilar images for a given query image, similarity in search is often determined by subjective evaluation and also for DNN learning. The cost of data collection is high because a large amount of data is required.

本発明の実施の形態では、画像以外の情報を用いてTripletの「非類似画像」の選択を行う。   In the embodiment of the present invention, information other than the image is used to select the Triplet "non-similar image".

例えば、全ての登録済み商標画像にはウィーン図形に基づいた分類がなされている。クエリ画像に付与された図形コードと任意の商標画像の図形コードとを比較し、コードの一致度が低い商標画像を非類似画像とすることで、疑似的に非類似画像のデータ数を増やす。   For example, all registered trademark images are classified based on Vienna figures. The graphic code of the query image is compared with the graphic code of any trademark image, and the number of data of the non-similar image is increased by making the non-similar image a trademark image having a low degree of code coincidence.

例えば、図2に示すように、各図形の有無をビットとして各商標画像をバイナリで表現し、ハミング距離で一致度を算出し、ハミング距離が閾値以上の商標画像を非類似画像とみなす。   For example, as shown in FIG. 2, each trademark image is represented in binary with the presence or absence of each figure as a bit, the matching degree is calculated by the Hamming distance, and the trademark image having the Hamming distance equal to or more than the threshold is regarded as a dissimilar image.

<第1の実施の形態>
<モデル学習装置のシステム構成>
図3は、本発明の第1の実施の形態に係るモデル学習装置100を示すブロック図である。このモデル学習装置100は、CPUと、RAMと、後述するモデル学習処理ルーチンを実行するためのプログラムを記憶したROMと、を備えたコンピュータで構成され、機能的には次に示すように構成されている。
First Embodiment
<System Configuration of Model Learning Device>
FIG. 3 is a block diagram showing the model learning apparatus 100 according to the first embodiment of the present invention. The model learning apparatus 100 is configured by a computer including a CPU, a RAM, and a ROM that stores a program for executing a model learning processing routine described later, and is functionally configured as follows. ing.

本実施の形態に係るモデル学習装置100は、図3に示すように、入力部10と、演算部20と、出力部40とを備えている。   As shown in FIG. 3, the model learning device 100 according to the present embodiment includes an input unit 10, a calculation unit 20, and an output unit 40.

入力部10は、クエリ画像と、当該クエリ画像に類似する類似画像との複数ペアを学習データとして受け付ける。   The input unit 10 receives, as learning data, a plurality of pairs of a query image and a similar image similar to the query image.

演算部20は、学習データ記憶部21、画像データベース22、非類似データ選択部23、及び学習部24を備えている。   The calculation unit 20 includes a learning data storage unit 21, an image database 22, a dissimilar data selection unit 23, and a learning unit 24.

学習データ記憶部21は、入力部10で受け付けたクエリ画像と、当該クエリ画像に類似する類似画像との複数ペアを学習データとして記憶している。   The learning data storage unit 21 stores a plurality of pairs of a query image received by the input unit 10 and a similar image similar to the query image as learning data.

画像データベース22には、参照画像の集合を記憶している。   The image database 22 stores a set of reference images.

非類似データ選択部23は、学習データのクエリ画像の各々に対して、画像以外の情報を用いて、画像データベース22に記憶されている参照画像の集合から、当該クエリ画像に類似しない非類似画像を選択する。   The dissimilar data selection unit 23 uses, for each of the query images of the learning data, information other than the image, and from the set of reference images stored in the image database 22, dissimilar images that are not similar to the query image. Choose

学習部24は、学習データのクエリ画像と類似画像の複数ペア、及びクエリ画像の各々に対して選択された非類似画像に基づいて、DNNのパラメータを学習する。本実施の形態に係るDNNは、全結合層の出力に対して正規化を行って、特徴ベクトルを出力する。   The learning unit 24 learns DNN parameters based on a plurality of pairs of query images and similar images of learning data, and dissimilar images selected for each of the query images. The DNN according to the present embodiment performs normalization on the outputs of all the combined layers and outputs a feature vector.

DNNのパラメータの学習では、クエリ画像を入力してDNNから出力される特徴ベクトル(上記式(1)に示す正規化層の出力)と、類似画像を入力してDNNから出力される特徴ベクトル(上記式(1)に示す正規化層の出力)との類似度スコア、及びクエリ画像の特徴ベクトル(上記式(1)に示す正規化層の出力)と非類似画像を入力してDNNから出力される特徴ベクトル(上記式(1)に示す正規化層の出力)との類似度スコアを含む損失関数を用いて、クエリ画像の特徴ベクトルと類似画像の特徴ベクトルとの類似度スコアが高く、クエリ画像の特徴ベクトルと非類似画像の特徴ベクトルとの類似度スコアが低くなるように、DNNのパラメータを学習する。なお、本実施の形態に係るDNNは、上記図1(B)に示すように、入力画像の1チャネルを入力とする入力層と、畳み込み層と、全結合層と、正規化装置とを含んで構成されている。   In learning the parameters of DNN, the query image is input and the feature vector (output of the normalization layer shown in the above equation (1)) input from the DNN and the similar image is input and the feature vector output from DNN ( The similarity score with the output of the normalized layer shown in the above equation (1), the feature vector of the query image (the output of the normalized layer shown in the above equation (1)) and the dissimilar image are input and output from DNN The similarity score between the feature vector of the query image and the feature vector of the similar image is high, using the loss function including the similarity score with the feature vector (the output of the normalized layer shown in the above equation (1)) The parameters of DNN are learned so that the similarity score between the feature vector of the query image and the feature vector of the dissimilar image is low. The DNN according to the present embodiment includes, as shown in FIG. 1 (B), an input layer to which one channel of an input image is input, a convolutional layer, a total coupling layer, and a normalization device. It consists of

学習方法として、従来既知の手法(例えば、一般的なDeepLearningの誤差逆伝播)を用いればよい。   A conventionally known method (for example, error back propagation of general Deep Learning) may be used as a learning method.

なお、既存の適当な学習パラメータ(の一部)を、DNNのパラメータの初期値として用いて、DNNのパラメータを学習してもよい。例えば、Illustration2VecやVGGなどによる学習パラメータを用いても良い。これにより、学習の効果が上がる。   Note that the DNN parameters may be learned by using (part of) existing appropriate learning parameters as initial values of the DNN parameters. For example, learning parameters by Illustration 2 Vec or VGG may be used. This increases the learning effect.

学習されたDNNのパラメータが、出力部40により出力される。ここで、DNNのパラメータが、クエリ画像と参照画像との間の類似度スコアを算出するために用いられるパラメータであって、入力を、クエリ画像、類似画像、非類似画像とし、出力を、コサイン類似度を求めるための、クエリ画像の正規化された特徴ベクトル、類似画像の正規化された特徴ベクトル、非類似画像の正規化された特徴ベクトルとする多層構造ニューラルネットワークのパラメータを含むデータ構造である。   The learned parameters of DNN are output by the output unit 40. Here, the parameters of DNN are parameters used to calculate the similarity score between the query image and the reference image, and the input is a query image, a similar image, a dissimilar image, and the output is a cosine Data structure including parameters of multi-layer structure neural network which is normalized feature vector of query image, normalized feature vector of similar image, and normalized feature vector of dissimilar image for finding similarity is there.

<スコア計算装置のシステム構成>
図4は、本発明の第1の実施の形態に係るスコア計算装置150を示すブロック図である。このスコア計算装置150は、CPUと、RAMと、後述するスコア計算処理ルーチンを実行するためのプログラムを記憶したROMと、を備えたコンピュータで構成され、機能的には次に示すように構成されている。
<System Configuration of Score Calculation Device>
FIG. 4 is a block diagram showing the score calculation apparatus 150 according to the first embodiment of the present invention. The score calculation device 150 is configured by a computer including a CPU, a RAM, and a ROM that stores a program for executing a score calculation processing routine described later, and is functionally configured as follows. ing.

本実施の形態に係るスコア計算装置150は、図4に示すように、入力部60と、演算部70と、出力部90とを備えている。   As shown in FIG. 4, the score calculation device 150 according to the present embodiment includes an input unit 60, a calculation unit 70, and an output unit 90.

入力部60は、クエリ画像の入力を受け付ける。   The input unit 60 receives an input of a query image.

演算部70は、モデル記憶部71、画像データベース72、及びスコア計算部73を備えている。   The calculation unit 70 includes a model storage unit 71, an image database 72, and a score calculation unit 73.

モデル記憶部71には、モデル学習装置100によって出力されたDNNのパラメータが記憶されている。   The model storage unit 71 stores parameters of DNN output by the model learning device 100.

画像データベース72には、参照画像の集合が記憶されている。   The image database 72 stores a set of reference images.

スコア計算部73は、クエリ画像及び参照画像の集合に基づいて、クエリ画像を入力してDNNから出力される特徴ベクトル(上記式(1)に示す正規化層の出力)と、参照画像の各々を入力してDNNから出力される特徴ベクトル(上記式(1)に示す正規化層の出力)とを求め、参照画像の各々に対し、クエリ画像の特徴ベクトルと、当該参照画像の特徴ベクトルとのコサイン類似度を表す類似度スコアを計算する。   The score calculation unit 73 receives the query image based on the set of the query image and the reference image, and outputs the feature vector (the output of the normalized layer shown in the above equation (1)) input from the DNN and the reference image. To obtain a feature vector (output of the normalized layer shown in the above equation (1)) output from DNN, and for each of the reference images, a feature vector of the query image and a feature vector of the reference image A similarity score representing the cosine similarity is calculated.

出力部90は、類似度スコアの降順に、参照画像を出力する。   The output unit 90 outputs the reference image in descending order of the similarity score.

<モデル学習装置の作用>
次に、第1の実施の形態に係るモデル学習装置100の作用について説明する。クエリ画像と、当該クエリ画像に類似する類似画像との複数ペアが学習データとしてモデル学習装置100に入力されると、モデル学習装置100によって、図5に示すモデル学習処理ルーチンが実行される。
<Operation of Model Learning Device>
Next, the operation of the model learning device 100 according to the first embodiment will be described. When a plurality of pairs of a query image and a similar image similar to the query image are input to the model learning device 100 as learning data, the model learning processing routine shown in FIG.

まず、ステップS100において、学習データのクエリ画像の各々に対して、画像以外の情報を用いて、画像データベース22に記憶されている参照画像の集合から、当該クエリ画像に類似しない非類似画像を選択する。   First, in step S100, for each of query images of learning data, a non-similar image not similar to the query image is selected from a set of reference images stored in the image database 22 using information other than the image. Do.

そして、ステップS102において、学習データのクエリ画像と類似画像の複数ペア、及びクエリ画像の各々に対して選択された非類似画像に基づいて、クエリ画像を入力してDNNから出力される特徴ベクトルと、類似画像を入力してDNNから出力される特徴ベクトルとの類似度スコア、及びクエリ画像の特徴ベクトルと非類似画像を入力してDNNから出力される特徴ベクトルとの類似度スコアを含む損失関数を最適化するように、DNNのパラメータを学習する。学習されたDNNのパラメータが、出力部40により出力され、モデル学習処理ルーチンを終了する。   Then, in step S102, a query image is input based on a plurality of pairs of query images and similar images of learning data and non-similar images selected for each of the query images, and a feature vector output from DNN Loss function including similarity score with feature vector input from similar image and output from DNN, and similarity score with feature vector from query image and non-similar image output from DNN Learn the parameters of DNN to optimize. The learned parameters of DNN are output by the output unit 40, and the model learning processing routine is ended.

<スコア計算装置の作用>
次に、第1の実施の形態に係るスコア計算装置150の作用について説明する。まず、モデル学習装置100から出力されたDNNのパラメータが、スコア計算装置150に入力され、モデル記憶部71に格納される。そして、クエリ画像がスコア計算装置150に入力されると、スコア計算装置150によって、図6に示すスコア計算処理ルーチンが実行される。
<Operation of score calculation device>
Next, the operation of the score calculation apparatus 150 according to the first embodiment will be described. First, the DNN parameters output from the model learning device 100 are input to the score calculation device 150 and stored in the model storage unit 71. Then, when the query image is input to the score calculation device 150, the score calculation processing routine shown in FIG.

まず、ステップS110において、クエリ画像を入力してDNNから出力される特徴ベクトルを求める。   First, in step S110, a query image is input to obtain a feature vector output from DNN.

そして、ステップS112において、画像データベース72に記憶されている参照画像を入力してDNNから出力される特徴ベクトルを求める。   In step S112, a reference image stored in the image database 72 is input to obtain a feature vector output from the DNN.

ステップS114では、上記ステップS110で求められたクエリ画像の特徴ベクトルと、上記ステップS112で求められた参照画像の特徴ベクトルとのコサイン類似度を表す類似度スコアを計算する。   In step S114, a similarity score representing the cosine similarity between the feature vector of the query image obtained in step S110 and the feature vector of the reference image obtained in step S112 is calculated.

ステップS116では、画像データベース72に記憶されている全ての参照画像について、上記ステップS112〜S114の処理を実行したか否かを判定し、上記ステップS112〜S114の処理を実行していない参照画像が存在する場合には、上記ステップS112へ戻り、当該参照画像の特徴ベクトルを求める。一方、画像データベース72に記憶されている全ての参照画像について、上記ステップS112〜S114の処理を実行した場合には、ステップS118へ進む。   In step S116, it is determined whether or not the processing of steps S112 to S114 has been performed for all reference images stored in the image database 72, and the reference images for which the processing of steps S112 to S114 have not been executed are If it exists, the process returns to step S112, and a feature vector of the reference image is obtained. On the other hand, when the processes in steps S112 to S114 have been executed for all reference images stored in the image database 72, the process proceeds to step S118.

ステップS118では、上記ステップS114で計算された類似度スコアの降順に、参照画像を出力部90により出力して、スコア計算処理ルーチンを終了する。   In step S118, reference images are output by the output unit 90 in descending order of the similarity score calculated in step S114, and the score calculation processing routine ends.

以上説明したように、本発明の第1の実施の形態に係るモデル学習装置によれば、損失関数を用いて、クエリ画像の特徴ベクトルと類似画像の特徴ベクトルとの類似度スコアが高く、クエリ画像の特徴ベクトルと非類似画像の特徴ベクトルとの類似度スコアが低くなるように、全結合層の出力に対して正規化を行うDNNのパラメータを学習することにより、精度よく類似度スコアを計算するためのモデルを学習することができる。   As described above, according to the model learning device according to the first embodiment of the present invention, the similarity score between the feature vector of the query image and the feature vector of the similar image is high using the loss function, and the query Calculate the similarity score with high accuracy by learning the DNN parameter that normalizes the output of all connected layers so that the similarity score between the feature vector of the image and the feature vector of the dissimilar image is low To learn a model to do.

また、本発明の第1の実施の形態に係るスコア計算装置によれば、モデル学習装置によって学習されたDNNのパラメータに基づいて、クエリ画像の特徴ベクトルと類似画像の特徴ベクトルとの類似度スコアを計算することにより、精度よく類似度スコアを計算することができる。   Further, according to the score calculation device according to the first embodiment of the present invention, the similarity score between the feature vector of the query image and the feature vector of the similar image based on the parameters of DNN learned by the model learning device. The similarity score can be calculated with high accuracy by calculating

<第2の実施の形態>
次に、第2の実施の形態について説明する。なお、第1の実施の形態と同様の構成となる部分については、同一符号を付して説明を省略する。
Second Embodiment
Next, a second embodiment will be described. In addition, about the part which becomes the structure similar to 1st Embodiment, the same code | symbol is attached | subjected and description is abbreviate | omitted.

第2の実施の形態では、DNNとは異なる他手法で得られたスコアと統合して、類似度スコアを計算する点と、他手法で得られたスコアを含む損失関数を用いて、DNNのパラメータを学習している点とが、第1の実施の形態と異なっている。   In the second embodiment, the DNN is integrated with the score obtained by another method different from the DNN to calculate the similarity score, and using the loss function including the score obtained by the other method, the DNN The point of learning the parameters is different from that of the first embodiment.

<本実施の形態の概要>
図7に示すように、本実施の形態では、DNNで出力された特徴ベクトルを用いたスコアと他手法で得られたスコアとを統合して、最終的なスコアを求める。具体的には、先述のDNNで出力された特徴ベクトルを用いたスコア(コサイン類似度)yと、他手法で得られたスコアxを、双方のスコアの重み付き線形和ax+byで統合して最終スコアを求める。
<Overview of this embodiment>
As shown in FIG. 7, in the present embodiment, a score using a feature vector output by DNN and a score obtained by another method are integrated to obtain a final score. Specifically, the score (cosine similarity) y using the feature vector output by the DNN described above and the score x obtained by another method are integrated by a weighted linear sum ax + by of both scores, and the final result is obtained. Ask for a score.

ここで、他手法で得られたスコアとして、任意の手法で算出したスコアを利用可能である。例えば、画像に付されたタグ関連度や、ウィーン図形コードの一致度などを利用可能である。   Here, a score calculated by any method can be used as the score obtained by another method. For example, the degree of tag relevance attached to the image, the degree of coincidence of the Vienna graphic code, etc. can be used.

また、スコアの統合は任意の方法で代替可能である。例えば、DNNの損失関数に組み込まれた式と同様の式でスコアを統合してもよいし、SVMやRank-SVMで結合することによりスコアを統合してもよい。   The score integration can be replaced by any method. For example, the scores may be integrated by an expression similar to the expression incorporated in the DNN loss function, or the scores may be integrated by combining with SVM or Rank-SVM.

また、図8に示すように、DNNで出力された特徴ベクトルを用いたスコアと他手法で得られたスコアとを含む損失関数を用いて、DNNのパラメータを学習する。   Further, as shown in FIG. 8, DNN parameters are learned using a loss function including a score using a feature vector output by DNN and a score obtained by another method.

本実施の形態における損失関数は、以下の式(2)で表わされる。   The loss function in the present embodiment is expressed by the following equation (2).


・・・(2)

... (2)

ただし、f()は、DNN特徴ベクトルを表し、g()は、他手法による特徴ベクトルを表す。ここで、最初の2項は、DNN特徴ベクトルの類似度に関する部分であり、後の固定項(3項)のおかげで、他手法の影響を勘案して差分だけ学習できる。   However, f () represents a DNN feature vector, and g () represents a feature vector according to another method. Here, the first two terms relate to the degree of similarity of DNN feature vectors, and it is possible to learn only differences taking into account the effects of other methods, thanks to the later fixed terms (third term).

3つ目の項は、他手法によるクエリ画像と類似画像の類似度(固定値)であり、4つ目の項は、他手法によるクエリ画像と非類似画像の類似度(固定値)であり、5つ目の項は、マージン(固定値)を表す。3つ目の項以降の値が負の場合には、3つ目の項以降の値を0とする。   The third term is the similarity (fixed value) between the query image and the similar image by another method, and the fourth term is the similarity (fixed value) between the query image and the dissimilar image by the other method The fifth term represents a margin (fixed value). When the value after the third term is negative, the value after the third term is set to 0.

なお、他手法によるスコアは複数であってもよく、後の3項と同様の3項を追加することで対応可能である。   In addition, the score by another method may be plural, and it can respond by adding the same three terms as the latter three terms.

マージンmは学習時のみ使うパラメータで、他手法によって算出した類似度に合わせてチューニングする。例えば、DNN特徴ベクトルによる類似度が0.00〜1.00の値域で、他手法による類似度の値域が100.00〜101.00であればm=-100などとする。   Margin m is a parameter used only at the time of learning, and is tuned in accordance with the degree of similarity calculated by another method. For example, if the similarity based on the DNN feature vector is in the range of 0.00 to 1.00 and the similarity in the range of other methods is 100.0 to 101.00, m = -100 or the like.

上記の損失関数を最適化するように、DNNのパラメータに逆伝播することにより、DNNのパラメータを学習する。   Learn the parameters of DNN by back-propagating to the parameters of DNN so as to optimize the above loss function.

ここでは、3項目と4項目が、距離の形式で書いてあるが、gの中身は関係なく、「クエリ画像と類似画像の類似度」と「クエリ画像と非類似画像の類似度」の値が求められるのであれば、他の形式であっても良い。   Here, three items and four items are written in the form of distance, but the contents of g do not matter, and the values of “similarity between query image and similar image” and “similarity between query image and dissimilar image” If it is required, other forms may be used.

上記のように学習されたDNNで出力された特徴ベクトルを用いた類似度スコアと他手法で得られた類似度スコアとを統合して、参照画像との統合スコアとし、クエリ画像と類似する参照画像を検索する。例えば、以下の式のように、単純に足し合わせたものが統合スコアとなる(図9参照)。   The similarity score using the feature vector output by DNN learned as described above and the similarity score obtained by another method are integrated to obtain an integrated score with the reference image, and a reference similar to the query image Search for images For example, as shown in the following formula, a simple sum is an integrated score (see FIG. 9).

<モデル学習装置のシステム構成>
図10は、本発明の第2の実施の形態に係るモデル学習装置200を示すブロック図である。このモデル学習装置200は、CPUと、RAMと、後述するモデル学習処理ルーチンを実行するためのプログラムを記憶したROMと、を備えたコンピュータで構成され、機能的には次に示すように構成されている。
<System Configuration of Model Learning Device>
FIG. 10 is a block diagram showing a model learning apparatus 200 according to the second embodiment of the present invention. The model learning apparatus 200 is configured by a computer including a CPU, a RAM, and a ROM that stores a program for executing a model learning processing routine described later, and is functionally configured as follows. ing.

本実施の形態に係るモデル学習装置200は、図10に示すように、入力部10と、演算部220と、出力部40とを備えている。   As shown in FIG. 10, model learning apparatus 200 according to the present embodiment includes input unit 10, calculation unit 220, and output unit 40.

入力部10は、クエリ画像と、当該クエリ画像に類似する類似画像との複数ペアを学習データとして受け付ける。   The input unit 10 receives, as learning data, a plurality of pairs of a query image and a similar image similar to the query image.

演算部220は、学習データ記憶部21、画像データベース22、非類似データ選択部23、他手法スコア計算部223、学習部224、スコア計算部226、及び重み学習部228を備えている。   The calculation unit 220 includes a learning data storage unit 21, an image database 22, a dissimilar data selection unit 23, another method score calculation unit 223, a learning unit 224, a score calculation unit 226, and a weight learning unit 228.

他手法スコア計算部223は、学習データのクエリ画像の各々に対して、当該クエリ画像の類似画像との類似度スコア、及び当該クエリ画像に類似しない非類似画像との類似度スコアを、DNN特徴ベクトルとは異なる他手法により計算する。   The other method score calculation unit 223 generates, for each of the query images of the learning data, a similarity score with a similar image of the query image and a similarity score with a dissimilar image that is not similar to the query image. It is calculated by another method different from the vector.

学習部24は、学習データのクエリ画像と類似画像の複数ペア、クエリ画像の各々に対して選択された非類似画像、他手法スコア計算部223により計算されたクエリ画像と類似画像との類似度スコア、及び他手法スコア計算部223により計算されたクエリ画像と非類似画像との類似度スコアに基づいて、DNNのパラメータを学習する。   The learning unit 24 uses a plurality of pairs of query images and similar images of learning data, dissimilar images selected for each of the query images, and the similarity between the query image calculated by the other technique score calculation unit 223 and the similar images. The parameters of DNN are learned based on the score and the similarity score between the query image and the dissimilar image calculated by the other method score calculation unit 223.

DNNのパラメータの学習では、クエリ画像を入力してDNNから出力される特徴ベクトル(上記式(1)に示す正規化層の出力)と、類似画像を入力してDNNから出力される特徴ベクトル(上記式(1)に示す正規化層の出力)との類似度スコア、クエリ画像の特徴ベクトル(上記式(1)に示す正規化層の出力)と非類似画像を入力してDNNから出力される特徴ベクトル(上記式(1)に示す正規化層の出力)との類似度スコア、他手法スコア計算部223により計算されたクエリ画像と類似画像との類似度スコア、及び他手法スコア計算部223により計算されたクエリ画像と非類似画像との類似度スコアを含む上記式(2)に示す損失関数を用いて、クエリ画像の特徴ベクトルと類似画像の特徴ベクトルとの類似度スコアが高く、クエリ画像の特徴ベクトルと非類似画像の特徴ベクトルとの類似度スコアが低くなるように、DNNのパラメータを学習する。   In DNN parameter learning, a feature vector (output of the normalization layer shown in the above equation (1)) input from a query image and output from the DNN, and a feature vector (output from the DNN input from a similar image) The similarity score with the output of the normalization layer shown in the above equation (1), the feature vector of the query image (the output of the normalization layer shown in the above equation (1)) and the dissimilar image are inputted and outputted from the DNN. The similarity score with the feature vector (the output of the normalization layer shown in the above formula (1)), the similarity score between the query image and the similar image calculated by the other method score calculation unit 223, and the other method score calculation unit The similarity score between the feature vector of the query image and the feature vector of the similar image is high using the loss function shown in the above formula (2) including the similarity score between the query image and the dissimilar image calculated by 223. As the similarity score between the feature vector of the feature vectors and the non-similar image of the query image is lowered, to learn the parameters of DNN.

学習方法として、従来既知の手法(例えば、一般的なDeepLearningの誤差逆伝播)を用いればよい。   A conventionally known method (for example, error back propagation of general Deep Learning) may be used as a learning method.

学習されたDNNのパラメータが、出力部40により出力される。   The learned parameters of DNN are output by the output unit 40.

スコア計算部226は、クエリ画像及び類似画像の複数ペアと、学習されたDNNのパラメータとに基づいて、クエリ画像を入力してDNNから出力される特徴ベクトル(上記式(1)に示す正規化層の出力)と、類似画像を入力してDNNから出力される特徴ベクトル(上記式(1)に示す正規化層の出力)とを求め、クエリ画像及び類似画像の複数ペアの各々に対し、クエリ画像の特徴ベクトルと、類似画像の特徴ベクトルとのコサイン類似度を表す類似度スコアを計算する。   The score calculation unit 226 inputs a query image based on a plurality of pairs of query images and similar images and learned DNN parameters, and outputs a feature vector (normalization shown in the above formula (1)). Layer output) and a feature vector (output of the normalization layer shown in the above formula (1)) output from the DNN by inputting a similar image, and for each of a plurality of pairs of a query image and a similar image, A similarity score representing cosine similarity between the feature vector of the query image and the feature vector of the similar image is calculated.

また、スコア計算部226は、クエリ画像及び非類似画像の複数ペアと、学習されたDNNのパラメータとに基づいて、クエリ画像を入力してDNNから出力される特徴ベクトル(上記式(1)に示す正規化層の出力)と、非類似画像を入力してDNNから出力される特徴ベクトル(上記式(1)に示す正規化層の出力)とを求め、クエリ画像及び非類似画像の複数ペアの各々に対し、クエリ画像の特徴ベクトルと、非類似画像の特徴ベクトルとのコサイン類似度を表す類似度スコアを計算する。   In addition, the score calculation unit 226 inputs a query image based on a plurality of pairs of query images and dissimilar images and learned DNN parameters, and outputs a feature vector (in the above equation (1)). Output of the normalization layer shown) and a feature vector (output of the normalization layer shown in the above formula (1)) inputted from the dissimilar image and outputted from the DNN, and a plurality of pairs of the query image and dissimilar image A similarity score representing a cosine similarity between the feature vector of the query image and the feature vector of the dissimilar image is calculated.

重み学習部228は、スコア計算部226によって計算された類似度スコアyと、他手法スコア計算部223によって計算された類似度スコアxとに基づいて、クエリ画像及び類似画像のペアについての統合スコア(ax+by)が高くなり、かつ、クエリ画像及び非類似画像のペアについての統合スコア(ax+by)が低くなるように、統合スコアを求めるための重みa,bを学習する。学習された重みが、出力部40により出力される。   Based on the similarity score y calculated by the score calculation unit 226 and the similarity score x calculated by the other technique score calculation unit 223, the weight learning unit 228 calculates an integrated score for the query image and similar image pair. The weights a and b for obtaining the integrated score are learned so that (ax + by) becomes high and the integrated score (ax + by) for the pair of the query image and the dissimilar image becomes low. The learned weight is output by the output unit 40.

<スコア計算装置のシステム構成>
図11は、本発明の第2の実施の形態に係るスコア計算装置250を示すブロック図である。このスコア計算装置250は、CPUと、RAMと、後述するスコア計算処理ルーチンを実行するためのプログラムを記憶したROMと、を備えたコンピュータで構成され、機能的には次に示すように構成されている。
<System Configuration of Score Calculation Device>
FIG. 11 is a block diagram showing a score calculation apparatus 250 according to the second embodiment of the present invention. The score calculation device 250 is composed of a computer including a CPU, a RAM, and a ROM that stores a program for executing a score calculation processing routine described later, and is functionally configured as follows. ing.

本実施の形態に係るスコア計算装置250は、図11に示すように、入力部60と、演算部270と、出力部90とを備えている。   The score calculation apparatus 250 which concerns on this Embodiment is provided with the input part 60, the calculating part 270, and the output part 90, as shown in FIG.

入力部60は、クエリ画像の入力を受け付ける。   The input unit 60 receives an input of a query image.

演算部270は、モデル記憶部71、画像データベース72、スコア計算部73、他手法スコア計算部274、及びスコア統合部275を備えている。   The calculation unit 270 includes a model storage unit 71, an image database 72, a score calculation unit 73, another method score calculation unit 274, and a score integration unit 275.

モデル記憶部71には、モデル学習装置200によって出力されたDNNのパラメータが記憶されている。   The model storage unit 71 stores DNN parameters output by the model learning device 200.

他手法スコア計算部274は、クエリ画像及び参照画像の集合に基づいて、DNNから出力される特徴ベクトルとは異なる他手法を用いて、参照画像の各々に対し、クエリ画像と、当該参照画像との類似度を表す類似度スコアを計算する。   The other method score calculation unit 274 uses a different method different from the feature vector output from the DNN based on the set of the query image and the reference image, for each reference image, the query image, the reference image, Calculate a similarity score that represents the similarity of

スコア統合部275は、モデル学習装置200により出力された重みを用いて、参照画像の各々に対し、スコア計算部73により計算された当該参照画像との類似度スコアy、及び他手法スコア計算部274により計算された当該参照画像との類似度スコアxを統合して、統合スコア(ax+by)を算出する。   The score integration unit 275 uses the weights output from the model learning device 200, and for each reference image, the similarity score y with the reference image calculated by the score calculation unit 73 and the other technique score calculation unit The similarity score x with the reference image calculated by 274 is integrated to calculate an integrated score (ax + by).

出力部90は、統合スコアの降順に、参照画像を出力する。   The output unit 90 outputs the reference image in the descending order of the integrated score.

<モデル学習装置の作用>
次に、第2の実施の形態に係るモデル学習装置200の作用について説明する。クエリ画像と、当該クエリ画像に類似する類似画像との複数ペアが学習データとしてモデル学習装置200に入力されると、モデル学習装置200によって、図12に示すモデル学習処理ルーチンが実行される。
<Operation of Model Learning Device>
Next, the operation of the model learning device 200 according to the second embodiment will be described. When a plurality of pairs of a query image and a similar image similar to the query image are input as learning data to the model learning device 200, the model learning processing routine shown in FIG.

まず、ステップS100において、学習データのクエリ画像の各々に対して、画像以外の情報を用いて、画像データベース22に記憶されている参照画像の集合から、当該クエリ画像に類似しない非類似画像を選択する。   First, in step S100, for each query image of learning data, a non-similar image that is not similar to the query image is selected from a set of reference images stored in the image database 22 using information other than the image. To do.

そして、ステップS200において、学習データのクエリ画像の各々に対して、当該クエリ画像の類似画像との類似度スコア、及び上記ステップS100で選択された当該クエリ画像に類似しない非類似画像との類似度スコアを、DNN特徴ベクトルとは異なる他手法により計算する。   In step S200, for each of the query images of the learning data, the similarity score with the similar image of the query image and the similarity with the dissimilar image not similar to the query image selected in step S100 The score is calculated by another method different from the DNN feature vector.

ステップS202において、学習データのクエリ画像と類似画像の複数ペア、上記ステップS100でクエリ画像の各々に対して選択された非類似画像、上記ステップS200で計算されたクエリ画像と類似画像との類似度スコア、及び上記ステップS200で計算されたクエリ画像と非類似画像との類似度スコアに基づいて、クエリ画像を入力してDNNから出力される特徴ベクトルと、類似画像を入力してDNNから出力される特徴ベクトルとの類似度スコア、クエリ画像の特徴ベクトルと非類似画像を入力してDNNから出力される特徴ベクトルとの類似度スコア、上記ステップS200で計算されたクエリ画像と類似画像との類似度スコア、及び上記ステップS200で計算されたクエリ画像と非類似画像との類似度スコアを含む、上記式(2)に示す損失関数を最適化するように、DNNのパラメータを学習する。学習されたDNNのパラメータが、出力部40により出力される。   In step S202, a plurality of pairs of query images and similar images of learning data, dissimilar images selected for each of the query images in step S100, and similarity between the query image and similar images calculated in step S200 Based on the score and the similarity score between the query image and the dissimilar image calculated in step S200, the query image is input and the feature vector output from the DNN, and the similar image is input and output from the DNN. The similarity score with the feature vector, the similarity score with the feature vector output from the DNN by inputting the feature vector and the dissimilar image of the query image, the similarity between the query image and the similar image calculated in step S200 above A degree score, and a similarity score between the query image and the dissimilar image calculated in step S200, So as to optimize the loss function shown in serial formula (2), to learn the parameters of DNN. The learned parameters of DNN are output by the output unit 40.

また、ステップS204において、クエリ画像及び類似画像の複数ペアと、学習されたDNNのパラメータとに基づいて、クエリ画像を入力してDNNから出力される特徴ベクトルと、類似画像を入力してDNNから出力される特徴ベクトルとを求め、クエリ画像及び類似画像の複数ペアの各々に対し、クエリ画像の特徴ベクトルと、類似画像の特徴ベクトルとのコサイン類似度を表す類似度スコアを計算する。   Also, in step S204, based on the query image and a plurality of pairs of similar images and parameters of the learned DNN, the query image is input and the feature vector output from DNN and the similar image are input and the DNN is input. An output feature vector is obtained, and a similarity score representing a cosine similarity between the feature vector of the query image and the feature vector of the similar image is calculated for each of a plurality of pairs of the query image and the similar image.

また、クエリ画像及び非類似画像の複数ペアと、学習されたDNNのパラメータとに基づいて、クエリ画像を入力してDNNから出力される特徴ベクトルと、非類似画像を入力してDNNから出力される特徴ベクトルとを求め、クエリ画像及び非類似画像の複数ペアの各々に対し、クエリ画像の特徴ベクトルと、非類似画像の特徴ベクトルとのコサイン類似度を表す類似度スコアを計算する。   In addition, based on a plurality of pairs of a query image and a dissimilar image, and parameters of the learned DNN, the query image is input and a feature vector output from the DNN and a dissimilar image are input and output from the DNN. And a similarity score representing a cosine similarity between the feature vector of the query image and the feature vector of the dissimilar image is calculated for each of a plurality of pairs of the query image and the dissimilar image.

そして、ステップS206では、上記ステップS204で計算された類似度スコアと、上記ステップS200で計算された類似度スコアとに基づいて、クエリ画像及び類似画像のペアについての統合スコアが高くなり、かつ、クエリ画像及び非類似画像のペアについての統合スコアが低くなるように、重み付き加算により統合スコアを求めるための重みを学習する。学習された重みが、出力部40により出力され、モデル学習処理ルーチンを終了する。   In step S206, based on the similarity score calculated in step S204 and the similarity score calculated in step S200, the integrated score for the query image and similar image pair increases, and The weight for learning the integrated score is learned by weighted addition so that the integrated score for the query image and the dissimilar image pair is low. The learned weight is output by the output unit 40, and the model learning processing routine is ended.

<スコア計算装置の作用>
次に、第2の実施の形態に係るスコア計算装置250の作用について説明する。まず、モデル学習装置200から出力されたDNNのパラメータが、スコア計算装置250に入力され、モデル記憶部71に格納される。そして、クエリ画像がスコア計算装置250に入力されると、スコア計算装置250によって、図13に示すスコア計算処理ルーチンが実行される。
<Operation of score calculation device>
Next, the operation of the score calculation apparatus 250 according to the second embodiment will be described. First, DNN parameters output from the model learning device 200 are input to the score calculation device 250 and stored in the model storage unit 71. Then, when the query image is input to the score calculation device 250, the score calculation processing routine shown in FIG.

まず、ステップS110において、クエリ画像を入力してDNNから出力される特徴ベクトルを求める。   First, in step S110, a query image is input and a feature vector output from the DNN is obtained.

そして、ステップS112において、画像データベース72に記憶されている参照画像を入力してDNNから出力される特徴ベクトルを求める。   In step S112, a reference image stored in the image database 72 is input to obtain a feature vector output from the DNN.

ステップS114では、上記ステップS110で求められたクエリ画像の特徴ベクトルと、上記ステップS112で求められた参照画像の特徴ベクトルとのコサイン類似度を表す類似度スコアを計算する。   In step S114, a similarity score representing the cosine similarity between the feature vector of the query image obtained in step S110 and the feature vector of the reference image obtained in step S112 is calculated.

ステップS210では、クエリ画像及び参照画像の集合に基づいて、DNNから出力される特徴ベクトルとは異なる他手法を用いて、参照画像の各々に対し、クエリ画像と、当該参照画像との類似度を表す類似度スコアを計算する。   In step S210, the similarity between the query image and the reference image is determined for each reference image using another method different from the feature vector output from the DNN based on the set of query images and reference images. Calculate the similarity score to represent.

ステップS212において、モデル学習装置200により出力された重みを用いて、参照画像の各々に対し、スコア計算部73により計算された当該参照画像との類似度スコア、及び他手法スコア計算部274により計算された当該参照画像との類似度スコアを、重み付き加算により統合して、統合スコアを算出する。   In step S212, using the weights output by the model learning device 200, the similarity score with the reference image calculated by the score calculation unit 73 and the other method score calculation unit 274 are calculated for each reference image. The similarity score with the reference image is integrated by weighted addition to calculate an integrated score.

ステップS116では、画像データベース72に記憶されている全ての参照画像について、上記ステップS112〜S114、S210〜S212の処理を実行したか否かを判定し、上記ステップS112〜S114、S210〜S212の処理を実行していない参照画像が存在する場合には、上記ステップS112へ戻り、当該参照画像の特徴ベクトルを求める。一方、画像データベース72に記憶されている全ての参照画像について、上記ステップS112〜S114、S210〜S212の処理を実行した場合には、ステップS118へ進む。   In step S116, it is determined whether or not the processing in steps S112 to S114 and S210 to S212 has been performed for all reference images stored in the image database 72, and the processing in steps S112 to S114 and S210 to S212 is performed. If there is a reference image that has not been executed, the process returns to step S112, and a feature vector of the reference image is obtained. On the other hand, when the processes of steps S112 to S114 and S210 to S212 are executed for all reference images stored in the image database 72, the process proceeds to step S118.

ステップS212では、上記ステップS212で計算された統合スコアの降順に、参照画像を出力部90により出力して、スコア計算処理ルーチンを終了する。   In step S212, the reference image is output by the output unit 90 in the descending order of the integrated score calculated in step S212, and the score calculation processing routine is ended.

以上説明したように、本発明の第2の実施の形態に係るモデル学習装置によれば、クエリ画像の特徴ベクトルと類似画像の特徴ベクトルとの類似度スコア、クエリ画像の特徴ベクトルと非類似画像の特徴ベクトルとの類似度スコア、他手法により計算されたクエリ画像と類似画像との類似度スコア、及び他手法により計算されたクエリ画像と非類似画像との類似度スコアを含む損失関数を用いて、クエリ画像の特徴ベクトルと類似画像の特徴ベクトルとの類似度スコアが高く、クエリ画像の特徴ベクトルと非類似画像の特徴ベクトルとの類似度スコアが低くなるように、全結合層の出力に対して正規化を行うDNNのパラメータを学習することにより、精度よく類似度スコアを計算するためのモデルを学習することができる。特に、損失関数に、DNNに関係なく算出される他手法による類似スコア(固定値)を含めて、DNN側だけに誤差逆伝播することで、DNNの特徴ベクトルで上手く類似判断ができる画像に対してはより上手く行くように、他手法で上手く類似判断できる画像に対しては手を抜くように、DNNのパラメータを学習をすることができる。   As described above, according to the model learning device according to the second embodiment of the present invention, the similarity score between the feature vector of the query image and the feature vector of the similar image, the feature vector of the query image and the dissimilar image Loss function including similarity score with feature vector, similarity score between query image and similar image calculated by other methods, and similarity score between query image and dissimilar image calculated by other methods The output of all connected layers is such that the similarity score between the feature vector of the query image and the feature vector of the similar image is high and the similarity score between the feature vector of the query image and the feature vector of the dissimilar image is low. By learning the parameters of DNN that performs normalization, it is possible to learn a model for calculating the similarity score with high accuracy. In particular, for an image that can be judged well with a DNN feature vector by backpropagating errors only to the DNN side, including the similarity score (fixed value) obtained by other methods calculated irrespective of DNN in the loss function. It is possible to learn the parameters of DNN so that the image can be judged similar by other methods well, as it is better.

また、本発明の第2の実施の形態に係るスコア計算装置によれば、全結合層の出力に対して正規化を行うDNNから出力されるクエリ画像の特徴ベクトルと、DNNから出力される参照画像の特徴ベクトルとを求め、類似度スコアを計算し、他手法によりクエリ画像と参照画像との類似度スコアを計算し、統合することにより、精度よく類似度スコアを計算することができる。   Moreover, according to the score calculation apparatus which concerns on the 2nd Embodiment of this invention, the feature vector of the query image output from DNN which normalizes with respect to the output of all the connection layers, and the reference output from DNN By calculating the image feature vector, calculating the similarity score, calculating the similarity score between the query image and the reference image by another method, and integrating them, the similarity score can be calculated with high accuracy.

なお、本発明は、上述した実施形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。   The present invention is not limited to the above-described embodiment, and various modifications and applications can be made without departing from the scope of the present invention.

例えば、上記の実施の形態では、DNNが、畳み込み層と全結合層を含む場合を例に説明したが、これに限定されるものではない。例えば、畳み込み層と全結合層とからなる部分を、RNNやLSTMなど任意のネットワーク構造で代替可能である。   For example, although the above embodiment has been described by way of example in which DNN includes a convolutional layer and an all bonding layer, the present invention is not limited to this. For example, the part composed of the convolution layer and the total coupling layer can be replaced with an arbitrary network structure such as RNN or LSTM.

また、多層構造ニューラルネットワークとして、CNN、RNN、LSTMなどの任意のネットワーク構造を用いても良い。   Also, any network structure such as CNN, RNN, LSTM, etc. may be used as the multilayer structure neural network.

また、画像の類似度スコアを計算する場合を例に説明したが、これに限定されるものではなく、動画や音声を対象とし、動画や音声の類似度スコアを計算するようにしてもよい。   Further, the case where the image similarity score is calculated has been described as an example. However, the present invention is not limited to this, and a moving image or audio similarity score may be calculated for a moving image or audio.

上述のモデル学習装置100、200、スコア計算装置150、250は、内部にコンピュータシステムを有しているが、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。   The model learning devices 100 and 200 and the score calculation devices 150 and 250 described above have a computer system inside. However, if the “computer system” uses a WWW system, a homepage providing environment ( Or display environment).

例えば、本願明細書中において、プログラムが予めインストールされている実施形態として説明したが、当該プログラムを、コンピュータ読み取り可能な記録媒体に格納して提供することも可能である。   For example, although the present invention has been described as an embodiment in which the program is installed in advance, the program may be provided by being stored in a computer readable recording medium.

10、60 入力部
20、70、220、270 演算部
21 学習データ記憶部
22 画像データベース
23 非類似データ選択部
24、224 学習部
40 出力部
70 演算部
71 モデル記憶部
72 画像データベース
73、226 スコア計算部
90 出力部
100、200 モデル学習装置
150、250 スコア計算装置
223、274 他手法スコア計算部
228 重み学習部
275 スコア統合部
10, 60 Input unit 20, 70, 220, 270 Calculation unit 21 Learning data storage unit 22 Image database 23 Dissimilar data selection unit 24, 224 Learning unit 40 Output unit 70 Calculation unit 71 Model storage unit 72 Image database 73, 226 Score Calculation unit 90 Output unit 100, 200 Model learning device 150, 250 Score calculation device 223, 274 Other method score calculation unit 228 Weight learning unit 275 Score integration unit

Claims (8)

データを入力とし特徴ベクトルを出力するための多層構造ニューラルネットワークを学習するモデル学習装置であって、
クエリデータ、前記クエリデータに類似する類似データ、及び前記クエリデータに類似しない非類似データに基づいて、全結合層の出力に対して正規化を行う前記多層構造ニューラルネットワークから出力される前記クエリデータの特徴ベクトルと前記類似データの特徴ベクトルとの類似度スコア、及び前記クエリデータの特徴ベクトルと前記非類似データの特徴ベクトルとの類似度スコアを含む損失関数を用いて、前記クエリデータの特徴ベクトルと前記類似データの特徴ベクトルとの類似度スコアが高く、前記クエリデータの特徴ベクトルと前記非類似データの特徴ベクトルとの類似度スコアが低くなるように、前記多層構造ニューラルネットワークのパラメータを学習する学習部
を含むモデル学習装置。
A model learning device for learning a multilayered neural network for inputting data and outputting a feature vector,
The query data output from the multilayer neural network that normalizes the output of the fully connected layer based on query data, similar data similar to the query data, and dissimilar data not similar to the query data A feature vector of the query data using a loss function including a similarity score between the feature vector of the query data and the feature vector of the similar data, and a similarity score between the feature vector of the query data and the feature vector of the dissimilar data And learning the parameters of the multilayer neural network so that the similarity score between the feature vector of the similar data and the feature vector of the query data is high and the similarity score between the feature vector of the query data and the feature vector of the dissimilar data is low Model learning device including a learning unit.
前記データ以外の情報を用いて、参照データの集合から、前記クエリデータに類似しない前記非類似データを選択する非類似データ選択部を更に含み、
前記学習部は、前記クエリデータ、前記類似データ、及び前記選択された前記非類似データに基づいて、前記多層構造ニューラルネットワークのパラメータを学習する請求項1記載のモデル学習装置。
A dissimilar data selection unit that selects the dissimilar data that is not similar to the query data from a set of reference data using information other than the data;
The model learning device according to claim 1, wherein the learning unit learns parameters of the multilayered neural network based on the query data, the similar data, and the selected dissimilar data.
データを入力とし特徴ベクトルを出力するための多層構造ニューラルネットワークを学習するモデル学習装置であって、
クエリデータ、前記クエリデータに類似する類似データ、及び前記クエリデータに類似しない非類似データに基づいて、前記多層構造ニューラルネットワークから出力される前記クエリデータの特徴ベクトルと前記類似データの特徴ベクトルとの類似度スコア、前記クエリデータの特徴ベクトルと前記非類似データの特徴ベクトルとの類似度スコア、前記特徴ベクトルとは異なる情報を用いて計算された前記クエリデータと前記類似データとの類似度スコア、及び前記特徴ベクトルとは異なる情報を用いて計算された前記クエリデータと前記非類似データとの類似度スコアを含む損失関数を用いて、前記クエリデータの特徴ベクトルと前記類似データの特徴ベクトルとの類似度スコアが高く、前記クエリデータの特徴ベクトルと前記非類似データの特徴ベクトルとの類似度スコアが低くなるように、前記多層構造ニューラルネットワークのパラメータを学習する学習部
を含むモデル学習装置。
A model learning device for learning a multilayered neural network for inputting data and outputting a feature vector,
Based on query data, similar data similar to the query data, and dissimilar data not similar to the query data, a feature vector of the query data and a feature vector of the similar data output from the multilayer neural network A similarity score, a similarity score between a feature vector of the query data and a feature vector of the dissimilar data, a similarity score between the query data and the similar data calculated using information different from the feature vector, And using a loss function including a similarity score between the query data and the dissimilar data calculated using information different from the feature vector, the feature vector of the query data and the feature vector of the similar data The similarity score is high, and the feature vector of the query data and the dissimilarity As the similarity score between the feature vector of the motor is low, the model learning device including a learning section for learning the parameters of the multi-layered structure neural network.
クエリデータと参照データとの類似度を表すスコアを算出するスコア計算装置であって、
クエリデータ及び参照データに基づいて、予め学習された、全結合層の出力に対して正規化を行う多層構造ニューラルネットワークから出力される前記クエリデータの特徴ベクトルと、前記多層構造ニューラルネットワークから出力される前記参照データの特徴ベクトルとを求め、前記クエリデータの特徴ベクトルと、前記参照データの特徴ベクトルとの類似度スコアを計算するスコア計算部と、
前記特徴ベクトルとは異なる情報を用いて、前記クエリデータと前記参照データとの類似度スコアを計算する他手法スコア計算部と、
前記スコア計算部によって計算された前記類似度スコアと、前記他手法スコア計算部によって計算された前記類似度スコアとを統合した統合スコアを計算するスコア統合部と、
を含むスコア計算装置。
A score calculation device that calculates a score representing the similarity between query data and reference data,
Based on the query data and the reference data, the feature vector of the query data output from the multilayer neural network that is pre-trained and normalizes the output of the fully connected layer, and is output from the multilayer neural network. A score calculation unit that calculates a similarity score between the feature vector of the query data and the feature vector of the reference data;
Other method score calculation unit for calculating a similarity score between the query data and the reference data using information different from the feature vector;
A score integration unit that calculates an integrated score obtained by integrating the similarity score calculated by the score calculation unit and the similarity score calculated by the other method score calculation unit;
Score calculation device including.
クエリデータと参照データとの間の類似度スコアを算出するために用いられるパラメータであって、
入力を、クエリデータ、前記クエリデータに類似する類似データ、前記クエリデータに類似しない非類似データとし、出力を、コサイン類似度を求めるための、前記クエリデータの正規化された特徴ベクトル、前記類似データの正規化された特徴ベクトル、前記非類似データの正規化された特徴ベクトルとする多層構造ニューラルネットワークのパラメータを含むデータ構造。
A parameter used to calculate a similarity score between query data and reference data,
The input is query data, similar data similar to the query data, dissimilar data not similar to the query data, and the output is a normalized feature vector of the query data for determining cosine similarity, the similarity A data structure including a normalized feature vector of data and a parameter of a multilayered neural network as a normalized feature vector of the dissimilar data.
データを入力とし特徴ベクトルを出力するための多層構造ニューラルネットワークを学習するモデル学習装置におけるモデル学習方法であって、
学習部が、クエリデータ、前記クエリデータに類似する類似データ、及び前記クエリデータに類似しない非類似データに基づいて、全結合層の出力に対して正規化を行う前記多層構造ニューラルネットワークから出力される前記クエリデータの特徴ベクトルと前記類似データの特徴ベクトルとの類似度スコア、及び前記クエリデータの特徴ベクトルと前記非類似データの特徴ベクトルとの類似度スコアを含む損失関数を用いて、前記クエリデータの特徴ベクトルと前記類似データの特徴ベクトルとの類似度スコアが高く、前記クエリデータの特徴ベクトルと前記非類似データの特徴ベクトルとの類似度スコアが低くなるように、前記多層構造ニューラルネットワークのパラメータを学習する
モデル学習方法。
A model learning method in a model learning device for learning a multilayered neural network for inputting data and outputting a feature vector,
Based on query data, similar data similar to the query data, and dissimilar data not similar to the query data, the learning unit is output from the multilayer neural network that normalizes the output of the fully connected layer The query using a loss function including a similarity score between a feature vector of the query data and a feature vector of the similar data, and a similarity score between the feature vector of the query data and the feature vector of the dissimilar data The multilayer neural network has a high similarity score between the feature vector of the data and the feature vector of the similar data, and a low similarity score between the feature vector of the query data and the feature vector of the dissimilar data. Model learning method to learn parameters.
データを入力とし特徴ベクトルを出力するための多層構造ニューラルネットワークを学習するモデル学習装置におけるモデル学習方法であって、
学習部が、クエリデータ、前記クエリデータに類似する類似データ、及び前記クエリデータに類似しない非類似データに基づいて、前記多層構造ニューラルネットワークから出力される前記クエリデータの特徴ベクトルと前記類似データの特徴ベクトルとの類似度スコア、前記クエリデータの特徴ベクトルと前記非類似データの特徴ベクトルとの類似度スコア、前記特徴ベクトルとは異なる情報を用いて計算された前記クエリデータと前記類似データとの類似度スコア、及び前記特徴ベクトルとは異なる情報を用いて計算された前記クエリデータと前記非類似データとの類似度スコアを含む損失関数を用いて、前記クエリデータの特徴ベクトルと前記類似データの特徴ベクトルとの類似度スコアが高く、前記クエリデータの特徴ベクトルと前記非類似データの特徴ベクトルとの類似度スコアが低くなるように、前記多層構造ニューラルネットワークのパラメータを学習する
モデル学習方法。
A model learning method in a model learning device for learning a multilayered neural network for inputting data and outputting a feature vector,
Based on query data, similar data similar to the query data, and dissimilar data not similar to the query data, a learning unit outputs a feature vector of the query data and the similar data output from the multilayer neural network. A similarity score with a feature vector, a similarity score between a feature vector of the query data and a feature vector of the dissimilar data, and the query data calculated using information different from the feature vector and the similar data Using a loss function including a similarity score and a similarity score between the query data and the dissimilar data calculated using information different from the feature vector, the feature vector of the query data and the similarity data The similarity score with the feature vector is high, and the feature vector of the query data As the similarity score between the feature vector of the dissimilar data is lower, the model learning method for learning the parameters of the multi-layered structure neural network.
コンピュータを、請求項1〜請求項3の何れか1項記載のモデル学習装置、又は請求項4記載のスコア計算装置を構成する各部として機能させるためのプログラム。   The program for functioning a computer as each part which comprises the model learning apparatus in any one of Claims 1-3, or the score calculation apparatus of Claim 4.
JP2017044172A 2017-03-08 2017-03-08 Model learning device, score calculation device, method, data structure, and program Active JP6553664B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017044172A JP6553664B2 (en) 2017-03-08 2017-03-08 Model learning device, score calculation device, method, data structure, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017044172A JP6553664B2 (en) 2017-03-08 2017-03-08 Model learning device, score calculation device, method, data structure, and program

Publications (2)

Publication Number Publication Date
JP2018147392A JP2018147392A (en) 2018-09-20
JP6553664B2 true JP6553664B2 (en) 2019-07-31

Family

ID=63591358

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017044172A Active JP6553664B2 (en) 2017-03-08 2017-03-08 Model learning device, score calculation device, method, data structure, and program

Country Status (1)

Country Link
JP (1) JP6553664B2 (en)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7181746B2 (en) * 2018-10-03 2022-12-01 東芝ライフスタイル株式会社 washing machine
JP2020070573A (en) * 2018-10-30 2020-05-07 立川ブラインド工業株式会社 Electrically-driven shading device
KR102570070B1 (en) * 2018-12-27 2023-08-23 삼성전자주식회사 Method and apparatus for user verification using generalized user model
JP7192990B2 (en) * 2019-06-17 2022-12-20 日本電信電話株式会社 Learning device, retrieval device, learning method, retrieval method, learning program, and retrieval program
KR102225022B1 (en) * 2019-08-27 2021-03-08 연세대학교 산학협력단 Person re-identification apparatus and method
KR102225613B1 (en) * 2019-08-30 2021-03-08 연세대학교 산학협력단 Person re-identification apparatus and method
KR102251807B1 (en) * 2019-11-28 2021-05-12 광운대학교 산학협력단 Hyperparameter Optimization Algorithm Recommendation Method and Optimization Algorithm Recommendation System
CN112861626B (en) * 2021-01-04 2024-03-08 西北工业大学 Fine granularity expression classification method based on small sample learning
CN113408570A (en) * 2021-05-08 2021-09-17 浙江智慧视频安防创新中心有限公司 Image category identification method and device based on model distillation, storage medium and terminal
WO2023181272A1 (en) * 2022-03-24 2023-09-28 日本電気株式会社 Information processing device, information processing method, and recording medium
CN115690443B (en) 2022-09-29 2023-06-16 北京百度网讯科技有限公司 Feature extraction model training method, image classification method and related devices

Also Published As

Publication number Publication date
JP2018147392A (en) 2018-09-20

Similar Documents

Publication Publication Date Title
JP6553664B2 (en) Model learning device, score calculation device, method, data structure, and program
CN110414683B (en) Method and device for solving mathematic questions
CN112559784B (en) Image classification method and system based on incremental learning
CN108304526B (en) Data processing method and device and server
WO2019153737A1 (en) Comment assessing method, device, equipment and storage medium
JP6884116B2 (en) Information processing equipment, information processing methods, and programs
Jain et al. Prediction of house pricing using machine learning with Python
CN111666761B (en) Fine-grained sentiment analysis model training method and device
US8032469B2 (en) Recommending similar content identified with a neural network
CN110795527B (en) Candidate entity ordering method, training method and related device
KR20180011221A (en) Select representative video frames for videos
CN112380421B (en) Resume search method, device, electronic device and computer storage medium
CN105302882B (en) Obtain the method and device of keyword
CN109145085A (en) The calculation method and system of semantic similarity
JP5730741B2 (en) Topic recommendation device, method and program
CN109033321B (en) Image and natural language feature extraction and keyword-based language indication image segmentation method
CN113779996A (en) Standard entity text determination method and device based on BilSTM model and storage medium
CN117521814A (en) A question and answer method and device based on multi-modal input and knowledge graph
JP2018185771A (en) Sentence pair classification device, sentence pair classification learning device, method, and program
CN117807232A (en) Commodity classification method, commodity classification model construction method and device
CN112000788B (en) Data processing method, device and computer readable storage medium
CN111639194B (en) Knowledge graph query method and system based on sentence vector
Sankhe et al. Survey on sentiment analysis
CN119128052A (en) Recipe retrieval method based on modal interaction
CN113821610A (en) Information matching method, device, equipment and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180628

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190611

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190625

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190704

R150 Certificate of patent or registration of utility model

Ref document number: 6553664

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150