JP2002304415A - Image search device - Google Patents
Image search deviceInfo
- Publication number
- JP2002304415A JP2002304415A JP2001106089A JP2001106089A JP2002304415A JP 2002304415 A JP2002304415 A JP 2002304415A JP 2001106089 A JP2001106089 A JP 2001106089A JP 2001106089 A JP2001106089 A JP 2001106089A JP 2002304415 A JP2002304415 A JP 2002304415A
- Authority
- JP
- Japan
- Prior art keywords
- image
- search
- similarity
- key
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】この発明は、画像検索装置に
関するものである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image search device.
【0002】[0002]
【従来の技術】大量の画像データベースの中から特定の
画像を検索する際に用いられる画像検索装置としては、
以下のようなものがある。すなわち、ます画像データベ
ースに画像を登録する際に、画像を特定するためのキー
となる文字情報(タイトル,作者,分類,…)を付加し
ておく、そして、検索する場合には、条件を文字情報と
して入力し、その条件に合致するキーを抽出するととも
に、合致した画像データを読み出してくるものである。2. Description of the Related Art An image search apparatus used for searching for a specific image from a large amount of image databases includes:
There are the following. In other words, when registering an image in the image database, character information (title, creator, classification, ...) as a key for specifying the image is added. This is input as information, a key that matches the condition is extracted, and the matching image data is read.
【0003】また、他の方式としては、検索キーとして
画像を与え、その画像の特徴を抽出し、特徴が類似する
画像を画像データベースの中から検出するものがある。
検索キーとして与える画像としては、既存の画像の場合
もあれば、使用者が描いたラフスケッチの場合もある。
そして、係る画像に基づく検索アルゴリズムとしては、
例えばIBM社製の「QBICシステム」が市販されて
いる。As another method, there is a method in which an image is given as a search key, features of the image are extracted, and an image having similar features is detected from an image database.
The image given as the search key may be an existing image or a rough sketch drawn by the user.
And as a search algorithm based on such an image,
For example, “QBIC system” manufactured by IBM is commercially available.
【0004】上記した画像をキーとした画像検索では、
画像データ同士の特徴量を抽出し、特徴量が近いものを
検出するので、類似した画像を検出することができるの
で、使用者(検索者)のイメージにあった画像を検索す
ることができ、また、画像のみを記憶している場合でも
目的の画像を検索することができる。しかも、内部アル
ゴリズムで算出された特徴量に基づく類似度から該当す
る画像を検索するので、例えば表示する際にも類似度の
高い画像から順に行うことができる。In the above-described image search using an image as a key,
Since the feature values of the image data are extracted and the feature values close to each other are detected, similar images can be detected, so that an image matching the image of the user (searcher) can be searched. Further, even when only images are stored, a target image can be searched. In addition, since the corresponding image is searched from the similarity based on the feature amount calculated by the internal algorithm, for example, the images can be displayed in order from the image having the highest similarity.
【0005】[0005]
【発明が解決しようとする課題】しかしながら、上記し
た画像をキーとした画像検索システムでは、以下に示す
問題があった。すなわち、画像検索装置(画像検索シス
テム)が判断した順番はわかるものの、係る順番になっ
た評価結果は使用者である人間にとってわかりにくいも
のも多かった。However, the above-described image retrieval system using an image as a key has the following problems. That is, although the order determined by the image search device (image search system) is known, the evaluation result in that order is often difficult to understand for a user as a user.
【0006】すなわち、類似する程度の順番に疑義を生
じたり、さらには、「何でこのような画像が検索された
のか?」と思うような人間の感覚としては全く異なるも
のも抽出されることがある。That is, doubts may be generated in the order of similarity, and further, a completely different human sensation such as "Why was such an image retrieved?" is there.
【0007】一例を示すと、図1(a)に示すような検
索キーの画像を与えた場合、図1(b)のような検索結
果が得られたとする。すると、検索キーは「海の風景」
のはずが、第2位の画像は「空の風景」となってしま
い、さらには第3位のものは風景とも関係のない「かき
氷」が検索されることがある。このように、検索結果に
疑問が生じると、システム自体に対する信頼性も低下す
るという悪影響が派生する。As an example, suppose that a search result as shown in FIG. 1B is obtained when an image of a search key as shown in FIG. 1A is given. Then, the search key is "seascape"
However, the second image may be "sky landscape", and the third image may be "shaved ice" which is not related to the landscape. In this way, if the search result is questioned, the adverse effect is that the reliability of the system itself is reduced.
【0008】また、このように検索結果が人間とコンピ
ュータ(システム)で異なるのは、「似ている」という
判断が人間の主観に起因する曖昧さを含むためであると
考えられる。しかも、主観に起因するため人間同士でも
「似ている」という度合いの順列は異なることがある。
従って、コンピュータが最初から使用者が欲する目的の
画像を検索するのは困難なことが多いと言える。[0008] Further, it is considered that the reason that the search result differs between a human and a computer (system) is that the judgment that "similarity" includes ambiguity due to human subjectivity. Moreover, the permutation of the degree of “similarity” between humans may be different due to subjectivity.
Therefore, it can be said that it is often difficult for the computer to search for the desired image desired by the user from the beginning.
【0009】すると、係る画像検索装置(検索アルゴリ
ズム)を用いて目的の画像を検索するかは、キーとなる
画像として適切なものを選択し入力することになるが、
実際にはそれだけの画像を用意するのは煩雑である。ま
た、目的の画像は、キーとなる画像の全体が似ているも
のの場合もあるが、その画像中のある部分に注目して検
索を実行してほしい場合が多々あるが、そのような注目
する部分をシステム側に伝えにくいという問題がある。Then, whether to search for a target image using the image search device (search algorithm) is determined by selecting and inputting an appropriate image as a key.
Actually, it is complicated to prepare such images. Also, the target image may be similar to the whole of the key image, but there are many cases where the user wants to execute a search by focusing on a certain part in the image. There is a problem that it is difficult to transmit the part to the system side.
【0010】また、検索結果に満足ができなかった場合
には、再検索することになるが、その場合に、装置がど
のような視点,アルゴリズムに従って検索されたかが不
明であるので、再建策要求時に与えるキー画像をどのよ
うにすればよいかが明確でなく、結局、試行錯誤を繰り
返しながら目的の画像を検出することになり、多くの時
間と労力を費やしてしまう。[0010] If the search result is not satisfactory, the search is performed again. In this case, it is not clear what kind of viewpoint and algorithm the device has been searched for. It is not clear how to give the given key image, and after all, the target image is detected by repeating trial and error, and much time and effort is expended.
【0011】この発明は、画像検索装置がキー画像のど
のような部分に注目して検索したか等の装置(システ
ム)側の検索時の観点を使用者に理解しやすくし、使用
者の意図,目的を装置側に伝えることが容易に行うこと
ができる画像検索装置を提供することを目的とする。さ
らに対話的に検索を続け、効率良く目的の画像を得るこ
とができるようにした画像検索装置を提供することを他
の目的とする。The present invention makes it easy for a user to understand the viewpoint at the time of a search on the device (system) side, such as what part of the key image the image search device searched for, and the intention of the user. It is an object of the present invention to provide an image retrieval apparatus which can easily communicate the purpose to the apparatus side. It is another object of the present invention to provide an image search apparatus that can continue a search interactively and efficiently obtain a target image.
【0012】[0012]
【課題を解決するための手段】この発明による画像検索
装置では、複数の画像が格納された画像データベース
と、与えられたキー画像と類似する画像を前記画像デー
タベースの中から検索し、その検索した画像を候補画像
として表示装置に向けて出力する処理手段を備えた。そ
して、前記処理手段は、前記候補画像中の類似度の高い
部分或いは類似度の低い部分の少なくとも一方を前記表
示装置に表示させる機能を備えるようにした。In an image retrieval apparatus according to the present invention, an image database storing a plurality of images and an image similar to a given key image are searched from the image database, and the search is performed. There is provided processing means for outputting the image as a candidate image to the display device. The processing means has a function of displaying at least one of a high similarity part and a low similarity part in the candidate image on the display device.
【0013】実施の形態では、類似度の高い部分と低い
部分の両方を表示したが、一方でももちろん良い。この
ように表示することにより、画像検索装置(処理手段)
がどの領域に着目し、或いは着目せずに評価をし、候補
画像を決定したかが使用者に容易に理解することができ
る。従って、仮に検索結果に満足が得られなかったとし
ても、次にキー画像を入力する場合には、上記した結果
を参考にすることにより、目的とする画像を検索しやす
くなる。In the embodiment, both the portion having a high similarity and the portion having a low similarity are displayed. By displaying in this way, the image search device (processing means)
Can be easily understood by the user as to which region is focused or evaluated without focusing and the candidate image is determined. Therefore, even if the user is not satisfied with the search result, the next time a key image is input, the user can easily search for the target image by referring to the above result.
【0014】なお、前記処理手段は、前記キー画像並び
に前記画像に対し、それぞれ同一の複数の領域に分割
し、各分割した領域毎に特徴量を求め、対応する領域同
士の特徴量の差に基づいて各画像の類似度を求めるもの
であり、前記候補画像中の類似度の高い部分或いは類似
度の低い部分は、前記分割した領域を単位とすることが
できる。このようにすると、上記した候補画像中の類似
度の高い部分或いは類似度の低い部分の少なくとも一方
を表示する処理が容易に行える。The processing means divides each of the key image and the image into a plurality of identical regions, obtains a characteristic amount for each of the divided regions, and calculates a characteristic amount difference between corresponding regions. The degree of similarity of each image is obtained based on the divided area, and a portion having a high degree of similarity or a part having a low degree of similarity in the candidate image can be a unit of the divided area. In this manner, the process of displaying at least one of the high similarity portion and the low similarity portion in the candidate image can be easily performed.
【0015】また、前記表示装置に表示された前記候補
画像に対し、検索時に注目する領域を設定する領域設定
手段を持ち、前記処理手段は、前記設定された領域に重
点をおいて検索する機能を付加すると好ましい。もちろ
ん、係る機能はなくても良い。Further, the apparatus has an area setting means for setting an area of interest in the search for the candidate image displayed on the display device, and the processing means performs a search with emphasis on the set area. Is preferably added. Of course, such a function is not required.
【0016】このように、領域設定手段により領域を設
定することにより、処理手段側は、使用者がキー画像の
中の特にどの部分に着目しているかが容易にわかる。そ
の結果、使用者が意図する検索結果が得やすくなる。つ
まり、対話形式での検索が可能となる。As described above, by setting the area by the area setting means, the processing means can easily recognize which part of the key image the user is particularly focusing on. As a result, the search result intended by the user is easily obtained. That is, it is possible to perform an interactive search.
【0017】一方、別の解決手段としては、複数の画像
が格納された画像データベースを備え、作成中の画像情
報を取得するとともに、描画の一時停止時間が一定以上
となった際に、それまでに入力された画像情報をキー画
像とし、そのキー画像と類似する画像を前記画像データ
ベースの中から検索し、その検索した画像を候補画像と
して表示装置に向けて出力する処理手段を備えて構成す
ることである。この場合に、表示態様は、キー画像と候
補画像を並べて表示してもよいし、キー画像と、候補画
像を重ねて表示装置に表示するようにしてもよい。On the other hand, another solution is to provide an image database in which a plurality of images are stored, acquire the image information being created, and, when the pause time of the drawing becomes equal to or more than a predetermined value, And a processing unit for searching for an image similar to the key image from the image database and outputting the searched image as a candidate image to a display device. That is. In this case, as the display mode, the key image and the candidate image may be displayed side by side, or the key image and the candidate image may be superimposed and displayed on the display device.
【0018】使用者が描画したラフスケッチに基づいて
画像検索をするに際し、全ての画像を作成する前に、つ
まり、描画の途中で検索をすることができるので、容易
に目的の画像を検出することが可能となる。しかも、描
画途中(一時停止中)で画像検索が行われ、その結果が
表示されるため、入力している画像情報が正しい方向に
いっているのか否かや、不足している情報はないかがわ
かり、必要な情報を順次入力することにより、対話形式
による検索ができ、迅速に目的の画像を検出することが
できる。When performing an image search based on the rough sketch drawn by the user, the search can be performed before all the images are created, that is, during the drawing, so that the target image can be easily detected. It becomes possible. In addition, image search is performed during drawing (pause) and the result is displayed, so you can check whether the input image information is in the right direction and whether there is any missing information. By inputting necessary information in sequence, a search can be performed in an interactive manner, and a target image can be quickly detected.
【0019】この発明の以上説明した構成要素は可能な
限り組み合わせることができる。この発明による画像検
索装置を構成する各手段を専用のハードウェア回路によ
って実現することができるし、プログラムされたコンピ
ュータによって実現することもできる。The above-described components of the present invention can be combined as much as possible. Each means constituting the image search device according to the present invention can be realized by a dedicated hardware circuit, or can be realized by a programmed computer.
【0020】[0020]
【発明の実施の形態】図2は、本発明の好適な第1の実
施の形態を示すハードウェア構成図である。同図に示す
ように、コンピュータ本体1に、入力装置(ポインティ
ングデバイス)としてのマウス2と、使用者とのインタ
フェースとなるモニタ3が接続された構成となってい
る。コンピュータ本体1は、データバスに入力部11,
CPU12,メモリ13,外部記憶装置14並びに出力
部15が接続される。FIG. 2 is a hardware configuration diagram showing a preferred first embodiment of the present invention. As shown in FIG. 1, a computer 2 has a configuration in which a mouse 2 as an input device (pointing device) and a monitor 3 as an interface with a user are connected. The computer main unit 1 has an input unit 11 connected to a data bus.
The CPU 12, the memory 13, the external storage device 14, and the output unit 15 are connected.
【0021】外部記憶装置14には、検索対象の画像デ
ータが多数蓄積された画像データベースが構築されてい
る。また、マウス2から入力部11を介して受け取った
命令情報がCPU12に与えられる。CPU12は、与
えられた情報に基づき、ワークメモリとしてのメモリ1
3を適宜使用して、要求,条件にあった画像を画像デー
タベースから検出し、出力部15を介してモニタ3に出
力表示する。なお、図から明らかなように、コンピュー
タ本体1は、通常のパソコンにより実現可能である。The external storage device 14 has an image database in which a large number of image data to be searched are stored. The command information received from the mouse 2 via the input unit 11 is given to the CPU 12. The CPU 12 performs a memory 1 as a work memory based on the given information.
3 is appropriately used, an image meeting the requirements and conditions is detected from the image database, and output and displayed on the monitor 3 via the output unit 15. As is clear from the figure, the computer main body 1 can be realized by an ordinary personal computer.
【0022】ここで本発明では、CPU12内に画像検
索アルゴリズムを実装している。まず本形態の概念を説
明すると、通常の画像に対する特徴量抽出を行い、検索
キーとして入力されたキー画像の特徴量と、画像データ
ベースに登録された画像の特徴量を求め、特徴量の異同
の程度から類似度を求める。そして、類似度の高いもの
から検索した候補画像として表示するようにしている。
この候補画像を決定するまでは、基本的に従来のアルゴ
リズムを適用できる。Here, in the present invention, an image search algorithm is implemented in the CPU 12. First, the concept of the present embodiment will be described. A feature amount of a normal image is extracted, and a feature amount of a key image input as a search key and a feature amount of an image registered in an image database are obtained. The degree of similarity is obtained from the degree. Then, the images are displayed as candidate images retrieved from those having a high degree of similarity.
Until the candidate image is determined, a conventional algorithm can be basically applied.
【0023】そして、検索結果を表示するに際し、キー
画像にどの部分が類似していると判断して検索したかの
情報を併せて表示するようにした。具体的には、図3に
示すように、類似度の低い部分に対して網掛けによるマ
スクMをかけるようにしている。これにより、類似度の
高かった部分がよりクリアに表示される。しかも、類似
度が高かった部分には、領域を囲む枠Wを表示する。こ
のマスクMと枠Wにより、使用者は画像検索装置(検索
アルゴリズム)が、どの部分に対して類似度が高いと判
断し、選択したかが容易に理解できる。In displaying the search result, information indicating which part is determined to be similar to the key image and the search is performed is also displayed. Specifically, as shown in FIG. 3, a mask M is shaded on a portion having a low similarity. As a result, a portion having a high similarity is displayed more clearly. In addition, a frame W surrounding the area is displayed in a portion having a high similarity. Using the mask M and the frame W, the user can easily understand which part the image search device (search algorithm) has determined to have a high degree of similarity and has selected it.
【0024】また、マスクMがされた領域や枠Wに囲ま
れた領域の配置レイアウトから、検索時の分割パタ−ン
がどのように設定されたかも推定できる。図の例では、
水平的な分割パタ−ンが適用されていると予測できる。Further, from the layout of the area where the mask M is placed and the area surrounded by the frame W, it is also possible to estimate how the division pattern at the time of retrieval has been set. In the example shown,
It can be predicted that a horizontal division pattern is applied.
【0025】更に、本形態では、この検索結果に基づい
て再建策をするに際し、キー画像の注目部分を指示する
ことができるようになっている。つまり、マウス2を操
作してキー画像の中で、重視したい部分を指定する。図
4(a)の例では、上部の「空と雲の部分」を指定して
いる。このように重視する部分を指定した状態で再検索
命令を与える。Further, in the present embodiment, when performing a rebuilding plan on the basis of the search result, it is possible to specify a target portion of the key image. In other words, the user operates the mouse 2 to specify a portion to be emphasized in the key image. In the example of FIG. 4A, the upper “sky and cloud portion” is specified. A re-search instruction is given in a state where the part to be emphasized is designated in this way.
【0026】これに基づき、画像検索装置は再度検索を
するが、この時、指定された領域の特徴量(色,形状
等)を重視して類似度を求め検索を実行する。これによ
り、図4(b)に示すように、最初の検索結果と異なる
結果が得られる。On the basis of this, the image search device searches again, but at this time, the search is performed by obtaining the similarity with emphasis on the feature amount (color, shape, etc.) of the designated area. As a result, as shown in FIG. 4B, a result different from the first search result is obtained.
【0027】当然のことながら、注目,重視する領域を
替えることにより、検索結果が異なる。このように、重
視する領域設定とともに再検索要求を行い、それに対す
る検索結果を得るというように対話形式で検索を続行
し、目的の画像を検出することができる。As a matter of course, the search results are different by changing the region of interest and importance. In this way, the search can be continued in an interactive manner such that the re-search request is made together with the setting of the region to be emphasized and the search result is obtained, and the target image can be detected.
【0028】そして、設定した重視する領域に対応した
検索結果の関係から、使用者が必要とする検索結果を得
るためには、重視する領域をどのようにすればよいかが
わかりやすく、重視する領域の設定が正しく行えるの
で、短時間で目的とする画像を検出することができる。From the relation of the search result corresponding to the set important area, it is easy to understand how to set the important area in order to obtain the search result required by the user. Can be set correctly, so that a target image can be detected in a short time.
【0029】なお、再検索の際に、上記したように重視
する領域を設定するだけでなく、分割領域の設定の仕
方、つまり、上記した例では水平分割を行うようにした
が、垂直分割や放射状分割等の他の分割方法を指定する
ようにしても良い。In the re-search, not only the area to be emphasized is set as described above, but also the way of setting the divided area, that is, in the above example, the horizontal division is performed. Another division method such as radial division may be designated.
【0030】上記した処理を実行するためのCPU12
の処理機能としては、図5に示すフローチャートを実行
するようになっている。すなわち、まず、キー画像の選
択を行う(ST1)。この選択は、例えば検索用のサン
プル画像が外部記憶装置14に格納されている場合に
は、それを呼び出してサンプルリストの中から指定す
る。また、自分が用意した画像データを入力するように
しても良いし、さらには、使用者がマウス2を使用して
モニタ3上で作成したラフスケッチのようなものでも良
い。CPU 12 for executing the above processing
As a processing function, the flowchart shown in FIG. 5 is executed. That is, first, a key image is selected (ST1). For this selection, for example, when a sample image for search is stored in the external storage device 14, it is called and designated from the sample list. Further, the image data prepared by the user may be input, or a rough sketch created on the monitor 3 by the user using the mouse 2 may be used.
【0031】次に、与えられたキー画像に基づいて、そ
のキー画像と類似する画像の検索を行う(ST2)。こ
の検索処理は、キー画像の特徴量を求めるとともに、画
像データベースに格納された各画像の特徴量との類似度
を求め、類似度の高いものを検出候補画像と決定するよ
うにしている。そして、具体的に図6,図7に示すフロ
ーチャートにより実行される。Next, based on the given key image, an image similar to the key image is searched (ST2). In this search processing, the feature amount of the key image is obtained, and the similarity with the feature amount of each image stored in the image database is obtained, and an image having a high similarity is determined as a detection candidate image. The processing is specifically executed according to the flowcharts shown in FIGS.
【0032】すなわち、まずキー画像を複数の領域に分
割する(ST10)。この分割の仕方は、予め用意した
テンプレートに従って行われる。そして、本形態では分
割の仕方を特定するテンプレートを複数用意し、各テン
プレート毎に分割する。そして、その分割領域毎に特徴
量としての平均色を求める(ST11)。That is, first, the key image is divided into a plurality of areas (ST10). This dividing method is performed according to a template prepared in advance. Then, in the present embodiment, a plurality of templates for specifying the dividing method are prepared, and divided for each template. Then, an average color as a feature amount is obtained for each of the divided regions (ST11).
【0033】次いで、そのようにして求めた平均色によ
る分散を各テンプレート毎に求め(ST12)、その求
めた分散から検索に使用するテンプレートを決定する
(ST13)。つまり、ステップ12で各テンプレ−ト
毎に各領域の平均色の分散を求めるので、求めた分散が
大きいものを使用するテンプレ−トに決定する。そし
て、その決定したテンプレートに従って分割された領域
毎の平均色をキー画像の特徴量として出力、つまり、一
時記憶領域に記憶する(ST14)。Next, the variance based on the average color thus obtained is obtained for each template (ST12), and a template to be used for a search is determined from the obtained variance (ST13). That is, in step 12, the average color variance of each area is obtained for each template, so that the template having the larger variance is used. Then, the average color of each area divided according to the determined template is output as the feature amount of the key image, that is, stored in the temporary storage area (ST14).
【0034】一方、ステップ13で決定されたキー画像
に最適な使用テンプレートを読み込み(ST15)、外
部記憶装置14内の画像データベースから画像を読み込
む(ST16)。そして、読み込んだ画像(処理対象の
画像)に対し、上記使用テンプレートに基づいて領域を
分割し、その分割領域毎の平均色を求める(ST1
7)。On the other hand, the most suitable use template for the key image determined in step 13 is read (ST15), and the image is read from the image database in the external storage device 14 (ST16). Then, the read image (image to be processed) is divided into regions based on the used template, and an average color for each divided region is obtained (ST1).
7).
【0035】次いで、キー画像と処理対象の対応する領
域間の色の差を、RGB色空間上でのユークリッド距離
として求める(ST18)。係る距離が近いほど類似度
が高いものとする。これにより、キー画像と処理対象画
像間での各領域毎の類似度が求まる。そして、各領域の
類似度から総合類似度を求める。例えば、各領域毎の距
離が求められているので、その全ての領域についての距
離の平均(平均距離)を算出することにより総合類似度
とすることができる。そして、上記した各処理を画像デ
ータベースに格納された全ての画像について行う。Next, the color difference between the key image and the corresponding area to be processed is determined as the Euclidean distance in the RGB color space (ST18). The closer the distance is, the higher the similarity is. As a result, the degree of similarity for each region between the key image and the processing target image is obtained. Then, the overall similarity is obtained from the similarity of each area. For example, since the distance for each area is obtained, the average similarity (average distance) of all the areas can be calculated to obtain the overall similarity. Then, the above-described processing is performed on all the images stored in the image database.
【0036】そして、全ての画像について距離を求めた
(ST19でYes)ならば、総合類似度(平均距離)
に基づいてソートをする(ST20)。これにより、キ
ー画像に対して各画像の似ている度合いの順位付けが行
われる。つまり、平均距離が短いものほど、類似度が高
く、目的の画像候補の上位に来る。If the distances have been obtained for all the images (Yes in ST19), the overall similarity (average distance)
(ST20). As a result, the key images are ranked according to the degree of similarity between the images. In other words, the shorter the average distance, the higher the similarity, and the higher the target image candidate.
【0037】なお、本形態では、各領域の距離の平均を
求め、画像全体での類似度(総合類似度)を求めたが、
認識アルゴリズムで用いられる各種の方式をとることが
できる。さらには、特徴量も本形態のように平均色を用
いるものに限ることは無く、図形(形状)その他各種の
ものを利用できる。要するに、領域毎に類似度情報が求
められれば、具体的な手法は問わない。In this embodiment, the average of the distances of the respective regions is obtained, and the similarity (overall similarity) of the entire image is obtained.
Various methods used in the recognition algorithm can be used. Further, the feature amount is not limited to the one using the average color as in the present embodiment, and a graphic (shape) and other various types can be used. In short, any method can be used as long as similarity information is obtained for each area.
【0038】次に、検索結果を表示する(ST3)。す
なわち、図8に示すように、ソート結果を読み込み、候
補画像を決定する(ST30)。この候補画像は、ソー
ト結果の上位の画像であり、予め定めたN番目までの画
像を候補画像(相対評価)としても良いし、総合類似度
(平均距離)が一定のしきい値以上のものを候補画像
(絶対評価)としてもよいし、それらをミックスしても
良い。Next, the search result is displayed (ST3). That is, as shown in FIG. 8, the sorting result is read, and a candidate image is determined (ST30). This candidate image is a higher-ranked image of the sorting result, and images up to a predetermined N-th image may be used as candidate images (relative evaluation), or images having an overall similarity (average distance) equal to or more than a certain threshold value May be used as candidate images (absolute evaluation), or they may be mixed.
【0039】そして、候補画像となる上位の画像につい
て、各領域毎の類似度(距離)を読み込む(ST3
1)。類似度の低い(距離の長い)領域は、決定の際に
あまり注目しなかった領域となり、マスクMをかける領
域となる。一方、類似度の高い(距離の短い)領域は、
注目した領域となり、枠Wを設定する領域となる。な
お、図3,図4に示したものでは、注目するか否かの2
種類であったが、3種類以上に分けても良い。例えば、
マスクする領域と枠をかける領域の中間の類似度の領域
に対し、何も付加しない領域を設けても良い。Then, the similarity (distance) of each region is read for the upper image serving as the candidate image (ST3).
1). A region with a low similarity (long distance) is a region that has not received much attention in the determination, and is a region to which the mask M is applied. On the other hand, regions with high similarity (short distance)
The region becomes the region of interest, and is a region where the frame W is set. Note that, in FIGS.
Although it was a type, it may be divided into three or more types. For example,
A region to which nothing is added may be provided for a region having a similarity between the region to be masked and the region to be framed.
【0040】そして、上位の画像を、モニタ3に表示す
る(ST32)。このとき、ステップ31で読み込んだ
情報に基づき、マスクMや枠Wを重ねて表示する。この
表示例が図3,図4に示す検索結果である。なお、図示
の例では、網掛けのマスクMをするようにしたが、表示
態様はこれに限ることはなく、該当部分を反転したり、
薄い色で表示するなど各種の表現方法をとることができ
る。同様に、類似度の高い領域は、枠Wで囲むのではな
く、例えば、点滅させるなどの他各種の手段で協調する
ようにすることができる。Then, the upper image is displayed on the monitor 3 (ST32). At this time, based on the information read in step 31, the mask M and the frame W are displayed in an overlapping manner. This display example is the search result shown in FIGS. In the illustrated example, the hatched mask M is used. However, the display mode is not limited to this, and the corresponding portion can be inverted,
Various expression methods such as displaying in a light color can be adopted. Similarly, a region with a high degree of similarity can be made to cooperate with various other means, such as blinking, instead of being surrounded by the frame W.
【0041】このモニタ3に表示された検索結果を見た
使用者は、目的の画像があるか否かを判断し、その判断
結果をマウス2等を用いて入力する。つまり、図示省略
するが、例えば、モニタ3上に表示された所定領域をク
リックすることにより、判断結果の入力をすることがで
きる。The user who sees the search result displayed on the monitor 3 judges whether or not there is a target image, and inputs the judgment result using the mouse 2 or the like. In other words, although not shown, for example, by clicking on a predetermined area displayed on the monitor 3, a determination result can be input.
【0042】従って、CPU12は、係る入力を待ち、
目的の画像の有無を判断する(ST4)。そして、目的
の画像がある場合には、検索処理は終了する。一方、目
的の画像がない場合には、再検索処理をすることになる
が、このとき、キー画像中の注目領域を取得する(ST
5)。Therefore, the CPU 12 waits for the input,
The presence or absence of the target image is determined (ST4). If there is the target image, the search processing ends. On the other hand, if there is no target image, a re-search process is performed. At this time, an attention area in the key image is obtained (ST
5).
【0043】すなわち、使用者は、マウス2を操作して
キー画像の中の注目領域を指定するので、その指定され
た領域を認識する。そして、ステップ2の検索処理に戻
り、再検索するが、その際にステップ5で認識した注目
領域に重点をおいて検索をする。なお、重点をおいた検
索としては、その注目領域についてのみキー画像と処理
対象の画像の距離を求める場合と、全ての領域について
距離を求めるが、総合的な類似度を求める際に、注目領
域に対する重み付けを高くするなど各種の方法がある。
以後、上記処理を順次繰り返し実行することにより、目
的の画像を検出することができる。That is, since the user operates the mouse 2 to specify a region of interest in the key image, the user recognizes the specified region. Then, the process returns to the search process in step 2 and the search is performed again. At this time, the search is performed with emphasis on the attention area recognized in step 5. Note that the search with emphasis is to find the distance between the key image and the image to be processed only for the region of interest, and to find the distance for all the regions. There are various methods such as increasing the weight for
Thereafter, the target image can be detected by sequentially and repeatedly executing the above processing.
【0044】図9,図10は、本発明の第2の実施の形
態を示している。本実施の形態では、インクリメンタル
サーチを実施するものである。すなわち、ハードウェア
構成としては、基本的に図2に示す第1の実施の形態と
同様であり、CPU12の機能が異なる。つまり、入力
装置としてマウスその他の線画を作成することのできる
装置を用いる。そして、CPU12は、入力される作成
中の線画情報を取得し、それに基づいて画像検索を行
い、候補画像を決定出力表示するように機能する。具体
的には、図9に示すフローチャートを実施するようにな
っている。FIGS. 9 and 10 show a second embodiment of the present invention. In the present embodiment, an incremental search is performed. That is, the hardware configuration is basically the same as that of the first embodiment shown in FIG. 2, and the function of the CPU 12 is different. That is, a mouse or other device capable of creating a line drawing is used as an input device. Then, the CPU 12 functions to acquire the input line drawing information being created, perform an image search based on the information, and determine and output a candidate image. Specifically, a flowchart shown in FIG. 9 is implemented.
【0045】すなわち、まず、線画の入力を待つ(ST
40)。そして、無描画時間を計測し、一定時間(例え
ば1秒)以上無描画であるか否かを判断する(ST4
1)。一定時間以上無描画状態が継続しない場合には、
ステップ40で入力されている線画情報を取得しつづけ
る。That is, first, input of a line drawing is waited (ST
40). Then, the non-drawing time is measured, and it is determined whether or not there is no drawing for a predetermined time (for example, 1 second) (ST4).
1). If the no drawing state does not continue for a certain period of time,
In step 40, the input line drawing information is continuously obtained.
【0046】そして、1秒以上無描画状態が続くと、ス
テップ42に進み、現時点までの入力に基づいてキー画
像を作成する。そして、そのキー画像と、画像データベ
ースに格納された各画像とを線画比較による画像検索処
理を行い、キー画像と各画像の類似度を求める(ST4
3)。そして、類似度の高い上位の画像をモニタ3に表
示する(ST44)。このとき表示するのは、最も類似
度が高いもののみを表示しても良いし、上位N個を表示
するなど各種の方式がとれる。If the non-drawing state continues for one second or more, the process proceeds to step 42, where a key image is created based on the input up to the present time. Then, the key image and each image stored in the image database are subjected to image search processing by line drawing comparison, and the similarity between the key image and each image is obtained (ST4).
3). Then, the upper image having the higher similarity is displayed on the monitor 3 (ST44). At this time, various methods such as displaying only the one with the highest similarity or displaying the top N items may be used.
【0047】次いで、使用者は、目的の画像があるか否
かを判断し、その判断結果をマウス2等を用いて入力す
るので、CPU12は、係る入力を待ち、目的の画像の
有無を判断する(ST45)。そして、目的の画像があ
る場合には、検索処理は終了する。一方、目的の画像が
ない場合には、ステップ40に戻り、続いて入力される
線画情報を待つ。Next, the user determines whether or not there is a target image, and inputs the determination result using the mouse 2 or the like. The CPU 12 waits for the input and determines whether or not the target image exists. Yes (ST45). If there is the target image, the search processing ends. On the other hand, if there is no target image, the process returns to step 40, and waits for subsequently input line drawing information.
【0048】なお、目的の画像の有無の判断であるが、
線画情報が入力された場合には、目的の画像がなかった
と判断するようにしても良い。すなわち、続いて線画情
報の入力をするということは、検索条件を追加(キー画
像の変更)しているものであるので、再検索要求(目的
の画像なし)ととれるからである。The determination of the presence or absence of the target image is as follows.
When the line drawing information is input, it may be determined that there is no target image. In other words, subsequent input of line drawing information means that a search condition has been added (key image has been changed), so that a re-search request (no target image) can be taken.
【0049】このように、ラフスケッチによる検索の場
合、ある程度の線画が書けた状態で検索し、検索結果が
悪い場合には、その結果(表示された候補画像)を見
て、必要な条件を線画として入力することにより、対話
形式で検索を継続し、目的の画像を迅速に見つけること
ができる。また、パーツ毎に画像を入力することによ
り、使用者の意図,目的を装置側に伝え易くなる。な
お、一旦候補画像として表示した画像は、以後の検索処
理が除外するようにしても良い。As described above, in the case of the search based on the rough sketch, the search is performed in a state where a certain amount of line drawing has been drawn, and when the search result is poor, the result (displayed candidate image) is checked and necessary conditions are determined. By inputting as a line drawing, the search can be continued in an interactive manner and the target image can be found quickly. Further, by inputting an image for each part, it is easy to convey the intention and purpose of the user to the apparatus side. The image once displayed as a candidate image may be excluded from the subsequent search processing.
【0050】本実施の形態の動作の一例を説明すると、
図10のようになる。図中左側が入力装置を操作して使
用者が作成したラフスケッチ(キー画像)であり、1秒
以上無描画状態が継続したときの図である。そして、図
中右側がキー画像に基づいて検索された最も類似度の高
かった候補画像である。An example of the operation of this embodiment will be described.
As shown in FIG. The left side in the figure is a rough sketch (key image) created by the user by operating the input device, and is a diagram when a non-drawing state continues for one second or more. The right side in the figure is the candidate image with the highest similarity retrieved based on the key image.
【0051】図示するように、1番目は、目的の画像中
に存在する雲の外郭を描いた状態で作画を中断してい
る。これに伴い、線画による類似検索が行われ、画像デ
ータベースに格納された各画像に対し、線画要素とのマ
ッチングをとり、マッチングした結果最も類似度の高い
画像が候補画像として表示される。図示の例では、空に
雲がある風景が検索されている。As shown in the drawing, in the first case, the drawing is interrupted while the outline of the cloud existing in the target image is drawn. Along with this, a similarity search using a line drawing is performed, each image stored in the image database is matched with a line drawing element, and the image having the highest similarity as a result of the matching is displayed as a candidate image. In the illustrated example, a landscape with clouds in the sky is searched.
【0052】この画像は目的の画像でないので、続いて
使用者は足りない部分の図を追加する。図示の例では、
水平線を書き込み(2番目)、次いで、海岸線を書き込
む(3番目)。このようにラフスケッチして入力される
線画要素が増えるにつれて、選択される候補画像(図中
右側)も変更される。そして、この例では、4番目に、
図中左側にサーフィンの外観の線画を書き込むことによ
り、目的の画像を検索できた。この例によれば、目的の
画像中に存在する椰子の木やボトルを記載せず、また、
波の形状など細かい描写をすることなく目的の画像を検
索できた。Since this image is not the target image, the user subsequently adds a diagram of the missing part. In the example shown,
A horizontal line is written (second), and then a shoreline is written (third). As the number of line drawing elements input as a rough sketch increases, the selected candidate image (right side in the figure) also changes. And in this example, fourth,
By writing a line drawing of the appearance of surfing on the left side of the figure, the target image could be searched. According to this example, the palm tree or bottle present in the target image is not described,
The target image could be searched without detailed description such as wave shape.
【0053】なお、上記した実施の形態の説明では、キ
ー画像を線画とし、画像データベース中の画像の線画要
素とのマッチングをとる例を示したが、本発明はこれに
限ることはなく、例えば、領域の塗りつぶしを行うこと
により、キー画像に色情報も付加することができ、これ
にともない画像検索も、線画+色のマッチングをとるこ
とにより、より正確かつ少ない回数で目的の画像を検出
しやすくなる。In the above description of the embodiment, an example is shown in which a key image is a line drawing and matching is performed with a line drawing element of an image in the image database. However, the present invention is not limited to this. In addition, color information can be added to the key image by filling the area, and the image search can be performed more accurately and in a smaller number of times by matching the line drawing and the color. It will be easier.
【0054】また、検索された候補画像の表示の仕方と
しては、キー画像と、候補画像を並べて表示するように
しても良いし、両方の画像を重ねて表示するようにして
も良い。但し、重ねる場合には、入力画像(キー画像)
の部分と検索結果(候補画像)とが区別できるような表
示(入力画像は赤色等で表記する等)にすることもでき
る。線による入力の場合には、重ねたとしても親和性が
高い入力が実現できる。As a method of displaying the searched candidate images, the key image and the candidate image may be displayed side by side, or both images may be displayed in a superimposed manner. However, when overlapping, input image (key image)
Can be distinguished from the search result (candidate image) (the input image is described in red or the like). In the case of input using a line, an input having a high affinity can be realized even if the input is made by overlapping.
【0055】[0055]
【発明の効果】以上のように、この発明では、画像検索
装置がキー画像のどのような部分に注目して検索したか
等の装置(システム)側の検索時の観点が使用者に理解
しやすくなる。また、使用者の意図,目的を装置側に伝
えたり、対話的に検索を続けることにより、効率良く目
的の画像を得ることができるようになる。As described above, according to the present invention, the user can understand the viewpoint at the time of searching on the device (system) side, such as what part of the key image the image searching device has searched for. It will be easier. In addition, by communicating the user's intention and purpose to the apparatus side or by continuing the search interactively, the desired image can be obtained efficiently.
【図1】従来例を説明する図である。FIG. 1 is a diagram illustrating a conventional example.
【図2】本発明の好適な第1の実施の形態を示すハード
ウェア構成図である。FIG. 2 is a hardware configuration diagram showing a preferred first embodiment of the present invention.
【図3】本実施の形態を説明する図である。FIG. 3 is a diagram illustrating the present embodiment.
【図4】本実施の形態を説明する図である。FIG. 4 is a diagram illustrating the present embodiment.
【図5】CPUの機能を説明するフローチャートであ
る。FIG. 5 is a flowchart illustrating functions of a CPU.
【図6】図5に示すフローチャートの検索処理ステップ
(ST2)の詳細な処理手順を説明するフローチャート
の一部である。FIG. 6 is a part of a flowchart illustrating a detailed processing procedure of a search processing step (ST2) in the flowchart illustrated in FIG. 5;
【図7】図5に示すフローチャートの検索処理ステップ
(ST2)の詳細な処理手順を説明するフローチャート
の一部である。7 is a part of a flowchart illustrating a detailed processing procedure of a search processing step (ST2) in the flowchart illustrated in FIG. 5;
【図8】検索結果の表示処理ステップ(ST3)の詳細
な処理手順を説明するフローチャートである。FIG. 8 is a flowchart illustrating a detailed processing procedure of a search result display processing step (ST3).
【図9】本発明の第2の実施の形態におけるCPUの機
能を説明するフローチャートである。FIG. 9 is a flowchart illustrating functions of a CPU according to the second embodiment of the present invention.
【図10】第2の実施の形態を説明する図である。FIG. 10 is a diagram illustrating a second embodiment.
1 コンピュータ本体 2 マウス 3 モニタ 11 入力部 12 CPU 13 メモリ 14 外部記憶装置 15 出力部 DESCRIPTION OF SYMBOLS 1 Computer main body 2 Mouse 3 Monitor 11 Input part 12 CPU 13 Memory 14 External storage device 15 Output part
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G06T 7/00 300 G06T 7/00 300F Fターム(参考) 5B050 AA09 BA15 CA07 EA19 FA02 FA17 GA08 5B075 ND06 NK06 NK08 NK39 PQ02 PQ22 PQ46 PQ69 PQ74 QM08 5L096 AA02 AA06 BA08 FA32 FA33 GA19 JA03 JA11 KA11 ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification code FI theme coat ゛ (reference) G06T 7/00 300 G06T 7/00 300F F term (reference) 5B050 AA09 BA15 CA07 EA19 FA02 FA17 GA08 5B075 ND06 NK06 NK08 NK39 PQ02 PQ22 PQ46 PQ69 PQ74 QM08 5L096 AA02 AA06 BA08 FA32 FA33 GA19 JA03 JA11 KA11
Claims (5)
スと、 与えられたキー画像と類似する画像を前記画像データベ
ースの中から検索し、その検索した画像を候補画像とし
て表示装置に向けて出力する処理手段を備え、 前記処理手段は、前記候補画像中の類似度の高い部分或
いは類似度の低い部分の少なくとも一方を前記表示装置
に表示させる機能を備えたことを特徴とする画像検索装
置。An image database storing a plurality of images and an image similar to a given key image are searched from the image database, and the searched images are output as candidate images to a display device. An image search apparatus, comprising: a processing unit, wherein the processing unit has a function of displaying at least one of a high similarity portion and a low similarity portion in the candidate image on the display device.
記画像に対し、それぞれ同一の複数の領域に分割し、各
分割した領域毎に特徴量を求め、対応する領域同士の特
徴量の差に基づいて各画像の類似度を求めるものであ
り、 前記候補画像中の類似度の高い部分或いは類似度の低い
部分は、前記分割した領域を単位とすることを特徴とす
る請求項1に記載の画像検索装置。2. The method according to claim 1, wherein the processing unit divides the key image and the image into a plurality of identical regions, obtains a characteristic amount for each of the divided regions, and calculates a characteristic amount difference between corresponding regions. The method according to claim 1, wherein a similarity between the images is obtained based on the divided regions, wherein a portion having a high similarity or a portion having a low similarity in the candidate image is a unit. Image search device.
に対し、検索時に注目する領域を設定する領域設定手段
を持ち、 前記処理手段は、前記設定された領域に重点をおいて検
索するようにしたことを特徴とする請求項1または2に
記載の画像検索装置。3. An image processing apparatus according to claim 1, further comprising: an area setting unit configured to set an area to be focused on at the time of the search with respect to the candidate image displayed on the display device, wherein the processing unit performs the search with emphasis on the set area. 3. The image retrieval device according to claim 1, wherein
スを備え、 作成中の画像情報を取得するとともに、描画の一時停止
時間が一定以上となった際に、それまでに入力された画
像情報をキー画像とし、そのキー画像と類似する画像を
前記画像データベースの中から検索し、その検索した画
像を候補画像として表示装置に向けて出力する処理手段
を備えたことを特徴とする画像検索装置。4. An image database in which a plurality of images are stored, wherein image information being created is acquired, and when a pause time of drawing becomes equal to or more than a predetermined value, image information input up to that time is obtained. An image search device comprising a key image, processing means for searching an image database for an image similar to the key image, and outputting the searched image as a candidate image to a display device.
前記表示装置に表示するようにしたことを特徴とする請
求項4に記載の画像検索装置。5. The image search device according to claim 4, wherein the key image and the candidate image are displayed on the display device in a superimposed manner.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001106089A JP2002304415A (en) | 2001-04-04 | 2001-04-04 | Image search device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001106089A JP2002304415A (en) | 2001-04-04 | 2001-04-04 | Image search device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2002304415A true JP2002304415A (en) | 2002-10-18 |
Family
ID=18958665
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001106089A Pending JP2002304415A (en) | 2001-04-04 | 2001-04-04 | Image search device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2002304415A (en) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005166014A (en) * | 2003-11-12 | 2005-06-23 | Seiko Epson Corp | Image classifying device, image classification method, image selecting device, image selection method, and recording medium |
JP2007192752A (en) * | 2006-01-20 | 2007-08-02 | Horon:Kk | Method and apparatus for edge detection |
JP2010113429A (en) * | 2008-11-04 | 2010-05-20 | Ricoh Co Ltd | Image retrieval device, image retrieval method, information processing program, and recording medium |
JP2010146581A (en) * | 2010-01-13 | 2010-07-01 | Fujifilm Corp | Person's image retrieval device |
US7991232B2 (en) | 2004-03-03 | 2011-08-02 | Nec Corporation | Image similarity calculation system, image search system, image similarity calculation method, and image similarity calculation program |
JP2012164345A (en) * | 2006-10-10 | 2012-08-30 | Nikon Corp | Image classification program, image sorting device, and electronic camera |
JP2016110387A (en) * | 2014-12-05 | 2016-06-20 | 株式会社東芝 | Searcher, method and program |
JP2019192309A (en) * | 2015-09-08 | 2019-10-31 | 日本電気株式会社 | Face recognition system, display control device, display control method, and display control program |
JP2022013853A (en) * | 2020-06-30 | 2022-01-18 | シック アイヴィピー エービー | Generation of second object model based on first object model for use in object matching |
JP2022068941A (en) * | 2020-10-23 | 2022-05-11 | 株式会社日立ソリューションズ | Similar image difference extraction device, similar image difference extraction method, program, and recording medium |
-
2001
- 2001-04-04 JP JP2001106089A patent/JP2002304415A/en active Pending
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005166014A (en) * | 2003-11-12 | 2005-06-23 | Seiko Epson Corp | Image classifying device, image classification method, image selecting device, image selection method, and recording medium |
JP4517788B2 (en) * | 2003-11-12 | 2010-08-04 | セイコーエプソン株式会社 | Image classification device, image classification method, image selection device, image selection method, and recording medium |
US7991232B2 (en) | 2004-03-03 | 2011-08-02 | Nec Corporation | Image similarity calculation system, image search system, image similarity calculation method, and image similarity calculation program |
JP2007192752A (en) * | 2006-01-20 | 2007-08-02 | Horon:Kk | Method and apparatus for edge detection |
JP2012164345A (en) * | 2006-10-10 | 2012-08-30 | Nikon Corp | Image classification program, image sorting device, and electronic camera |
US9036922B2 (en) | 2006-10-10 | 2015-05-19 | Nikon Corporation | Image classification program, image classification device, and electronic camera |
JP2010113429A (en) * | 2008-11-04 | 2010-05-20 | Ricoh Co Ltd | Image retrieval device, image retrieval method, information processing program, and recording medium |
JP2010146581A (en) * | 2010-01-13 | 2010-07-01 | Fujifilm Corp | Person's image retrieval device |
JP2016110387A (en) * | 2014-12-05 | 2016-06-20 | 株式会社東芝 | Searcher, method and program |
US10885312B2 (en) | 2015-09-08 | 2021-01-05 | Nec Corporation | Face recognition system, face recognition method, display control apparatus, display control method, and display control program |
JP2019192309A (en) * | 2015-09-08 | 2019-10-31 | 日本電気株式会社 | Face recognition system, display control device, display control method, and display control program |
US10885311B2 (en) | 2015-09-08 | 2021-01-05 | Nec Corporation | Face recognition system, face recognition method, display control apparatus, display control method, and display control program |
US10970524B2 (en) | 2015-09-08 | 2021-04-06 | Nec Corporation | Face recognition system, face recognition method, display control apparatus, display control method, and display control program |
JP2021157817A (en) * | 2015-09-08 | 2021-10-07 | 日本電気株式会社 | Face recognition system, display control device, display control method, and display control program |
JP7196952B2 (en) | 2015-09-08 | 2022-12-27 | 日本電気株式会社 | Face recognition system, display control device, display control method and display control program |
US11842566B2 (en) | 2015-09-08 | 2023-12-12 | Nec Corporation | Face recognition system, face recognition method, display control apparatus, display control method, and display control program |
JP2022013853A (en) * | 2020-06-30 | 2022-01-18 | シック アイヴィピー エービー | Generation of second object model based on first object model for use in object matching |
JP7201751B2 (en) | 2020-06-30 | 2023-01-10 | シック アイヴィピー エービー | Generating a second object model based on the first object model for use in object matching |
US11928184B2 (en) | 2020-06-30 | 2024-03-12 | Sick Ivp Ab | Generation of a second object model based on a first object model for use in object matching |
JP2022068941A (en) * | 2020-10-23 | 2022-05-11 | 株式会社日立ソリューションズ | Similar image difference extraction device, similar image difference extraction method, program, and recording medium |
JP7417504B2 (en) | 2020-10-23 | 2024-01-18 | 株式会社日立ソリューションズ | Similar image difference extraction device, similar image difference extraction method, program and recording medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7769248B2 (en) | Method and apparatus for representing and searching for an object using shape | |
KR101058961B1 (en) | Image search method | |
JP3635368B2 (en) | Content-based image search system and search method thereof | |
US8392430B2 (en) | Concept-structured image search | |
US6411953B1 (en) | Retrieval and matching of color patterns based on a predetermined vocabulary and grammar | |
EP1258816A2 (en) | Image search method and apparatus | |
JP2002537604A (en) | Document similarity search | |
JP2011248596A (en) | Searching system and searching method for picture-containing documents | |
JP2002304415A (en) | Image search device | |
JP2004341940A (en) | Similar image retrieval device, similar image retrieval method, and similar image retrieval program | |
JPH11250106A (en) | Method for automatically retrieving registered trademark through the use of video information of content substrate | |
JPH11218806A (en) | Data processor, method therefor, and storage medium having stored data processing program | |
Cheikh | MUVIS-a system for content-based image retrieval | |
KR20050116963A (en) | Method for image retrieval using spatial relationships and annotation | |
Hou et al. | Dynamic query interface for 3D shape search | |
JP2004240751A (en) | Picture retrieval device | |
JP2002318812A (en) | Similar image retrieval device, similar image retrieval method and similar image retrieval program | |
US7761438B1 (en) | Method and apparatus for representing and searching for an object using shape | |
JP2001155026A (en) | Three-dimensional image database device and three- dimensional image database construction method | |
JPH0696125A (en) | Retrieved image accumulating system | |
JPH0778803B2 (en) | Image database search method | |
JP2000181921A (en) | Device and method for managing image, device and method for retrieving image and storage medium | |
Zahir | Image retrieval system (RGB) | |
JP2000057153A (en) | Method and device for retrieving data | |
JP2003150933A (en) | Composite image retrieving device and composite image retrieving system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20040528 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070724 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070919 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20071017 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20071213 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20080122 |