Nothing Special   »   [go: up one dir, main page]

JP2011039974A - Image search method and system - Google Patents

Image search method and system Download PDF

Info

Publication number
JP2011039974A
JP2011039974A JP2009189160A JP2009189160A JP2011039974A JP 2011039974 A JP2011039974 A JP 2011039974A JP 2009189160 A JP2009189160 A JP 2009189160A JP 2009189160 A JP2009189160 A JP 2009189160A JP 2011039974 A JP2011039974 A JP 2011039974A
Authority
JP
Japan
Prior art keywords
image
reference image
feature points
feature
different angle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009189160A
Other languages
Japanese (ja)
Inventor
Tomohito Ueno
智史 上野
Masayuki Hashimoto
真幸 橋本
Akio Yoneyama
暁夫 米山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2009189160A priority Critical patent/JP2011039974A/en
Publication of JP2011039974A publication Critical patent/JP2011039974A/en
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image search method and system, which have tolerance for a shooting angle of a query image and allow high-speed search with a small-scale system configuration. <P>SOLUTION: The image search system includes: a reference image extraction part 202 which extracts a reference image from a panoramic image of a town scape; a different-angle image generation part 203 which generates a different-angle image in which the angle of view of a subject is different from that of the reference image; a local feature quantity extraction part 204 which extracts local feature quantities from feature points of the reference image and the different-angle image; a corresponding point relation extraction part 205 which compares the respective feature points of the reference image with those of the different-angle image to extract a corresponding point relation having high degree of similarity between local feature quantities; and a filtering part 206 which narrows down feature points of the reference image to feature points having the corresponding point relation, and stores the narrowed-down feature points in a database 207. Local feature quantities extracted from respective feature points of the query image are compared with those extracted from the respective narrowed-down feature points of each reference image to obtain a reference image similar to the query image as a search result. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、街並みを撮影したクエリ画像に類似した画像を、予め撮影・記憶されている街並み画像の集合から検索する画像検索方法およびシステムに係り、特に、クエリ画像の撮影角度に対して耐性があり、かつ小規模なシステム構成で高速検索を可能にする画像検索方法およびシステムに関する。   The present invention relates to an image retrieval method and system for retrieving an image similar to a query image obtained by capturing a cityscape from a set of cityscape images that have been captured and stored in advance, and is particularly resistant to the imaging angle of a query image. The present invention relates to an image search method and system that enable high-speed search with a small system configuration.

GPSデータを取得できる携帯電話を用いてユーザをリアルタイムで道案内をするナビゲーションシステムが普及している。しかしながら、高層ビル街のようにGPS信号を受信しにくいエリアでは位置取得精度が不安定で誤差が生じ易いため、このようなエリアでも正確な位置情報を取得できるシステムに対する要望がある。   2. Description of the Related Art Navigation systems that guide users in real time using a mobile phone that can acquire GPS data have become widespread. However, in areas such as high-rise buildings where GPS signals are difficult to receive, position acquisition accuracy is unstable and errors are likely to occur. Therefore, there is a need for a system that can acquire accurate position information even in such areas.

このような環境で精度の高い位置情報を取得する手法として、位置情報が付加されている過去に撮影された街並み画像と、現在のユーザ付近の撮影画像(クエリ画像)とを画像マッチングさせることで位置情報を推定する手法が考えられる。   As a method of acquiring highly accurate position information in such an environment, image matching is performed between a cityscape image captured in the past to which position information is added and a captured image (query image) near the current user. A method for estimating position information is conceivable.

特許文献1には、過去に撮影された街並み画像および撮影画像から画像内の局所特徴量を抽出し、各画像の局所特徴量を比較することで撮影画像に最も類似した街並み画像を検索し、この街並み画像に付加されている位置情報をユーザの現在位置と推定する技術が開示されている。   In Patent Literature 1, a local feature amount in an image is extracted from a cityscape image and a photographed image taken in the past, and a cityscape image most similar to the photographed image is searched by comparing the local feature amounts of the images. A technique for estimating the position information added to the cityscape image as the current position of the user is disclosed.

非特許文献1には、クエリ画像および検索対象画像の双方から予め局所特徴量としてSIFT(Scale Invariant Feature Transform)を抽出し、各画像の局所特徴量間のユークリッド距離Lに基づいて最近傍探索を実行し、距離の近い局所特徴量同士が対応関係とされ、最終的に対応関係の多い検索対象画像を検索結果とする技術が開示されている。   In Non-Patent Document 1, SIFT (Scale Invariant Feature Transform) is previously extracted as a local feature amount from both the query image and the search target image, and nearest neighbor search is performed based on the Euclidean distance L between the local feature amounts of each image. A technique is disclosed in which local feature quantities that are executed and have a short distance are made to correspond to each other, and a search target image having a large correspondence is finally used as a search result.

特願2009-049158号Japanese Patent Application No. 2009-049158

David G. Lowe,"Distinctive image features from scale-invariant keypoints" International Journal of Computer Vision, 60, 2 (2004), pp.91-110.David G. Lowe, "Distinctive image features from scale-invariant keypoints" International Journal of Computer Vision, 60, 2 (2004), pp.91-110.

検索対象の街並み画像は、データベースの容量を考慮すれば連続した動画像とすることは実用的ではなく、街並みを移動体に装着した全方位カメラで一定間隔ごとに撮影した静止画像の集合となる。したがって、ある被写体(例えば、建物)に対する見かけの撮影データを全て取得することはできず、離散的になる。このような街並画像データベースに対して、ユーザが街並みを撮影した画像(クエリ画像)と精度よく照合させるためには、撮影角度の変化に耐性の高い特徴点が必要となる。   Considering the capacity of the database, it is impractical to make the cityscape images to be searched continuous video images, but it will be a set of still images taken at regular intervals by an omnidirectional camera with the cityscape attached to a moving object. . Therefore, it is not possible to acquire all apparent photographing data for a certain subject (for example, a building), and the data becomes discrete. In order to accurately collate such a cityscape image database with an image (query image) taken by the user of the cityscape, a feature point highly resistant to changes in the shooting angle is required.

一方、クエリ画像の撮影角度に対して耐性の高い検索を実現するためには、街並み画像から多数の特徴点を抽出すれば良い。しかしながら、多数の特徴点から得られる局所特徴量を全て記憶するとデータベースが大容量化するのみならず、画像検索時にも、クエリ画像から抽出された局所特徴量を多数の局所特徴量と比較しなければならないので検索時間が長くなってしまう。   On the other hand, in order to realize a search highly resistant to the shooting angle of the query image, a large number of feature points may be extracted from the cityscape image. However, storing all the local feature values obtained from a large number of feature points not only increases the capacity of the database, but also compares the local feature values extracted from the query image with a large number of local feature values during image search. Search time will be long because it has to be.

本発明の目的は、上記の技術課題を全て解決し、クエリ画像の撮影角度に対して耐性があり、かつ小規模なシステム構成で高速検索を可能にする画像検索方法およびシステムを提供することにある。   An object of the present invention is to provide an image search method and system that solves all the technical problems described above, is resistant to the query image shooting angle, and enables high-speed search with a small system configuration. is there.

上記の目的を達成するために、本発明は、クエリ画像に類似した画像を街並み画像の集合から検索する画像検索システムにおいて、以下のような手段を講じた点に特徴がある。   In order to achieve the above object, the present invention is characterized in that the following measures are taken in an image retrieval system for retrieving an image similar to a query image from a set of cityscape images.

(1)多数の街並み画像を記憶する手段と、街並み画像から基準画像を抽出する手段と、基準画像と被写体の少なくとも一部が重なり、当該被写体を見込む角度が異なる異角度画像を生成する手段と、基準画像および異角度画像の各特徴点から局所特徴量を抽出する手段と、基準画像およびその異角度画像の各特徴点を比較し、局所特徴量の類似度が高い対応点関係を抽出する手段と、基準画像の特徴点を前記対応点関係にある特徴点に絞り込むフィルタリング手段と、基準画像の前記絞り込まれた特徴点を記憶するデータベースと、クエリ画像の各特徴点から抽出された局所特徴量と各基準画像の前記絞り込まれた各特徴点から抽出された局所特徴量とを比較し、クエリ画像に類似した基準画像を検索結果とする手段とを具備したことを特徴とする。   (1) means for storing a large number of cityscape images, means for extracting a reference image from the cityscape images, means for generating different angle images in which at least a part of the reference image and the subject overlap and the angle at which the subject is viewed is different The means for extracting the local feature amount from each feature point of the reference image and the different angle image is compared with the feature point of the reference image and the different angle image, and the corresponding point relationship having a high similarity of the local feature amount is extracted. Means, filtering means for narrowing the feature points of the reference image to feature points in the corresponding point relationship, a database for storing the narrowed feature points of the reference image, and local features extracted from each feature point of the query image And means for comparing a quantity with a local feature quantity extracted from each narrowed-down feature point of each reference image, and using a reference image similar to a query image as a search result. That.

(2)前記データベースは、多数の街並み画像をその位置情報と紐付けて記憶し、クエリ画像をユーザ端末から受信する手段と、クエリ画像に類似した基準画像の位置情報を前記ユーザ端末へ応答する手段とを具備したことを特徴とする。   (2) The database stores a large number of cityscape images in association with the position information, receives the query image from the user terminal, and returns the position information of the reference image similar to the query image to the user terminal. Means.

本発明によれば、以下のような効果が達成される。   According to the present invention, the following effects are achieved.

(1)検索対象となる基準画像の特徴点が、クエリ画像の撮影角度に対して耐性のある特徴点のみに絞り込まれるので、クエリ画像の撮影角度(幾何変換)に対する耐性を損なうことなく、小規模なシステム構成で高速検索が可能になる。   (1) Since the feature points of the reference image to be searched are narrowed down only to the feature points that are resistant to the query image shooting angle, it is small without impairing the resistance to the query image shooting angle (geometric transformation). High-speed search is possible with a large-scale system configuration.

(2)基準画像をその位置情報と紐付けて記憶し、ユーザ端末により撮影された街並みの画像をクエリ画像として、これに類似する基準画像を検索し、その位置情報をユーザ端末に応答するようにしたので、ユーザ端末に対して、その現在位置を正確かつ短時間で案内できるようになる。   (2) The reference image is stored in association with the position information, the image of the cityscape taken by the user terminal is used as a query image, a similar reference image is searched, and the position information is returned to the user terminal. As a result, the current position can be accurately and quickly guided to the user terminal.

本発明の画像検索装置が適用される位置案内システムの主要部の構成を示したブロック図である。It is the block diagram which showed the structure of the principal part of the position guidance system with which the image search device of this invention is applied. パノラマ画像と基準画像との関係を示した図である。It is the figure which showed the relationship between a panoramic image and a reference | standard image. 対応点関係の仮登録方法を模式的に示した図である。It is the figure which showed typically the provisional registration method of a corresponding point relationship. 対応点関係の本登録方法を模式的に示した図である。It is the figure which showed typically the corresponding registration method of a corresponding point relationship. 位置案内部の構成を示した機能ブロック図である。It is the functional block diagram which showed the structure of the position guide part. 本発明の一実施形態の動作を示したフローチャートである。It is the flowchart which showed operation | movement of one Embodiment of this invention. 対応点関係の仮登録手順を示したフローチャートである。It is the flowchart which showed the temporary registration procedure of the corresponding point relationship. 対応点関係の本登録手順を示したフローチャートである。It is the flowchart which showed the main registration procedure of a corresponding point relationship. 基準画像の特徴点を幾何変換に対する耐性の高い特徴点に絞り込む手順を模式的に示した図である。It is the figure which showed typically the procedure which narrows down the feature point of a reference | standard image to the feature point with high tolerance with respect to geometric transformation. 本発明の第2実施形態に係る位置案内部の構成を示した機能ブロック図である。It is the functional block diagram which showed the structure of the position guide part which concerns on 2nd Embodiment of this invention.

以下、図面を参照して本発明の実施形態について詳細に説明する。図1は、本発明の画像検索装置が適用される位置案内システムの主要部の構成を示したブロック図である。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. FIG. 1 is a block diagram showing a configuration of a main part of a position guidance system to which an image search device of the present invention is applied.

位置案内システムは、車両等の移動体に搭載されて街並みを全方位カメラで撮影する撮影装置1と、街並みのパノラマ画像から基準画像を選択して局所特徴量を抽出し、登録する局所特徴量登録部2と、ユーザ端末4で撮影された街並みの画像(静止画像)をクエリ画像として基準画像の中から類似画像を選択し、最尤の類似画像の位置情報をユーザ端末4へ位置案内の情報として応答する位置案内部3とを主要な構成としている。   The position guidance system is mounted on a moving body such as a vehicle, and the imaging device 1 captures a cityscape with an omnidirectional camera. The local feature value is extracted by selecting a reference image from a panoramic image of the cityscape and registered. A similar image is selected from the reference images using a cityscape image (still image) photographed by the registration unit 2 and the user terminal 4 as a query image, and the position information of the most likely similar image is sent to the user terminal 4 for location guidance. The position guide unit 3 that responds as information has a main configuration.

撮影装置1において、全方位カメラ101は多数の撮像部を備えて全方位の静止画像を撮影する。位置検出部102は、撮影タイミングの現在位置(撮影位置)を例えばGPS信号により測位する。方位検知部103は、全方位カメラ101の向きを検知し、これに基づいて各撮影画像の向きを検知する。撮影された各静止画は、その撮影位置および方位と紐付けられて記憶部104に次々と記憶される。   In the photographing apparatus 1, the omnidirectional camera 101 includes a large number of imaging units and shoots omnidirectional still images. The position detection unit 102 measures the current position (shooting position) of the shooting timing using, for example, a GPS signal. The direction detection unit 103 detects the direction of the omnidirectional camera 101, and detects the direction of each captured image based on the direction. Each photographed still image is associated with its photographing position and orientation and stored in the storage unit 104 one after another.

局所特徴量登録部2において、パノラマ画像生成部201は、全方位カメラ101で撮影された多数の静止画像に基づいてパノラマ画像を生成する。基準画像抽出部202は、前記パノラマ画像から基準画像Iwを抽出する。この基準画像Iwは、例えば図2に示したように、パノラマ画像を等分割して得られる各静止画像であり、分割数と前記全方位カメラ101に実装されている撮像部数とは必ずしも一致しない。   In the local feature amount registration unit 2, the panoramic image generation unit 201 generates a panoramic image based on a large number of still images taken by the omnidirectional camera 101. The reference image extraction unit 202 extracts a reference image Iw from the panoramic image. The reference image Iw is each still image obtained by equally dividing the panoramic image, for example, as shown in FIG. 2, and the number of divisions does not necessarily match the number of image pickup units mounted on the omnidirectional camera 101. .

異角度画像生成部203は、各基準画像Iwの被写体を左右方向に所定の角度θだけ移動した位置で撮影した異角度画像Iw±θを生成する。したがって、基準画像Iwとその異角度画像Iw±θとは被写体の少なくとも一部が重なり、当該被写体を見込む角度が互いに異なっている。本実施形態では、街並みの画像が全方位画像として構成されており、各撮影地点から視点方向の異なる複数の向きの画像を取得できるので、被写体側を基準にすれば、各被写体には複数の異なる角度から撮影された画像が存在し、これらを異角度画像Iw±θとできる。なお、このような異角度画像Iw±θは、パノラマ画像から基準画像Iwを切り取り、これを撮影角度がずれるように射影変換することによっても得られる。   The different angle image generation unit 203 generates a different angle image Iw ± θ obtained by photographing the subject of each reference image Iw by a predetermined angle θ in the left-right direction. Therefore, at least a part of the subject overlaps the reference image Iw and the different angle image Iw ± θ, and the angles at which the subject is viewed are different from each other. In this embodiment, the cityscape image is configured as an omnidirectional image, and images in a plurality of directions with different viewpoint directions can be acquired from each shooting point. There are images taken from different angles, and these images can be different angle images Iw ± θ. Such a different angle image Iw ± θ can also be obtained by cutting the reference image Iw from the panoramic image and projecting it so that the photographing angle is shifted.

局所特徴量抽出部204は、各基準画像Iwおよびその異角度画像Iw±θの各特徴点から局所特徴量を抽出する。本実施形態では、SIFTを利用して特徴点から得られる局所特徴量の対応付けが行われる。すなわち、局所領域の特定には、非特許文献1に開示されているDifference of Gaussian (DoG)によるスケールスペース内の極値に基づく特徴点抽出が用いられる。この特徴点抽出の結果、特徴点の位置およびその局所領域の範囲が算出され、この局所領域の特徴記述子として、輝度勾配の方向ヒストグラムが用いられる。   The local feature quantity extraction unit 204 extracts a local feature quantity from each feature point of each reference image Iw and its different angle image Iw ± θ. In the present embodiment, association of local feature amounts obtained from feature points is performed using SIFT. That is, for specifying the local region, feature point extraction based on the extreme value in the scale space by Difference of Gaussian (DoG) disclosed in Non-Patent Document 1 is used. As a result of the feature point extraction, the position of the feature point and the range of the local region are calculated, and a luminance gradient direction histogram is used as the feature descriptor of the local region.

このような方向ヒストグラムは、特徴領域の各ピクセルの輝度勾配を算出し、それに重みを付けてヒストグラムを生成し、最も多いbin領域の方向を基準にして、その方向に特徴領域の回転(オリエンテーション)を行い、再度輝度方向の方向ヒストグラムを作成し、さらに前記ヒストグラムをブロックに分割し、各ブロック内で方向ヒストグラムを算出し、これを正規化してベクトル化することにより得られる。本実施形態では、ブロック内の輝度方向を8方向、対象領域内を16分割しているため、一つの特徴記述子は8*16=128次元となる。   Such a direction histogram calculates the luminance gradient of each pixel in the feature region, weights it to generate a histogram, and rotates the feature region in that direction based on the direction of the most bin region (orientation) The direction histogram in the luminance direction is generated again, the histogram is further divided into blocks, the direction histogram is calculated in each block, and this is normalized and vectorized. In this embodiment, since the luminance direction in the block is divided into 8 directions and the target area is divided into 16 areas, one feature descriptor has 8 * 16 = 128 dimensions.

これら特徴記述子の特徴として、局所領域の特徴を生成するのでオクルージョンに耐性があり、特徴点に対してスケールを決定するので画像サイズに不変であり、また輝度勾配に基づき画像平面内でオリエンテーションを行うので、画像平面に対する回転に不変であることなどが挙げられる。さらに、エッジ成分を利用しているので輝度変化に耐性がある。このような特徴点検出が画像の全てのピクセルに対して行われるが、ある特徴点が極値を取った場合でも特徴点として不適な場合は特徴領域から除外される。   As feature of these feature descriptors, local region features are generated, so it is resistant to occlusion, scales are determined for feature points, and the image size is unchanged, and orientation is set in the image plane based on the luminance gradient. Since it is performed, it is invariable to rotation with respect to the image plane. Furthermore, since edge components are used, it is resistant to luminance changes. Such feature point detection is performed on all pixels of the image, but even if a certain feature point takes an extreme value, it is excluded from the feature region if it is inappropriate as a feature point.

本実施形態では、各基準画像Iw(i)の局所特徴量fw(i,j)が次式(1)で表される。ただし、添字iは基準画像識別子、添字jは特徴点識別子、pw(i,j)は同次座標で表した特徴点の位置、ow(i,j)は特徴点のオリエンテーション、σw(i,j)は特徴点が発見されたスケール、dw(i,j)は特徴記述子である。
In the present embodiment, the local feature amount fw (i, j) of each reference image Iw (i) is expressed by the following equation (1). Where subscript i is the reference image identifier, subscript j is the feature point identifier, pw (i, j) is the position of the feature point expressed in homogeneous coordinates, ow (i, j) is the orientation of the feature point, and σw (i, j) is a scale at which a feature point is found, and dw (i, j) is a feature descriptor.

fw(i,j)={pw(i,j),ow(i,j),σw(i,j),dw(i,j)} ・・・(1)
fw (i, j) = {pw (i, j), ow (i, j), σw (i, j), dw (i, j)} (1)

同様に、各異角度画像Iw±θの局所特徴量fw±θ(k,l)は次式(2)で表される。ただし、添字kは異角度画像識別子、添字jは特徴点識別子である。
Similarly, the local feature amount fw ± θ (k, l) of each different angle image Iw ± θ is expressed by the following equation (2). However, the subscript k is a different angle image identifier, and the subscript j is a feature point identifier.

fw±θ(k,l)={pw±θ(k,l),ow±θ(k,l),σw±θ(k,l),dw±θ(k,l)} ・・・(2)
fw ± θ (k, l) = {pw ± θ (k, l), ow ± θ (k, l), σw ± θ (k, l), dw ± θ (k, l)} 2)

対応点関係抽出部205は、仮登録部205aおよび本登録部205bを含み、各基準画像Iwとその異角度画像Iw±θとの局所特徴量を比較し、類似度が上位の特徴点ペアを対応点関係とする。   The corresponding point relationship extraction unit 205 includes a temporary registration unit 205a and a main registration unit 205b, compares local feature amounts of each reference image Iw and its different angle image Iw ± θ, and selects a feature point pair having a higher similarity. Corresponding point relationship.

前記仮登録部205aは、基準画像Iwの各局所特徴量について、各異角度画像Iw±θの各局所特徴量を対象に最近傍探索を行い、局所特徴量間の距離に基づいて類似度を算出する。本実施形態では、各局所特徴量間の類似度が、次式(3)で与えられる各特徴記述子dw(i,j),dw(k,j)間のユークリッド距離Lで代表される。
The temporary registration unit 205a performs a nearest neighbor search for each local feature amount of each different angle image Iw ± θ for each local feature amount of the reference image Iw, and calculates the similarity based on the distance between the local feature amounts. calculate. In the present embodiment, the similarity between the local feature amounts is represented by the Euclidean distance L between the feature descriptors dw (i, j) and dw (k, j) given by the following equation (3).

L=|dw(i,j)−dw±θ(k,l)| ・・・(3)
L = | dw (i, j) −dw ± θ (k, l) | (3)

そして、基準画像Iwの特徴点ごとに、前記ユークリッド距離Lが最も近い距離L1となる特徴点および2番目に近い距離L2となる特徴点を各異角度画像Iw±θから探索し、更に各距離L1,L2が所定の第1条件を満足する場合のみ、前記距離L1を与える特徴点ペアを対応点関係として仮登録する。   Then, for each feature point of the reference image Iw, the feature point having the closest Euclidean distance L and the feature point having the second closest distance L2 are searched from the different angle images Iw ± θ, and further each distance Only when L1 and L2 satisfy a predetermined first condition, a feature point pair that gives the distance L1 is provisionally registered as a corresponding point relationship.

図3は、対応点関係の仮登録方法を模式的に示した図である。図示の例では、基準画像Iwと一方の異角度画像Iw+θとのペアに着目しており、基準画像Iwの局所特徴量fw(1)と異角度画像Iw+θの局所特徴量fw+θ(1)とのユークリッド距離がL1、局所特徴量fw+θ(2)とのユークリッド距離がL2である。そして、距離L1が所定の基準距離Lref1以下であり、かつ距離比L1/L2が所定の基準比Rref1(例えば、0.8)以下なので、ユークリッド距離L1を与える特徴点ペアが対応点関係として仮登録されている。   FIG. 3 is a diagram schematically showing a provisional registration method for corresponding points. In the illustrated example, attention is paid to a pair of the reference image Iw and one different angle image Iw + θ, and the local feature amount fw (1) of the reference image Iw and the local feature amount fw + of the different angle image Iw + θ. The Euclidean distance from θ (1) is L1, and the Euclidean distance from the local feature quantity fw + θ (2) is L2. Since the distance L1 is equal to or less than the predetermined reference distance Lref1 and the distance ratio L1 / L2 is equal to or less than the predetermined reference ratio Rref1 (for example, 0.8), the feature point pair that gives the Euclidean distance L1 is assumed as the corresponding point relationship. It is registered.

これに対して、基準画像Iwの局所特徴量fw(2)と異角度画像Iw+θの局所特徴量fw+θ(3)とのユークリッド距離がL1、局所特徴量fw+θ(4)とのユークリッド距離がL2であるが、距離L1が所定の基準距離Lref1よりも大きいか、あるいは距離比L1/L2が基準比Rref1(例えば、0.8)よりも大きいので、距離L1を与える特徴点ペアであっても対応点関係として仮登録されていない。   In contrast, the Euclidean distance between the local feature fw (2) of the reference image Iw and the local feature fw + θ (3) of the different angle image Iw + θ is L1, and the local feature fw + θ (4) The Euclidean distance is L2, but the distance L1 is greater than the predetermined reference distance Lref1, or the distance ratio L1 / L2 is greater than the reference ratio Rref1 (for example, 0.8), so that the feature point that gives the distance L1 Even if it is a pair, it is not temporarily registered as a corresponding point relationship.

前記本登録部205b、仮登録された全ての対応点関係の異角度画像Iw+θ側の特徴点について、基準画像Iwの各特徴点から得られる局所特徴量を対象に最近傍探索を同様に行い、ユークリッド距離L1,L2が前記仮登録条件と同等の本登録条件を満足する基準画像Iwの特徴点が前記対応点関係の基準画像Iw側の対応点と一致していれば、当該対応点関係を本登録する。   The main registration unit 205b similarly performs a nearest neighbor search for local feature values obtained from each feature point of the reference image Iw with respect to the feature points on the different angle image Iw + θ side of all the corresponding correspondence points temporarily registered. If the feature points of the reference image Iw satisfying the main registration conditions equivalent to the temporary registration conditions are equal to the corresponding points on the reference image Iw side of the corresponding points, the corresponding points Fully register the relationship.

図4は、対応点関係の本登録方法を模式的に示した図である。図示の例では、基準画像Iwの局所特徴量fw(1)と異角度画像Iw+θの局所特徴量fw+θ(1)、および基準画像Iwの局所特徴量fw(2)と異角度画像Iw+θの局所特徴量fw+θ(2)とが共に対応点関係として仮登録されている。そして、各対応点関係の異角度画像Iw+θ側の対応点から得られる局所特徴量fw+θ(1),fw+θ(2)と基準画像Iwの全ての局所特徴量fw(i)との最近傍探索が行われた結果、局所特徴量fw+θ(1)と対応点関係の条件を満足する基準画像Iwの特徴点が前記仮登録における対応点関係の基準画像Iw側の対応点と一致しているので、当該対応点関係は本登録されている。   FIG. 4 is a diagram schematically showing a corresponding registration method for corresponding points. In the illustrated example, the local feature quantity fw (1) of the reference image Iw and the local feature quantity fw + θ (1) of the different angle image Iw + θ, and the local feature quantity fw (2) of the reference image Iw and the different angle image Both the local feature quantity fw + θ (2) of Iw + θ are provisionally registered as corresponding point relationships. Then, local feature values fw + θ (1), fw + θ (2) obtained from corresponding points on the different angle image Iw + θ side of each corresponding point relationship and all local feature values fw (i) of the reference image Iw As a result of the nearest neighbor search, the feature point of the reference image Iw that satisfies the corresponding point relationship condition with the local feature amount fw + θ (1) corresponds to the reference image Iw side of the corresponding point relationship in the temporary registration Since the point coincides with the point, the corresponding point relationship is fully registered.

これに対して、局所特徴量fw+θ(2)と対応点関係にある基準画像Iwの特徴点は前記仮登録における対応点関係の基準画像Iw側の対応点と一致していないので、当該対応点関係は本登録されていない。   On the other hand, the feature point of the reference image Iw that has a corresponding point relationship with the local feature amount fw + θ (2) does not match the corresponding point on the reference image Iw side of the corresponding point relationship in the temporary registration. Corresponding point relationship is not fully registered.

図1へ戻り、フィルタリング部206は、基準画像Iwの全特徴点の中から、一方の異角度画像Iw+θおよび他方の異角度画像Iw-θの双方の特徴点と対応点関係となれなかった特徴点を破棄し、双方の異角度画像Iw±θの特徴点と対応点関係となれた特徴点のみを基準画像Iwの特徴点(以下、フィルタリング後の特徴点と表現する場合もある)としてデータベース207に蓄積する。これにより、街並み画像のデータベース207では、撮影角度の違いが原因で対応点関係となれない特徴点の記憶容量が不要になるので、データベース207の小型化可能になり、さらにはクエリ画像と各基準画像を比較する際の局所特徴量を減じることができるので、検索速度を向上させることが可能になる。   Returning to FIG. 1, the filtering unit 206 does not have a corresponding point relationship with the feature points of both the different angle image Iw + θ and the other different angle image Iw−θ among all the feature points of the reference image Iw. The feature points of the reference image Iw (hereinafter, may be expressed as the feature points after filtering) are only deleted from the corresponding feature points of the different angle images Iw ± θ. Stored in the database 207. As a result, in the cityscape image database 207, the storage capacity of feature points that cannot be associated with corresponding points due to a difference in the shooting angle is not required, so that the database 207 can be reduced in size, and further, the query image and each reference Since the local feature amount when comparing images can be reduced, the search speed can be improved.

位置案内部3は、ユーザ端末4で撮影された街並み画像を受信して各特徴点から局所特徴量を抽出し、これを基準画像の前記フィルタリング後の各特徴点から得られる局所特徴量と比較して対応点関係を求め、対応点関係が最多の基準画像Iwの位置情報を位置案内の情報としてユーザ端末4へ返信する。ユーザ端末4は、返信された位置情報を自身の現在位置と認識する。   The position guide unit 3 receives a cityscape image captured by the user terminal 4 and extracts local feature amounts from the feature points, and compares them with local feature amounts obtained from the filtered feature points of the reference image. Then, the corresponding point relationship is obtained, and the position information of the reference image Iw having the largest number of corresponding point relationships is returned to the user terminal 4 as position guidance information. The user terminal 4 recognizes the returned position information as its current position.

図5は、前記位置案内部3の主要部の構成を示した機能ブロック図であり、位置案内要求受信部301は、街並み画像Iqの添付された位置案内要求をユーザ端末4から受信する。局所特徴量抽出部302は、前記街並み画像Iqから局所特徴量fq(x)を抽出する。但し、添字xは街並み画像Iqの特徴点識別子である。   FIG. 5 is a functional block diagram showing the configuration of the main part of the position guide unit 3. The position guide request receiving unit 301 receives a position guide request with a cityscape image Iq attached thereto from the user terminal 4. The local feature quantity extraction unit 302 extracts a local feature quantity fq (x) from the cityscape image Iq. Note that the subscript x is a feature point identifier of the cityscape image Iq.

対応点関係抽出部303は仮登録部303aおよび本登録部303bを含み、前記対応点関係抽出部205と同様に、街並み画像Iqの各局所特徴量fq(x)と各基準画像Iw(k)の各局所特徴量fw(k,l)とを比較して対応点関係を抽出する。類似画像決定部304は、対応点関係が多い1ないしNベストの基準画像Iw(k)を類似画像に決定する。位置情報応答部305は、前記1ないしNベストの基準画像Iw(k)の位置情報を位置案内情報としてユーザ端末へ応答しても良いし、あるいは前記1ないしNベストの基準画像Iw(k)と街並み画像Iqとの対応点関係から当該街並み画像Iqの撮影位置を推定し、この推定結果を位置案内情報としてユーザ端末へ応答しても良い。   The corresponding point relationship extraction unit 303 includes a temporary registration unit 303a and a main registration unit 303b. Similar to the corresponding point relationship extraction unit 205, each local feature quantity fq (x) of the cityscape image Iq and each reference image Iw (k) Are compared with each local feature fw (k, l) of, and the corresponding point relationship is extracted. The similar image determination unit 304 determines the 1st to N best reference images Iw (k) having many corresponding points as similar images. The position information response unit 305 may respond to the user terminal with the position information of the 1 to N best reference image Iw (k) as the position guide information, or the 1 to N best reference image Iw (k). The shooting position of the cityscape image Iq may be estimated from the corresponding point relationship between the image and the cityscape image Iq, and the estimation result may be returned to the user terminal as position guidance information.

図6,7,8は、本実施形態の動作を示したフローチャートであり、特に、対応点関係抽出部205およびフィルタリング部206の動作を示している。ここでは、図9(a)に示したように、基準画像Iwおよびその2つの異角度画像Iw±θが既に生成されており、さらに基準画像Iwおよび各異角度画像Iw±θについて、●印で示した特徴点から局所特徴量の抽出が完了しているものとして説明する。   6, 7, and 8 are flowcharts illustrating the operation of the present embodiment, and particularly illustrate the operations of the corresponding point relationship extraction unit 205 and the filtering unit 206. Here, as shown in FIG. 9 (a), the reference image Iw and its two different angle images Iw ± θ have already been generated, and the reference image Iw and each different angle image Iw ± θ In the following description, it is assumed that the extraction of the local feature amount from the feature points indicated in FIG.

図6のステップS1では、基準画像Iwの一つが今回の参照対象として選択され、ステップS2では、異角度画像Iw±θの一方(ここでは、異角度画像Iw+θ)が今回の参照対象として選択される。ステップS3では、前記仮登録部205aにおいて、基準画像Iwの各特徴点から得られる局所特徴量と異角度画像Iw+θの各特徴点から得られる局所特徴量とが比較され、局所特徴量が一致または類似する特徴点ペアを対応点関係として仮登録する仮登録処理が実行される。   In step S1 of FIG. 6, one of the standard images Iw is selected as the current reference object, and in step S2, one of the different angle images Iw ± θ (here, the different angle image Iw + θ) is selected as the current reference object. Selected. In step S3, the temporary registration unit 205a compares the local feature obtained from each feature point of the reference image Iw with the local feature obtained from each feature point of the different angle image Iw + θ, and the local feature value is obtained. Temporary registration processing for temporarily registering matching or similar feature point pairs as corresponding point relationships is executed.

図7は、前記仮登録処理の手順を示したフローチャートであり、ステップS101では、今回の基準画像Iw(i)から抽出された局所特徴量fw(i,j)の一つが選択される。ステップS102では、今回の異角度画像Iw+θ(k)の各局所特徴量fwt(k,l)と基準画像Iwの今回の局所特徴量fw(i,j)との類似度が、各特徴量間の距離(ユークリッド距離)Lとして算出される。ステップS103では、局所特徴量のユークリッド距離Lが近い上位2つ(L1,L2)の特徴点が抽出される。ステップS104では、距離L1が基準距離Lef1以下であり、かつ距離比(L1/L2)が基準比tref1以下であるか否かが判定される。これらの仮登録条件がいずれも満足されれば、両者の類似度が高いと判定されるのでステップS105へ進み、距離L1を与える特徴点ペアが対応点関係として仮登録される。   FIG. 7 is a flowchart showing the procedure of the provisional registration process. In step S101, one of the local feature quantities fw (i, j) extracted from the current reference image Iw (i) is selected. In step S102, the similarity between each local feature quantity fwt (k, l) of the current different-angle image Iw + θ (k) and the current local feature quantity fw (i, j) of the reference image Iw is determined by each feature. Calculated as a distance (Euclidean distance) L between quantities. In step S103, the top two (L1, L2) feature points with the local Euclidean distance L close to each other are extracted. In step S104, it is determined whether or not the distance L1 is less than or equal to the reference distance Lef1 and the distance ratio (L1 / L2) is less than or equal to the reference ratio tref1. If both of these provisional registration conditions are satisfied, it is determined that the degree of similarity between the two is high, so the process proceeds to step S105, and the feature point pair that gives the distance L1 is provisionally registered as a corresponding point relationship.

ステップS106では、今回の基準画像Iw(i)の全ての局所特徴量fw(i,j)に関して上記の処理が完了したか否かが判定される。完了していなければステップ101へ戻り、基準画像Iw(i)の局所特徴量fw(i,j)を切り換えながら上記の各処理が繰り返される。これにより、今回の基準画像Iwと今回の異角度画像Iw+θとの対応点関係の仮登録が完了する。   In step S106, it is determined whether or not the above processing has been completed for all local feature values fw (i, j) of the current reference image Iw (i). If not completed, the process returns to step 101, and the above processes are repeated while switching the local feature quantity fw (i, j) of the reference image Iw (i). Thereby, provisional registration of the corresponding point relationship between the current reference image Iw and the current different angle image Iw + θ is completed.

図6のメインフローへ戻り、ステップS4では、前記本登録部205aにおいて、前記ステップS3とは逆の視線で、対応点関係にある異角度画像Iw+θ側の特徴点と基準画像Iwの全ての特徴点との間で局所特徴量に関して最近傍探索が行われる。そして、局所特徴量の類似度が最も高い基準画像Iwの特徴点が、前記対応点関係にある基準画像Iw側の特徴点と一致すれば、当該仮登録の対応点関係が本登録される。   Returning to the main flow of FIG. 6, in step S4, all the feature points on the different angle image Iw + θ side and the reference image Iw that have a corresponding point relationship in the main registration unit 205a with a line of sight opposite to that in step S3. The nearest neighbor search is performed on the local feature amount between the feature points. If the feature point of the reference image Iw having the highest local feature amount similarity matches the feature point on the reference image Iw side that is in the corresponding point relationship, the corresponding point relationship of the temporary registration is fully registered.

図8は、上記本登録処理の手順を示したフローチャートであり、ステップS201では、仮登録されている対応点関係の一つが選択される。ステップS202では、対応点関係にある異角度画像Iw+θ側の特徴点と基準画像Iwの全ての特徴点とを対象に局所特徴量間のユークリッド距離Lが算出される。ステップS203では、距離Lが近い上位2つ(L1,L2)の特徴点ペアが抽出される。   FIG. 8 is a flowchart showing the procedure of the main registration process. In step S201, one of the temporarily registered corresponding points is selected. In step S202, the Euclidean distance L between the local feature amounts is calculated for the feature points on the different angle image Iw + θ side corresponding to the corresponding points and all the feature points of the reference image Iw. In step S203, the top two (L1, L2) feature point pairs with a short distance L are extracted.

ステップS204では、距離L1が基準距離Lef1以下であり、かつ距離比(L1/L2)が基準比tref1以下であるか否かが判定される。これらの本登録条件がいずれも満足されればステップS205へ進む。ステップS205では、前記距離L1を与える基準画像Iwの特徴点が前記対応点関係の基準画像Iw側の対応点と一致しているか否かが判定される。一致していればステップS206へ進み、前記仮登録されている今回の対応点関係が本登録される。   In step S204, it is determined whether or not the distance L1 is less than or equal to the reference distance Lef1 and the distance ratio (L1 / L2) is less than or equal to the reference ratio tref1. If all of these main registration conditions are satisfied, the process proceeds to step S205. In step S205, it is determined whether or not the feature point of the reference image Iw giving the distance L1 matches the corresponding point on the reference image Iw side of the corresponding point relationship. If they coincide with each other, the process proceeds to step S206, and the temporarily registered corresponding point relation is temporarily registered.

ステップS207では、仮登録されている全ての対応点関係に関して上記の処理が完了したか否かが判定される。完了していなければステップS201へ戻り、残りの対応点関係に関して上記の各処理が繰り返される。これにより、今回の基準画像Iwと異角度画像Iw+θとの対応点関係の本登録が完了する。図9(b)は、対応点関係の登録結果を示した図である。   In step S207, it is determined whether or not the above processing has been completed with respect to all the temporarily registered corresponding point relationships. If not completed, the process returns to step S201, and the above processes are repeated with respect to the remaining corresponding point relationships. Thus, the main registration of the corresponding point relationship between the current reference image Iw and the different angle image Iw + θ is completed. FIG. 9B is a diagram illustrating the registration result of the corresponding point relationship.

図6のメインフローへ戻り、ステップS5では、全ての異角度画像Iw±θに関して上記の処理が完了したか否かが判定される。ここでは、他方の異角度画像Iw-θについて処理が完了していないのでステップS2へ戻り、他方の異角度画像Iw-θを対象に上記の各処理が繰り返される。   Returning to the main flow of FIG. 6, in step S5, it is determined whether or not the above processing has been completed for all the different angle images Iw ± θ. Here, since the process has not been completed for the other different angle image Iw-θ, the process returns to step S2, and the above-described processes are repeated for the other different angle image Iw-θ.

その後、今回の基準画像Iwに関して、一方側の異角度画像Iw+θとの対応点抽出および他方側の異角度画像Iw-θとの対応点抽出が完了するとステップS6へ進み、前記フィルタリング部206において、図9(c)に示したように、今回の基準画像Iwから最初に抽出された特徴点の中から、一方の異角度画像Iw+θおよび他方の異角度画像Iw-θの双方と対応点関係となれた特徴点を残して他の特徴点が破棄される。その結果、図9(d)に示したように、基準画像Iwの特徴点が少数に絞り込まれることになる。   Thereafter, when the extraction of the corresponding point with the different angle image Iw + θ on the one side and the extraction of the corresponding point with the different angle image Iw-θ on the other side are completed for the current reference image Iw, the process proceeds to step S6, and the filtering unit 206 9 (c), both of one different angle image Iw + θ and the other different angle image Iw-θ are selected from the feature points first extracted from the current reference image Iw. Other feature points are discarded, leaving the feature points that are in the corresponding point relationship. As a result, as shown in FIG. 9D, the feature points of the reference image Iw are narrowed down to a small number.

ステップS7では、前記少数に絞り込まれた特徴点およびその局所特徴特徴量がデータベース207に登録される。ステップS8では、上記の処理が全ての基準画像Iwに関して完了したか否かが判定される。完了していなければステップS1へ戻り、基準画像Iwを切換ながら上記の各処理が繰り返される。   In step S <b> 7, the feature points narrowed down to the small number and their local feature amounts are registered in the database 207. In step S8, it is determined whether or not the above processing has been completed for all the reference images Iw. If not completed, the process returns to step S1, and the above-described processes are repeated while switching the reference image Iw.

図10は、本発明の第2実施形態に係る位置案内部3の構成を示した機能ブロック図であり、前記と同一の符号は同一または同等部分を表している。   FIG. 10 is a functional block diagram showing the configuration of the position guide unit 3 according to the second embodiment of the present invention, and the same reference numerals as those described above represent the same or equivalent parts.

本実施形態では、ユーザ端末4から位置案内要求を受信した際に、ユーザ端末4の大まかな現在位置を推定する位置推定部301a、および現在位置の推定結果に基づいて検索対象の基準画像Iwを当該現在位置の周囲に限定する検索範囲限定部306を設け、位置案内のための検索範囲を予め絞り込むようにした点に特徴がある。   In the present embodiment, when a position guidance request is received from the user terminal 4, the position estimation unit 301a that estimates the approximate current position of the user terminal 4 and the reference image Iw to be searched based on the estimation result of the current position are obtained. There is a feature in that a search range limiting unit 306 for limiting the area around the current position is provided, and the search range for position guidance is narrowed down in advance.

前記位置推定部301aは、例えばユーザ端末4に実装されたGPSシステムにおいて受信された、正確な測位には不十分な個数(例えば、2個)のGPS衛星から送信されたGPS信号基づいて、あるいは要求メッセージを受信した基地局の所在地等に基づいて、ユーザ端末4の現在位置を推定する。   The position estimation unit 301a is based on, for example, GPS signals transmitted from GPS satellites received by a GPS system installed in the user terminal 4 and insufficient for accurate positioning (for example, two), or The current location of the user terminal 4 is estimated based on the location of the base station that received the request message.

本実施形態によれば、検索対象の基準画像Iwが予め絞り込まれるので、検索時間の短縮および検索システムの処理負荷を軽減できるようになり、さらには検索精度を高められるようになる。   According to the present embodiment, since the reference image Iw to be searched is narrowed down in advance, the search time can be shortened and the processing load of the search system can be reduced, and the search accuracy can be further improved.

なお、上記の各実施形態では、基準画像Iwの左右に隣接する2つの画像を異角度画像Iw±θとするものとして説明したが、本発明はこれのみに限定されるものではなく、角度の異なる3つ以上の画像を異角度画像とし、基準画像Iwから最初に抽出された特徴点のうち、全ての異角度画像Iw±θの特徴点と対応点関係となれた特徴点のみを前記フィルタリング後の特徴点として登録するようにしても良い。   In each of the above embodiments, the two images adjacent to the left and right of the reference image Iw have been described as different angle images Iw ± θ. However, the present invention is not limited to this, and the angle Three or more different images are used as different angle images, and only the feature points that correspond to the feature points of all the different angle images Iw ± θ among the feature points first extracted from the reference image Iw are filtered. You may make it register as a later feature point.

さらに、上記の実施形態では、基準画像Iwから最初に抽出された特徴点のうち、全ての異角度画像Iw±θの特徴点と対応点となれた特徴点のみを前記フィルタリング後の特徴点として登録するものとして説明したが、本発明はこれのみに限定されるものではなく、少なくとも一部の異角度画像Iw±θのいずれかの特徴点と対応点関係となれた特徴点を前記フィルタリング後の特徴点として登録するようにしても良い。   Furthermore, in the above-described embodiment, among the feature points extracted first from the reference image Iw, only the feature points that correspond to the feature points of all the different angle images Iw ± θ are the feature points after the filtering. Although described as being registered, the present invention is not limited to this, and at least some of the feature points of the different-angle image Iw ± θ are associated with the corresponding points after the filtering. It may be registered as a feature point.

1…撮影装置,2…局所特徴量登録部,3…位置案内部,4…ユーザ端末,101…全方位カメラ,102…位置検出部,103…方位検知部,201…パノラマ画像生成部,202…基準画像抽出部,203…異角度画像生成部,204…局所特徴量抽出部,205…対応点関係抽出部,206…フィルタリング部,207…データベース   DESCRIPTION OF SYMBOLS 1 ... Imaging device, 2 ... Local feature-value registration part, 3 ... Position guidance part, 4 ... User terminal, 101 ... Omnidirectional camera, 102 ... Position detection part, 103 ... Direction detection part, 201 ... Panorama image generation part, 202 Reference image extraction unit, 203 ... Different angle image generation unit, 204 ... Local feature amount extraction unit, 205 ... Corresponding point relationship extraction unit, 206 ... Filtering unit, 207 ... Database

Claims (9)

クエリ画像に類似した画像を街並み画像の集合から検索する画像検索システムにおいて、
多数の街並み画像を記憶する手段と、
前記街並み画像から基準画像を抽出する手段と、
前記基準画像と被写体の少なくとも一部が重なり、当該被写体を見込む角度が異なる異角度画像を生成する手段と、
前記基準画像および異角度画像の各特徴点から局所特徴量を抽出する手段と、
前記基準画像およびその異角度画像の各特徴点を比較し、局所特徴量の類似度が高い対応点関係を抽出する手段と、
基準画像の特徴点を前記対応点関係にある特徴点に絞り込むフィルタリング手段と、
基準画像の前記絞り込まれた特徴点を記憶するデータベースと、
クエリ画像の各特徴点から抽出された局所特徴量と各基準画像の前記絞り込まれた各特徴点から抽出された局所特徴量とを比較し、クエリ画像に類似した基準画像を検索結果とする手段とを具備したことを特徴とする画像検索システム。
In an image search system that searches an image similar to a query image from a set of cityscape images,
A means of storing a large number of cityscape images;
Means for extracting a reference image from the cityscape image;
Means for generating a different angle image in which at least a part of the reference image and the subject overlap and the angle at which the subject is viewed is different;
Means for extracting a local feature amount from each feature point of the reference image and the different angle image;
Means for comparing each feature point of the reference image and its different angle image and extracting a corresponding point relationship having a high similarity of local feature amounts;
Filtering means for narrowing down feature points of a reference image to feature points in the corresponding point relationship;
A database for storing the narrowed feature points of the reference image;
Means for comparing a local feature amount extracted from each feature point of a query image with a local feature amount extracted from each of the narrowed-down feature points of each reference image, and using a reference image similar to the query image as a search result An image search system comprising:
前記データベースは、多数の街並み画像をその位置情報と紐付けて記憶し、
前記クエリ画像をユーザ端末から受信する手段と、
前記クエリ画像に類似した基準画像に対応した位置情報を前記ユーザ端末へ応答する手段とを具備したことを特徴とする請求項1に記載の画像検索システム。
The database stores a number of cityscape images associated with the location information,
Means for receiving the query image from a user terminal;
The image search system according to claim 1, further comprising means for responding to the user terminal with position information corresponding to a reference image similar to the query image.
ユーザ端末の現在位置を推定する手段と、
前記推定結果に基づいて検索対象の基準画像を予め絞り込む手段とを具備したことを特徴とする請求項2に記載の画像検索システム。
Means for estimating the current position of the user terminal;
The image search system according to claim 2, further comprising means for previously narrowing down a reference image to be searched based on the estimation result.
前記異角度画像を生成する手段は、基準画像ごとに前記被写体を見込む角度が異なる複数の異角度画像を生成し、
前記対応点関係を抽出する手段は、異角度画像ごとに基準画像との対応点関係を抽出することを特徴とする請求項1ないし3のいずれかに記載の画像検索システム。
The means for generating the different angle image generates a plurality of different angle images with different angles for viewing the subject for each reference image,
4. The image search system according to claim 1, wherein the means for extracting the corresponding point relationship extracts a corresponding point relationship with the reference image for each different angle image.
前記フィルタリング手段は、基準画像の特徴点を、全ての異角度画像の特徴点と対応点関係にある特徴点に絞り込むことを特徴とする請求項4に記載の画像検索システム。   5. The image search system according to claim 4, wherein the filtering means narrows down the feature points of the reference image to feature points that correspond to the feature points of all the different angle images. 前記フィルタリング手段は、基準画像の特徴点を、一部の異角度画像の特徴点と対応点関係にある特徴点に絞り込むことを特徴とする請求項4に記載の画像検索システム。   The image search system according to claim 4, wherein the filtering unit narrows down feature points of the reference image to feature points that correspond to the feature points of some different-angle images. 前記基準画像が街並みのパノラマ画像から抽出されることを特徴とする請求項1ないし6のいずれかに記載の画像検索システム。   The image retrieval system according to claim 1, wherein the reference image is extracted from a panoramic image of a cityscape. クエリ画像に類似した画像を街並み画像の集合から検索する画像検索方法において、
予め記憶されている多数の街並み画像から基準画像を抽出する手順と、
前記基準画像と被写体の少なくとも一部が重なり、当該被写体を見込む角度が異なる異角度画像を生成する手順と、
前記基準画像および異角度画像の各特徴点から局所特徴量を抽出する手順と、
前記基準画像およびその異角度画像の各特徴点を比較し、局所特徴量の類似度が高い対応点関係を抽出する手順と、
基準画像の特徴点を前記対応点関係にある特徴点に絞り込む手順と、
基準画像の前記絞り込まれた特徴点をデータベースに記憶する手順と、
クエリ画像の各特徴点から抽出された局所特徴量と各基準画像の前記絞り込まれた各特徴点から抽出された局所特徴量とを比較し、クエリ画像に類似した基準画像を検索結果とする手順とを含むことを特徴とする画像検索方法。
In an image search method for searching an image similar to a query image from a set of cityscape images,
A procedure for extracting a reference image from a number of cityscape images stored in advance;
A procedure for generating a different angle image in which at least a part of the reference image and the subject overlap and the angle at which the subject is viewed is different;
A procedure for extracting a local feature amount from each feature point of the reference image and the different angle image;
Comparing each feature point of the reference image and its different angle image, and extracting a corresponding point relationship with a high similarity of local feature amounts;
A procedure for narrowing down feature points of a reference image to feature points in the corresponding point relationship;
Storing the narrowed feature points of the reference image in a database;
A procedure for comparing a local feature amount extracted from each feature point of a query image with a local feature amount extracted from each of the narrowed-down feature points of each reference image, and using a reference image similar to the query image as a search result An image search method comprising:
前記データベースでは、多数の街並み画像がその位置情報と紐付けられており、
前記クエリ画像をユーザ端末から受信する手順と、
前記クエリ画像に類似した基準画像に対応した位置情報を前記ユーザ端末へ応答する手順とをさらに含むことを特徴とする請求項8に記載の画像検索方法。
In the database, many cityscape images are associated with the location information,
Receiving the query image from a user terminal;
The image search method according to claim 8, further comprising a step of responding to the user terminal with position information corresponding to a reference image similar to the query image.
JP2009189160A 2009-08-18 2009-08-18 Image search method and system Pending JP2011039974A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009189160A JP2011039974A (en) 2009-08-18 2009-08-18 Image search method and system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009189160A JP2011039974A (en) 2009-08-18 2009-08-18 Image search method and system

Publications (1)

Publication Number Publication Date
JP2011039974A true JP2011039974A (en) 2011-02-24

Family

ID=43767648

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009189160A Pending JP2011039974A (en) 2009-08-18 2009-08-18 Image search method and system

Country Status (1)

Country Link
JP (1) JP2011039974A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102508917A (en) * 2011-11-21 2012-06-20 洪涛 Multi-dimensional object robust high-speed retrieval and positioning method for some feature images
JP2016015018A (en) * 2014-07-02 2016-01-28 富士通株式会社 Service providing device, method, and program
CN105335399A (en) * 2014-07-18 2016-02-17 联想(北京)有限公司 Information processing method and electronic device
JP2016110477A (en) * 2014-12-09 2016-06-20 エヌ・ティ・ティ・コムウェア株式会社 Information processor, information processing method, and program
CN106682059A (en) * 2015-11-11 2017-05-17 奥多比公司 Structured knowledge modeling and extraction from images
CN111767940A (en) * 2020-05-14 2020-10-13 北京迈格威科技有限公司 Target object identification method, device, equipment and storage medium
CN112015935A (en) * 2020-09-03 2020-12-01 科大讯飞股份有限公司 Image searching method and device, electronic equipment and storage medium
JP2023509105A (en) * 2020-10-26 2023-03-07 3アイ インコーポレイテッド Indoor positioning method using deep learning

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004191339A (en) * 2002-12-13 2004-07-08 Sharp Corp Position information retrieving method, position information retrieving device, position information retrieving terminal and position information retrieving system
WO2006001129A1 (en) * 2004-06-29 2006-01-05 Sony Corporation Information processing device and method, program, and information processing system
JP2006190201A (en) * 2005-01-07 2006-07-20 Sony Corp Image processing system, learning device, method and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004191339A (en) * 2002-12-13 2004-07-08 Sharp Corp Position information retrieving method, position information retrieving device, position information retrieving terminal and position information retrieving system
WO2006001129A1 (en) * 2004-06-29 2006-01-05 Sony Corporation Information processing device and method, program, and information processing system
JP2006190201A (en) * 2005-01-07 2006-07-20 Sony Corp Image processing system, learning device, method and program

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102508917A (en) * 2011-11-21 2012-06-20 洪涛 Multi-dimensional object robust high-speed retrieval and positioning method for some feature images
CN102508917B (en) * 2011-11-21 2013-12-04 洪涛 Multi-dimensional object robust high-speed retrieval and positioning method for some feature images
JP2016015018A (en) * 2014-07-02 2016-01-28 富士通株式会社 Service providing device, method, and program
CN105335399A (en) * 2014-07-18 2016-02-17 联想(北京)有限公司 Information processing method and electronic device
JP2016110477A (en) * 2014-12-09 2016-06-20 エヌ・ティ・ティ・コムウェア株式会社 Information processor, information processing method, and program
CN106682059A (en) * 2015-11-11 2017-05-17 奥多比公司 Structured knowledge modeling and extraction from images
US11514244B2 (en) 2015-11-11 2022-11-29 Adobe Inc. Structured knowledge modeling and extraction from images
CN111767940A (en) * 2020-05-14 2020-10-13 北京迈格威科技有限公司 Target object identification method, device, equipment and storage medium
CN112015935A (en) * 2020-09-03 2020-12-01 科大讯飞股份有限公司 Image searching method and device, electronic equipment and storage medium
CN112015935B (en) * 2020-09-03 2022-12-06 科大讯飞股份有限公司 Image searching method and device, electronic equipment and storage medium
JP2023509105A (en) * 2020-10-26 2023-03-07 3アイ インコーポレイテッド Indoor positioning method using deep learning
JP7336653B2 (en) 2020-10-26 2023-09-01 3アイ インコーポレイテッド Indoor positioning method using deep learning

Similar Documents

Publication Publication Date Title
US9324151B2 (en) System and methods for world-scale camera pose estimation
JP2011039974A (en) Image search method and system
Agarwal et al. Metric localization using google street view
Chen et al. City-scale landmark identification on mobile devices
US9076069B2 (en) Registering metadata apparatus
WO2019042426A1 (en) Augmented reality scene processing method and apparatus, and computer storage medium
JP6184271B2 (en) Imaging management apparatus, imaging management system control method, and program
WO2011145482A1 (en) Terminal location specifying system, mobile terminal and terminal location specifying method
JP5663352B2 (en) Image processing apparatus, image processing method, and image processing program
KR100982192B1 (en) A Method for Geo-tagging of Pictures and Apparatus thereof
JPWO2014061372A1 (en) Image processing apparatus, image processing method, and image processing program
EP3164811B1 (en) Method for adding images for navigating through a set of images
JP2011113197A (en) Method and system for image search
EP3093822A1 (en) Displaying a target object imaged in a moving picture
US9323989B2 (en) Tracking device
CN112215964A (en) Scene navigation method and device based on AR
JP6591594B2 (en) Information providing system, server device, and information providing method
Gupta et al. Augmented reality system using lidar point cloud data for displaying dimensional information of objects on mobile phones
EP4107699A1 (en) A method for generating a dataset, a method for generating a neural network, and a method for constructing a model of a scene
WO2012133371A1 (en) Image capture position and image capture direction estimation device, image capture device, image capture position and image capture direction estimation method and program
CN103733225A (en) Characteristic point coordination system, characteristic point coordination method, and recording medium
JP6210807B2 (en) Display control device and control method of display control device
JP6171660B2 (en) Information processing apparatus, information processing system, and program
JP2006113832A (en) Stereoscopic image processor and program
KR20180133052A (en) Method for authoring augmented reality contents based on 360 degree image and video

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120224

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121212

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130206

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130227