Nothing Special   »   [go: up one dir, main page]

JP2018156544A - 情報処理装置及びプログラム - Google Patents

情報処理装置及びプログラム Download PDF

Info

Publication number
JP2018156544A
JP2018156544A JP2017054458A JP2017054458A JP2018156544A JP 2018156544 A JP2018156544 A JP 2018156544A JP 2017054458 A JP2017054458 A JP 2017054458A JP 2017054458 A JP2017054458 A JP 2017054458A JP 2018156544 A JP2018156544 A JP 2018156544A
Authority
JP
Japan
Prior art keywords
feature point
image
feature
information processing
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017054458A
Other languages
English (en)
Other versions
JP6717769B2 (ja
Inventor
加藤 晴久
Haruhisa Kato
晴久 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2017054458A priority Critical patent/JP6717769B2/ja
Publication of JP2018156544A publication Critical patent/JP2018156544A/ja
Application granted granted Critical
Publication of JP6717769B2 publication Critical patent/JP6717769B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】特徴量に基づく対象判定その他の用途に関して適切な特徴点を画像から得ることのできる情報処理装置を提供する。【解決手段】画像より特徴点を検出すると共に各特徴点の特徴点スコアを求める検出部2と、検出された特徴点の中から、各特徴点の特徴点スコア及び位置に基づく選別を行って得られる特徴点を、画像の特徴点として出力する選別部3と、を備える。さらに、選別部3によって画像の特徴点として出力された各特徴点に関して、画像における当該特徴点の近傍領域を参照することで、各特徴点における特徴量を算出する算出部4と、算出部4により画像に関して算出された特徴量と、複数の所定対象の各々についてその撮像画像から算出された特徴量と、を比較することにより、画像において撮像されている対象が複数の所定対象のいずれに該当するかを判定する判定部5と、を備えてもよい。【選択図】図2

Description

本発明は、特徴量に基づく対象判定その他の用途に関して適切な特徴点を画像から得ることのできる情報処理装置及びプログラムに関する。
画像から対象を判定する技術は、配布や提示が容易な媒体に記載されたアナログ情報からデジタル情報に変換させることが可能であり、利用者の利便性を向上させることができる。当該技術としては例えば、非特許文献1のものが公開されている。非特許文献1では、画像から特徴点を検出し、特徴点周辺から特徴量を算出した上で、事前に蓄積しておいた特徴量と比較することによって、対象の種類および相対的な位置関係を特定する。
一方、上記のような特徴点及び特徴量に基づく判定に関してさらに、精度を向上させる技術としては、特許文献1〜3のようなものが公開されている。特許文献1では、特徴点の誤対応を低減するため、特徴点を頂点としたドロネー三角形分割とトポロジー評価によって精度向上を図る。特許文献2では、特徴量の判別性能を評価することによって、有効な特徴量を選別する手法を開示している。特許文献3では、特徴点およびエッジの位置関係の類似度を判定することで、特徴点の対応付けを高精度化する。
特開2014−127068号公報 特開2014−134858号公報 特開2014−126893号公報
D. G. Lowe, ``Object recognition from local scale-invariant features,'' Proc. of IEEE International Conference on Computer Vision (ICCV), pp.1150-1157, 1999.
しかしながら、以上のような非特許文献1や特許文献1〜3といった従来技術には、特徴点の分布が精度に大きく影響するという課題があった。
具体的には、背景に複雑な模様がある場合、特徴点が背景に集中し、前景としての撮像対象から十分な数の特徴点を検出できないと判定処理が全く機能しないという課題がある。例えば、処理時間の観点から特徴点数に対して上限を設定しておき、特徴点らしさを定義したスコア(特徴点スコア)の上位から選択するというフレームワークを採用する場合を考えると、撮像対象に特徴点が存在している場合でも特徴点スコアが相対的に小さいと撮像対象の特徴点が選択されないことがあり得る。これを第一事例と称する。
逆に、撮像対象自体に特徴点スコアの大きな模様が存在する場合、一部の領域だけで上限に至る数の特徴点を選択してしまい、当該領域だけで一致する類似対象と誤判定するということがあり得る。これを第二事例と称する。
図1は、上記の第一事例及び第二事例の模式例を[1],[2]として示す図である。
すなわち、図1にて[1]に示す第一事例においては画像P1,P2として与えられるような2以上の異なる対象が区別困難となってしまう。例えば、画像P1,P2は共に、同一出版社の同一シリーズ(趣味に関して解説するシリーズ)に属する書籍の表紙であり、画像P1の書籍は登山に関して、画像P2の書籍はサイクリングに関して解説する当該同一シリーズ内の別巻であるものとする。この場合、画像P1,P2にはそれぞれ同一シリーズである旨のシリーズタイトル領域R10,R20が上段側部分に存在し、これらの領域R10,R20は完全な同一模様(文字等も含めて模様と呼ぶものとし、以下同様とする)で構成されると共に、シリーズ内の別巻であることから各巻の内容を表現しており互いに異なる模様で構成される領域R11,R21が中・下段側部分に存在するものとする。
ここで、画像P1,P2において共に、完全同一模様となっているシリーズタイトル領域R10,R20が特徴点スコアの高い領域として構成されていたとし、且つ、異なる模様を構成している領域R11,R21が特徴点スコアの低い領域として構成されていたものとすると、互いに同一模様の領域R10,R20から全部ないしほとんどの特徴点が検出され、互いに異なる領域R11,R21からは特徴点が全く検出されない又はわずかしか検出されないことになってしまう。従って、実際には異なる対象を撮像しているはずの画像P1,P2が区別不可能あるいは区別困難となってしまう。
また、図1にて[2]として示す第二事例では、第一事例で説明したのと同じ画像P1がリファレンス画像として登録されており、同一対象を実際に撮影したクエリ画像が画像P10のように構成されている場合に、当該画像P1,P10の一致判定が困難となってしまう。すなわち、クエリ画像P10は、書籍表紙の下段側部分に販売促進の目的で例えば「帯」が付与されることにより、リファレンス画像P1には存在しない領域R13を形成している。クエリ画像P10の中段側の領域R12はリファレンス画像P1の中・下段側部分の領域R11に部分一致するものとなっており、上段側のシリーズタイトル領域R10,R30はリファレンス画像P1とクエリ画像P10とで共通である。
このような場合に、クエリ画像P10におけるリファレンス画像P1には存在しない「帯」の領域R13が特徴点スコアの高い領域として構成されていたとし、クエリ画像P10における全部ないし大部分の特徴点が領域R13から検出されてしまうものとすると、[1]の第一事例で説明したのとほぼ同様の理由によって、実際には同一対象を撮像しているはずの画像P10,P1の同一判定を得ることが困難となってしまう。
なお、図1では模式例として書籍表紙を挙げたが、書籍表紙に限らず任意種類の商品パッケージや、その他の任意対象においても同様ないし類似の課題が発生しうることに注意されたい。また、図1では模式例として書籍表紙という1つの判定対象のみに注目して説明したが、画像内に1つ以上の対象が空間的な配置をなして撮像されている場合にも同様ないし類似の課題が発生しうることに注意されたい。
以上のような従来技術の課題に鑑み、本発明は、特徴量に基づく対象判定その他の用途に関して適切な特徴点を画像から得ることのできる情報処理装置を提供することを第一の目的とする。
また、本発明は、当該適切な特徴点に基づいて高精度に画像における対象を判定することのできる情報処理装置を提供することを第二の目的とする。
前記目的を達成するため、本発明は、情報処理装置であって、画像より特徴点を検出すると共に各特徴点の特徴点スコアを求める検出部と、前記検出された特徴点の中から、各特徴点の特徴点スコア及び位置に基づく選別を行って得られる特徴点を、前記画像の特徴点として出力する選別部と、を備えることを第一の特徴とする。
また、本発明は、前記情報処理装置がさらに、前記選別部によって前記画像の特徴点として出力された各特徴点に関して、前記画像における当該特徴点の近傍領域を参照することで、各特徴点における特徴量を算出する算出部と、前記算出部により前記画像に関して算出された特徴量と、複数の所定対象の各々についてその撮像画像から算出された特徴量と、を比較することにより、前記画像において撮像されている対象が前記複数の所定対象のいずれに該当するかを判定する判定部と、を備えることを第二の特徴とする。
前記第一の特徴によれば、各特徴点の特徴点スコア及び位置に基づく選別を行って得られる特徴点を、前記画像の特徴点として出力することにより、適切な特徴点を得ることができる。
前記第二の特徴によれば、前記得られた適切な特徴点を用いて、前記画像において撮像されている対象が前記複数の所定対象のいずれに該当するかを判定することができる。
従来技術の課題としての第一事例及び第二事例の模式例を示す図である。 一実施形態に係る情報処理装置の機能ブロック図である。 撮像画像及び撮像画像から奥行に反比例して算出される重みマップの例を示す図である。 第二実施形態における選別部の処理の一例を示すフローチャートである。 図4のフローの適用例として、本発明の効果の例を示す図である。 本発明の効果の例を図5より多数の特徴点の場合について示す図である。
図2は、本発明の一実施形態に係る情報処理装置の機能ブロック図である。図示する通り、情報処理装置10は撮像部1、検出部2、選別部3、算出部4、判定部5及び記憶部6を備える。情報処理装置10としては撮像部1を備える任意の情報端末を利用することができ、携帯端末の他、タブレット型端末、デスクトップ型又はラップトップ型のコンピュータその他を利用することができる。また、撮像部1以外の一部若しくは全てをサーバーに設置し、情報を適宜通信でやり取りしてもよい。図2の各部における処理内容は以下の通りである。
撮像部1は、撮像対象を撮像して、その画像を検出部2、選別部3及び算出部4へと出力する。ここで、撮像対象には判定部5によって判定される対象(記憶部6に予め記憶されている対象のうちのいずれか)が含まれるよう、利用者等が撮像部1を操作して撮像を行うものとする。撮像部1としては、携帯端末に標準装備されるデジタルカメラ等を用いることができる。
検出部2は、撮像部1で得た画像より複数の特徴点を検出すると共に、各特徴点につきその特徴点らしさを表す特徴点スコアを求め、当該複数の特徴点及びその特徴点スコアを選別部3へと出力する。当該特徴点の検出には、SIFT(Scale-Invariant Feature Transform)やSURF(Speeded Up Robust Features)などの既存手法が利用でき、特徴点スコアの算出に関しても各手法に応じたスコアを算出すればよい。
例えば、SIFTであればDoG(Difference of Gaussian)画像(差分画像群)の極大値を与える点として特徴点の候補を求めたうえで、主曲率及びコントラストに基づいて安定した特徴点を検出するが、当該検出された特徴点におけるDoG出力値(極大値)を特徴点スコアとして採用すればよい。
選別部3では、検出部2で得られた特徴点スコア付きの各特徴点の中から、特徴点スコア及び特徴点の画像における位置に基づいて所定数の特徴点を選別し、当該選別した特徴点を算出部4へと出力する。選別部3では当該選別する際にさらに、撮像部1で得られた画像を参照するようにしてもよい。選別部3による選別処理の詳細は後述する。
算出部4では、選別部3で選別された各特徴点に関して、撮像部1で得られた画像における各特徴点の局所近傍の領域を参照することで、各特徴点の特徴量を算出し、当該特徴量を判定部5へと出力する。算出部4における特徴量の算出には、検出部2で説明したのと同様に、SIFT(Scale-Invariant Feature Transform)やSURF(Speeded Up Robust Features)などの既存手法が利用できる。なお、算出部4における特徴量の算出手法と検出部2における特徴点の検出手法とが別種類の手法によるものであってもよい。
判定部5は、算出部4で算出された特徴量と記憶部6に記憶された特徴量とを比較して一致判定することで撮像対象を判定する。すなわち、記憶部6で記憶されている1つ以上の所定の撮像対象のいずれに、撮像画像内の対象が該当するのかを特定する。
ここで、特徴量同士を比較する際には、各種の周知手法を利用することができる。例えば、BoVW(Bag of Visual words)のヒストグラム同士の類似度を算出してもよい。また、特徴量が算出された特徴点の座標も紐づけた特徴情報を用いて比較するようにしてもよい。例えば、RANSAC(Random Sample Consensus)等により、特徴情報を構成している各特徴量をそれぞれ個別にマッチングすることを試みながら外れ値を排除することで、全体として最もマッチングしているものを特定する手法を用いてもよい。すなわち、クエリ画像(撮像部1で得た画像)とリファレンス画像(記憶部6に記憶されている特徴情報が抽出された画像)との間で、ホモグラフィ行列で互いに対応付けられる特徴点座標同士の幾何学的整合性を考慮してマッチングするようにしてもよい。
記憶部6は、複数の撮像対象の撮像画像からそれぞれ特徴量を事前に算出し記憶しておくことにより、判定部5における上記の判定処理の際に当該特徴量を参照に供する。ここで、撮像対象に射影変換等の人工的な変形を加え、特徴量を算出・記憶してもよい。特に、大きさが変化する変形においては、撮像部1での撮像画像における見かけの大きさを算出部4で特徴量を算出する際に求まる奥行情報(スケール情報)と対応付けることで特徴点および特徴量の判定精度を向上させる効果が得られるため、奥行情報を紐づけたうえで特徴量を記憶しておき、判定部5の参照に供するようにしてもよい。さらに、判定部5における判定で前述のRANSACの場合のように特徴点座標を利用する場合は、記憶部6においても特徴点座標と特徴量とを紐づけた特徴情報として算出・記憶を行うようにすればよい。
なお、記憶部6で記憶する特徴量(及び特徴点)は、算出部4で算出する特徴量(及び検出部2で検出する特徴点)と同種のものとする。
以下、選別部3における選別処理の詳細を説明する。まず、一般的な説明として、選別部3では、各特徴点の特徴点スコアに対してさらに、撮像部1で撮像された画像の画素座標ごとに得られる撮像部1と撮像対象との相対的位置関係をも考慮することにより、各特徴点の選別を行うことができる。当該考慮する相対的位置関係とはすなわち、撮像部1で得た画像の各画素位置(u,v)に映っている対象点を、撮像部1を構成するカメラのカメラ中心を基準としたカメラ座標により3次元空間座標位置(x,y,z)=(x(u,v),y(u,v),z(u,v))として表現する関係である。
選別部3における当該特徴点スコア及び相対的位置関係に基づく選別処理によって、結果的に、後段側の判定部5における判定処理に適した特徴点の画像上での分布が調整されることとなる。特に、従来手法においては特徴点スコアしか考慮されていなかったのに対して、本発明ではさらに相対的位置関係をも考慮することによって、判定処理に適した特徴点の分布調整が実現されることとなる。模式例を挙げれば、前述した図1の画像P1,P2において領域R10,R20ばかりに集中して特徴点が得られたり、図1の画像P10において領域R13ばかりに集中して特徴点が得られたりするといったことが、本発明によって防止されることにより、判定処理の精度が向上する。
具体的に相対的位置関係をも考慮する第一実施形態として、撮像画像の各画素位置の奥行(デプス)を算出したうえで、奥行に応じた所定関係で与えられる重みを、特徴点スコアに対してさらに追加で用いる重みとしてよい。すなわち、各特徴点i(i=1,2,...)に対して、その特徴点の座標位置(u(i),v(i))における奥行d(i)を求め、所定関数Fを用いて重みw(i)=F(d(i))を求め、検出部2において算出されている特徴点スコアscore(i)に当該重みを乗じた重み付きスコアw(i)*score(i)を、当該特徴点iを選別するための本発明におけるスコアとして採用し、当該重み付きスコアw(i)*score(i)が上位の所定数にあるような特徴点iを、選別部3における選別結果とすればよい。なお、重みw(i)及び特徴点スコアscore(i)は非負の値として求めるようにすればよい。
ここで、撮像画像における奥行算出については、任意の既存手法を用いることができる。例えば、運動視差や、Markov Random Field(例えば以下の非特許文献2に開示)、ニューラルネットワーク(例えば以下の非特許文献3に開示)を利用した既存手法などが利用できる。あるいは、撮像部1を構成するカメラが複数存在する場合はステレオ視差を利用してもよい。また、撮像部1の撮像画像に対してさらに奥行センサ(例えば赤外線でマーカーを照射し赤外カメラで当該マーカーを撮像することに基づく奥行センサなど)を併用する構成も可能である。
[非特許文献2] DA. Saxena and et. al. ``Make3D: Learning 3D Scene Structure from a Single Still Image,'' IEEE Transactions of Pattern Analysis and Machine Intelligence (PAMI), 2008.
[非特許文献3] D. Eigen and et. al. ``Depth Map Prediction from a Single Image using a Multi-Scale Deep Network,'' Advances in Neural Information Processing Systems, No. 27, pp.2366-2374, 2014.
また、奥行d(i)に応じた重みw(i)を与えるための所定関数Fに関しても、撮像部1における撮像のなされ方や判定部5における判定のなされ方(又は記憶部6に記憶されている特徴量の選別のなされ方)に応じた所定のものを設定しておけばよい。
例えば、利用者は撮像対象を撮像部1に相対的に近接させて撮像することが想定されるのであれば、奥行に反比例するように、あるいは奥行の増加に応じて減少するように、特徴点算出の重み(前述の通り特徴点スコアscore(i)が非負の値で算出される仮定のもとで、正の値としての重み)を設定することが望ましい。図3は[1]及び[2]と分けて、ある撮像画像と、当該撮像画像から奥行に反比例して算出される重みマップと、の例を示す図である。[1]の撮像画像は種々の物体(撮像対象)が配置された屋内の風景の例であり、これに対応する[2]の重みマップでは奥行が小さい(すなわち手前側のカメラにより近い)電気スタンドやデッサン像といった撮像対象に関してより大きな重みが付与されていることが、白色に近いほど重みが大であり、逆に黒色に近いほど重みが小であるものとして表現されている。
また、重みの別の設定例として、奥行に応じて撮像情報を前景と背景とに2分割し、前景領域のみから特徴点が選別されるように重み情報を設定してもよい。すなわち、式で表現すれば例えば以下のような2値の重みを設定してもよい。ここでthは前景と背景を区別するための閾値であり、所定値を用いてもよいし、特徴点の奥行(奥行値d(i))の分布ヒストグラム等から動的に求めてもよい。なお、動的に求める際は任意の既存の統計手法を利用してよい。
w(i)=1 (d(i)≦thすなわち前景の場合)
w(i)=0 (d(i)>thすなわち背景の場合)
このように前景のみから特徴点を選別する手法を採用する場合、次のような効果が得られる。すなわち、撮像対象が相対的に近接することで前景領域に属して撮像されているという前提のもとで、撮像対象には該当しない背景領域の影響を排除して前景領域のみから特徴点を選別できるため、前記従来技術の抱える課題を解決し、判定部5での判定精度が向上する効果が得られる。
以上、相対的位置関係をも考慮する第一実施形態では、相対的位置関係としての3次元空間座標位置(x,y,z)=(x(u,v),y(u,v),z(u,v))に相当する関係を奥行によって求めて利用した。相対的位置関係をも考慮する第二実施形態として、空間座標位置(x(u,v),y(u,v),z(u,v))を直接的には利用せず、撮像画像の画素位置(u,v)のみを利用して、第一実施形態と概ね同様の効果が得られる選別を実現するようにしてもよい。
一般的な説明として、第二実施形態では選別される特徴点iの画像上での位置(u(i),v(i))が偏ることなく均一化されるようにしたうえで、位置(u(i),v(i))及び特徴点スコアscore(i)に基づいて特徴点iを選別すればよい。この際、位置(u(i),v(i))が偏ることなく均一化されるようにする範囲は、必ずしも撮像画像の全体とするのではなく、撮像画像の一部(例えば、近傍に特徴点が検出されている範囲)として設定するようにしてもよい。
図4は、第二実施形態における選別部3の処理の一例を示すフローチャートである。ステップS1では、撮像画像を分割する分割領域の形状及び配置並びに分割領域の選択順番と、最大特徴点数(選別部3で選別する特徴点数の上限所定数)と、を設定したうえでステップS2へと進む。
ステップS1における撮像画像の分割領域は、所定手法で分割したものとすればよい。例えば横方向に所定数n個、縦方向に所定数m個に等分割することで、合計n×m個の矩形領域に分割するようにしてもよい。すなわち、撮像画像のサイズ(画素数)が横W個で縦H個であれば、それぞれ縦W/n個、横H/m個となるようなn×m個の矩形領域に分割してよい。また、撮像画像に対して色情報やテクスチャ情報その他に基づく既存の任意の領域分割手法を適用することで、必ずしも分割領域の形状が矩形領域とはならないようにしてもよい。
また、ステップS1における分割領域に対する選択順番の決定は、分割手法に応じた所定順番として決定するようにすればよい。例えばn×m個の矩形領域に分割した場合、ラスタスキャン順番などとすればよい。矩形領域とはならない分割の場合も、分割領域の重心位置で例えばラスタスキャン順番となるように、分割領域の選択順番を決定すればよい。
ここで、図4の説明において、分割領域をR(k)(k=1,2,...)、その選択順番をO(k)と表記する。例えば3つの分割領域R(1),R(2),R(3)について選択順番O(1)=3,O(2)=2,O(3)=1であれば、「R(3)(O(3)=1番目)」→「R(2)(O(2)=2番目)」→「R(1)(O(1)=3番目)」の順番で分割領域が選択されることを意味するものとする。
なお、ステップS1から(初めて)ステップS2へと至る際には、上記選択順番の現在値を1番目として設定しておく。
ステップS2では、選択順番の現在値O(k)で指定される分割領域R(k)の中から、未選択の特徴点iであってその特徴点スコアscore(i)が最大となるものを1つ選択したうえで、ステップS3へと進む。なお、ステップS2において当該指定される分割領域R(k)の中に未選択の特徴点iが残っていない場合は、当該選択はスキップ(省略)したうえでそのままステップS3へと進めばよい。また、ステップS2において未選択の特徴点iのうちの特徴点スコアscore(i)の最大値が所定閾値未満である場合、当該選択はスキップ(省略)したうえでそのままステップS3へと進むようにしてもよい。
ステップS3では、当該時点までの一連のステップS2において選択された特徴点の数が所定数、すなわちステップS1で設定した上限数に到達したか否かの判定を行い、当該上限数に到達していればステップS4へと進み、到達していなければステップS5へと進む。
ステップS4では、当該時点までの一連のステップS2において選択された特徴点を選別部3における選別結果として出力したうえで、図4のフローを終了する。
ステップS5では、当該ステップS5に至る直前のステップS2において利用した選択順番の現在値O(k)を次の値「O(k)+1」(=O(k'))に更新することで次の選択対象の領域R(k')を設定したうえで、ステップS2に戻る。
こうして、図4においてステップS2,S3,S5のループ処理が繰り返される都度、ステップS2において例えば1番目、2番目、3番目と選択順番が設定されている分割領域がそれぞれ特徴点の選択対象として設定され、ステップS2において当該設定された分割領域から特徴点の選択が行われることとなる。なお、ステップS5において選択順番の現在値O(k)が最後の順番である場合、再度、1番目の選択順番を次の選択対象として設定するようにすればよい。
図5は、図4のフローの適用例を示す図である。図5では、選別上限数を7個とし、3×3の矩形領域分割とし、選択順番をラスタスキャン順とする設定のもとで図4のフローを適用した際に、ある画像(不図示)から選別される特徴点の画像内の位置分布が[2]において示されている。図4ではまた、[2]に対する対比例として、本発明の手法を適用せずに特徴点スコア値のみに基づいて選別上限数7個を同一画像内から選別した場合が[1]に示されている。
すなわち、図5の[1],[2]では共に、同一画像内の特徴点がその特徴点スコア値を併記する形でプロットされており、特徴点は合計16個あり、特徴点スコアは最高100から最低85までの各整数値を有している例が示されている。[1],[2]では共に、選別された特徴点はそのスコア値に下線付与することによって示されている。本発明の手法を適用しない[1]の例では、単純に最高値100から上位7個までを取って特徴点スコア94までのものが選別されているが、[1]に見て取れるようにその画像内での位置分布が左下箇所に偏ってしまっている。一方、本発明の図4の手法を適用した[2]の例では、[1]の偏りが解消され、画像内において比較的均一に散らばって特徴点が選別されている。すなわち、[2]では画像内の上段側部分で特徴点スコア88,89,85の3個が選別され、中段部分で特徴点スコア92,91の2個が選別され、下段側部分で特徴点スコア100,99の2個が選別されており、[1]に見られるような選別された特徴点分布の空間的な偏りが解消されている。
図6は、図4のフローの適用例を図5の場合よりも多数の特徴点上限数のもとで、ある画像(不図示)に関して示す図である。図5の場合と同様、図6でも[1]が対比例としての同一画像における同一特徴点上限数で本発明を適用しなかった場合の選別特徴点分布を示しており、中段・下段側への特徴点の偏りが見られるのに対し、[2]に示す本発明の適用例においては、中段・下段側への特徴点の偏りが解消され、上段側においても概ね均一に特徴点が選別されている。なお、図6の例は、図1の[3]に例示したような、特徴点スコアの高い特徴点が多数抽出されてしまうものの本来の判定対象には該当しない「帯」の領域R13が画像の中下段側部分に存在する場合の、本発明の効果の説明例となっている。
以上、本発明によれば、撮像対象を撮像部1で撮像したうえで、判定部5において当該撮像された撮像対象を判定することができる。この際、撮像部1と撮像対象との相対的な位置関係により特徴点を選別するため、特徴点分布を適正化でき高精度な判定が可能となる。さらに、当該特徴点座標での特徴量を撮像画像から算出するとともに、同条件の特徴情報を記憶部6から選択し判定するため、判定精度を高精度化できる。
以下、本発明における説明上の補足事項を述べる。
(1)選別部3における選別処理についての第二実施形態の第一変形例として、特徴点iをその特徴点スコアscore(i)が最大となるものから1個ずつ選別する処理を繰り返して所定上限数に到達するまで選別を行うものとし、1個ずつ選別される都度、次の更新処理を行うようにしてもよい。すなわち、既に選別された特徴点iから画像上での位置が所定距離以内にあるような特徴点jに関しては、その特徴点スコアscore(j)を低い値に更新するようにしてもよい。低い値への更新は、例えば所定係数r(0≦r<1)を乗ずることによって行えばよく、未選別のある特徴点jに関して所定距離以内に既にN個の特徴点が選別済みのものとして存在すれば、その特徴点スコアはN回分だけ累積的に更新したrN*score(j)としてもよい。なお、所定係数r=0との設定は、既に選別された特徴点から所定距離内にある特徴点は選別対象から完全に除外することに相当する。
なお、当該第一変形例は図4のステップS1,S2,S5における処理を次のような処理に置き換えることで実現できる。すなわち、ステップS1では領域分割や分割領域の選択順番の設定は行わず、最大特徴点数(選別部3で選別する特徴点数の上限所定数)の設定のみを行う。ステップS2では、選択領域ではなく画像全体の中から、未選択の特徴点で特徴点スコアが最大のものを選択するようにする。ステップS5では、次の分割領域を選択するのではなく、直前のステップS2で選択された特徴点iから所定距離内にあるような特徴点jに関して、その特徴点スコアscore(j)を低い値に更新する。
(2)選別部3における選別処理についての第二実施形態の第二変形例として、次のようにしてもよい。すなわち、画像の領域分割は図4のステップS1で説明したのと同様に行う。そして、各分割領域R(k)(k=1,2, ...)に関して、当該分割領域内で検出部2により検出されている特徴点の総数をNum(k)とし、各分割領域R(k)から、その特徴点総数Num(k)に応じた個数r*Num(k)個の特徴点を特徴点スコアの高い順に選別したもの全体を、選別部3からの選別結果として出力する。ここで、係数rは特徴点総数Num(k)に応じた個数を与えるような所定値(0<r<1)として設定しておけばよく、特に、各分割領域R(k)から選別する個数の総和「Σr*Num(k)」が予め設定する特徴点上限所定個数に一致するような値として係数rを定めてもよい。なお、係数rを乗じた個数r*Num(k)個は一般に整数ではないが、所定の丸め処理で適宜整数化すればよい。個数の総和「Σr*Num(k)」についても、特徴点上限所定数に閾値判定で一致するものであればよい。
当該第二変形例によれば、分割領域内で検出部2により検出されている特徴点の多寡に応じた均等な特徴点分布を、選別部3から出力する選別結果において実現することが可能となる。すなわち、検出部2で検出された撮像画像における特徴点分布を、係数rによって画像全体において概ね均一に間引いた特徴点分布を、選別部3からの選別結果として出力することが可能となる。
(3)選別部3における選別処理に関して、第一実施形態と第二実施形態とを組み合わせてもよい。例えば、第二実施形態においては図4のステップS2で特徴点スコアscore(i)が最大となるような特徴点iを選別したが、ステップS2では当該特徴点スコアscore(i)の代わりに第一実施形態における重み付けスコアw(i)*score(i)を用いて、当該重み付けスコアが最大となるような特徴点iを選別するようにしてもよい。
(4)第一実施形態における重みw(i)を、奥行きd(i)等の空間座標における配置は考慮せずに、その特徴点iの画像内での座標(u(i),v(i))のみに基づいて設定されるものとしてもよい。例えば、画像内における中心などの所定位置において最大値を取り、当該所定位置から距離が離れるほど値が小さくなるような、正の値の重みw(i)を設定してもよい。この場合も、判定対象となる撮像対象は当該画像内の中心その他の所定位置の付近にあるものとして撮像がなされているという前提のもとで、判定対象の撮像対象に起因する特徴点を優先して選別することが可能となり、判定部5における判定の高精度化に寄与することとなる。
(5)情報処理装置10は、図2に示す各機能部のうちの任意の一部分のみで構成されていてもよい。例えば撮像部1を省略して、検出部2では任意の画像をネットワーク上その他の任意の箇所から取得するようにしてもよい。ただしこの際、当該読み込んだ画像に関してのカメラの情報等の付随情報も併せて取得することで、例えば前述の奥行に基づく選別部3による選別処理といったような、前述の各処理が可能になるものとすればよい。例えば、検出部2及び選別部3のみを備えて情報処理装置10を構成した場合を考えると、検出部2において読み込んだ画像から認識その他の判定処理に適した特徴点を選別して出力する装置として情報処理装置10が機能することとなる。
(6)情報処理装置10は一般的な構成のコンピュータとして実現可能である。すなわち、CPU(中央演算装置)、当該CPUにワークエリアを提供する主記憶装置、ハードディスクやSSDその他で構成可能な補助記憶装置、キーボード、マウス、タッチパネルその他といったユーザからの入力を受け取る入力インタフェース、ネットワークに接続して通信を行うための通信インタフェース、表示を行うディスプレイ、カメラ及びこれらを接続するバスを備えるような、一般的なコンピュータによって情報処理装置10を構成することができる。さらに、図2に示す情報処理装置10の各部の処理はそれぞれ、当該処理を実行させるプログラムを読み込んで実行するCPUによって実現することができるが、任意の一部の処理を別途の専用回路等において実現するようにしてもよい。撮像部1は、当該ハードウェアとしてのカメラによって実現できる。
10…情報処理装置、1…撮像部、2…検出部、3…選別部、4…算出部、5…判定部、6…記憶部

Claims (15)

  1. 画像より特徴点を検出すると共に各特徴点の特徴点スコアを求める検出部と、
    前記検出された特徴点の中から、各特徴点の特徴点スコア及び位置に基づく選別を行って得られる特徴点を、前記画像の特徴点として出力する選別部と、を備えることを特徴とする情報処理装置。
  2. 前記選別部では、前記位置に基づく選別を、前記画像を撮像したカメラのカメラ中心を基準とした各特徴点の空間位置に基づく選別として行うことを特徴とする請求項1に記載の情報処理装置。
  3. 前記選別部では、前記各特徴点の空間位置に基づく選別を、各特徴点の奥行に基づく選別として行うことを特徴とする請求項2に記載の情報処理装置。
  4. 前記選別部では、前記各特徴点の奥行に基づく選別を、奥行が小さいほど優先して選別することにより行うことを特徴とする請求項3に記載の情報処理装置。
  5. 前記選別部では、前記画像を前景領域と背景領域とに分割し、前記位置に基づく選別を、前記分割された前景領域にある特徴点のみを選別対象とすることによって行うことを特徴とする請求項1に記載の情報処理装置。
  6. 前記選別部では、前記位置に基づく選別を、各特徴点の前記画像における画素座標位置に基づく選別として行うことを特徴とする請求項1に記載の情報処理装置。
  7. 前記選別部では、前記位置に基づく選別を、各特徴点の前記画像における画素座標位置に基づく選別として行い、選別される特徴点の画素座標位置の分布が均一化されるように、当該選別を行うことを特徴とする請求項6に記載の情報処理装置。
  8. 前記選別部では、前記画像を領域分割して得られる各分割領域を所定順序で選択し、当該選択された分割領域内から特徴点を特徴点スコアに基づいて選別することを当該所定順序に従って継続することにより、前記画像の特徴点を出力することを特徴とする請求項6に記載の情報処理装置。
  9. 前記選別部では、前記画像を領域分割して得られる各分割領域より、当該分割領域内に属する前記検出された特徴点の総数に応じた個数の特徴点を、特徴点スコアに基づいて選別することにより、前記画像の特徴点を出力することを特徴とする請求項6に記載の情報処理装置。
  10. 前記選別部では、前記位置に基づく選別を、各特徴点の前記画像における画素座標位置が所定座標位置に近いほど優先して選別するようにして行うことを特徴とする請求項6に記載の情報処理装置。
  11. 前記選別部では、各特徴点の特徴点スコア及び位置に基づく選別を、各特徴点の特徴点スコアに各特徴点の位置に基づく重みを乗じて得られる重み付けスコアが高いほど優先して選別することによって行うことを特徴とする請求項1ないし10のいずれかに記載の情報処理装置。
  12. 前記選別部によって前記画像の特徴点として出力された各特徴点に関して、前記画像における当該特徴点の近傍領域を参照することで、各特徴点における特徴量を算出する算出部をさらに備えることを特徴とする請求項1ないし11のいずれかに記載の情報処理装置。
  13. 前記算出部により前記画像に関して算出された特徴量と、複数の所定対象の各々についてその撮像画像から算出された特徴量と、を比較することにより、前記画像において撮像されている対象が前記複数の所定対象のいずれに該当するかを判定する判定部をさらに備えることを特徴とする請求項12に記載の情報処理装置。
  14. 撮像を行うことによって前記画像を取得する撮像部をさらに備えることを特徴とする請求項1ないし13のいずれかに記載の情報処理装置。
  15. コンピュータを請求項1ないし14のいずれかに記載の情報処理装置として機能させることを特徴とするプログラム。
JP2017054458A 2017-03-21 2017-03-21 情報処理装置及びプログラム Active JP6717769B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017054458A JP6717769B2 (ja) 2017-03-21 2017-03-21 情報処理装置及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017054458A JP6717769B2 (ja) 2017-03-21 2017-03-21 情報処理装置及びプログラム

Publications (2)

Publication Number Publication Date
JP2018156544A true JP2018156544A (ja) 2018-10-04
JP6717769B2 JP6717769B2 (ja) 2020-07-01

Family

ID=63715669

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017054458A Active JP6717769B2 (ja) 2017-03-21 2017-03-21 情報処理装置及びプログラム

Country Status (1)

Country Link
JP (1) JP6717769B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110837416A (zh) * 2019-09-24 2020-02-25 深圳市火乐科技发展有限公司 内存管理方法、智能投影仪及相关产品

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003030663A (ja) * 2001-07-16 2003-01-31 Mitsubishi Electric Corp 指紋照合装置及び指紋照合方法
JP2012234258A (ja) * 2011-04-28 2012-11-29 Sony Corp 画像処理装置と画像処理方法およびプログラム
JP2014115821A (ja) * 2012-12-10 2014-06-26 Secom Co Ltd 顔特徴抽出装置および顔認証システム
JP2015052942A (ja) * 2013-09-06 2015-03-19 キヤノン株式会社 画像処理方法、画像処理装置、及びプログラム
JP2016181181A (ja) * 2015-03-24 2016-10-13 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003030663A (ja) * 2001-07-16 2003-01-31 Mitsubishi Electric Corp 指紋照合装置及び指紋照合方法
JP2012234258A (ja) * 2011-04-28 2012-11-29 Sony Corp 画像処理装置と画像処理方法およびプログラム
JP2014115821A (ja) * 2012-12-10 2014-06-26 Secom Co Ltd 顔特徴抽出装置および顔認証システム
JP2015052942A (ja) * 2013-09-06 2015-03-19 キヤノン株式会社 画像処理方法、画像処理装置、及びプログラム
JP2016181181A (ja) * 2015-03-24 2016-10-13 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110837416A (zh) * 2019-09-24 2020-02-25 深圳市火乐科技发展有限公司 内存管理方法、智能投影仪及相关产品

Also Published As

Publication number Publication date
JP6717769B2 (ja) 2020-07-01

Similar Documents

Publication Publication Date Title
Wang et al. Correspondence driven saliency transfer
CN108229322B (zh) 基于视频的人脸识别方法、装置、电子设备及存储介质
US9968845B2 (en) Image processing device and image processing method, and program
CN108427927B (zh) 目标再识别方法和装置、电子设备、程序和存储介质
CN108292362A (zh) 用于光标控制的手势识别
US20120027252A1 (en) Hand gesture detection
JP5261501B2 (ja) 不変の視覚場面及び物体の認識
JP2016066360A (ja) テキストベース3d拡張現実
CN109815770A (zh) 二维码检测方法、装置及系统
CN108573471B (zh) 图像处理装置、图像处理方法以及记录介质
CN109886223B (zh) 人脸识别方法、底库录入方法、装置及电子设备
Buoncompagni et al. Saliency-based keypoint selection for fast object detection and matching
US10891740B2 (en) Moving object tracking apparatus, moving object tracking method, and computer program product
CN110942473A (zh) 一种基于特征点网格化匹配的运动目标跟踪检测方法
KR20190018274A (ko) 이미지에 포함된 특징 포인트의 시간 또는 공간의 움직임에 기초하여 이미지에 존재하는 피사체를 인식하는 장치 및 방법
CN111353325A (zh) 关键点检测模型训练方法及装置
CN109961103B (zh) 特征提取模型的训练方法、图像特征的提取方法及装置
CN108875501B (zh) 人体属性识别方法、装置、系统及存储介质
JP2011087144A (ja) テロップ文字領域検出方法,テロップ文字領域検出装置およびテロップ文字領域検出プログラム
JP6717769B2 (ja) 情報処理装置及びプログラム
CN108255298B (zh) 一种投影交互系统中的红外手势识别方法及设备
CN114511877A (zh) 一种行为识别方法、装置、存储介质及终端
CN107678655B (zh) 一种图像要素提取方法及图像要素提取系统
US11682227B2 (en) Body and hand association method and apparatus, device, and storage medium
JP2012226403A (ja) 画像領域追跡装置、画像領域追跡方法、および、コンピュータ・プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190212

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200326

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200610

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200611

R150 Certificate of patent or registration of utility model

Ref document number: 6717769

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150