JP6151908B2 - 学習装置、識別装置、およびそのプログラム - Google Patents
学習装置、識別装置、およびそのプログラム Download PDFInfo
- Publication number
- JP6151908B2 JP6151908B2 JP2012250151A JP2012250151A JP6151908B2 JP 6151908 B2 JP6151908 B2 JP 6151908B2 JP 2012250151 A JP2012250151 A JP 2012250151A JP 2012250151 A JP2012250151 A JP 2012250151A JP 6151908 B2 JP6151908 B2 JP 6151908B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- region
- feature
- unit
- feature amount
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000605 extraction Methods 0.000 claims description 84
- 238000004364 calculation method Methods 0.000 claims description 67
- 230000006870 function Effects 0.000 claims description 22
- 239000013598 vector Substances 0.000 description 94
- 238000000034 method Methods 0.000 description 73
- 230000008569 process Effects 0.000 description 29
- 238000012545 processing Methods 0.000 description 22
- 239000000284 extract Substances 0.000 description 19
- 238000001514 detection method Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 9
- 238000013139 quantization Methods 0.000 description 8
- 238000010801 machine learning Methods 0.000 description 7
- 238000012986 modification Methods 0.000 description 7
- 230000004048 modification Effects 0.000 description 7
- 238000006243 chemical reaction Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000007796 conventional method Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 238000002474 experimental method Methods 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 241000282326 Felis catus Species 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Description
また「領域画像の各々の特徴量」とは、上記の領域画像の一つから得られる画像の特徴量(スカラーまたはベクトル)である。
また「複数の領域画像から算出された特徴量を連結する」とは、例えば、各々の領域画像から得られた上記の特徴量を単純に要素として並べる(連結する)ことによって特徴ベクトルを得る操作である。
ここで、識別器のパラメーターを求める処理は、学習用データに基づいた機械学習処理である。識別器は、所定のモデルにより、未知の入力画像から抽出された特徴量を入力とし、この特徴量とパラメーターとを用いた計算の結果として、その入力画像が正例であるか負例であるかを表わす情報を出力する。パラメーターは通常は複数の変数であり、識別器学習部の処理を行なうことより、最適なパラメーター値の集合が得られる。「正例であるか負例であるか」とは、入力画像が、所定のクラスターに属するか否かということを表わす。具体例としては、入力画像に所定の被写体(人、車、山、犬、猫など)が写っているか否かを表わす。これにより、良好な特徴量を用いた学習が可能になる。
これは、実施形態に記載する設定値αまたはβの値を1未満(0<α<1または0<β<1)とすることにより実現される。これにより、特徴量抽出部は、被写体の特徴を良好に表わす特徴量を抽出できる可能性が高くなる。
さらに、0<α≦0.5としたとき、または0<α≦0.5としたときには、元のキーフレーム画像の中の任意の画素が、同一サイズの少なくとも2個の領域画像の範囲に含まれることとなる。つまりこの場合は、被写体を適切なサイズの領域画像内に捉えることのできる可能性がよりいっそう高まる。つまり、より良好な特徴量を抽出できるようになる。
これにより、画像特徴量算出装置で得られた画像特徴量と、学習済みのパラメーターとに基づき、入力画像が正例であるか負例であるかを識別できる。
これにより、この識別装置は、学習処理と識別処理とを行なう。
同一サイズの複数の前記領域画像の少なくとも一部が互いに重なり合うことにより、被写体の特徴を良好に表わす特徴量を算出することができる可能性が高まる。
特に、複数のサイズの領域画像の各々から得られる特徴を情報として維持する特徴量を算出することにより、被写体のサイズ変化に対して頑健な特徴量を得て使用することができる。
また特に、同一サイズの領域画像が少なくとも一部において互いに重なり合うようにして、それらの領域画像を用いることにより、被写体の位置変化に対して頑健な特徴量を得て使用することができる。つまり、グリッド境界に存在する被写体に対しても良好な結果を得ることができる。
[第1の実施形態]
図1は、第1の実施形態による識別装置2の概略機能構成を示すブロック図である。図示するように、識別装置2は、内部に学習装置1を備えている。学習装置1は、学習用映像入力部11と、キーフレーム画像抽出部13と、領域画像抽出部15と、特徴量算出部17と、識別器学習部19とを含んで構成される。また、識別装置2は、さらに、映像入力部12と、キーフレーム画像抽出部14と、領域画像抽出部16と、特徴量算出部18と、識別部20とを含んで構成される。なお、図示していないが、領域画像抽出部15と特徴量算出部17との組合せは画像特徴量算出装置として機能する。同様に、領域画像抽出部16と特徴量算出部18との組合せは画像特徴量算出装置として機能する。
識別装置2は、学習装置1によって学習済みの識別部により、入力映像に特定の被写体が出現するか否かを判定する。
キーフレーム画像抽出部13は、学習用映像入力部11で取得された学習用映像から、キーフレーム画像を抽出する。具体的方法としては、キーフレーム画像抽出部13は、映像からショット境界を検出して、映像をショットに分割した後、各ショットの冒頭あるいは中間位置からフレーム画像を取得する。なお、ショット境界の検出は、例えば画素値の時間方向の微分値の総和が所定の閾値を超えてピークを示す箇所を検出することにより行なう。また、ショット境界が存在しない映像、あるいはひとつのショットの時間長が非常に長い映像においては、キーフレーム画像抽出部13は、所定の時間間隔でキーフレーム画像を抽出したり、フレーム間の動きベクトルの大きさが閾値以上となったタイミングでキーフレーム画像を抽出したりするようにする。
特徴量算出部17は、キーフレーム画像抽出部13で抽出されたフレーム画像から、特徴ベクトルを算出する。特徴ベクトルの算出方法については後で詳述する。
識別器学習部19は、正例あるいは負例のラベルが付与された学習データから、被写体が映っているかどうかを判定するための識別器の学習を行なう。識別器学習部19への入力データは、キーフレーム画像を基に特徴量算出部17によって算出された特徴量(特徴ベクトル)であり、各々の入力画像に対応して、「正例」または「負例」のいずれであるかを示すラベルが付随している。識別器学習部19は、このラベルを正解として使用し、機械学習処理を行なう。識別器学習部19による学習手法としては、サポートベクターマシン、ニューラルネットワーク、ベイジアンネットワークなどの一般的な機械学習手法を利用できる。なお、学習用データの構成例については、後で図6を参照しながら詳述する。
キーフレーム画像抽出部14は、キーフレーム画像抽出部13と同様の方法によりキーフレーム画像を抽出する。但し、キーフレーム画像抽出部14が対象とするのは、学習用の映像データではなく、映像入力部12によって取得された映像データである。
領域画像抽出部16は、キーフレーム画像抽出部14によって抽出されたキーフレーム画像について、領域画像抽出部15と同様の方法により、領域画像の抽出を行なう。
特徴量算出部18は、特徴量算出部17と同様の方法により、キーフレーム画像の特徴量を抽出する。
識別部20は、特徴量算出部18が算出した特徴量に基づいて、入力画像(未知の画像)が正例であるか負例かを識別する。なお、識別部20は、識別器学習部19によって予め学習済みである。言い換えれば、識別部20が識別のために用いるパラメーターは、識別器学習部19による学習処理によって、予め最適化されている。
局所特徴量子化部174は、特徴点検出部171によって検出された特徴点の周囲の局所領域の特徴を量子化する。
局所特徴ベクトル生成部177は、領域画像ごとの局所特徴量を連結することにより局所特徴ベクトルを生成する。
色統計特徴算出部172は、入力されるフレーム画像データを基に、色空間の変換を行い、変換後の色空間における特徴量を算出する。
色特徴ベクトル生成部178は、領域画像ごとの色特徴量を連結することにより色特徴ベクトルを生成する。
テクスチャ特徴算出部173は、ウェーブレット変換等の処理を行なうことにより、入力されるフレーム画像データのテクスチャ特徴を算出する。
テクスチャ特徴ベクトル生成部179は、ウェーブレット変換の結果の画素値の、領域画像ごとの統計的特徴値を基に、テクスチャ特徴ベクトルを算出する。
特徴ベクトル生成部170は、局所特徴ベクトルと色特徴ベクトルとテクスチャ特徴ベクトルとを連結したベクトルを生成する。
これら各部の処理の詳細については後述する。
(A)局所特徴ベクトルの抽出
局所特徴ベクトルの抽出のためには、前記のバッグ・オブ・ビジュアル・ワーズ法を用いる。
特徴点検出部171は、SIFT(Scale-invariant feature transform)やSURF(Supeeded-Up. Robust Features)などの特徴点検出手法を用いて、入力されるフレーム画像全体から特徴点を抽出する。SIFTおよびSURFは、画像内における局所的特徴を検出する手法であり、それぞれ、参考文献[David G. Lowe, ``Object recognition from local scale-invariant features,'' In Proc. IEEE International Conference on Computer Vision, vol. 2, pp. 1150-1157, 1999.]および[Herbert Bay, Tinne Tuytelaars, and L Van Gool, ``SURF: Speeded Up Robust Features,'' In Proc. 9th European Conference on Computer Vision, vol. 3951, pp. 404--417, 2006.]にもその詳細が記載されている。
色統計特徴算出部172は、入力されるフレーム画像データを、HSV色空間およびLab色空間に変換する。HSV色空間は、色相(Hue)、彩度(Saturation)、明度(Value)の三成分からなる色空間である。Lab色空間は、明度(L)、補色次元(aおよびb)の成分からなる色空間である。例えばRGBの画素値から、HSV色空間およびLab色空間への変換は、既存の技術を使って行なわれる。色空間の変換の結果、色統計特徴算出部172は、フレーム画像に含まれる各画素について、各コンポーネントcの画素値を出力する。なお、c∈{h,s,v,l,a,b}であり、これらh,s,v,l,a,bのそれぞれは、HSV色空間およびLab色空間の成分である。
ここでは、Haarウェーブレットに基づいて画像のテクスチャを反映した特徴量を算出する。まず、テクスチャ特徴算出部173は、入力されるフレーム画像データを基に、Haarウェーブレット変換を3段階適用する。次に、テクスチャ特徴ベクトル生成部179は、領域画像抽出部15から各々の領域画像の範囲に関する情報を得て、領域画像ごとに、それぞれのサブバンド領域の画素値の分散を算出し、それらの分散値の列を当該領域画像における特徴量とする。そして、すべての領域画像に関してこれらの数値列を連結することにより、テクスチャ特徴ベクトルを生成する。このテクスチャ特徴ベクトルをVtとする。なお、「すべての領域画像に関して連結」については、後で図5を参照しながら詳述する。
領域画像抽出部15は、領域画像のサイズを段階的に変化させる。同図に示す例においては、(a)、(b)、(c)の順に、徐々に抽出する領域画像のサイズを小さくしている。入力される元のフレーム画像のサイズを縦(高さ)H、横(幅)Wとしたとき、第S番目(S=1,2,3,・・・)のスケールにおける領域画像のサイズは、縦HS、横WSであり、これらは、下の式(5)で表わされる。
特に、0<α≦0.5としたとき、または0<β≦0.5としたときには、元のキーフレーム画像の中の任意の画素が、同一サイズの少なくとも2個の領域画像の範囲に含まれることとなる。つまりこの場合は、被写体を適切なサイズの領域画像内に捉えることのできる可能性がよりいっそう高まる。つまり、より良好な特徴量を抽出できるようになる。
まずステップS1において、領域画像抽出部15は、変数Sの値を1に初期化する。このSは、前述の通り、領域画像のスケールを指標するための値である。
次にステップS2において、領域画像抽出部15は、変数Sの値が、予め設定された上限(設定スケール)未満であるか否かを判定する。上限未満である場合(ステップS2:YES)には、次のステップS3に進む。その他の場合(ステップS2:NO)には、このフローチャート全体の処理を終了する。
次にステップS3において、領域画像抽出部15は、変数yの値を0に初期化する。このyは、縦座標の値を表わすものである。このステップの処理により、領域画像の縦座標を初期化する。
次にステップS5に進んだ場合、領域画像抽出部15は、変数xの値を0に初期化する。このxは、横座標の値を表わすものである。このステップの処理により、領域画像の横座標を初期化する。
次にステップS7に進んだ場合、領域画像抽出部15は、その時の変数xおよびyの値に応じて、座標(x,y)を基点(左上角の画素)とする、高さHS、幅WSのグリッドによる領域画像を抽出する。そして、領域画像抽出部15は、抽出した領域画像の範囲を示す情報を、局所特徴ベクトル生成部177と色特徴ベクトル生成部178とテクスチャ特徴ベクトル生成部179とに渡す。これに応じて、局所特徴ベクトル生成部177と色特徴ベクトル生成部178とテクスチャ特徴ベクトル生成部179の各々は、当該領域画像に関する特徴量を前述の方法により算出する。
ステップS6からステップS9に進んだ場合には、領域画像抽出部15は、変数yの値をα・HSの増分で増加させる。これは、領域画像の縦座標の値を、次の領域画像の座標に進めるための処理である。このステップの処理のあとは、ステップS4の処理に戻る。
ステップS4からステップS10に進んだ場合には、領域画像抽出部15は、変数Sの値を次の値に更新する。つまり、(S+1)の値を変数Sの記憶領域に格納する。これは、領域画像のスケールを次の段階に進めるための処理である。そして、このステップの処理のあとは、ステップS2の処理に戻る。
図6は、学習用データの構成例を示す概略図である。学習用データは、学習装置1の内部の記憶装置に格納される。既に述べたように、学習用データには、正例あるいは負例のラベルが付与されている。学習用データは、例えば、オブジェクト指向データベースを用いて構成され、図示するような表構造を有している。同データは、映像番号、映像データロケーション、フレーム識別情報、被写体種類(1から40まで)のデータ項目を有している。このデータは、複数の映像データについての情報を格納するものである。また、1つの映像データに対して、1つまたは複数のキーフレームを対応させている。映像番号は、映像データを識別するために付与された番号である。映像データロケーションは、映像データの実体の所在を表わす情報であり、例えば、ファイルシステムにおけるパス名の情報が用いられる。フレーム識別情報は、1つの映像データ内に含まれる、複数のキーフレームのそれぞれを識別する情報である。フレーム識別情報としては、単なるキーフレームの連番を用いても良いし、「hh:mm:ss.nnn」(時:分:秒.フレーム番号)の形式等で映像内のフレーム位置を特定する情報を用いても良い。各々の被写体種類に対応する欄には、「正」または「負」のラベル(入力画像が正例または負例のいずれであるかを示す情報)を格納する。これらのラベルは、キーフレーム画像抽出部13によって抽出される各々のキーフレームに、被写体種類(1〜40)のそれぞれが被写体として含まれているか否かの正解を表わすラベル情報である。なお、被写体種類の第6番目から第39番目のデータは図中において記載を省略している。「正」のラベルは、その被写体がそのキーフレーム画像に含まれていることを表わす。「負」のラベルは、その被写体がそのキーフレーム画像に含まれていないことを表わす。このラベルの値が、学習時の教師データとして用いられる。なお、被写体の種類数は40に限らず、これより多くても少なくても良い。
本実施形態について、実際の映像データを使用して行なった評価実験の結果は、以下の通りである。本実験では、約600時間の映像を対象として、40種類の被写体を検出し、その検出精度を評価した。検出精度の算出については、テスト映像における全フレーム画像に対して判定処理を適用し、スコアが高いものから順に並び替え、その上位2000件に対する推定平均適合率を算出することで求めた。なお、設定値としては、δ=0.5,α=0.5,β=0.5とした。領域画像のスケールの範囲は、1≦S≦4とした。
次に、本発明の第2の実施形態について説明する。第1の実施形態が、学習処理と識別処理の両方を行なうものであったのに対して、第2の実施形態は、学習処理のみを行なう。本実施形態の機能構成は、図1の機能ブロック図に含まれる機能のうち、学習装置1と識別部20の機能のみを有するものである。学習装置1が、学習用映像入力部11とキーフレーム画像抽出部13と領域画像抽出部15と特徴量算出部17と識別器学習部19とを含んで構成される点は、第1の実施形態と同様である。また、ここに列挙した各部の処理機能およびその作用、効果も、第1の実施形態において述べたそれらと同様であるので説明を省略する。この構成により、本実施形態の学習装置は、良好な特徴量を用いて機械学習を行い、識別部20を生成する(学習によりパラメーターの値を最適化する)ことができる。
次に、本発明の第3の実施形態について説明する。第1の実施形態が、学習処理と識別処理の両方を行なうものであったのに対して、第3の実施形態は、識別処理のみを行なう。本実施形態の機能構成は、図1の機能ブロック図に含まれる機能のうち、映像入力部12とキーフレーム画像抽出部14と領域画像抽出部16と特徴量算出部18と識別部20のみを含んで構成され、学習装置1を含まない。そして、ここに列挙した各部の処理機能およびその作用、効果も、第1の実施形態において述べたそれらと同様であるので説明を省略する。また、識別部20は、予め学習済である。この構成により、本実施形態の識別装置は、良好な特徴量を用いて識別処理を行うことができる。
次に、本発明の第4の実施形態について説明する。第4の実施形態は、第1の実施形態の中で説明した画像特徴量算出装置の機能のみを単独の装置として実施する形態である。既に述べたように、画像特徴量算出装置は、領域画像抽出部15と特徴量算出部17とを組合せた装置として実現される。この画像特徴量算出装置における領域画像抽出部15と特徴量算出部17の機能、作用、効果は、既に説明したとおりであるため、ここでは説明を省略する。本実施形態の構成により、画像特徴量算出装置は、入力画像を基に、良好な、つまり、被写体のサイズの変化に対して頑健な画像特徴量を算出することができる。
第1〜第4の実施形態では、領域画像を抽出する際に、範囲を等間隔に移動させていた。本実施形態における領域画像抽出部15および16は、第1〜第4の実施形態とは異なる方法で、領域画像の抽出を行なう。なお、以下に述べる領域画像の抽出のしかたは、第1〜第4の実施形態に適用可能である。そのとき、領域画像の抽出のしかた以外の技術事項に関しては、各実施形態において既に述べたとおりであるので、ここでは説明を省略する。本実施形態における領域画像抽出部15および16は、次のいずれかの方法で領域画像の抽出を行なう。
なお、上述した各実施形態における各処理部の機能をコンピューターで実現するようにしても良い。その場合、これらの機能を実現するためのプログラムをコンピューター読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピューターシステムに読み込ませ、実行することによって実現しても良い。なお、ここでいう「コンピューターシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピューター読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピューターシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピューター読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバーやクライアントとなるコンピューターシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでも良い。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピューターシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
(変形例1)前述の実施形態では、一例としてα=0.5,β=0.5とした。また、α≦0.5またはβ≦0.5とすることにより領域画像の抽出密度を高める例を記載した。しかしながら、α>0.5またはβ>0.5としても良い。
(変形例2)前述の実施形態では、画像の特徴量として、局所特徴ベクトルや色特徴ベクトルやテクスチャ特徴ベクトルを用いた。変形例では、その他の特徴量を用いるようにしても良い。
(変形例3)前述の実施形態では、学習装置1内において、キーフレーム画像抽出部13が抽出したキーフレームについて、「正例」または「負例」のラベル値を与えるようにした。変形例では、その代わりに、映像に対応したキーフレーム画像を予め抽出しておき、抽出済みのキーフレーム画像とラベル値のデータとをセットにして学習装置1が外部から取り込むようにする。そして、学習装置1は、特に映像データそのものを用いず、キーフレーム画像とラベル値とに基づいた学習処理を行なう。
(変形例4)図4のフローチャートの処理によって領域画像抽出部が領域画像を抽出する際に、元のフレーム画像の下端部または右端部に余剰が生じた場合には、領域画像の下端または右端がちょうどフレーム画像の下端または右端に合うように、領域画像の座標の増分を調整する。あるいは、フレーム画像の下端または右端をはみ出して、領域画像の座標を決定しても良い。領域画像の一部がフレーム画像の外側にはみ出す場合は、はみ出した部分については一様な画素値が存在するものとして(つまり、その部分には画像情報がないものとして)、以後の特徴量算出等の処理を行なうようにする。
2 識別装置
11 学習用映像入力部
12 映像入力部
13,14 キーフレーム画像抽出部
15,16 領域画像抽出部
17,18 特徴量算出部
19 識別器学習部
20 識別部
170 特徴ベクトル生成部
171 特徴点検出部
172 色統計特徴算出部
173 テクスチャ特徴算出部
174 局所特徴量子化部
177 局所特徴ベクトル生成部
178 色特徴ベクトル生成部
179 テクスチャ特徴ベクトル生成部
Claims (5)
- 入力画像に含まれる複数のサイズの領域画像の範囲を指定する領域画像抽出部と、
前記入力画像に基づき、前記領域画像抽出部によって指定された前記領域画像の各々の特徴量を算出するとともに、複数の前記領域画像から算出された特徴量を連結することによって前記入力画像の特徴量を生成する特徴量算出部と、
前記入力画像が正例または負例のいずれであるかを示す情報と、前記特徴量算出部によって生成された前記入力画像の特徴量の組合せとに基づいて、未知の入力画像が正例であるか負例であるかのいずれかを識別するための識別器のパラメーターを求める識別器学習部と、
を具備し、
前記領域画像抽出部は、縦H S 画素且つ横W S 画素の同一サイズの複数の前記領域画像の少なくとも一部が互いに重なり合うように、縦方向(H S ×α)画素且つ横方向(W S ×β)画素の刻みで順次移動させながら前記領域画像の範囲を指定するものであり、0<α≦0.5または0<β≦0.5とする、
ことを特徴とする学習装置。 - 入力画像に含まれる複数のサイズの領域画像の範囲を指定する領域画像抽出部と、
前記入力画像に基づき、前記領域画像抽出部によって指定された前記領域画像の各々の特徴量を算出するとともに、複数の前記領域画像から算出された特徴量を連結することによって前記入力画像の特徴量を生成する特徴量算出部と、
予め学習済みのパラメーターと、前記特徴量算出部が生成した前記入力画像の特徴量とに基づいて、前記入力画像が正例であるか負例かを識別する識別部と、
を具備し、
前記領域画像抽出部は、縦H S 画素且つ横W S 画素の同一サイズの複数の前記領域画像の少なくとも一部が互いに重なり合うように、縦方向(H S ×α)画素且つ横方向(W S ×β)画素の刻みで順次移動させながら前記領域画像の範囲を指定するものであり、0<α≦0.5または0<β≦0.5とする、
ことを特徴とする識別装置。 - 学習用データとして入力された前記入力画像が正例または負例のいずれであるかを示す情報と、前記特徴量算出部によって生成された前記入力画像の特徴量の組合せとに基づいて、未知の入力画像が正例であるか負例であるかのいずれかを識別するための識別器のパラメーターを求める識別器学習部をさらに具備し、
前記識別部は、前記識別器学習部によって求められた前記パラメーターを前記予め学習済みのパラメーターとして用いることによって、未知の前記入力画像が正例であるか負例かを識別する、
ことを特徴とする請求項2に記載の識別装置。 - コンピューターを、請求項1に記載の学習装置
として機能させるためのプログラム。 - コンピューターを、請求項2または3に記載の識別装置
として機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012250151A JP6151908B2 (ja) | 2012-11-14 | 2012-11-14 | 学習装置、識別装置、およびそのプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012250151A JP6151908B2 (ja) | 2012-11-14 | 2012-11-14 | 学習装置、識別装置、およびそのプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014099027A JP2014099027A (ja) | 2014-05-29 |
JP6151908B2 true JP6151908B2 (ja) | 2017-06-21 |
Family
ID=50940998
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012250151A Expired - Fee Related JP6151908B2 (ja) | 2012-11-14 | 2012-11-14 | 学習装置、識別装置、およびそのプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6151908B2 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6873600B2 (ja) * | 2016-03-04 | 2021-05-19 | キヤノン株式会社 | 画像認識装置、画像認識方法及びプログラム |
KR102082129B1 (ko) * | 2018-12-26 | 2020-02-27 | 상명대학교산학협력단 | 영상 인식 기반 동물 특이 종 인식 장치 및 방법 |
JP7453828B2 (ja) * | 2020-03-26 | 2024-03-21 | Go株式会社 | プログラム、ニューラルネットワークシステム、情報処理方法およびニューラルネットワークモデルの生成方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011013732A (ja) * | 2009-06-30 | 2011-01-20 | Sony Corp | 情報処理装置、情報処理方法、およびプログラム |
JP5707570B2 (ja) * | 2010-03-16 | 2015-04-30 | パナソニックIpマネジメント株式会社 | 物体識別装置、物体識別方法、及び、物体識別装置の学習方法 |
JP5201184B2 (ja) * | 2010-08-24 | 2013-06-05 | 株式会社豊田中央研究所 | 画像処理装置及びプログラム |
JP5901054B2 (ja) * | 2011-12-02 | 2016-04-06 | 国立大学法人九州工業大学 | 物体の検出方法及びその方法を用いた物体の検出装置 |
-
2012
- 2012-11-14 JP JP2012250151A patent/JP6151908B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2014099027A (ja) | 2014-05-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Dalla Mura et al. | Classification of hyperspectral images by using extended morphological attribute profiles and independent component analysis | |
CN107346409B (zh) | 行人再识别方法和装置 | |
EP3101594A1 (en) | Saliency information acquisition device and saliency information acquisition method | |
Xiaofeng et al. | Discriminatively trained sparse code gradients for contour detection | |
US9489566B2 (en) | Image recognition apparatus and image recognition method for identifying object | |
CN103456013B (zh) | 一种表示超像素以及度量超像素之间相似性的方法 | |
US9025882B2 (en) | Information processing apparatus and method of processing information, storage medium and program | |
Manfredi et al. | A complete system for garment segmentation and color classification | |
JP6393230B2 (ja) | オブジェクト検出方法及び画像検索システム | |
JP4098021B2 (ja) | シーン識別方法および装置ならびにプログラム | |
CN114444565B (zh) | 一种图像篡改检测方法、终端设备及存储介质 | |
CN102855478A (zh) | 图像中文本区域定位方法和装置 | |
CN103995864B (zh) | 一种图像检索方法和装置 | |
JP6151908B2 (ja) | 学習装置、識別装置、およびそのプログラム | |
Mairon et al. | A closer look at context: From coxels to the contextual emergence of object saliency | |
CN109741380B (zh) | 纺织品图片快速匹配方法和装置 | |
CN109657083B (zh) | 纺织品图片特征库的建立方法和装置 | |
CN109784379B (zh) | 纺织品图片特征库的更新方法和装置 | |
CN107368832A (zh) | 基于图像的目标检测及分类方法 | |
CN113963295A (zh) | 视频片段中地标识别方法、装置、设备及存储介质 | |
CN106056575B (zh) | 一种基于似物性推荐算法的图像匹配方法 | |
CN103679174A (zh) | 一种形状描述子的生成方法、装置 | |
JP2016081472A (ja) | 画像処理装置、画像処理方法及びプログラム | |
CN108230409A (zh) | 基于颜色和内容多因素综合的图像相似性定量分析方法 | |
JP4612477B2 (ja) | パターン認識装置、パターン認識方法、パターン認識プログラム、及びパターン認識プログラムの記録媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20151001 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20161017 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20161101 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161222 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20170124 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170418 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20170426 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170523 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170526 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6151908 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |