JP2013058162A - Feature quantity extraction device, target object detection system, computer program, and feature quantity extraction method - Google Patents
Feature quantity extraction device, target object detection system, computer program, and feature quantity extraction method Download PDFInfo
- Publication number
- JP2013058162A JP2013058162A JP2011197433A JP2011197433A JP2013058162A JP 2013058162 A JP2013058162 A JP 2013058162A JP 2011197433 A JP2011197433 A JP 2011197433A JP 2011197433 A JP2011197433 A JP 2011197433A JP 2013058162 A JP2013058162 A JP 2013058162A
- Authority
- JP
- Japan
- Prior art keywords
- feature quantity
- feature
- feature amount
- sample
- discriminator
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Burglar Alarm Systems (AREA)
- Image Analysis (AREA)
- Investigating Or Analysing Materials By Optical Means (AREA)
- Image Processing (AREA)
Abstract
Description
本発明は、画素のスペクトル情報を含む画像データに基づいて対象物を識別するための特徴量を抽出する特徴量抽出装置、該特徴量抽出装置を備える対象物検出システム、該特徴量抽出装置を実現するためのコンピュータプログラム及び特徴量抽出方法に関する。 The present invention relates to a feature amount extraction device for extracting a feature amount for identifying an object based on image data including spectral information of pixels, an object detection system including the feature amount extraction device, and the feature amount extraction device. The present invention relates to a computer program and a feature amount extraction method for realizing it.
食品検査又は生体検査などの各種検査で用いられる技術の一つとして、近年、近赤外光のスペクトル情報を利用した分析技術が注目されている。近赤外光は可視光域に近い波長を有し、分析対象物に対して非破壊・非侵襲な組成分析を可能にすることから、食品、医療、工業などの様々な分野で近赤外光を応用したオブジェクト検知システムの研究がなされている(例えば、非特許文献1参照)。 As one of the techniques used in various inspections such as food inspection and biological inspection, in recent years, an analysis technique using near-infrared spectrum information has attracted attention. Near-infrared light has a wavelength close to the visible light range and enables non-destructive and non-invasive compositional analysis of analytes, so it is possible to use near-infrared light in various fields such as food, medicine, and industry. Research on an object detection system using light has been made (for example, see Non-Patent Document 1).
一方、近赤外スペクトル情報を分析する技術としては、多変量解析、あるいはデータマイニングなどのパターン認識技術が用いられることが多い。これらの手法は、大量のサンプルデータの学習を通して、対象物に対する識別基準又は検量線を生成するものである。 On the other hand, pattern recognition techniques such as multivariate analysis or data mining are often used as techniques for analyzing near-infrared spectrum information. These methods generate an identification standard or a calibration curve for an object through learning of a large amount of sample data.
また、近赤外スペクトル情報の表現方法の一つとして、近赤外マルチスペクトル画像(以下、「NIRMS画像」とも称する)がある。NIRMS画像は、画素毎に複数波長の近赤外スペクトル情報(強度あるいは吸光度など)を含む画像であり、NIRMS画像を用いることにより、物体が有する組成情報に基づいて画像処理技術を応用した分析を行うことができる。 One of the methods for expressing near-infrared spectrum information is a near-infrared multispectral image (hereinafter also referred to as “NIRMS image”). An NIRMS image is an image that includes near-infrared spectrum information (intensity or absorbance, etc.) of a plurality of wavelengths for each pixel. By using an NIRMS image, an analysis applying an image processing technique based on composition information of an object is performed. It can be carried out.
高性能なオブジェクト検知システムを実現するためには、オブジェクト(対象物)と非オブジェクト(非対象物)との間の本質的な違いが表れる特徴量を的確に抽出することが重要である。利用する特徴量が不十分である場合、識別に必要な情報が不足することになり、所望の識別精度を得ることができない。一方で、必要以上に多数の特徴量を利用した場合には、識別処理の計算量を増加させるだけでなく、学習サンプルへの過適合による識別器の精度低下を招くおそれもある。そして、対象物の識別に有意な特徴量を過不足なく的確に抽出するためには、対象物に対する専門的な知識、あるいは大量の地道な分析作業を必要とした。このことは、精度の高いオブジェクト検知システムの構築が容易ではないことを示している。 In order to realize a high-performance object detection system, it is important to accurately extract a feature amount that shows an essential difference between an object (object) and a non-object (non-object). When the feature amount to be used is insufficient, information necessary for identification is insufficient, and a desired identification accuracy cannot be obtained. On the other hand, when an unnecessarily large number of feature quantities are used, not only the calculation amount of the identification process is increased, but also the accuracy of the classifier may be reduced due to overfitting to the learning sample. And, in order to accurately extract characteristic quantities that are significant for the identification of the object without any excess or deficiency, specialized knowledge on the object or a large amount of steady analysis work is required. This indicates that it is not easy to construct a highly accurate object detection system.
本発明は、斯かる事情に鑑みてなされたものであり、対象物(オブジェクト)と非対象物(非オブジェクト)との間の本質的な違いが表れる特徴量を的確に抽出することができる特徴量抽出装置、該特徴量抽出装置を備える対象物検出システム、該特徴量抽出装置を実現するためのコンピュータプログラム及び特徴量抽出方法を提供することを目的とする。 The present invention has been made in view of such circumstances, and is capable of accurately extracting a feature amount that shows an essential difference between an object (object) and a non-object (non-object). It is an object of the present invention to provide a quantity extraction device, an object detection system including the feature quantity extraction device, a computer program for realizing the feature quantity extraction device, and a feature quantity extraction method.
第1発明に係る特徴量抽出装置は、複数画素からなる画像に含まれる画素毎に複数波長のスペクトル情報を含む画像データに基づいて対象物を識別するための特徴量を抽出する特徴量抽出装置において、対象物及び非対象物を撮像した画像から抽出した複数のサンプル画素から、各サンプル画素の任意の複数の波長でのスペクトル強度の変位に関連する特徴量候補を複数決定する決定手段と、該決定手段で決定した特徴量候補の中の一部の特徴量候補毎にブースティングを用いて対象物及び非対象物を識別するための識別器を生成する生成手段と、前記識別器を生成するために用いた特徴量候補を特徴量として抽出する抽出手段とを備えることを特徴とする。 A feature amount extraction apparatus according to a first aspect of the present invention extracts a feature amount for identifying an object based on image data including spectrum information of a plurality of wavelengths for each pixel included in an image composed of a plurality of pixels. Determining means for determining a plurality of feature amount candidates related to the displacement of the spectrum intensity at any of a plurality of wavelengths of each sample pixel from a plurality of sample pixels extracted from an image obtained by imaging the object and the non-object; Generating means for generating a discriminator for discriminating an object and a non-object using boosting for each of some of the feature quantity candidates determined by the determining means, and generating the discriminator And extracting means for extracting the feature quantity candidates used for the process as feature quantities.
第2発明に係る特徴量抽出装置は、第1発明において、前記決定手段は、近赤外波長の範囲でスペクトル強度の変位に関連する特徴量候補を決定するように構成してあることを特徴とする。 The feature amount extraction apparatus according to a second aspect is characterized in that, in the first aspect, the determining means is configured to determine a feature amount candidate related to a change in spectral intensity in a near-infrared wavelength range. And
第3発明に係る特徴量抽出装置は、第1発明又は第2発明において、各サンプル画素に任意の数値を付与する付与手段を備え、前記生成手段は、対象物又は非対象物であると正しく識別したサンプル画素の数値の合計が最大となるように識別器を生成するように構成してあることを特徴とする。 According to a third aspect of the present invention, in the first or second aspect of the invention, the feature amount extraction apparatus further includes a provision unit that imparts an arbitrary numerical value to each sample pixel, and the generation unit is correct when the target unit or the non-target unit. The discriminator is generated so that the sum of the numerical values of the identified sample pixels is maximized.
第4発明に係る特徴量抽出装置は、第3発明において、前記付与手段は、一の特徴量候補に対して前記生成手段が生成した識別器で対象物又は非対象物であると誤って識別したサンプル画素の数値を大きくするようにしてあり、前記生成手段は、次の特徴量候補に対して識別器を生成する場合、数値を大きくしたサンプル画素を用いて識別器を生成するように構成してあることを特徴とする。 In the feature amount extraction apparatus according to a fourth aspect of the present invention, in the third aspect of the invention, the assigning unit mistakenly identifies the target or candidate non-target by the classifier generated by the generation unit for one feature amount candidate. The numerical value of the sampled pixel is increased, and the generating means is configured to generate a discriminator using the sample pixel whose numerical value is increased when generating a discriminator for the next feature quantity candidate. It is characterized by being.
第5発明に係る対象物検出システムは、前述の発明のいずれか1つに係る特徴量抽出装置と、該特徴量抽出装置で抽出した特徴量を特徴ベクトルとして用いたサポートベクターマシンを有する対象物検出装置とを備えることを特徴とする。 An object detection system according to a fifth aspect of the present invention is an object having a feature quantity extraction device according to any one of the aforementioned inventions and a support vector machine using the feature quantity extracted by the feature quantity extraction device as a feature vector. And a detection device.
第6発明に係る対象物検出システムは、前述の発明のいずれか1つに係る特徴量抽出装置と、該特徴量抽出装置で生成した識別器を弱識別器として結合した強識別器を有する対象物検出装置とを備えることを特徴とする。 An object detection system according to a sixth aspect of the present invention is an object having a feature classifier according to any one of the foregoing inventions, and a strong classifier that combines the classifier generated by the feature quantity extractor as a weak classifier. And an object detection device.
第7発明に係るコンピュータプログラムは、コンピュータに、複数画素からなる画像に含まれる画素毎に複数波長のスペクトル情報を含む画像データに基づいて対象物を識別するための特徴量を抽出させるためのコンピュータプログラムにおいて、コンピュータに、対象物及び非対象物を撮像した画像から抽出した複数のサンプル画素から、各サンプル画素の任意の複数の波長でのスペクトル強度の変位に関連する特徴量候補を複数決定するステップと、決定した特徴量候補の中の一部の特徴量候補毎にブースティングを用いて対象物及び非対象物を識別するための識別器を生成するステップと、前記識別器を生成するために用いた特徴量候補を特徴量として抽出するステップとを実行させることを特徴とする。 A computer program according to a seventh aspect of the present invention is a computer for causing a computer to extract a feature amount for identifying an object based on image data including spectral information of a plurality of wavelengths for each pixel included in an image composed of a plurality of pixels. In the program, the computer determines a plurality of feature quantity candidates related to the displacement of the spectrum intensity at a plurality of arbitrary wavelengths of each sample pixel from a plurality of sample pixels extracted from images obtained by imaging the object and the non-object. Generating a discriminator for identifying an object and a non-object using boosting for each of some of the feature quantity candidates in the determined feature quantity candidates; and generating the discriminator And a step of extracting the feature quantity candidates used in the above as feature quantities.
第8発明に係る特徴量抽出方法は、複数画素からなる画像に含まれる画素毎に複数波長のスペクトル情報を含む画像データに基づいて対象物を識別するための特徴量を抽出する特徴量抽出装置による特徴量抽出方法おいて、対象物及び非対象物を撮像した画像から抽出した複数のサンプル画素から、各サンプル画素の任意の複数の波長でのスペクトル強度の変位に関連する特徴量候補を複数決定するステップと、決定された特徴量候補の中の一部の特徴量候補毎にブースティングを用いて対象物及び非対象物を識別するための識別器を生成するステップと、前記識別器を生成するために用いた特徴量候補を特徴量として抽出するステップとを含むことを特徴とする。 A feature amount extraction method according to an eighth aspect of the present invention is a feature amount extraction apparatus that extracts a feature amount for identifying an object based on image data including spectrum information of a plurality of wavelengths for each pixel included in an image composed of a plurality of pixels. In the feature amount extraction method according to the above, a plurality of feature amount candidates related to the displacement of the spectrum intensity at any of a plurality of wavelengths of each sample pixel from a plurality of sample pixels extracted from images obtained by capturing an object and a non-object A step of determining, a step of generating a discriminator for discriminating an object and a non-object using boosting for each part of the feature amount candidates in the determined feature amount candidates, and And a step of extracting the feature amount candidates used for generation as feature amounts.
第1発明、第7発明及び第8発明にあっては、決定手段は、対象物(オブジェクト)及び非対象物(非オブジェクト)を撮像した画像から抽出した複数のサンプル画素から、各サンプル画素の任意の複数の波長でのスペクトル強度の変位に関連する特徴量候補を複数決定する。画像は、画素毎に複数波長のスペクトル強度を示すスペクトル情報を含む。なお、強度の代わりに吸光度でもよい。特徴量候補は、例えば、任意のサンプル画素の2つの異なる波長λ1、λ2でのスペクトル強度をP(λ1)、P(λ2)とすると、特徴量候補x1をスペクトル強度の差として、x1=P(λ1)−P(λ2)とすることができる。例えば、異なる波長がλ1、λ2、…、λ256のように256個に区分されている場合、256個の中から2個選び出す組み合わせは、32640通り存在するので、特徴量候補は、各サンプル画素について32640個存在する。なお、決定する特徴量候補は、存在する特徴量候補をすべて含めてもよく、あるいは対象物に応じて、一部の特徴量候補を決定することもできる。 In the first invention, the seventh invention, and the eighth invention, the determining means is configured to determine each sample pixel from a plurality of sample pixels extracted from an image obtained by imaging the object (object) and the non-object (non-object). A plurality of feature amount candidates related to the displacement of the spectral intensity at a plurality of arbitrary wavelengths are determined. The image includes spectral information indicating spectral intensities of a plurality of wavelengths for each pixel. Absorbance may be used instead of intensity. For example, if the spectral intensities at two different wavelengths λ1 and λ2 of an arbitrary sample pixel are P (λ1) and P (λ2), the feature amount candidate is x1 = P (Λ1) −P (λ2). For example, when different wavelengths are divided into 256 such as λ1, λ2,..., Λ256, there are 32640 combinations of selecting two from 256, and therefore feature quantity candidates are for each sample pixel. There are 32640 pieces. The feature quantity candidates to be determined may include all existing feature quantity candidates, or some feature quantity candidates may be determined according to the object.
生成手段は、決定した特徴量候補の中の一部の特徴量候補毎にブースティングを用いて対象物及び非対象物を識別するための識別器を生成し、抽出手段は、当該識別器を生成するために用いた特徴量候補を特徴量として抽出する。ブースティングとは、例えば、2種類の対象(オブジェクト及び非オブジェクト)のサンプル学習を通じて、オブジェクト及び非オブジェクトを区別する識別器を生成する手法の一つである。決定した特徴量候補の中から一の特徴量候補を選択し、予めオブジェクトであるか非オブジェクトであるかが判明しているサンプル画素を識別する識別器(サンプル画素を区別するための境界)を構成し、その中で最も正しく識別することができた識別器(サンプル画素を区別するための境界)を生成する。他の特徴量候補についても同様に識別器を生成する。そして、識別器を生成したときの特徴量候補を特徴量として抽出する。 The generating means generates a discriminator for discriminating the object and the non-object using boosting for each of some of the feature quantity candidates determined, and the extracting means The feature quantity candidates used for generation are extracted as feature quantities. Boosting is one method for generating a discriminator that distinguishes between an object and a non-object through, for example, sample learning of two types of objects (object and non-object). One feature amount candidate is selected from the determined feature amount candidates, and a discriminator (a boundary for distinguishing the sample pixels) for identifying a sample pixel that is previously known to be an object or a non-object A classifier (a boundary for distinguishing sample pixels) that can be configured and identified most correctly is generated. A discriminator is similarly generated for other feature quantity candidates. Then, the feature quantity candidate when the discriminator is generated is extracted as a feature quantity.
サンプル学習の過程で識別器を生成した際に用いた特徴量候補を特徴量として抽出することにより、オブジェクトと非オブジェクトとを識別することができる特徴量、すなわちオブジェクトと非オブジェクトとの間の本質的な違いが表れる特徴量を、決定された多数の特徴量候補の中から的確に抽出することができる。 By extracting the feature quantity candidates used when generating the classifier in the sample learning process as feature quantities, the feature quantities that can distinguish between objects and non-objects, that is, the essence between objects and non-objects It is possible to accurately extract a feature quantity in which a specific difference appears from a large number of determined feature quantity candidates.
第2発明にあっては、決定手段は、近赤外波長の範囲でスペクトル強度の変位に関連する特徴量候補を決定する。例えば、近赤外に対して感度を有するカメラでオブジェクト及び非オブジェクトを撮像して得られた近赤外マルチスペクトル画像(NIRMS画像)から、予めオブジェクト及び非オブジェクトが判明しているサンプル画素を収集する。そして、収集したサンプル画素から特徴量候補を決定する。近赤外光のスペクトル情報を利用した分析対象の解析(例えば、オブジェクトと非オブジェクトとの識別)の場合、分析対象によってはスペクトル強度の分布が複雑な形状となり、多変量解析又はデータマイニングなどの認識技術を用いる場合、従来であれば試行錯誤で特徴量を抽出する必要があった。波長分布が複雑な場合でも、多数の特徴量候補の中からオブジェクトと非オブジェクトとの識別に最適な特徴量を過不足なく抽出することができ、識別に必要な情報が不足することを防止することができるとともに、必要以上に多数の特徴量を利用する事態も防止することができる。 In the second invention, the determining means determines a feature amount candidate related to the displacement of the spectral intensity in the near infrared wavelength range. For example, sample pixels in which objects and non-objects are known in advance are collected from near-infrared multispectral images (NIRMS images) obtained by imaging objects and non-objects with a camera that has sensitivity to the near infrared. To do. Then, feature amount candidates are determined from the collected sample pixels. In the case of analysis of an analysis object using near infrared light spectrum information (for example, discrimination between an object and a non-object), the spectrum intensity distribution becomes a complicated shape depending on the analysis object, such as multivariate analysis or data mining. When the recognition technique is used, conventionally, it has been necessary to extract the feature amount by trial and error. Even when the wavelength distribution is complex, it is possible to extract optimal feature quantities for identifying objects and non-objects from a large number of feature quantity candidates without any shortage of information necessary for identification. In addition, it is possible to prevent a situation in which a larger number of features are used than necessary.
第3発明にあっては、付与手段は、各サンプル画素に任意の数値(係数、重み付け等)を付与し、生成手段は、対象物又は非対象物であると正しく識別したサンプル画素の数値の合計が最大となるように識別器を生成する。これにより、サンプル画素を最も正しく識別することができる識別器(特徴量候補での境界)を生成することができる。 In the third invention, the assigning means assigns an arbitrary numerical value (coefficient, weight, etc.) to each sample pixel, and the generating means sets the numerical value of the sample pixel correctly identified as an object or non-object. The discriminator is generated so that the sum is maximized. As a result, it is possible to generate a discriminator (boundary at a feature amount candidate) that can most accurately identify the sample pixel.
第4発明にあっては、付与手段は、一の特徴量候補に対して生成手段が生成した識別器で対象物又は非対象物であると誤って識別したサンプル画素の数値を大きくする。生成手段は、次の特徴量候補に対して識別器を生成する場合、数値を大きくしたサンプル画素を用いて識別器を生成する。ある特徴量候補に対する識別器を生成する場合に、当該識別器で識別した結果、誤って識別されたサンプル画素の数値を大きくして、次の特徴量候補に対して識別器を生成するので、例えば、t番目に生成した識別器で正しく認識することができなかったサンプル画素が、次のt+1番目の識別器を生成する際に、数値が大きいことから重点的に学習されることになり、オブジェクトと非オブジェクトの識別に有意かつスペクトル強度の分布が相違する特徴量の組み合わせを可能な限り少なくすることができ、対象分析に必要な特徴量を過不足なく、かつ自動的に抽出することができる。 In the fourth invention, the assigning means increases the numerical value of the sample pixel that is erroneously identified as an object or non-object by the classifier generated by the generating means for one feature quantity candidate. When generating the discriminator for the next feature quantity candidate, the generating unit generates the discriminator using the sample pixel having a larger numerical value. When generating a discriminator for a certain feature quantity candidate, the discriminator is generated for the next feature quantity candidate by increasing the numerical value of the erroneously identified sample pixel as a result of discrimination by the discriminator. For example, a sample pixel that could not be correctly recognized by the classifier generated at the t-th time will be intensively learned because the numerical value is large when the next t + 1-th classifier is generated, It is possible to reduce the number of combinations of features that are significant for identifying objects and non-objects and have different spectral intensity distributions as much as possible, and automatically extract the features required for target analysis without excess or deficiency. it can.
第5発明にあっては、特徴量抽出装置と、当該特徴量抽出装置で抽出した特徴量を特徴ベクトルとして用いたサポートベクターマシンを有する対象物検出装置とを備える。これにより、オブジェクトと非オブジェクトとの識別を高精度に行うことができ、従来であれば分析対象に対する専門的知識の習得、あるいは分析作業に多大な労力を必要としていたのに対し、分析作業の簡素化、分析対象の拡大を行うことができる。 The fifth aspect of the invention includes a feature quantity extraction device and an object detection device having a support vector machine using the feature quantity extracted by the feature quantity extraction device as a feature vector. This makes it possible to discriminate between objects and non-objects with high accuracy, and in the past, acquisition of specialized knowledge for analysis objects or analysis work, which required much labor, Simplification and analysis can be expanded.
第6発明にあっては、特徴量抽出装置と、当該特徴量抽出装置で生成した識別器を弱識別器として結合した強識別器を有する対象物検出装置とを備える。これにより、オブジェクトと非オブジェクトとの識別を高精度に行うことができ、従来であれば分析対象に対する専門的知識の習得、あるいは分析作業に多大な労力を必要としていたのに対し、分析作業の簡素化、分析対象の拡大を行うことができる。 In a sixth aspect of the invention, the apparatus includes a feature quantity extraction device and an object detection device having a strong classifier in which a classifier generated by the feature quantity extraction device is combined as a weak classifier. This makes it possible to discriminate between objects and non-objects with high accuracy, and in the past, acquisition of specialized knowledge for analysis objects or analysis work, which required much labor, Simplification and analysis can be expanded.
本発明によれば、オブジェクトと非オブジェクトとの間の本質的な違いが表れる特徴量を、決定された多数の特徴量候補の中から的確に抽出することができる。 According to the present invention, it is possible to accurately extract a feature quantity that shows an essential difference between an object and a non-object from among a large number of determined feature quantity candidates.
以下、本発明をその実施の形態を示す図面に基づいて説明する。図1は本実施の形態の対象物検出システム1の構成の一例を示すブロック図である。本実施の形態の対象物検出システム1は、特徴量抽出装置10、対象物検出装置20などを備える。なお、対象物検出システム1は、NIRMS画像(近赤外マルチスペクトル画像)取得部2を備える構成でもよく、具備しない構成でもよい。
Hereinafter, the present invention will be described with reference to the drawings illustrating embodiments thereof. FIG. 1 is a block diagram illustrating an example of a configuration of an
NIRMS画像取得部2は、例えば、近赤外に対して感度を有するカメラである。NIRMS画像は、画像を構成する画素毎に、複数波長に対するスペクトル情報(例えば、強度、吸光度など)を有する。
The NIRMS
図2はNIRMS画像の一例を示す模式図である。図2に示すように、NIRMS画像は、各画素の中に、特定の波長範囲内で離散的にプロットされたスペクトル情報(例えば、強度、吸光度など)が記録されたものである。 FIG. 2 is a schematic diagram showing an example of a NIRMS image. As shown in FIG. 2, the NIRMS image is obtained by recording spectral information (for example, intensity, absorbance, etc.) discretely plotted within a specific wavelength range in each pixel.
本実施の形態において、対象物(オブジェクトとも称する)は、食品検査又は生体検査などの各種検査において、検出(検知)する対象であり、非対象物(非オブジェクトとも称する)は、対象物以外のものであって、対象物とは区別(識別)されるものである。 In this embodiment, an object (also referred to as an object) is an object to be detected (detected) in various inspections such as food inspection or biological inspection, and a non-object (also referred to as a non-object) is other than the object. And is distinguished (identified) from the object.
NIRMS画像取得部2は、学習処理においては、予めオブジェクト及び非オブジェクトが判明している撮像対象を撮像し、学習サンプルとしてのNIRMS画像を生成し、生成したNIRMS画像を特徴量抽出装置10へ出力する。学習処理は、オフラインで行うことができる。
In the learning process, the NIRMS
また、NIRMS画像取得部2は、検出処理においては、被検査対象を撮像してNIRMS画像を生成し、生成したNIRMS画像を対象物検出装置20へ出力する。検出処理はオンラインで行う。
In the detection process, the NIRMS
次に、学習処理に係る構成について説明する。図1に示すように、本実施の形態の特徴量抽出装置10は、サンプル画素収集部101、特徴量候補決定部102、識別器生成部103、係数付与部104、特徴量抽出部105などを備える。
Next, a configuration related to the learning process will be described. As shown in FIG. 1, the feature
サンプル画素収集部101は、NIRMS画像の中から、学習処理(特徴量の抽出処理を含む)に用いるサンプル画素を収集する。例えば、オブジェクト(対象物)のサンプル画素、非オブジェクト(非対象物)のサンプル画素を合計N個収集する。
The sample
特徴量候補決定部102は、各サンプル画素の任意の複数の波長でのスペクトル強度の変位に関連する特徴量候補を複数決定する決定手段としての機能を有する。なお、スペクトル強度に代えて、吸光度のスペクトルでもよい。
The feature amount
図3は特徴量候補の一例を示す模式図である。図3において、横軸は波長を示し、縦軸はスペクトル強度を示す。図3のグラフは、NIRMS画像の中の任意のサンプル画素(例えば、オブジェクトの画素でもよく、非オブジェクトの画素でもよい)の波長毎のスペクトル強度を示す。特徴量候補は、例えば、2つの異なる波長λ1、λ2でのスペクトル強度をP(λ1)、P(λ2)とすると、特徴量候補x1をスペクトル強度の差として、x1=P(λ1)−P(λ2)とすることができる。 FIG. 3 is a schematic diagram illustrating an example of feature quantity candidates. In FIG. 3, the horizontal axis indicates the wavelength, and the vertical axis indicates the spectral intensity. The graph of FIG. 3 shows the spectral intensity for each wavelength of any sample pixel (eg, object pixel or non-object pixel) in the NIRMS image. For example, assuming that the spectrum intensity at two different wavelengths λ1 and λ2 is P (λ1) and P (λ2), the feature quantity candidate is x1 = P (λ1) −P (Λ2).
例えば、異なる波長がλ1、λ2、…、λ256のように256個に区分されている場合、256個の中から2個選び出す組み合わせMは、M=32640通り存在するので、特徴量候補は、各サンプル画素について32640個存在する。したがって、特徴量候補は、それぞれのサンプル画素毎に、M次元ベクトルX=(x1、x2、…xM)で表すことができる。なお、決定する特徴量候補は、存在する特徴量候補をすべて含めてもよく(上述の例ではM個の特徴量)、あるいは対象物に応じて、一部の特徴量候補(M個の一部)を決定することもできる。 For example, when different wavelengths are divided into 256 such as λ1, λ2,..., Λ256, there are M = 32640 combinations M of which two are selected from 256, and each of the feature quantity candidates is There are 32640 sample pixels. Therefore, the feature quantity candidate can be represented by an M-dimensional vector X = (x1, x2,... XM) for each sample pixel. Note that the feature quantity candidates to be determined may include all existing feature quantity candidates (M feature quantities in the above example), or some feature quantity candidates (M pieces of feature quantities) depending on the object. Part) can also be determined.
図4は特徴量候補の他の例を示す模式図である。図3の例では、任意の複数の波長でのスペクトル強度の変位に関連する特徴量候補として、2つの異なる波長でのスペクトル強度の差分を特徴量候補としたが、特徴量候補は、図3の例に限定されるものではない。 FIG. 4 is a schematic diagram showing another example of feature quantity candidates. In the example of FIG. 3, the difference between the spectral intensities at two different wavelengths is used as the feature quantity candidate as the feature quantity candidate related to the displacement of the spectrum intensity at any of a plurality of wavelengths. It is not limited to the example.
図4において、横軸は波長を示し、縦軸はスペクトル強度を示す。図4に示すように、異なる波長として、λ1、λ2、λ3の3つの波長に注目し、それぞれの波長でのスペクトル強度をP1、P2、P3とすると、特徴量候補xとして、x=(P3−P2)−(P2−P1)=P3−2×P2+P1を用いる。図4に例示する特徴量候補は、スペクトル強度の分布において、強度の極大点(又は極小点)近傍の強度の変化の度合い(曲線上の曲り具合)を特徴として捉えるものである。なお、以下の説明では、図3に例示の特徴量候補を採用する。 In FIG. 4, the horizontal axis indicates the wavelength, and the vertical axis indicates the spectral intensity. As shown in FIG. 4, when attention is paid to three wavelengths λ1, λ2, and λ3 as different wavelengths, and spectrum intensities at the respective wavelengths are P1, P2, and P3, x = (P3 −P2) − (P2−P1) = P3−2 × P2 + P1 is used. The feature quantity candidates illustrated in FIG. 4 capture the degree of intensity change (the degree of curve on the curve) in the vicinity of the maximum point (or minimum point) of the intensity in the spectrum intensity distribution as a feature. In the following description, the feature quantity candidates illustrated in FIG. 3 are employed.
識別器生成部103は、決定した特徴量候補の中の一部の特徴量候補毎にブースティングを用いて対象物及び非対象物を識別するための識別器を生成する生成手段としての機能を有する。ブースティングとは、例えば、2種類の対象(オブジェクト及び非オブジェクト)のサンプル学習を通じて、オブジェクト及び非オブジェクトを区別する識別器を生成する手法の一つである。なお、ブースティングには、例えば、AdaBoost、Real-AdaBoost、LogitBoost、Gentle-AdaBoostなどを用いることができる。
The
図5は識別器の生成の一例を示す模式図である。上述の例では、決定された特徴量候補は、x1、x2、…、xM(M=32640)で表すことができ、M次元ベクトルとして表現することができる。図5は、M次元の空間の代わりに、便宜上、xi及びxjの2つの特徴量候補で表される2次元空間を表したものである。N個のサンプル画素は、この2次元空間(実際にはM次元空間)に存在する。なお、サンプル画素のうち、符号Oで示すサンプル画素は、対象物(オブジェクト)の画素であり、符号×で示すサンプル画素は、非対象物(非オブジェクト)の画素であるとする。 FIG. 5 is a schematic diagram illustrating an example of generation of a classifier. In the above example, the determined feature amount candidates can be represented by x1, x2,..., XM (M = 32640), and can be represented as an M-dimensional vector. FIG. 5 shows a two-dimensional space represented by two feature quantity candidates xi and xj for convenience, instead of the M-dimensional space. N sample pixels exist in this two-dimensional space (actually an M-dimensional space). Of the sample pixels, a sample pixel indicated by a symbol O is a pixel of an object (object), and a sample pixel indicated by a symbol x is a pixel of a non-object (non-object).
識別器生成部103は、決定されたM個の特徴量候補の中から、任意の一の特徴量候補(例えば、xiとする)を選択し、予めオブジェクトであるか非オブジェクトであるかが判明しているサンプル画素を識別する識別器(サンプル画素を区別するための境界)を構成し、その中で最も正しく識別することができた識別器(サンプル画素を区別するための境界)htを生成する。
The
すなわち、図5に示すように、M次元空間(図5の例では簡略化のため2次元空間で表す)での各サンプルを特徴量候補xi(M次元空間の1つの軸に相当)へ写像し、特徴量候補xi(軸xi)上で、正しく識別することができたサンプル画素の数が最大となるときの軸xi上での境界を識別器htとして生成する。 That is, as shown in FIG. 5, each sample in the M-dimensional space (represented in the two-dimensional space for simplification in the example of FIG. 5) is mapped to the feature quantity candidate xi (corresponding to one axis in the M-dimensional space). Then, a boundary on the axis xi when the number of sample pixels that can be correctly identified on the feature quantity candidate xi (axis xi) is maximized is generated as a discriminator ht.
特徴量抽出部105は、識別器を生成するために用いた特徴量候補を特徴量として抽出する抽出手段としての機能を有する。図5の例では、特徴量抽出部105は、識別器Htを生成したときに用いた特徴量候補xiを特徴量として抽出する。
The feature
識別器生成部103は、他の特徴量候補についても同様に識別器を生成し、特徴量抽出部105は、識別器が生成されるときに用いた特徴量候補を特徴量として抽出する。なお、生成される識別器の数Tは、例えば、10〜100程度であるので、抽出する特徴量の数は、決定された特徴量候補の数Mに比べて極めて少なくすることができる。
The
サンプル学習の過程で識別器を生成した際に用いた特徴量候補を特徴量として抽出することにより、オブジェクトと非オブジェクトとを識別することができる特徴量、すなわちオブジェクトと非オブジェクトとの間の本質的な違いが表れる特徴量を、決定された多数の特徴量候補の中から的確に抽出することができる。 By extracting the feature quantity candidates used when generating the classifier in the sample learning process as feature quantities, the feature quantities that can distinguish between objects and non-objects, that is, the essence between objects and non-objects It is possible to accurately extract a feature quantity in which a specific difference appears from a large number of determined feature quantity candidates.
本実施の形態では、NIRMS画像を取得し、予めオブジェクト及び非オブジェクトが判明しているサンプル画素を収集する。そして、収集したサンプル画素から、近赤外波長の範囲でスペクトル強度の変位に関連する特徴量候補を決定する。近赤外光のスペクトル情報を利用した分析対象の解析(例えば、オブジェクトと非オブジェクトとの識別)の場合、分析対象によってはスペクトル強度の分布が複雑な形状となり、多変量解析又はデータマイニングなどの認識技術を用いる場合、従来であれば試行錯誤で特徴量を抽出する必要があった。本実施の形態では、波長分布が複雑な場合でも、多数の特徴量候補の中からオブジェクトと非オブジェクトとの識別に最適な特徴量を過不足なく抽出することができ、識別に必要な情報が不足することを防止することができるとともに、必要以上に多数の特徴量を利用する事態も防止することができる。 In the present embodiment, a NIRMS image is acquired, and sample pixels whose objects and non-objects are known in advance are collected. Then, from the collected sample pixels, a feature amount candidate related to the spectral intensity displacement is determined in the near-infrared wavelength range. In the case of analysis of an analysis object using near infrared light spectrum information (for example, discrimination between an object and a non-object), the spectrum intensity distribution becomes a complicated shape depending on the analysis object, such as multivariate analysis or data mining. When the recognition technique is used, conventionally, it has been necessary to extract the feature amount by trial and error. In this embodiment, even when the wavelength distribution is complicated, it is possible to extract a feature quantity optimal for discrimination between an object and a non-object from a large number of feature quantity candidates, and information necessary for identification can be obtained. In addition to preventing the shortage, it is possible to prevent a situation in which more feature quantities are used than necessary.
一の特徴量候補に対して、識別器(境界)を生成する場合に、各サンプル画素に係数を付与することもできる。なお、本実施の形態では、係数とは、数値、重み付け数などを意味するものとする。係数付与部104は、各サンプル画素に任意の係数を付与する。そして、識別器生成部103は、オブジェクト又は非オブジェクトであると正しく識別したサンプル画素の係数の合計が最大となるように識別器を生成する。これにより、サンプル画素を最も正しく識別することができる識別器(特徴量候補での境界)を生成することができる。
When a classifier (boundary) is generated for one feature amount candidate, a coefficient can be given to each sample pixel. In the present embodiment, the coefficient means a numerical value, a weighting number, or the like. The
図6は識別器を生成する際のサンプル画素の係数の一例を示す模式図である。係数付与部104は、N個のサンプル画素(学習サンプル)に対して係数wi(i=1、2、…、N)を付与する。係数wiは、初期値としては、例えば、1/Nとすることができる。一の特徴量候補xiに対して識別器htを生成したとする。識別器htで正しく識別することができたサンプル画素に対しては、係数を小さくする。また、識別器htで誤って識別したサンプル画素に対しては、係数を大きくする。
FIG. 6 is a schematic diagram showing an example of coefficients of sample pixels when generating a discriminator. The
図6の例において、識別器(境界)htが、境界の右側で対象物(オブジェクト)であると正しく識別することができ、境界の左側で非対象物(非オブジェクト)であると正しく識別することができたとする。この場合、境界の右側の対象物のサンプル画素Oは正しく識別することができたので係数を小さくし、非対象物のサンプル画素×は誤って識別したので係数を大きくする。また、境界の左側の対象物のサンプル画素Oは誤って識別したので係数を大きくし、非対象物のサンプル画素×は正しく識別することができたので係数を小さくする。 In the example of FIG. 6, the discriminator (boundary) ht can be correctly identified as an object (object) on the right side of the boundary and correctly identified as a non-object (non-object) on the left side of the boundary. Suppose you can. In this case, since the sample pixel O of the object on the right side of the boundary can be correctly identified, the coefficient is decreased, and the sample pixel X of the non-object is erroneously identified, so that the coefficient is increased. In addition, since the sample pixel O of the object on the left side of the boundary is erroneously identified, the coefficient is increased, and since the sample pixel X of the non-object is correctly identified, the coefficient is decreased.
識別器生成部103は、次の特徴量候補に対して識別器を生成する場合、係数を大きく(又は小さく)したサンプル画素を用いて識別器を生成する。ある特徴量候補に対する識別器を生成する場合に、当該識別器で識別した結果、誤って識別されたサンプル画素の係数を大きくして、次の特徴量候補に対して識別器を生成するので、例えば、t番目に生成した識別器で正しく認識することができなかったサンプル画素が、次のt+1番目の識別器を生成する際に、係数が大きいことから重点的に学習されることになり、オブジェクトと非オブジェクトの識別に有意かつスペクトル強度の分布が相違する特徴量の組み合わせを可能な限り少なくすることができ、対象分析に必要な特徴量を過不足なく、かつ自動的に抽出することができる。
When generating a discriminator for the next feature quantity candidate, the
図7は本実施の形態の特徴量抽出装置10による特徴量抽出処理の手順を示すフローチャートである。特徴量抽出装置10(以下、「装置10」と称する)は、サンプル画素を取得し(S11)、サンプル画素に係数を設定(付与)する(S12)。なお、設定する係数は初期値(例えば、サンプル画素数をNとすると、1/N)である。
FIG. 7 is a flowchart showing a procedure of feature amount extraction processing by the feature
装置10は、反復回数Tを設定する(S13)。なお、反復回数Tは、最終的に抽出される特徴量の数となる。装置10は、例えば、M個の特徴量候補を決定し(S14)、決定した特徴量候補の中から一の特徴量候補を選択する(S15)。
The
装置10は、選択した特徴量候補に対してサンプル画素の学習を通じて識別器を構成し、その中で正しく識別したサンプル画素の係数の合計が最大となる識別器(特徴量候補でも境界)を生成する(S16)。
The
装置10は、生成した識別器で正しく識別したサンプル画素の係数を小さくし(S17)、生成した識別器で誤って識別したサンプル画素の係数を大きくする(S18)。装置10は、反復回数Tになったか否かを判定し(S19)、反復回数Tになっていない場合(S19でNO)、次の特徴量候補を選択し(S20)、ステップS16以降の処理を繰り返す。
The
反復回数Tになった場合(S19でYES)、装置10は、選択した特徴量候補を特徴量として抽出し(S21)、処理を終了する。本実施の形態の特徴量抽出処理により、大量(例えば、M=32640個)の特徴量候補の中からT個(例えば、10〜100程度)の特徴量を自動的に抽出することができ、かつ抽出したT個の特徴量は、オブジェクト(対象物)と非オブジェクト(非対象物)との間の本質的な違いが表れるものである。
When the number of iterations T is reached (YES in S19), the
本実施の形態の特徴量抽出装置10は、CPU、RAMなどを備えた汎用コンピュータを用いて実現することもできる。すなわち、図7に示すような処理手順を定めたコンピュータプログラムをCD、DVD、USBメモリ等のコンピュータプログラム記録媒体に記録しておき、当該コンピュータプログラムをコンピュータに備えられたRAMにロードし、コンピュータプログラムをCPUで実行することにより、コンピュータ上で特徴量抽出装置10を実現することができる。
The feature
次に、検出処理に係る構成について説明する。図1に示すように、本実施の形態の対象物検出装置20は、識別処理部201などを備える。識別処理部201は、特徴量抽出装置10で抽出した特徴量を特徴ベクトルとして用いたサポートベクターマシンを備える。例えば、抽出したT個の特徴量を有する特徴ベクトルZ=(xt1、xt2、…、xtT)で表されるT次元のベクトル空間で識別器F(Z)を構成し、F(Z)>0であれば、Zはオブジェクト(対象物)であり、F(Z)≦0であれば、Zは非オブジェクト(非対象物)であると判定することができる。なお、F(Z)は、例えば、W・Z+bと表すことができ、Wはベクトル空間での境界(識別器)を表すベクトルであり、W・Zはベクトルの内積である。また、bは適宜設定可能な定数である。
Next, a configuration related to the detection process will be described. As shown in FIG. 1, the
これにより、オブジェクトと非オブジェクトとの識別を高精度に行うことができ、従来であれば分析対象に対する専門的知識の習得、あるいは分析作業に多大な労力を必要としていたのに対し、分析作業の簡素化、分析対象の拡大を行うことができる。なお、識別器の構成手順としては、サポートベクターマシン(SVM)に代えて判別分析(LDA)などのパターン認識技術を用いることができる。 This makes it possible to discriminate between objects and non-objects with high accuracy, and in the past, acquisition of specialized knowledge for analysis objects or analysis work, which required much labor, Simplification and analysis can be expanded. As a configuration procedure of the discriminator, a pattern recognition technique such as discriminant analysis (LDA) can be used instead of the support vector machine (SVM).
また、識別処理部201は、SVM等に代えて、特徴量抽出装置10で生成した識別器を弱識別器として結合した強識別器を備えることもできる。例えば、特徴量抽出装置10で生成した識別器をh1、h2、…、hTとすると、強識別器Hは、H=h1+h2+…+hTとすることができる。なお、識別器hに所望の係数を乗算してもよい。
In addition, the
これにより、オブジェクトと非オブジェクトとの識別を高精度に行うことができ、従来であれば分析対象に対する専門的知識の習得、あるいは分析作業に多大な労力を必要としていたのに対し、分析作業の簡素化、分析対象の拡大を行うことができる。 This makes it possible to discriminate between objects and non-objects with high accuracy, and in the past, acquisition of specialized knowledge for analysis objects or analysis work, which required much labor, Simplification and analysis can be expanded.
次に、本実施の形態の対象物検出システムを食品加工ラインに混入した毛髪を異物(対象物、オブジェクト)として検出した検出結果について説明する。なお、以下の説明では、本実施の形態によるブースティングを用いて特徴量を抽出し、抽出した特徴量を用いた検出方式Aと、比較例として試行錯誤で(人の知見に基づいて)選択した特徴量を用いた検出方式Bについて説明する。 Next, the detection result which detected the hair which mixed the target object detection system of this Embodiment in the food processing line as a foreign material (target object, object) is demonstrated. In the following description, feature amounts are extracted using boosting according to the present embodiment, and detection method A using the extracted feature amounts is selected by trial and error (based on human knowledge) as a comparative example. The detection method B using the feature amount will be described.
基本的な設定として、近赤外カメラで食品加工ラインを撮像したNIRMS画像を187枚用意する。このうち、オブジェクトである毛髪が映っている画像が46枚あり、残りの141枚には毛髪が映っていない。また、NIRMS画像には、各画素に対して、1.0μm〜2.5μmの波長範囲を約6nmの間隔で離散的にプロットした256個の近赤外スペクトル強度が格納されている。 As a basic setting, 187 NIRMS images obtained by capturing food processing lines with a near-infrared camera are prepared. Among them, there are 46 images showing the hair as an object, and the remaining 141 images do not show the hair. The NIRMS image stores 256 near-infrared spectrum intensities obtained by discretely plotting a wavelength range of 1.0 μm to 2.5 μm at intervals of about 6 nm for each pixel.
オブジェクトを「毛髪が映っている画素」、非オブジェクトを「毛髪が映っていない画素」とする。そして、サンプル画素として、12枚のNIRMS画像から、オブジェクトを8706個収集し、非オブジェクトを32690個収集した。すなわち、サンプル画素の総数は、41396個である。また、特徴量候補は、相異なる2つの波長の間のスペクトル強度の差分値を考え、考え得る特徴量候補(すなわち決定する特徴量候補)は、32640通り存在する。 Let the object be “pixels with hair reflected” and the non-object “pixels with no hair reflected”. As sample pixels, 8706 objects were collected from 32 NIRMS images, and 32690 non-objects were collected. That is, the total number of sample pixels is 41396. Further, the feature quantity candidates are considered as a difference value of the spectrum intensity between two different wavelengths, and there are 32640 possible feature quantity candidates (that is, feature quantity candidates to be determined).
本実施の形態の検出方式Aは、32640通りの特徴量候補の中から、ブースティングを用いて44個の特徴量を抽出した。特徴量を抽出する際に用いたサンプル画素は、8706個のオブジェクトと、32690個の非オブジェクトである。また、識別処理は、まず線形SVMでNIRMS画像の全画素に対して識別を実施し、次に、線形SVMでオブジェクト(毛髪画素)と判定された画素に対してのみ非線形SVMで識別を実施した。 In the detection method A of the present embodiment, 44 feature amounts are extracted from 32640 feature amount candidates using boosting. The sample pixels used when extracting the feature amount are 8706 objects and 32690 non-objects. In the identification process, first, all pixels of the NIRMS image are identified by linear SVM, and then identification is performed by nonlinear SVM only for pixels determined to be objects (hair pixels) by linear SVM. .
一方、比較例(従来)の検出方式Bは、32640通りの特徴量候補の中から、人の知見に基づいて選択した44個の特徴量を抽出した。学習サンプル画素は、検出方式Aと同様に、8706個のオブジェクトと、32690個の非オブジェクトである。また、識別処理も、検出方式Aと同様に、まず線形SVMでNIRMS画像の全画素に対して識別を実施し、次に、線形SVMでオブジェクト(毛髪画素)と判定された画素に対してのみ非線形SVMで識別を実施した。 On the other hand, the detection method B of the comparative example (conventional) extracted 44 feature amounts selected based on human knowledge from 32640 feature amount candidates. As in the detection method A, the learning sample pixels are 8706 objects and 32690 non-objects. Similarly to the detection method A, the identification processing is performed by first identifying all the pixels of the NIRMS image by the linear SVM, and then only for the pixels determined as objects (hair pixels) by the linear SVM. Identification was performed with non-linear SVM.
サンプル画素(学習サンプル)として用いていない34枚の画像には、304本の毛髪が存在しており、304本中何本の毛髪を検出できたかによって検出率を求める。ただし、毛髪が存在する位置に3画素以上連結してオブジェクトであると識別された画素が存在するという条件が満たされた場合に、当該毛髪を検出できたと判定する。また、毛髪の映っていない141枚のNIRMS画像の全画素に対して、いくつの画素を毛髪として識別したかによって誤検出率を求めた。また、処理速度は、1つの画素を識別するのに要した時間の平均値である。 In 34 images that are not used as sample pixels (learning samples), 304 hairs are present, and the detection rate is determined depending on how many of the 304 hairs have been detected. However, when the condition that there is a pixel identified as an object by connecting three or more pixels at the position where the hair exists is determined to be that the hair has been detected. Moreover, the false detection rate was calculated | required by how many pixels were identified as hair with respect to all the pixels of 141 NIRMS images in which the hair was not reflected. The processing speed is an average value of the time required to identify one pixel.
図8は本実施の形態と比較例との検出結果を示す説明図である。図8に示すように、検出率、誤検出率及び処理速度のすべての面で比較例(検出方式B)に比べて本実施の形態(検出方式A)の方が優れているのが分かる。 FIG. 8 is an explanatory diagram showing detection results of the present embodiment and the comparative example. As shown in FIG. 8, it can be seen that the present embodiment (detection method A) is superior to the comparative example (detection method B) in all aspects of detection rate, false detection rate, and processing speed.
図9は本実施の形態と比較例との処理結果画像の一例を示す模式図である。図9において、細い線分が毛髪を表し、点は誤検出したノイズを表す。図9に示すように、比較例(検出方式B)に比べて本実施の形態(検出方式A)の方が毛髪の形状(軌跡)が一層明瞭、鮮明になっていることが分かる。また、誤検出したノイズも比較例(検出方式B)に比べて本実施の形態(検出方式A)の方が減少していることが分かる。 FIG. 9 is a schematic diagram illustrating an example of a processing result image between the present embodiment and the comparative example. In FIG. 9, thin line segments represent hair, and dots represent erroneously detected noise. As shown in FIG. 9, it can be seen that the hair shape (trajectory) of the present embodiment (detection method A) is clearer and clearer than that of the comparative example (detection method B). It can also be seen that erroneously detected noise is reduced in the present embodiment (detection method A) compared to the comparative example (detection method B).
従来、対象の識別に有意な特徴量を必要な数だけ的確に選択するためには、オブジェクトに関する専門的な知識を必要とし、また、大量な地道な分析作業を必要としていたのに対して、本実施の形態によれば、オブジェクトと非オブジェクトとを識別するのに有意な特徴量を自動的かつ的確に過不足なく抽出することができ、オブジェクト検出システムの構成を容易に行うことができる。すなわち、特徴量の自動抽出による識別処理の高性能化(高精度化、高速化)を可能とする。また、オブジェクト検出システムの実現に必要な専門知識の習得、あるいは分析作業の負荷を軽減することができる。さらに、オブジェクト検出システムの構成、構築を容易に行うことができる。 In the past, in order to accurately select the necessary number of features that are significant for target identification, specialized knowledge about the object was required, and a lot of steady analysis work was required. According to the present embodiment, it is possible to automatically and accurately extract a feature quantity that is significant for distinguishing between an object and a non-object, and to easily configure an object detection system. That is, it is possible to improve the performance (high accuracy and high speed) of the identification processing by automatically extracting feature amounts. In addition, it is possible to acquire specialized knowledge necessary for realizing the object detection system, or to reduce the load of analysis work. Further, the configuration and construction of the object detection system can be easily performed.
上述の実施の形態では、近赤外光のスペクトル情報を用いる構成であったが、近赤外光に限定されるものではなく、可視光のスペクトル情報を用いることもできる。 In the above-described embodiment, the configuration uses near-infrared spectrum information. However, the present invention is not limited to near-infrared light, and visible spectrum information can also be used.
開示された実施の形態は、すべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。 The disclosed embodiments are to be considered in all respects as illustrative and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.
2 NIRMS画像取得部
10 特徴量抽出装置
101 サンプル画素収集部
102 特徴量候補決定部
103 識別器生成部
104 係数付与部
105 特徴量抽出部
20 対象物検出装置
201 識別処理部
DESCRIPTION OF
Claims (8)
対象物及び非対象物を撮像した画像から抽出した複数のサンプル画素から、各サンプル画素の任意の複数の波長でのスペクトル強度の変位に関連する特徴量候補を複数決定する決定手段と、
該決定手段で決定した特徴量候補の中の一部の特徴量候補毎にブースティングを用いて対象物及び非対象物を識別するための識別器を生成する生成手段と、
前記識別器を生成するために用いた特徴量候補を特徴量として抽出する抽出手段と
を備えることを特徴とする特徴量抽出装置。 In a feature amount extraction apparatus that extracts a feature amount for identifying an object based on image data including spectrum information of a plurality of wavelengths for each pixel included in an image composed of a plurality of pixels,
Determination means for determining a plurality of feature quantity candidates related to the displacement of the spectrum intensity at any of a plurality of wavelengths of each sample pixel from a plurality of sample pixels extracted from an image obtained by imaging an object and a non-object;
Generating means for generating a discriminator for discriminating an object and a non-object by using boosting for each of some of the feature quantity candidates determined by the determination means;
A feature quantity extraction apparatus comprising: extraction means for extracting feature quantity candidates used for generating the discriminator as feature quantities.
近赤外波長の範囲でスペクトル強度の変位に関連する特徴量候補を決定するように構成してあることを特徴とする請求項1に記載の特徴量抽出装置。 The determining means includes
The feature amount extraction apparatus according to claim 1, wherein the feature amount candidate is determined so as to determine a feature amount candidate related to a change in spectral intensity in a near-infrared wavelength range.
前記生成手段は、
対象物又は非対象物であると正しく識別したサンプル画素の数値の合計が最大となるように識別器を生成するように構成してあることを特徴とする請求項1又は請求項2に記載の特徴量抽出装置。 Provided with an assigning means for assigning an arbitrary numerical value to each sample pixel,
The generating means includes
The classifier is generated so that the sum of the numerical values of the sample pixels correctly identified as the object or the non-object is maximized. Feature extraction device.
一の特徴量候補に対して前記生成手段が生成した識別器で対象物又は非対象物であると誤って識別したサンプル画素の数値を大きくするようにしてあり、
前記生成手段は、
次の特徴量候補に対して識別器を生成する場合、数値を大きくしたサンプル画素を用いて識別器を生成するように構成してあることを特徴とする請求項3に記載の特徴量抽出装置。 The giving means is
The number of sample pixels mistakenly identified as an object or non-object by the classifier generated by the generation unit for one feature amount candidate is increased,
The generating means includes
4. The feature quantity extraction apparatus according to claim 3, wherein when generating a classifier for the next feature quantity candidate, the classifier is generated by using a sample pixel having a larger numerical value. .
コンピュータに、
対象物及び非対象物を撮像した画像から抽出した複数のサンプル画素から、各サンプル画素の任意の複数の波長でのスペクトル強度の変位に関連する特徴量候補を複数決定するステップと、
決定した特徴量候補の中の一部の特徴量候補毎にブースティングを用いて対象物及び非対象物を識別するための識別器を生成するステップと、
前記識別器を生成するために用いた特徴量候補を特徴量として抽出するステップと
を実行させることを特徴とするコンピュータプログラム。 In a computer program for causing a computer to extract a feature amount for identifying an object based on image data including spectral information of a plurality of wavelengths for each pixel included in an image composed of a plurality of pixels,
On the computer,
Determining a plurality of feature quantity candidates related to the displacement of the spectral intensity at a plurality of arbitrary wavelengths of each sample pixel from a plurality of sample pixels extracted from an image obtained by imaging an object and a non-object; and
Generating a discriminator for identifying an object and a non-object using boosting for each of some of the feature quantity candidates in the determined feature quantity candidates;
And a step of extracting, as a feature amount, a feature amount candidate used for generating the discriminator.
対象物及び非対象物を撮像した画像から抽出した複数のサンプル画素から、各サンプル画素の任意の複数の波長でのスペクトル強度の変位に関連する特徴量候補を複数決定するステップと、
決定された特徴量候補の中の一部の特徴量候補毎にブースティングを用いて対象物及び非対象物を識別するための識別器を生成するステップと、
前記識別器を生成するために用いた特徴量候補を特徴量として抽出するステップと
を含むことを特徴とする特徴量抽出方法。 In a feature amount extraction method by a feature amount extraction apparatus that extracts a feature amount for identifying an object based on image data including spectrum information of a plurality of wavelengths for each pixel included in an image composed of a plurality of pixels,
Determining a plurality of feature quantity candidates related to the displacement of the spectral intensity at a plurality of arbitrary wavelengths of each sample pixel from a plurality of sample pixels extracted from an image obtained by imaging an object and a non-object; and
Generating a discriminator for identifying an object and a non-object using boosting for each of some of the feature quantity candidates in the determined feature quantity candidates;
Extracting the feature quantity candidates used for generating the discriminator as a feature quantity.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011197433A JP5772420B2 (en) | 2011-09-09 | 2011-09-09 | Feature amount extraction apparatus, object detection system, computer program, and feature amount extraction method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011197433A JP5772420B2 (en) | 2011-09-09 | 2011-09-09 | Feature amount extraction apparatus, object detection system, computer program, and feature amount extraction method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013058162A true JP2013058162A (en) | 2013-03-28 |
JP5772420B2 JP5772420B2 (en) | 2015-09-02 |
Family
ID=48133976
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011197433A Expired - Fee Related JP5772420B2 (en) | 2011-09-09 | 2011-09-09 | Feature amount extraction apparatus, object detection system, computer program, and feature amount extraction method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5772420B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160037481A (en) * | 2014-09-29 | 2016-04-06 | 에스케이텔레콤 주식회사 | Shadow removal method for image recognition and apparatus using the same |
JP2020071739A (en) * | 2018-10-31 | 2020-05-07 | ファナック株式会社 | Image processing apparatus |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002090299A (en) * | 2000-09-11 | 2002-03-27 | Opt Giken Kk | Method for distinguishing grade of high-molecular material |
JP2004053440A (en) * | 2002-07-22 | 2004-02-19 | Toyama Prefecture | Method for analyzing additives in polymeric material |
JP2006318341A (en) * | 2005-05-16 | 2006-11-24 | Sony Corp | Detection object image determination device, method, and program |
JP2008152709A (en) * | 2006-12-20 | 2008-07-03 | Hitachi Software Eng Co Ltd | Geographic image processor and program |
JP2009015614A (en) * | 2007-07-05 | 2009-01-22 | Sony Corp | Image processing apparatus, image processing method, and computer program |
JP2011141809A (en) * | 2010-01-08 | 2011-07-21 | Sumitomo Electric Ind Ltd | Equipment and method for analyzing image data |
-
2011
- 2011-09-09 JP JP2011197433A patent/JP5772420B2/en not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002090299A (en) * | 2000-09-11 | 2002-03-27 | Opt Giken Kk | Method for distinguishing grade of high-molecular material |
JP2004053440A (en) * | 2002-07-22 | 2004-02-19 | Toyama Prefecture | Method for analyzing additives in polymeric material |
JP2006318341A (en) * | 2005-05-16 | 2006-11-24 | Sony Corp | Detection object image determination device, method, and program |
JP2008152709A (en) * | 2006-12-20 | 2008-07-03 | Hitachi Software Eng Co Ltd | Geographic image processor and program |
JP2009015614A (en) * | 2007-07-05 | 2009-01-22 | Sony Corp | Image processing apparatus, image processing method, and computer program |
JP2011141809A (en) * | 2010-01-08 | 2011-07-21 | Sumitomo Electric Ind Ltd | Equipment and method for analyzing image data |
Non-Patent Citations (1)
Title |
---|
JPN6015020743; 小杉 幸夫、外5名: '"赤外スペクトル情報応用の路上障害物のセンシング"' SEIテクニカルレビュー No.176, 20100131, pp.124-129, 住友電気工業株式会社 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160037481A (en) * | 2014-09-29 | 2016-04-06 | 에스케이텔레콤 주식회사 | Shadow removal method for image recognition and apparatus using the same |
KR102156024B1 (en) | 2014-09-29 | 2020-09-15 | 에스케이텔레콤 주식회사 | Shadow removal method for image recognition and apparatus using the same |
JP2020071739A (en) * | 2018-10-31 | 2020-05-07 | ファナック株式会社 | Image processing apparatus |
US11074718B2 (en) | 2018-10-31 | 2021-07-27 | Fanuc Corporation | Image processing device |
Also Published As
Publication number | Publication date |
---|---|
JP5772420B2 (en) | 2015-09-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Pantazi et al. | Automated leaf disease detection in different crop species through image features analysis and One Class Classifiers | |
JP7261414B2 (en) | Analysis method | |
US10671833B2 (en) | Analyzing digital holographic microscopy data for hematology applications | |
Hu et al. | Automatic plankton image recognition with co-occurrence matrices and support vector machine | |
CN109858477A (en) | The Raman spectrum analysis method of object is identified in complex environment with depth forest | |
TWI567660B (en) | Multi-class object classifying method and system | |
Shamrat et al. | A deep learning approach for face detection using max pooling | |
Thilagavathi et al. | Application of image processing in diagnosing guava leaf diseases | |
Verikas et al. | An integrated approach to analysis of phytoplankton images | |
Dimililer et al. | Automated classification of fruits: pawpaw fruit as a case study | |
Nanni et al. | Improving the descriptors extracted from the co-occurrence matrix using preprocessing approaches | |
Faria et al. | Time series-based classifier fusion for fine-grained plant species recognition | |
Kumar et al. | Multiclass support vector machine based plant leaf diseases identification from color, texture and shape features | |
JP5772420B2 (en) | Feature amount extraction apparatus, object detection system, computer program, and feature amount extraction method | |
Weinmann et al. | Material recognition for efficient acquisition of geometry and reflectance | |
Hirata et al. | Plankton image classification based on multiple segmentations | |
Li et al. | HEp-2 cells staining patterns classification via wavelet scattering network and random forest | |
Choi et al. | Determining the existence of objects in an image and its application to image thumbnailing | |
James et al. | A Guava Leaf Disease Identification Application | |
Mustafa et al. | A method to recognize food using GIST and SURF features | |
Zárate et al. | Fruit Detection and Classification Using Computer Vision and Machine Learning Techniques | |
Bhaumik et al. | Buddhist hasta mudra recognition using morphological features | |
Turtinen | Learning and recognizing texture characteristics using local binary patterns | |
Mehmood et al. | Comparative Analysis of Feature Extraction Methods for Cotton Leaf Diseases Detection | |
Dhivya et al. | Copy Paste Forgery Detection for Structural Features Extraction using Kohonen Self Organizing Neural Network and Recurrent Neural Network Classifiers |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140903 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150521 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150602 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150615 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5772420 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |