Nothing Special   »   [go: up one dir, main page]

JP2014142833A - Captured insect identification method and identification system - Google Patents

Captured insect identification method and identification system Download PDF

Info

Publication number
JP2014142833A
JP2014142833A JP2013011244A JP2013011244A JP2014142833A JP 2014142833 A JP2014142833 A JP 2014142833A JP 2013011244 A JP2013011244 A JP 2013011244A JP 2013011244 A JP2013011244 A JP 2013011244A JP 2014142833 A JP2014142833 A JP 2014142833A
Authority
JP
Japan
Prior art keywords
insect
identification
region
area
merckmar
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013011244A
Other languages
Japanese (ja)
Other versions
JP5690856B2 (en
Inventor
Yoshio Matsumoto
吉雄 松本
Kazuhiro Miyama
和宏 美山
Kenji Terada
賢治 寺田
Soichiro Takahashi
聡一郎 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Earth Environmental Service Co Ltd
Original Assignee
Earth Environmental Service Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Earth Environmental Service Co Ltd filed Critical Earth Environmental Service Co Ltd
Priority to JP2013011244A priority Critical patent/JP5690856B2/en
Publication of JP2014142833A publication Critical patent/JP2014142833A/en
Application granted granted Critical
Publication of JP5690856B2 publication Critical patent/JP5690856B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Catching Or Destruction (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a captured insect identification method and a captured insect identification system capable of automatically and quickly performing insect identification work at relatively low costs, and obtaining an objective and consistent identification result.SOLUTION: A captured insect identification method includes the step of reading the image of the adhesive sheet of an insect capturing device which has captured insects, the step of obtaining an edge from the read image to obtain an insect candidate area, the step of deleting a background area other than the insect candidate area, the step of extracting an insect area from the insect candidate area, the step of extracting a body area, a leg area, and a back area to obtain merkmal data of morphological features from the extracted body, leg and back areas, and the identification step of collating the merkmal data with standard merkmal data set and stored beforehand for each insect to identify the insect.

Description

本発明は、捕獲虫類の同定方法及び同定システムに関するものであり、より詳細には、例えば、食品工場、薬品工場等のように、昆虫その他の小さな虫類の侵入を極力阻止する必要のある場所において、捕獲した虫類を同定し、以後の防虫対策に活用する資料を得るための捕獲虫類の同定方法及び同定システムに関するものである。   The present invention relates to an identification method and an identification system for captured insects, and more specifically, it is necessary to prevent as much as possible the entry of insects and other small insects such as food factories and pharmaceutical factories. The present invention relates to an identification method and an identification system for captured insects in order to identify captured insects at a place and obtain materials to be used for subsequent insect control measures.

食品工場や薬品工場等においては、有害・無害を問わず、昆虫その他の小さな虫類の侵入は、極力阻止することが要請される。そのために、工場の建屋内要所に、虫類を引き寄せるための誘引灯と、集まった虫類を捕獲するための粘着手段とで構成される種々のタイプの捕虫装置が配備される。   In food factories and pharmaceutical factories, it is required to prevent as much as possible the entry of insects and other small insects, both harmful and harmless. For this purpose, various types of insect trapping devices including an attracting light for attracting insects and an adhesive means for capturing the gathered insects are deployed at important points in the factory building.

ところで、虫類は種類が多く、知られているだけでも数千種類存在し、しかも、虫類ごとに強く誘引される波長域が異なる。従って、捕獲しようとする虫類を効率よく捕獲するためには、捕虫装置の誘引灯に、その捕獲しようとする虫類を強く誘引する波長の光を放出する光源を用いることが有効である。   By the way, there are many kinds of reptiles, and there are thousands of kinds even if known, and the wavelength range that is strongly attracted for each reptile differs. Therefore, in order to efficiently capture the insects to be captured, it is effective to use a light source that emits light having a wavelength that strongly attracts the insects to be captured for the attracting light of the insect capturing apparatus.

また、その前提として、各工場等に集まってくる虫類の種類を同定する必要があるところ、従来はこの虫類の同定は、専ら人的作業によって行われていた。即ち、従来は、各工場等から定期的に捕虫装置の虫が粘着した粘着シートを回収し、1枚ずつ目視により虫類の種類と数を特定していた。本出願人は現実に、1年で約9000枚のシートについての同定作業を行っているが、1時間当たり一人で約3枚のシートの同定が限界であるので、この同定作業に多大な人員と人的コストをかけていることになり、その削減が求められていた。   In addition, as a premise, it is necessary to identify the types of worms that gather at each factory and the like. Conventionally, identification of these worms has been performed exclusively by human work. That is, conventionally, the adhesive sheet to which the insects of the insect trapping apparatus adhered periodically is collected from each factory and the type and number of insects are identified visually. The applicant actually performs identification work for about 9000 sheets per year, but the identification of about 3 sheets per person per hour is limited. As a result, human costs were being cut and reductions were required.

また、目視による人的作業の場合は、どうしても個人差があるために、客観性・一貫性のある同定結果を期待し得ないという問題もある。   In addition, in the case of human work by visual inspection, there is a problem in that an identification result with objectivity and consistency cannot be expected due to individual differences.

特許第2694726号公報Japanese Patent No. 2694726 特許第2599101号公報Japanese Patent No. 2599101

上述したように、捕獲しようとする虫類を効率よく捕獲するためには、捕虫装置の誘引灯に、その捕獲しようとする虫類を強く誘引する波長の光を放出する光源を用いることが有効であり、そのために先ず、各工場等に集まる虫類を同定する必要があるところ、従来はその同定作業は、専ら人手によって行われていたために作業コストが嵩み、その削減が求められていた。また、目視による人的作業のために、時間を要するだけでなく、客観性・一貫性のある同定結果を期待することが困難であり、その改善が求められていた。   As described above, in order to efficiently capture the insects to be captured, it is effective to use a light source that emits light having a wavelength that strongly attracts the insects to be captured for the attracting light of the insect capturing apparatus. For this reason, first, it is necessary to identify the worms that gather at each factory, etc., but since the identification work has been done exclusively manually, the work cost has been increased, and the reduction has been required. . Moreover, it is difficult to expect an objective and consistent identification result as well as time is required for the human work by visual inspection, and improvement thereof has been demanded.

本発明はこのような要請に応えるためになされたもので、各工場等に集まる虫類の同定作業を自動的且つ迅速に、しかも比較的低コストにて行うことができ、また、客観性及び一貫性のある同定結果を得ることが可能な捕獲虫類の同定方法及び同定システムを提供することを課題とする。   The present invention has been made to meet such a demand, and can automatically and promptly identify insects gathering at each factory etc. at a relatively low cost. It is an object of the present invention to provide an identification method and identification system for captured insects that can obtain consistent identification results.

上記課題を解決するための請求項1に係る発明は、虫類を捕獲した捕虫装置の粘着シートの画像を画像読み込み手段によって読み込む画像読み込みステップと、読み込まれた前記画像からエッジを取得することにより虫候補領域を取得する虫候補領域取得ステップと、取得された前記虫候補領域以外の背景領域を削除する背景領域削除ステップと、前記虫候補領域から虫領域を抽出する虫領域抽出ステップと、抽出された前記虫領域から少なくとも体領域、脚領域及び翅領域を抽出し、抽出された前記体領域から体長、体幅及び体長と体幅の比を算出し、前記脚領域から脚長及び脚長と体長の比を算出し、また、前記翅領域から翅面積及び翅面積と体面積の比を算出して形態的特徴のメルクマールデータを取得する特徴抽出ステップと、取得された前記メルクマールデータを、予め虫ごとに設定されて記憶されている標準メルクマールデータと照合することにより当該虫類を同定する同定ステップとから成ることを特徴とする捕獲虫類の同定方法である。   The invention according to claim 1 for solving the above-described problem is that an image reading step of reading an image of an adhesive sheet of an insect trapping device that captures reptiles by an image reading means, and acquiring an edge from the read image. An insect candidate area acquiring step for acquiring an insect candidate area; a background area deleting step for deleting a background area other than the acquired insect candidate area; an insect area extracting step for extracting an insect area from the insect candidate area; Extract at least a body region, a leg region, and a heel region from the insect region, calculate a body length, a body width, and a ratio of the body length to the body width from the extracted body region, and calculate a leg length, a leg length, and a body length from the leg region. A feature extraction step for obtaining a morphological feature Merckmar data by calculating a ratio of the heel area and a ratio of the heel area and the body area from the heel region; A method for identifying a captured insect, comprising: an identification step for identifying the insect by comparing the received Merckmar data with a standard Mercumar data set and stored in advance for each insect. .

一実施形態においては、前記メルクマールとして、更に、体色、尾長、尾長と体長の比、翅生部分、翅の角度、頭部方向、後ろ脚の状態、体部の丸み、眼の特徴のうちの少なくとも1つを含む。   In one embodiment, the Merckmar further includes body color, tail length, ratio of tail length to body length, slaughtered part, heel angle, head direction, back leg condition, body roundness, eye characteristics At least one of the following.

一実施形態においては、前記虫候補領域取得ステップは、読み込まれた前記画像からエッジを取得することと、前記画像をブロック分割し、エッジを含むブロックを取得してラベリングすることから成り、前記背景領域除去ステップは、前記エッジを含むブロック以外のブロックを、HSV色情報を用いて削除することから成り、また、前記虫領域抽出ステップは、前記虫候補領域についてエッジ検出することと、勾配方向に注目画素を設定することと、前記注目画素に隣接する類似輝度画素を順次統合することから成る。   In one embodiment, the insect candidate region obtaining step includes obtaining an edge from the read image, dividing the image into blocks, obtaining a block including an edge, and labeling the background. The region removing step includes deleting blocks other than the block including the edge using HSV color information, and the insect region extracting step includes edge detection for the insect candidate region and a gradient direction. This includes setting a target pixel and sequentially integrating similar luminance pixels adjacent to the target pixel.

また、一実施形態においては、前記同定ステップは、同定対象虫類を有翅、無翅、巨大の3種類に分類する分類分け工程と、各虫類についてメルクマールのしきい値幅を設定し、前記同定対象虫類のメルクマール値がいずれかの虫類の前記しきい値幅内に含まれるか否かを同定し、含まれる場合に前記同定対象虫類を当該虫類と同定する一次同定工程と、前記しきい値幅を拡張し、前記一次同定工程において同定されなかった前記同定対象虫類が前記拡張されたしきい値幅内に含まれるか否かを同定し、含まれる場合に前記同定対象虫類を当該虫類と同定する二次同定工程と、複数種のメルクマールにつき代表値を設定し、その代表値につき同定対象の虫類とのユークリッド距離を算出し、その距離が短い順に複数種の同定候補を決定し、その同定候補の中から最終的に同定を行う三次同定工程とから成る。   In one embodiment, the identification step includes a classification step for classifying the identification target reptiles into three types, arrogant, sterile, and giant, and setting a Merckmar threshold width for each reptile, Identifying whether or not the Merckmar value of the identification target insect is included within the threshold width of any of the insects, and if included, a primary identification step of identifying the identification target insect as the insect, The threshold width is expanded, and it is identified whether or not the identification target insects not identified in the primary identification step are included in the expanded threshold width, and if included, the identification target insects Secondary identification process to identify the worm and the representative value for multiple types of Merckmar, calculate the Euclidean distance from the worm to be identified for the representative value, and identify the multiple types in order of increasing distance Decide candidates and Consisting of a tertiary identifying step for finally identified from among the identified candidates.

また、一実施形態においては、前記二次同定工程における前記しきい値幅の拡張は、捕獲確率の高い虫から行っていくこととし、前記三次同定工程において複数種の同定候補の中から最終的に同定を行うに当たり、固有の特徴を持つ虫類に対して、その特徴を充足することを条件として候補順位の繰り上げを行うこととする。   Further, in one embodiment, the expansion of the threshold width in the secondary identification step is performed from an insect having a high capture probability, and finally, from among a plurality of types of identification candidates in the tertiary identification step. In the identification, a candidate rank is moved up on condition that the feature is satisfied for a reptile having a unique feature.

上記課題を解決するための請求項9に係る発明は、粘着シートによって捕虫する捕虫装置と、前記捕虫装置から回収してきた虫類の粘着した粘着シートの画像を読み込む画像読み込み手段と、前記画像読み込み手段によって読み込まれた画像を解析して捕獲された虫類を同定する解析装置と、前記解析装置において同定された結果を出力する出力手段とから成り、前記解析装置は、前記画像読み込み手段によって読み込まれた画像に対し、虫領域と背景領域とを区別するための画像処理をする前処理手段と、前処理された画像から虫類の形態的特徴のメルクマールデータを取得する特徴抽出手段と、虫類の形態的特徴のメルクマールを標準化した標準メルクマールデータを記憶するデータ記憶手段と、前記特徴抽出手段によって抽出された虫類の形態的特徴のメルクマールデータと前記データ記憶手段において記憶されている前記標準メルクマールデータとを比較することにより、当該虫類の同定をする同定手段とを含んで構成されることを特徴とする捕獲虫類の同定システムである。   The invention according to claim 9 for solving the above-described problems includes an insect trapping device that catches insects by an adhesive sheet, an image reading unit that reads an image of an adhesive sheet to which insects collected from the insect trapping device adhere, and the image reading device An analysis device for analyzing the image read by the means to identify the captured insects and an output means for outputting the result identified by the analysis device, the analysis device being read by the image reading means Preprocessing means for performing image processing for distinguishing the insect region from the background region, a feature extraction means for acquiring Merckal data of morphological features of the reptile from the preprocessed image, and an insect Data storage means for storing standard Merckmar data obtained by standardizing Merkmar of the morphological features of the class, and insects extracted by the feature extraction means An identification means for identifying the reptile by comparing the Merckmar data of the morphological features of the data and the standard Merckmar data stored in the data storage means. This is an insect identification system.

一実施形態においては、前記特徴抽出手段によって取得される前記メルクマールには、少なくとも、体長、体幅、体長と体幅の比、脚長、脚長と体長の比、翅面積、翅面積と体面積の比が含まれる。   In one embodiment, the Merckmar obtained by the feature extraction means includes at least body length, body width, body length to body width ratio, leg length, leg length to body length ratio, heel area, heel area, and body area. The ratio is included.

本発明に係る捕獲虫類の同定方法及び同定システムは上記のとおりであって、捕獲虫類の同定を、人手を介することなく、取り込んだ虫類の画像から形態的特徴のメルクマールデータを取得し、これを予め虫ごとに設定した標準メルクマールデータと比較する画像処理によって行うことができるため、各工場等に集まる虫類の同定作業を自動的且つ迅速に、しかも比較的低コストにて行うことができ、また、客観性及び一貫性のある同定結果を得ることが可能となる効果がある。   The identification method and identification system for captured reptiles according to the present invention are as described above. The identification of captured reptiles is performed by acquiring Merckal data of morphological features from captured reptile images without human intervention. Because this can be done by image processing that compares with standard Merckmar data set for each insect in advance, identification of insects gathering at each factory etc. can be performed automatically and quickly at a relatively low cost. In addition, there is an effect that an objective and consistent identification result can be obtained.

また、本発明に係る方法においては、虫類全体のシルエットから虫類を同定するのではなく、先ず、体領域、脚領域及び翅領域の各部位を抽出し、各部位の特徴から虫を同定するという手法を用いるため、粘着捕獲された虫の向きの違いによる影響を極力少なくすることが可能となる。更に、似た色や形、大きさを持つ種類の虫が存在するという問題は、各部位の特徴数を増やすことで解決することが可能となる効果がある。   Further, in the method according to the present invention, instead of identifying the reptile from the silhouette of the entire reptile, first, each part of the body region, the leg region and the cocoon region is extracted, and the insect is identified from the characteristics of each part. Since this method is used, it is possible to minimize the influence of the difference in the direction of the insects that have been trapped. Furthermore, there is an effect that the problem that there exists a kind of insect having a similar color, shape, and size can be solved by increasing the number of features of each part.

本発明に係る捕獲虫類の同定システムの簡略ブロック図である。It is a simplified block diagram of the identification system of the capture insects based on this invention. 本発明に係る捕獲虫類の同定システムにおいて用いる捕虫装置の一構成例を示す図である。It is a figure which shows the example of 1 structure of the insect trap used in the identification system of the trap insect according to this invention. 本発明に係る捕獲虫類の同定方法の大まかな流れを示すフロー図である。It is a flowchart which shows the rough flow of the identification method of the capture insects based on this invention. 本発明に係る捕獲虫類の同定方法における虫候補領域取得方法を示す図である。It is a figure which shows the insect candidate area | region acquisition method in the identification method of the capture insects based on this invention. 本発明に係る捕獲虫類の同定方法における背景領域の削除方法を示す図である。It is a figure which shows the deletion method of the background area | region in the identification method of the capture insects based on this invention. 本発明に係る捕獲虫類の同定方法における虫領域の抽出方法を示す図である。It is a figure which shows the extraction method of the insect area | region in the identification method of the capture insects based on this invention. 本発明に係る捕獲虫類の同定方法における同定ステップの流れを示すフロー図である。It is a flowchart which shows the flow of the identification step in the identification method of the capture insects which concerns on this invention. 本発明に係る捕獲虫類の同定方法における同定ステップの三次同定工程を説明するための図である。It is a figure for demonstrating the tertiary identification process of the identification step in the identification method of the capture insects based on this invention.

本発明を実施するための形態について、図面を参照しつつ詳細に説明する。本発明に係る捕獲虫類の同定方法は、虫類を捕獲した捕虫装置の粘着シートの画像を画像読み込み手段によって読み込む画像読み込みステップと、読み込まれた前記画像からエッジを取得することにより虫候補領域を取得する虫候補領域取得ステップと、取得された前記虫候補領域以外の背景領域を削除する背景領域削除ステップと、前記虫候補領域から虫領域を抽出する虫領域抽出ステップを含む。   Embodiments for carrying out the present invention will be described in detail with reference to the drawings. The identification method of the trapping insects according to the present invention includes an image reading step of reading an image of the adhesive sheet of the trapping device that has captured the insects by an image reading means, and an insect candidate region by acquiring an edge from the read image. Insect candidate area obtaining step for obtaining the insect candidate area, a background area deleting step for removing the background area other than the obtained insect candidate area, and an insect area extracting step for extracting the insect area from the insect candidate area.

また、本発明に係る方法は更に、抽出された前記虫領域から少なくとも体領域、脚領域及び翅領域を抽出し、抽出された前記体領域から体長、体幅及び体長と体幅の比を算出し、前記脚領域から脚長及び脚長と体長の比を算出し、また、前記翅領域から翅面積及び翅面積と体面積の比を算出して形態的特徴のメルクマールデータを取得する特徴抽出ステップと、取得された前記メルクマールデータを、予め虫ごとに設定されて記憶されている標準メルクマールデータと照合することにより当該虫類を同定する同定ステップを含む。   The method according to the present invention further extracts at least a body region, a leg region, and a heel region from the extracted insect region, and calculates a body length, a body width, and a ratio of the body length and the body width from the extracted body region. Calculating a leg length and a ratio of leg length to body length from the leg region, and calculating a heel area and a ratio of heel area to body area from the heel region to obtain a Merckmar data of morphological features; And an identification step of identifying the reptile by comparing the acquired Merckmar data with standard Merckmar data set and stored in advance for each insect.

本発明に係る捕獲虫類の同定システムは、上記方法を実施するためのものであり、該同定システムは、図1の簡略ブロック図に示されるように、粘着シートによって捕虫する捕虫装置1と、捕虫装置1から回収してきた虫類の粘着した粘着シートの画像を読み込む画像読み込み手段2と、画像読み込み手段2によって読み込まれた画像を解析して捕獲された虫類を同定する解析装置3と、解析装置3において同定された結果を出力する出力手段8とを含んで構成される。   A trapping insect identification system according to the present invention is for carrying out the above method, and the identification system includes a trapping device 1 for trapping insects by an adhesive sheet, as shown in the simplified block diagram of FIG. An image reading means 2 for reading an image of a sticky adhesive sheet collected from the insect trapping apparatus 1, an analysis device 3 for analyzing the image read by the image reading means 2 and identifying the captured insects; And an output unit 8 for outputting the result identified by the analysis device 3.

解析装置3は、画像読み込み手段2によって読み込まれた画像に対し、虫領域と背景領域とを区別するための画像処理をする前処理手段4と、前処理された画像から虫類の形態的特徴のメルクマールデータを抽出する特徴抽出手段5と、虫類の形態的特徴のメルクマールデータを標準化した標準メルクマールデータを記憶するデータ記憶手段6と、特徴抽出手段5によって抽出された抽出メルクマールデータとデータ記憶手段6において記憶されている標準メルクマールデータとを照合することにより、当該虫類の同定をする同定手段7とを含んで構成される。   The analysis device 3 includes a preprocessing unit 4 that performs image processing for distinguishing the insect region and the background region on the image read by the image reading unit 2, and the morphological features of the insects from the preprocessed image. Feature extraction means 5 for extracting the Merckmar data, data storage means 6 for storing the standard Merckmar data obtained by standardizing the Merckmar data of the morphological features of the reptiles, the extracted Merckmar data and the data storage extracted by the feature extraction means 5 By means of collating with the standard Merckmar data stored in the means 6, the identification means 7 for identifying the worm is included.

また、虫類を捕獲するための捕虫装置1としては、例えば、前面を大きく開口して前面開口部12を形成した額縁状の本体ケース11と、本体ケース11の側面の導光板挿入口16から装入される、LEDユニット13を付設した導光板と、導光板の上に重合状態にされて本体ケース11内に装填される透光性の粘着シート15とで構成されるものが用いられる(図2参照)。その場合粘着シート15は、本体ケース11内装填時においてその粘着面が、本体ケース11の前面開口部12内に直接露呈するように配備される。   In addition, as the insect trapping device 1 for catching insects, for example, a frame-shaped main body case 11 having a front opening and a front opening 12 formed therein, and a light guide plate insertion opening 16 on the side surface of the main body case 11 are used. A light guide plate provided with the LED unit 13 and a light-transmitting pressure-sensitive adhesive sheet 15 that is superposed on the light guide plate and loaded in the main body case 11 is used ( (See FIG. 2). In that case, the adhesive sheet 15 is arranged so that the adhesive surface is directly exposed in the front opening 12 of the main body case 11 when the main body case 11 is loaded.

本発明においては、同定対象となる虫類として、ユスリカ・カ、ガガンボ、チョウバエ、ノミバエ、ショウジョウバエ、クロバネキノコバエ、ニセケバエ、タマバエ、イエバエ・クロバエ、ヒラタアブ、コバチ、アリ、ヤガ、メイガ、カツオブシムシ、シバンムシ、コクヌストモドキ、ゴミムシ、ハナカクシ、アブラムシ、アオカメムシ、マルカメムシ、ヨコバイ、ウンカ、チャタテムシ、アザミウマ、カゲロウ等を想定している。   In the present invention, the insects to be identified include chironomid mosquitoes, ganganbo, butterflies, flea flies, drosophila, black fly mushrooms, mosquito flies, wing flies, house flies, fly flies, leafhoppers, hornets, ants, moths, moths, cutlet worms , Kokunu Tomodoki, Garbushi, Hanakakushi, Aphid, Aokamushi, Marukamushi, Leafhopper, Leafhopper, Chatterbug, Thrips, and Mayfly.

これらの虫類はそれぞれ形態上の特徴を有しているが、その形態上の特徴はある程度分類が可能である。例えば、ヒメイエバエ、ガガンボ、イエカ、ユスリカ、チョウバエ、ノミバエ、タマバエ、クロバネキノコバエ、ニセケバエの形態的特徴を挙げると、以下のとおりとなる。
−ガガンボ、イエカ、ユスリカ、クロバネキノコバエ・・・体部が大きい(10mm以上)。
−ガガンボ、イエカ、ユスリカ、ノミバエ、タマバエ・・・脚が長くて発達している。
−キノコバエ、ニセケバエ・・・触覚が太くて短く、コブ状である。
−チョウバエ、タマバエ・・・翅の幅が広くて対称的である。
−ヒメイエバエ、ガガンボ、ノミバエ、クロバネキノコバエ、ニセケバエ・・・特徴的な翅脈を有している。
Each of these reptiles has morphological features, but the morphological features can be classified to some extent. For example, the morphological characteristics of the house fly, gangabo, squid, chironomid, butterfly, flea fly, scallop fly, black-winged fly, and fake fly are as follows.
-Ganbo, squid, chironomid, black spring mushroom ... large body (10 mm or more).
-Giganbo, Musca, Chironomid, Flea, Tamabae ... Long legs and developed.
-Mushroom flies, fake flies ... The tactile sensation is thick and short and has a bumpy shape.
-Butterfly fly, Flyfly ... The wings are wide and symmetrical.
-Hyme flies, gangambo, fleas, black-winged flies, fake flies ... has characteristic veins.

これらの形態的特徴に鑑み、形態的特徴のメルクマールとしては、虫類の体長、体幅、体長・体幅比、体色、脚長、脚長・体長比、尾長、尾長・体長比、翅面積、翅面積・体面積比、翅生部分(体部のどの部分についているか)、翅の角度、頭部方向、後ろ脚の状態、体部の丸み度合い、眼の状態(位置、縦横比)等が考えられる。通例、本発明においては、そのうちの少なくとも体長、体幅、脚長、脚長・体長比、翅面積、翅面積・体面積比が採用される。また、本発明における虫類の同定は、捕獲した虫類を、通常の状態ではなく、粘着シートに粘着した状態において観察して行うものであるため、正面向きに粘着捕獲される場合や横向きに粘着捕獲される場合等があることも考慮される。   In view of these morphological characteristics, as the morphological characteristics of Merckmar, insect body length, body width, body length / body width ratio, body color, leg length, leg length / body length ratio, tail length, tail length / body length ratio, heel area, The area of the heel / body area, the body part (which part of the body), the angle of the heel, the direction of the head, the state of the back leg, the degree of roundness of the body, the state of the eye (position, aspect ratio), etc. Conceivable. Usually, in the present invention, at least the body length, body width, leg length, leg length / body length ratio, heel area, heel area / body area ratio are employed. In addition, the identification of the reptiles in the present invention is performed by observing the captured reptiles in a state of being adhered to the adhesive sheet, not in a normal state. It is also considered that there are cases where sticking is captured.

以下に、本発明に係るシステム及び方法につき、図3に示すフロー図を参照しつつ、処理ステップごとに詳述する。なお、図3のフロー図には、虫類の同定作業である、画像読み込み手段2による処理から、読み込み画像を解析して同定し、同定結果を出力するまでのステップが示されている。   Hereinafter, the system and method according to the present invention will be described in detail for each processing step with reference to the flowchart shown in FIG. Note that the flowchart of FIG. 3 shows steps from the processing by the image reading means 2, which is an insect identification operation, from analyzing the read image to identifying it and outputting the identification result.

標準メルクマールデータ作成・記憶ステップ
このステップは、虫類の同定作業に先立ち、テンプレートとして、虫類の形態的特徴のメルクマールを虫ごとに設定して標準メルクマールデータ(許容範囲)を作成し、データ記憶手段6に記憶するステップである。この標準メルクマールデータは、後述する画像読み込みステップ乃至特徴抽出ステップと同じ工程を経て、予め作成される。
Standard Merckmar data creation and storage step This step creates a standard Merckmar data (acceptable range) by setting the morphological features of the worms for each insect as a template prior to the identification of the reptiles. It is a step of storing in the means 6. This standard Merckmar data is created in advance through the same steps as an image reading step or a feature extraction step described later.

画像読み込みステップ(S11)
このステップは、工場等に設置されている捕虫装置1から回収し、必要に応じてフィルムラッピングした虫類の粘着した粘着シート15を、画像読み取り装置(画像入力装置)2にかけてその画像を読み取るステップである。画像読み取り装置2としては、例えば、2480×3503BMP画像のスキャナーや、カメラ等が用いられる。
Image reading step (S11)
In this step, the image is read from the insect collecting device 1 installed in a factory or the like, and the adhesive sheet 15 to which the insects adhered to the film are wrapped as necessary is applied to the image reading device (image input device) 2 to read the image. It is. As the image reading device 2, for example, a 2480 × 3503 BMP image scanner, a camera, or the like is used.

虫候補領域の取得ステップ(S12)
虫候補領域取得ステップは、読み込まれた画像(以下虫画像という)(図4(A))からエッジ31を取得すること(図4(B))と、虫画像をブロック分割し(例えば、1ブロックの範囲を200×200画素とする。)、エッジ31を含むブロックを取得してラベリング処理を行うこと(図4(C))から成り、ラベリングした領域を虫候補領域32とする。この虫候補領域32は各虫類によって異なるため、図4においては、4種類の虫が捕獲されているものとし、便宜上、それらを丸、星形、四角、三角を付して区別している。なお、エッジ31の取得は、一般的なエッジ検出法によって行う。
Insect candidate region acquisition step (S12)
In the insect candidate area acquisition step, the edge 31 is acquired from the read image (hereinafter referred to as insect image) (FIG. 4A) (FIG. 4B), and the insect image is divided into blocks (for example, 1 The range of the block is 200 × 200 pixels), and a block including the edge 31 is acquired and labeling is performed (FIG. 4C). Since this insect candidate region 32 differs depending on each insect, in FIG. 4, it is assumed that four types of insects are captured, and for convenience, they are distinguished by attaching a circle, a star, a square, and a triangle. The edge 31 is acquired by a general edge detection method.

背景領域の削除ステップ(S13)
捕獲虫類の特徴抽出のためには、虫候補領域32から虫領域を抽出する必要があり(図5(A)参照)、虫領域の抽出のためには、虫候補領域32から背景領域を削除する必要がある。そのために、先ず、エッジ31を含まない非エッジブロック領域33のHSV色情報を取得する。次いで、エッジ31を含むエッジブロック領域、即ち、虫候補領域32と非エッジブロック領域33から、非エッジブロック領域33のHSV色情報と同じ色領域を背景と考えて削除する(図5(B))。例えば、その際のしきい値として、abs(虫候補領域V値−非エッジブロック領域のV値)>20(V値:0〜255)を用いる。このようにして虫画像より背景を取り除くことで、残った領域は背景以外の領域、即ち、虫領域と同定することができる。
Background region deletion step (S13)
In order to extract the characteristics of the captured insects, it is necessary to extract the insect region from the insect candidate region 32 (see FIG. 5A), and in order to extract the insect region, the background region is extracted from the insect candidate region 32. Must be deleted. For this purpose, first, the HSV color information of the non-edge block area 33 not including the edge 31 is acquired. Next, the same color area as the HSV color information of the non-edge block area 33 is deleted from the edge block area including the edge 31, that is, the insect candidate area 32 and the non-edge block area 33 (FIG. 5B). ). For example, abs (insect candidate region V value−non-edge block region V value)> 20 (V value: 0 to 255) is used as a threshold value at that time. By removing the background from the insect image in this manner, the remaining area can be identified as an area other than the background, that is, an insect area.

但し、このようにして単に背景を取り除いて得られる虫領域には、本来の虫領域の他に虫の影等が含まれるため、これを虫領域として同定作業を行っても、高精度の同定は望めない。そこで、本発明においては、上記のようにして抽出された虫領域は確定的なものではなく、仮に虫領域と推定する仮虫領域34とし、これに対して更に、以下のような虫領域を確定するための画像処理を行う。   However, the insect area obtained by simply removing the background in this way includes the shadow of the insect in addition to the original insect area. Can't hope. Therefore, in the present invention, the insect region extracted as described above is not definitive, and is assumed to be a worm region 34 that is presumed to be a worm region. Image processing for confirmation is performed.

虫領域の抽出ステップ(S14)
このステップにおいては、先ず、色情報を用いて抽出された仮虫領域34に対し、一般的なエッジ検出方法によってエッジ検出を行う(図6(A))。図6において符号35で示す濃色部分がエッジである。次いで、勾配方向への注目画素36を抽出し(図6(B)に示されるように、エッジ35の内側に位置する。)、各注目画素36に隣接する各画素につき、それに隣接する4近傍の画素との輝度比較を行い、その差が一定値以内の場合(例えば、abs(統合画素輝度値−注目画素輝度値)<15(輝度値:0〜255))は、その画素を、注目画素36の輝度に統合していく。
Insect region extraction step (S14)
In this step, first, edge detection is performed on the pseudoworm area 34 extracted using the color information by a general edge detection method (FIG. 6A). In FIG. 6, the dark portion indicated by reference numeral 35 is an edge. Next, the pixel of interest 36 in the gradient direction is extracted (positioned inside the edge 35 as shown in FIG. 6B), and for each pixel adjacent to each pixel of interest 36, four neighbors adjacent to it. If the difference is within a certain value (for example, abs (integrated pixel luminance value−target pixel luminance value) <15 (luminance value: 0 to 255)), the pixel is focused on. The luminance of the pixel 36 is integrated.

本発明に係る方法の取り扱い対象は虫類であって、穴あき部分は生じないため、通例、エッジ35で囲まれる部分の全体が注目画素36に統合される(図6(C))。また、背景画素に隣接する画素37についても背景画素との間で同様の処理を行い、類似輝度画素を順次統合していく。かくして、最終的な虫領域38が得られる(図6(C))。   Since the handling target of the method according to the present invention is a reptile and no perforated portion is generated, generally, the entire portion surrounded by the edge 35 is integrated into the target pixel 36 (FIG. 6C). Further, similar processing is performed on the pixels 37 adjacent to the background pixels with the background pixels, and similar luminance pixels are sequentially integrated. Thus, the final insect region 38 is obtained (FIG. 6C).

形態的特徴抽出ステップ(S15)
上記のようにして虫領域38が抽出された後、それを基にして、先ず体領域、脚領域、翅領域及び尾領域の抽出が行われる。この形態的特徴の抽出ステップは、体領域、脚領域、翅領域及び尾領域の抽出工程と、それを基にした形態的特徴のメルクマールデータの取得工程とから成る。
Morphological feature extraction step (S15)
After the insect region 38 is extracted as described above, the body region, the leg region, the heel region, and the tail region are first extracted based on the insect region 38. This morphological feature extraction step includes a body region, a leg region, a heel region, and a tail region extraction step, and a morphological feature Merckmar data acquisition step based thereon.

体領域は、虫類の脚、翅、尾以外の領域であり、体領域の抽出のためには、先ず、虫領域38と背景領域39のHSV色情報を取得する。そして、背景領域39と異なる色の領域を体領域として抽出する。例えば、abs(体領域H値−背景領域H値)>13、abs(体領域H値−背景領域H値)≦13であってabs(体領域V値−背景領域V値)>155、あるいは、abs(体領域S値−背景領域S値)>150によって、体領域と背景領域とを識別する。   The body region is a region other than the worm's legs, moths, and tails. To extract the body region, first, HSV color information of the insect region 38 and the background region 39 is acquired. Then, an area having a color different from that of the background area 39 is extracted as a body area. For example, abs (body region H value−background region H value)> 13, abs (body region H value−background region H value) ≦ 13 and abs (body region V value−background region V value)> 155, or , Abs (body region S value−background region S value)> 150, the body region and the background region are identified.

脚領域は、言うまでもなく、体領域よりもかなり狭くて細い領域である。そこで、虫領域に対し4×4の正方ブロックを当て嵌める処理を行うと共に、エッジに挟まれた狭い部分を狭領域として抽出し、4×4の正方ブロックが当て嵌まらない部分であって、狭領域として抽出された部分を以て、脚候補領域とする。脚領域の抽出は、この脚候補領域内の細線の端点から体領域まで細線を辿ることによって行う。即ち、脚候補領域について細線化処理を行い、脚候補領域内の細線の端点から体領域内の細線の端点までを脚領域とするのである。   Needless to say, the leg region is a much narrower and narrower region than the body region. Therefore, a process of fitting a 4 × 4 square block to the insect area is performed, and a narrow part sandwiched between the edges is extracted as a narrow area, and the 4 × 4 square block is not fitted, A portion extracted as a narrow region is set as a leg candidate region. The leg region is extracted by tracing the thin line from the end point of the thin line in the leg candidate region to the body region. That is, the thinning process is performed on the leg candidate region, and the leg region is defined from the end point of the thin line in the leg candidate region to the end point of the thin line in the body region.

翅領域の抽出は、虫画像から脚候補領域を除外した領域をラベリングし、そのうちの最大領域を以て翅領域とすることにより行う。   The cocoon region is extracted by labeling a region excluding the leg candidate region from the insect image, and setting the maximum region among them as a cocoon region.

尾領域の抽出は、脚候補領域の抽出の場合と同様に、体領域に対し4×4の正方ブロックを当て嵌める処理を行うと共に、エッジに挟まれた狭い部分を狭領域として抽出し、4×4の正方ブロックが当て嵌まらない部分と、狭領域として抽出された部分の重なり合った部分を以て、尾領域とする。   In the extraction of the tail region, as in the case of the extraction of the leg candidate region, a process of fitting a 4 × 4 square block to the body region is performed, and a narrow portion sandwiched between the edges is extracted as a narrow region. A portion where the square block of x4 does not fit and a portion where the portion extracted as the narrow region overlaps are defined as the tail region.

次いで、上記のようにして抽出した体領域、脚領域、翅領域及び尾領域から、形態的特徴のメルクマールデータを取得する。即ち、体領域から体長及び体幅を算出し、脚領域から脚長及び脚長と体長の比を算出し、翅領域から翅面積及び翅面積と体面積の比を算出する処理がなされる。形態的特徴のメルクマールとしては、その他に体色、尾長、尾長・体長比、翅生部分、翅の角度、頭部方向、後ろ脚の状態、体部の丸み度合い、眼の位置及び縦横比等が考えられ、それらのうちの任意のものを組み合わせて採用することができる。もちろん、形態的特徴のメルクマールはこれらに限定される訳ではない。また、その特徴抽出方法も、以下に述べる方法に限定されるものではない。   Subsequently, Merckmar data of morphological features is acquired from the body region, leg region, heel region, and tail region extracted as described above. That is, the body length and body width are calculated from the body region, the leg length and the leg length to body length ratio are calculated from the leg region, and the heel area and the heel area to body area ratio are calculated from the heel region. Other morphological features of Merckmar include body color, tail length, tail length / length ratio, slaughtered part, heel angle, head direction, back leg condition, body roundness, eye position and aspect ratio, etc. Any of them can be used in combination. Of course, the morphological feature of Merckmar is not limited to these. Further, the feature extraction method is not limited to the method described below.

<体長、体幅及び体長・体幅比率の抽出>
体長は、体領域において骨格を検出し、その長さを計測することによって抽出する。骨格の検出及び長さの計測は、以下の工程によって行う。
−体部の重心を求める。
−体部の重心から最遠位点までの直線を1本抽出する。
−上記第1の直線と角度の異なる最遠位点までの第2の直線を1本抽出する。
−第1の直線と第2の直線を骨格と考え、その長さを計測する。
<Extraction of body length, body width and body length / body width ratio>
The body length is extracted by detecting the skeleton in the body region and measuring the length. The detection of the skeleton and the measurement of the length are performed by the following steps.
-Find the center of gravity of the body.
-Extract one straight line from the center of gravity of the body part to the most distal point.
-Extract one second straight line up to the most distal point at a different angle from the first straight line.
-Consider the first straight line and the second straight line as a skeleton, and measure their lengths.

体幅は、上記第1の直線及び第2の直線に対して直交する複数の直線を抽出し、その複数の直交直線のうち最も長い直線の長さを以て体幅とする。そして、このようにして求めた体幅値と、上記のようにして求めた体長値とから、体長・体幅比率(体長/体幅比率)を特徴の1つとして抽出する。   As for the body width, a plurality of straight lines orthogonal to the first straight line and the second straight line are extracted, and the length of the longest straight line among the plurality of orthogonal straight lines is defined as the body width. Then, the body length / body width ratio (body length / body width ratio) is extracted as one of the features from the body width value thus obtained and the body length value obtained as described above.

<体色の抽出>
体色の特徴の抽出に当たっては、先ず、体領域からHSV表色系を用いて、黒、赤、黄、緑の4色領域を抽出する。4色領域の抽出は、先ず、黒について、例えば、0≦V値<80をしきい値として見て、これに当てはまらない部分に対し、例えば、赤:0<H値<40、黄:40<H値<70、緑:70<H値<100をそれぞれのしきい値として、各色の割合、彩度平均、明度平均を取得し、体色の特徴として抽出する。
<Extraction of body color>
In extracting the characteristics of the body color, first, four color regions of black, red, yellow, and green are extracted from the body region using the HSV color system. In the extraction of the four-color region, first, for black, for example, when 0 ≦ V value <80 is regarded as a threshold value, for a portion not corresponding to this, for example, red: 0 <H value <40, yellow: 40 <H value <70, green: 70 <H value <100 as the respective threshold values, the ratio of each color, saturation average, and brightness average are acquired and extracted as body color features.

<脚長及び体長・脚長比の抽出>
脚長は、脚領域における端点から体領域内の端点まで辿った細線の画素数から求めることができる。また、体長と脚長の長さ比は、脚長/体長から求めることができる。
<Extraction of leg length and body length / leg length ratio>
The leg length can be obtained from the number of pixels of the thin line traced from the end point in the leg region to the end point in the body region. The length ratio between the body length and the leg length can be obtained from the leg length / body length.

<尾長及び体長・尾長比の抽出>
尾長は、尾領域内において作ることができる、最長直線の長さから求めることができる。また、体長と尾長の長さ比は、尾長/体長から求めることができる。
<Extraction of tail length and body length / tail length ratio>
The tail length can be obtained from the length of the longest straight line that can be created in the tail region. The length ratio between the body length and the tail length can be obtained from the tail length / body length.

<翅面積及び体面積・翅面積比の抽出>
翅面積は、翅領域の面積から求めることができ、体面積と翅面積の比は、翅面積/体面積から求めることができる。
<Extraction of heel area and body area / heel area ratio>
The heel area can be obtained from the area of the heel region, and the ratio of the body area to the heel area can be obtained from the heel area / body area.

<翅生部分の抽出>
翅生部分の抽出は、翅が体部のどの部分から出ているかを検出するものである。その抽出のために、体部を前部、中間部及び後部に分割し、翅が接するそのいずれかの部分を以て翅生部分とする。
<Extraction of cocoon>
The extraction of the cocoon part is to detect from which part of the body part the cocoon comes out. For the extraction, the body part is divided into a front part, an intermediate part, and a rear part, and any part that is in contact with the heel is defined as a slaughtered part.

<翅の角度の算出>
翅の角度の算出は以下のようにして行う。
−骨格の中心から翅先端方向に直線を取得する。
−直線と骨格のなす2つの角を取得する。
−取得した2つの角のうち小さい方の角度を以て、翅の角度として算出する。
<Calculation of heel angle>
The heel angle is calculated as follows.
-Obtain a straight line from the center of the skeleton to the tip of the heel.
-Get two corners between a straight line and a skeleton.
-The smaller one of the two obtained angles is calculated as the angle of the eyelid.

<虫の頭部方向の推定>
上記のようにして求めた翅の角度によって、虫の頭部方向を推定することができる。即ち、翅の角度が小である場合は、翅と逆方向を頭部方向とし、翅の角度が大である場合は、体部の前部と後部のうち、太い方(体幅が大)を頭部方向とする。
<Estimation of insect head direction>
The head direction of the insect can be estimated based on the angle of the moth determined as described above. That is, when the angle of the heel is small, the direction opposite to the heel is the head direction, and when the angle of the heel is large, the thicker one (the body width is large) of the front part and the rear part of the body part Is the head direction.

<後ろ脚の抽出>
後ろ脚は、頭部方向と逆の方向から伸びる脚を以て後ろ脚とする。
<Extraction of back legs>
The back leg is the back leg with the leg extending from the direction opposite to the head direction.

<体部の丸みの特徴抽出>
体部の丸みの特徴は、体幅のヒストグラムから近似二次関数を取得し、ヒストグラム両端の傾きの平均値から抽出することができる。
<Feature extraction of body roundness>
The feature of the roundness of the body part can be extracted from an average value of slopes at both ends of the histogram by obtaining an approximate quadratic function from the histogram of the body width.

<眼の特徴抽出>
眼の特徴抽出のために、先ず、体部分の二値化により、眼の候補となる黒色部分の抽出を行う。そして、その黒色部分のうち、骨格の先端部に位置することと、例えば、縦横比<2.0を満たす形状の部分であることの要件を併せ有する部分を以て眼と同定する。
<Eye feature extraction>
In order to extract eye features, first, a black part that is a candidate for an eye is extracted by binarizing the body part. Then, the black portion is identified as an eye by a portion having both the requirement to be located at the distal end portion of the skeleton and the portion having a shape satisfying, for example, the aspect ratio <2.0.

同定ステップ
次いで、上記方法によって抽出された特徴データを用いての同定方法について、図7に示すフロー図を参照しつつ説明する。同定ステップは、同定対象虫を有翅、無翅、巨大の3種類に分類する分類分け工程と(S21)、一次から三次に亘る同定工程(S22、S24、S26)と、同定結果を出力する結果出力工程(S23、S25、S27)とから成る。
Identification Step Next, an identification method using the feature data extracted by the above method will be described with reference to the flowchart shown in FIG. In the identification step, a classification process for classifying the identification target insects into three types, ie, arrogant, sterile, and giant (S21), an identification process ranging from primary to tertiary (S22, S24, S26), and an identification result is output. Result output step (S23, S25, S27).

有翅、無翅、巨大の3種類への分類分けは、処理の効率向上のために行うもので、先ず、巨大虫類か否かの判別を行い、巨大虫類ではないと同定された虫類について、有翅か無翅かの同定を行う。巨大か否かは、例えば、全体面積>10mmの条件を満たすか否かによって同定する。通例、ガガンボやヒラタアブ等が巨大虫類に分類される。次いで、巨大虫類ではないと同定された虫類について、例えば、体・翅面積比>0.1の条件を満たすか否かの同定をし、これを満たす場合は有翅虫類(例えば、クロバネキノコバエ、アブラムシ、ショウジョウバエ、ノミバエ)に分類し、満たさない場合は無翅虫類(例えば、コクヌストモドキ、カツオブシムシ、ハネカクシ、シバンムシ)に分類する。 The classification into the three types of 翅, 翅, and giant is done to improve the efficiency of processing. First, it is determined whether or not it is a giant reptile, and the insect identified as not a giant reptile Identify the presence or absence of a class. Whether or not it is huge is identified by, for example, whether or not the condition of the entire area> 10 mm 2 is satisfied. Usually, gangambo and hiratabu are classified as giant reptiles. Next, for the reptiles that are not identified as giant reptiles, for example, it is identified whether or not the condition of the body / moth area ratio> 0.1 is satisfied. If it does not meet the criteria, then classify it as an insect-free species (for example, Knotnutomodoki, Katsuobushimushi, Hanekakushi, Shibanmushi).

一次同定工程(S22)においては、各虫類につき、そのメルクマールデータの数値幅(しきい値)を設定し、同定対象虫の特徴がいずれかの虫類のしきい値に該当するか否かを同定し、該当する場合にその同定対象虫を当該虫と同定する処理がなされる。しきい値の一例を挙げれば、捕獲確率の高い有翅のユスリカ(小黒)の場合は、体長(mm)0.50−2.00、体幅(mm)0.20−0.85)、体長・体幅比0.90−1.60、翅面積(mm)0.10−1.00、体・翅面積比0.10−1.30の如きである。この一次同定工程(S22)の段階で同定できた場合は、その同定結果(虫名)が出力され(S23)、同定できなかった場合は、二次同定工程(S24)に移行する。 In the primary identification step (S22), for each reptile, a numerical range (threshold value) of the Merckmar data is set, and whether or not the feature of the identification target insect corresponds to the threshold value of any reptile And, if applicable, a process of identifying the identification target insect as the insect. As an example of the threshold value, in the case of a trapped chironomid (small black) with a high capture probability, body length (mm) 0.50-2.00, body width (mm) 0.20-0.85), The body length / body width ratio is 0.90-1.60, the heel area (mm 2 ) is 0.10-1.00, and the body / heel area ratio is 0.10-1.30. When identification is possible at the stage of the primary identification step (S22), the identification result (insect name) is output (S23), and when the identification is not possible, the process proceeds to the secondary identification step (S24).

二次同定工程(S24)は、上記しきい値を拡張し、一次同定工程(S22)において該当しなかった同定対象虫が、拡張されたしきい値に該当するか否かの同定をする工程である。その場合のしきい値の拡張は、捕獲確率の高い虫から行っていくことが好ましい。この二次同定工程(S24)において該当するものがあった場合は、その同定対象虫類を当該虫類と同定する処理がなされ、その結果が出力される(S25)。また、該当するものがなかった場合は、三次同定工程(S26)に移行する。   In the secondary identification step (S24), the threshold value is expanded, and it is identified whether the identification target insect that does not correspond in the primary identification step (S22) corresponds to the expanded threshold value. It is. In this case, it is preferable to extend the threshold from an insect having a high capture probability. If there is a corresponding item in the secondary identification step (S24), the identification target insect is identified as the insect, and the result is output (S25). Moreover, when there is no applicable thing, it transfers to a tertiary identification process (S26).

三次同定工程(S26)は虫名の最終決定工程であって、そのサブステップとして、複数種(例えば、体長、体幅、体長・体幅比、脚長、脚長・体長比、翅面積、翅面積・体面積比、面積、体面積の9種)のメルクマールにつき代表値を設定するステップと、その代表値につき同定対象の虫類とのユークリッド距離を算出するステップと、その距離が短い順に3種類の同定候補を決定するステップとを含む。代表値は、複数サンプルの平均値を採用する。   The tertiary identification step (S26) is a final determination step of the insect name, and as sub-steps there are multiple types (for example, body length, body width, body length / body width ratio, leg length, leg length / body length ratio, heel area, heel area) -9 types of body area ratio, area, and body area), a step of setting a representative value, a step of calculating a Euclidean distance between the representative value and the insect to be identified, and three types in the order of the shortest distance Determining identification candidates. As the representative value, an average value of a plurality of samples is adopted.

図8に示す例は、代表値が、クロバネキノコバエの場合が体長1.5mm、脚長0.5mmであり、ショウジョウバエの場合が体長3.0mm、脚長0.0mmであり、タマバエの場合が体長1.0mm、脚長1.5mmであり、ユスリカの場合が体長0.5mm、脚長0.5mmと設定され、同定対象の虫類の体長が1.5mmで脚長が0.5mmである場合の同定例を示すものである。この場合において、それらの代表値と同定対象の虫類とのユークリッド距離が、クロバネキノコバエが0.70、ショウジョウバエが1.58、タマバエが1.11、ユスリカが1.00のときは、その順位は1位から順に、クロバネキノコバエ、ユスリカ、タマバエ、ショウジョウバエとなる。   In the example shown in FIG. 8, the representative values are 1.5 mm in body length and 0.5 mm leg length in the case of the black fly, the body length is 3.0 mm and 0.0 mm in the case of Drosophila, and the body length is in the case of the fly fly. It is 1.0 mm, leg length is 1.5 mm, the chironomid case is set as 0.5 mm body length and leg length 0.5 mm, and the same is true when the body length of the insect to be identified is 1.5 mm and the leg length is 0.5 mm. This is a regular example. In this case, when the Euclidean distance between these representative values and the reptile to be identified is 0.70 for D. melanogaster, 1.58 for Drosophila, 1.11 for Drosophila, 1.00 for chironomid, In order from the first place, the order is Kurobane mushroom fly, chironomid, gall fly, and Drosophila.

決定された3種類の同定候補の中から最終的に虫名の同定がなされるが、通例、第1候補を以て同定結果とする(上記例では、同定対象の虫類はクロバネキノコバエと同定される。)が、その際、固有の特徴を持つ虫類に対して、その特徴を条件として候補順位の繰り上げを行うようにすることもできる。例えば、ノミバエについては、以下の4つの特徴のうち3つ以上を充足する場合に、第1候補に繰り上げることができる。
−体色につき黄色割合が40%以上であること
−後ろ脚が抽出されること
−翅生部分が中間部であること
−黒眼が抽出されること
The name of the insect is finally identified from the three types of identification candidates determined. Usually, the first candidate is used as the identification result (in the above example, the insect to be identified is identified as the black fly mushroom fly). In this case, however, it is possible to move up the candidate ranking for a reptile having a unique characteristic on the condition of the characteristic. For example, fleas can be raised to the first candidate when three or more of the following four characteristics are satisfied.
-The percentage of yellow for each body color is 40% or more-The rear leg is extracted-The cocoon part is the middle part-The black eye is extracted

上記のとおり、本発明に係る方法においては、虫類全体のシルエットから虫類を同定するのではなく、先ず、体領域、脚領域及び翅領域の各部位を抽出し、各部位の特徴から虫を同定するという手法を用いる。これにより、粘着捕獲された虫の向きの違いによる影響を極力少なくすることが可能となる。また、似た色や形、大きさを持つ種類の虫が存在するという問題は、各部位の特徴数を増やすことで解決することが可能となる。   As described above, in the method according to the present invention, instead of identifying the reptile from the silhouette of the whole reptile, first, each part of the body region, the leg region and the cocoon region is extracted, and the insect is determined from the characteristics of each part. Is used. Thereby, it becomes possible to reduce the influence by the difference in the direction of the insect trapped by sticking as much as possible. In addition, the problem of the presence of similar types of insects with similar colors, shapes, and sizes can be solved by increasing the number of features in each part.

この発明をある程度詳細にその最も好ましい実施形態について説明してきたが、この発明の精神と範囲に反することなしに広範に異なる実施形態を構成することができることは言うまでもない。例えば、画像読み込み手段によって読み込む粘着シートの画像として、通信網を介して遠隔地から伝送されてくる画像を用い、その同定結果を通信網を介して遠隔地に出力することも可能である。従って、この発明は添付請求の範囲において限定した以外は、その特定の実施形態に制約されるものではない。   Although the invention has been described in some detail in its most preferred embodiments, it will be appreciated that a wide variety of embodiments can be constructed without departing from the spirit and scope of the invention. For example, it is also possible to use an image transmitted from a remote location via a communication network as an image of the adhesive sheet read by the image reading means, and output the identification result to the remote location via the communication network. Accordingly, the invention is not limited to specific embodiments thereof except as limited in the appended claims.

1 捕虫装置
2 画像読み込み手段
3 解析装置
4 前処理手段
5 特徴抽出手段
6 データ記憶手段
7 同定手段
8 出力手段
11 本体ケース
12 前面開口部
13 LEDユニット
15 透光性の粘着シート
16 導光板挿入口
31 エッジ
32 虫候補領域
33 非エッジブロック領域
34 仮虫領域
35 エッジ
36 注目画素
37 隣接画素
38 虫領域
39 背景領域
DESCRIPTION OF SYMBOLS 1 Insect capture device 2 Image reading means 3 Analysis apparatus 4 Pre-processing means 5 Feature extraction means 6 Data storage means 7 Identification means 8 Output means 11 Main body case 12 Front opening part 13 LED unit 15 Translucent adhesive sheet 16 Light guide plate insertion port 31 Edge 32 Insect candidate area
33 non-edge block area 34 pseudoworm area 35 edge 36 pixel of interest 37 adjacent pixel 38 insect area 39 background area

Claims (11)

虫類を捕獲した捕虫装置の粘着シートの画像を画像読み込み手段によって読み込む画像読み込みステップと、
読み込まれた前記画像からエッジを取得することにより虫候補領域を取得する虫候補領域取得ステップと、
取得された前記虫候補領域以外の背景領域を削除する背景領域削除ステップと、
前記虫候補領域から虫領域を抽出する虫領域抽出ステップと、
抽出された前記虫領域から少なくとも体領域、脚領域及び翅領域を抽出し、抽出された前記体領域から体長、体幅及び体長と体幅の比を算出し、前記脚領域から脚長及び脚長と体長の比を算出し、また、前記翅領域から翅面積及び翅面積と体面積の比を算出して形態的特徴のメルクマールデータを取得する特徴抽出ステップと、
取得された前記メルクマールデータを、予め虫ごとに設定されて記憶されている標準メルクマールデータと照合することにより当該虫類を同定する同定ステップとから成ることを特徴とする捕獲虫類の同定方法。
An image reading step of reading an image of the adhesive sheet of the insect trapping device that has captured the insects by an image reading means;
An insect candidate region acquisition step of acquiring an insect candidate region by acquiring an edge from the read image;
A background region deletion step of deleting a background region other than the acquired insect candidate region;
An insect region extracting step for extracting an insect region from the insect candidate region;
Extract at least a body region, a leg region and a heel region from the extracted insect region, calculate a body length, a body width and a ratio of the body length and the body width from the extracted body region, and calculate a leg length and a leg length from the leg region. A feature extraction step of calculating a ratio of body length, and calculating a ratio of a heel area and a heel area to a body area from the heel area to obtain Merckmar data of morphological features;
A method for identifying a captured insect, comprising: an identification step for identifying the insect by comparing the acquired Merckmar data with standard Merckmar data set and stored in advance for each insect.
更に前記メルクマールとして、体色、尾長、尾長と体長の比、翅生部分、翅の角度、頭部方向、後ろ脚の状態、体部の丸み、眼の特徴のうちの少なくとも1つを含む、請求項1に記載の捕獲虫類の同定方法。   Further, as the Merckmar, including at least one of body color, tail length, ratio of tail length to body length, slaughtered part, heel angle, head direction, rear leg state, roundness of body part, eye characteristics, The method for identifying a capture insect according to claim 1. 前記虫候補領域取得ステップは、読み込まれた前記画像からエッジを取得することと、前記画像をブロック分割し、エッジを含むブロックを取得してラベリングすることから成る、請求項1又は2に記載の捕獲虫類の同定方法。   The said bug candidate area | region acquisition step consists of acquiring an edge from the said read said image, dividing the said image into blocks, acquiring the block containing an edge, and labeling. Identification method of capture insects. 前記背景領域除去ステップは、前記エッジを含むブロック以外のブロックを、HSV色情報を用いて削除することから成る、請求項3に記載の捕獲虫類の同定方法。   4. The method for identifying a captured insect according to claim 3, wherein the background region removing step comprises deleting blocks other than the block including the edge using HSV color information. 前記虫領域抽出ステップは、前記虫候補領域についてエッジ検出することと、勾配方向に注目画素を設定することと、前記注目画素に隣接する類似輝度画素を順次統合することから成る、請求項1乃至4のいずれかに記載の捕獲虫類の同定方法。   2. The insect region extracting step includes edge detection for the insect candidate region, setting a target pixel in a gradient direction, and sequentially integrating similar luminance pixels adjacent to the target pixel. 5. The method for identifying a capture insect as described in any one of 4 above. 前記同定ステップは、複数種のメルクマールにつき代表値を設定するステップと、その代表値につき同定対象の虫類とのユークリッド距離を算出するステップと、その距離が短い順に複数種の同定候補を決定するステップとを含む、請求項1乃至5のいずれかに記載の捕獲虫類の同定方法。   The identification step includes a step of setting a representative value for a plurality of types of Merckmar, a step of calculating a Euclidean distance from the insect to be identified for the representative value, and determining a plurality of types of identification candidates in order of increasing distance. A method for identifying a capture insect as claimed in any one of claims 1 to 5, comprising a step. 前記同定ステップは、
同定対象虫類を有翅、無翅、巨大の3種類に分類する分類分け工程と、各虫類についてメルクマールのしきい値幅を設定し、前記同定対象虫類のメルクマール値がいずれかの虫類の前記しきい値幅内に含まれるか否かを同定し、含まれる場合に前記同定対象虫類を当該虫類と同定する一次同定工程と、
前記しきい値幅を拡張し、前記一次同定工程において同定されなかった前記同定対象虫類が前記拡張されたしきい値幅内に含まれるか否かを同定し、含まれる場合に前記同定対象虫類を当該虫類と同定する二次同定工程と、
複数種のメルクマールにつき代表値を設定し、その代表値につき同定対象の虫類とのユークリッド距離を算出し、その距離が短い順に複数種の同定候補を決定し、その同定候補の中から最終的に同定を行う三次同定工程
とから成る、請求項1乃至5のいずれかに記載の捕獲虫類の同定方法。
The identification step includes
A classification process for classifying the identification target insects into three types: arrogant, arrogant, and giant, and setting a Merckmar threshold width for each of the reptiles, and the Merckmar value of the identification target insect is one of the reptiles Primary identification step of identifying whether or not included within the threshold width, and identifying the identification target insect as the insect when it is included,
The threshold width is expanded, and it is identified whether or not the identification target insects not identified in the primary identification step are included in the expanded threshold width, and if included, the identification target insects Secondary identification step for identifying
A representative value is set for multiple types of Merckmar, and the Euclidean distance between the representative value and the reptile to be identified is calculated, and multiple types of identification candidates are determined in order from the shortest distance. The identification method of the capture insects in any one of Claims 1 thru | or 5 which consists of the tertiary identification process which identifies.
前記二次同定工程における前記しきい値幅の拡張は、捕獲確率の高い虫から行っていく、請求項7に記載の捕獲虫類の同定方法。   The method for identifying a captured insect according to claim 7, wherein the expansion of the threshold width in the secondary identification step is performed from an insect having a high capture probability. 前記三次同定工程において複数種の同定候補の中から最終的に同定を行うに当たり、固有の特徴を持つ虫類に対して、その特徴を充足することを条件として候補順位の繰り上げを行う、請求項7又は8に記載の捕獲虫類の同定方法。   In final identification from among a plurality of types of identification candidates in the tertiary identification step, the candidate ranking is raised on condition that the feature is satisfied for a reptile having a unique feature. The method for identifying a capture insect as described in 7 or 8. 粘着シートによって捕虫する捕虫装置と、前記捕虫装置から回収してきた虫類の粘着した粘着シートの画像を読み込む画像読み込み手段と、前記画像読み込み手段によって読み込まれた画像を解析して捕獲された虫類を同定する解析装置と、前記解析装置において同定された結果を出力する出力手段とから成り、
前記解析装置は、前記画像読み込み手段によって読み込まれた画像に対し、虫領域と背景領域とを区別するための画像処理をする前処理手段と、前処理された画像から虫類の形態的特徴のメルクマールデータを取得する特徴抽出手段と、虫類の形態的特徴のメルクマールを標準化した標準メルクマールデータを記憶するデータ記憶手段と、前記特徴抽出手段によって抽出された虫類の形態的特徴のメルクマールデータと前記データ記憶手段において記憶されている前記標準メルクマールデータとを比較することにより、当該虫類の同定をする同定手段とを含んで構成されることを特徴とする捕獲虫類の同定システム。
An insect trapping device that catches insects with an adhesive sheet, an image reading means for reading an image of an adhesive sheet to which insects recovered from the insect trapping apparatus are adhered, and an insect captured by analyzing the image read by the image reading means And an output device for outputting the result identified in the analysis device,
The analysis device includes preprocessing means for performing image processing for distinguishing an insect area and a background area on the image read by the image reading means, and a morphological feature of the insect from the preprocessed image. Feature extraction means for obtaining Merckmar data, data storage means for storing standard Merckmar data obtained by standardizing Merckmar of morphological features of reptiles, Merckmar data of morphological features of worms extracted by the feature extraction means, An identification system for captured reptiles, comprising: identification means for identifying the reptile by comparing the standard Merckmar data stored in the data storage means.
前記特徴抽出手段によって取得される前記虫類の形態的特徴のメルクマールには、少なくとも、体長、体幅、体長と体幅の比、脚長、脚長と体長の比、翅面積、翅面積と体面積の比が含まれる、請求項10に記載の捕獲虫類の同定システム。   At least the body length, the body width, the ratio of the body length to the body width, the leg length, the ratio of the leg length to the body length, the heel area, the heel area, and the body area, The system of claim 10, wherein a ratio of
JP2013011244A 2013-01-24 2013-01-24 Identification method and identification system for captured insects Active JP5690856B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013011244A JP5690856B2 (en) 2013-01-24 2013-01-24 Identification method and identification system for captured insects

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013011244A JP5690856B2 (en) 2013-01-24 2013-01-24 Identification method and identification system for captured insects

Publications (2)

Publication Number Publication Date
JP2014142833A true JP2014142833A (en) 2014-08-07
JP5690856B2 JP5690856B2 (en) 2015-03-25

Family

ID=51424057

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013011244A Active JP5690856B2 (en) 2013-01-24 2013-01-24 Identification method and identification system for captured insects

Country Status (1)

Country Link
JP (1) JP5690856B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105028366A (en) * 2015-08-27 2015-11-11 李�荣 Handheld device capable of catching and killing mosquitoes through automatic positioning based on communication mode
JP6313886B1 (en) * 2017-05-23 2018-04-18 アース環境サービス株式会社 Identification method of captured insects
CN108782492A (en) * 2018-05-18 2018-11-13 仲恺农业工程学院 Pest control method based on pest control equipment
JP2021510303A (en) * 2018-01-12 2021-04-22 スポッタ リミテッド System and method
KR20220046975A (en) * 2020-10-08 2022-04-15 고려대학교 산학협력단 Method for identifying Calliphoridae flies comprising measuring the angle between the slits of the posterior spiracle
WO2023190096A1 (en) 2022-03-31 2023-10-05 株式会社ペストビジョンソリューションズ Insect identification image data generation method and insect identification system
JP7400035B1 (en) 2022-07-27 2023-12-18 日本農薬株式会社 Programs and pest inspection equipment for pest inspection
JP7481939B2 (en) 2020-08-04 2024-05-13 株式会社竹中工務店 How to identify insects

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101816370B1 (en) 2015-12-31 2018-01-11 재단법인대구경북과학기술원 Insects eradication lighting device, insects eradication method and insects eradication system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003304788A (en) * 2002-04-17 2003-10-28 Hiroyuki Takahashi Harmful insect counter
JP2007193601A (en) * 2006-01-19 2007-08-02 Hitachi Software Eng Co Ltd Image processing system
JP2007199767A (en) * 2006-01-23 2007-08-09 Hitachi Software Eng Co Ltd Image processing system
JP2012161269A (en) * 2011-02-04 2012-08-30 Univ Of Tokushima Insect image processing apparatus, image processing method, image processing program, and computer-readable storage medium

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003304788A (en) * 2002-04-17 2003-10-28 Hiroyuki Takahashi Harmful insect counter
JP2007193601A (en) * 2006-01-19 2007-08-02 Hitachi Software Eng Co Ltd Image processing system
JP2007199767A (en) * 2006-01-23 2007-08-09 Hitachi Software Eng Co Ltd Image processing system
JP2012161269A (en) * 2011-02-04 2012-08-30 Univ Of Tokushima Insect image processing apparatus, image processing method, image processing program, and computer-readable storage medium

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CSNG200701115002; 小池 秀明、外3名: '"色ヒストグラムを用いた虫画像の分類"' 電子情報通信学会技術研究報告 Vol.107, No.58, 20070517, p.7-10, 社団法人電子情報通信学会 *
JPN6014051406; 小池 秀明、外3名: '"色ヒストグラムを用いた虫画像の分類"' 電子情報通信学会技術研究報告 Vol.107, No.58, 20070517, p.7-10, 社団法人電子情報通信学会 *

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105028366A (en) * 2015-08-27 2015-11-11 李�荣 Handheld device capable of catching and killing mosquitoes through automatic positioning based on communication mode
JP6313886B1 (en) * 2017-05-23 2018-04-18 アース環境サービス株式会社 Identification method of captured insects
JP2018197940A (en) * 2017-05-23 2018-12-13 アース環境サービス株式会社 Identification method of captured worms
JP7455061B2 (en) 2018-01-12 2024-03-25 スポッタ リミテッド System and method
JP2021510303A (en) * 2018-01-12 2021-04-22 スポッタ リミテッド System and method
US12096759B2 (en) 2018-01-12 2024-09-24 Spotta Limited Detecting the presence of pests using networked systems
CN108782492A (en) * 2018-05-18 2018-11-13 仲恺农业工程学院 Pest control method based on pest control equipment
CN108782492B (en) * 2018-05-18 2021-03-02 仲恺农业工程学院 Pest control method based on pest control equipment
JP7481939B2 (en) 2020-08-04 2024-05-13 株式会社竹中工務店 How to identify insects
KR20220046975A (en) * 2020-10-08 2022-04-15 고려대학교 산학협력단 Method for identifying Calliphoridae flies comprising measuring the angle between the slits of the posterior spiracle
KR102412828B1 (en) * 2020-10-08 2022-06-24 고려대학교 산학협력단 Method for identifying Calliphoridae flies comprising measuring the angle between the slits of the posterior spiracle
WO2023190096A1 (en) 2022-03-31 2023-10-05 株式会社ペストビジョンソリューションズ Insect identification image data generation method and insect identification system
WO2024024434A1 (en) * 2022-07-27 2024-02-01 日本農薬株式会社 Program for pest inspection and pest inspection device
JP2024017319A (en) * 2022-07-27 2024-02-08 日本農薬株式会社 Program for inspection of pest and pest inspection device
JP7400035B1 (en) 2022-07-27 2023-12-18 日本農薬株式会社 Programs and pest inspection equipment for pest inspection

Also Published As

Publication number Publication date
JP5690856B2 (en) 2015-03-25

Similar Documents

Publication Publication Date Title
JP5690856B2 (en) Identification method and identification system for captured insects
US11636701B2 (en) Method for calculating deviation relations of a population
Bjerge et al. Real‐time insect tracking and monitoring with computer vision and deep learning
Hamuda et al. Automatic crop detection under field conditions using the HSV colour space and morphological operations
Chabot et al. Computer‐automated bird detection and counts in high‐resolution aerial images: a review
CN111709374B (en) Bird condition detection method, bird condition detection device, computer equipment and storage medium
Descamps et al. An automatic counter for aerial images of aggregations of large birds
US11501113B2 (en) Leveraging smart-phone cameras and image processing techniques to classify mosquito genus and species
EP3798901A1 (en) Quantifying plant infestation by estimating the number of insects on leaves, by convolutional neural networks that use training images obtained by a semi-supervised approach
CN111353452A (en) Behavior recognition method, behavior recognition device, behavior recognition medium and behavior recognition equipment based on RGB (red, green and blue) images
JP2002203242A (en) Plant recognition system
JP2020503886A (en) Methods, media and systems for detecting potato virus in crop images
Minakshi et al. Leveraging smart-phone cameras and image processing techniques to classify mosquito species
Annamalai et al. Citrus yield mapping system using machine vision
KR102283452B1 (en) Method and apparatus for disease classification of plant leafs
Zhang et al. Individual leaf identification from horticultural crop images based on the leaf skeleton
JP6313886B1 (en) Identification method of captured insects
Tashakkori et al. Image processing for honey bee hive health monitoring
US11227382B2 (en) Change detection system
Sharma Rise of computer vision and internet of things
De Silva et al. Dengue mosquito larvae identification using digital images
Bravo-Reyna et al. Recognition of the damage caused by the cogollero worm to the corn plant, Using artificial vision
Tresson et al. Insect interaction analysis based on object detection and CNN
König Varroacounter–towards automating the varroa screening for alleviated bee hive treatment
Sundaram et al. Detection and Providing Suggestion for Removal of Weeds Using Machine Learning Techniques

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150109

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150127

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150202

R150 Certificate of patent or registration of utility model

Ref document number: 5690856

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250