Nothing Special   »   [go: up one dir, main page]

JP7481939B2 - How to identify insects - Google Patents

How to identify insects Download PDF

Info

Publication number
JP7481939B2
JP7481939B2 JP2020132487A JP2020132487A JP7481939B2 JP 7481939 B2 JP7481939 B2 JP 7481939B2 JP 2020132487 A JP2020132487 A JP 2020132487A JP 2020132487 A JP2020132487 A JP 2020132487A JP 7481939 B2 JP7481939 B2 JP 7481939B2
Authority
JP
Japan
Prior art keywords
insect
wing
image
vein
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020132487A
Other languages
Japanese (ja)
Other versions
JP2022029248A (en
Inventor
文 木村
弘樹 宮田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Takenaka Corp
Original Assignee
Takenaka Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Takenaka Corp filed Critical Takenaka Corp
Priority to JP2020132487A priority Critical patent/JP7481939B2/en
Publication of JP2022029248A publication Critical patent/JP2022029248A/en
Application granted granted Critical
Publication of JP7481939B2 publication Critical patent/JP7481939B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、虫類特定方法に関する。 The present invention relates to a method for identifying insects.

従来、捕獲虫類の同定方法が知られている(例えば、特許文献1)。この捕獲虫類の同定方法は、虫類を捕獲した捕虫装置の粘着シートの画像を読み込む。そして、捕獲虫類の同定方法は、虫領域から少なくとも体領域、脚領域及び翅領域を抽出し、抽出された体領域から体長、体幅及び体長と体幅の比を算出し、脚領域から脚長及び脚長と体長の比を算出し、また、翅領域から翅面積及び翅面積と体面積の比を算出して形態的特徴のメルクマールデータを取得する。そして、捕獲虫類の同定方法は、取得されたメルクマールデータを、予め虫ごとに設定されて記憶されている標準メルクマールデータと照合することにより当該虫類を同定する。 A method for identifying captured insects is known (for example, Patent Document 1). This method reads an image of the sticky sheet of an insect trapping device that has captured an insect. The method extracts at least the body region, leg region, and wing region from the insect region, calculates the body length, body width, and the ratio of body length to body width from the extracted body region, calculates the leg length and the ratio of leg length to body length from the leg region, and calculates the wing area and the ratio of wing area to body area from the wing region to obtain landmark data of morphological characteristics. The method identifies the insect by comparing the obtained landmark data with standard landmark data that is set and stored in advance for each insect.

また、虫の数を計数する画像処理装置が知られている(例えば、特許文献2)。この画像処理装置は、対象画像の解像度が高い場合は、特徴量を用いた処理を行い、対象画像の解像度が低い場合は、テンプレートマッチングを用いた処理を行うことにより、虫の数を計数する。 An image processing device that counts the number of insects is also known (see, for example, Patent Document 2). This image processing device counts the number of insects by performing processing using features when the resolution of the target image is high, and by performing processing using template matching when the resolution of the target image is low.

特許5690856号公報Patent No. 5690856 特許5812321号公報Patent No. 5812321

ところで、虫類の翅脈に関する情報は、虫類の種類を特定するのに有用な情報である。 By the way, information about the wing venation of insects is useful for identifying the species of insect.

上記特許文献1の技術は、虫類の翅領域を画像処理によって抽出するものの、翅領域の面積等を用いており翅脈の情報を用いるものではない。また、上記特許文献2の技術も翅脈の情報を用いるものではない。 The technology in Patent Document 1 extracts the wing region of insects through image processing, but it uses the area of the wing region and does not use information on the wing veins. In addition, the technology in Patent Document 2 does not use information on the wing veins either.

このため、上記特許文献1,2の技術は、虫類の翅脈に関する情報を用いて虫類の種類を特定することができない、という課題がある。 For this reason, the techniques of Patent Documents 1 and 2 above have the problem that they cannot identify the type of insect using information about the insect's wing veins.

本発明は上記事実に鑑みて成されたものであり、虫類の翅脈に関する情報を用いて虫類の種類を特定することを目的とする。 The present invention was made in consideration of the above facts, and aims to identify the type of insect using information about the insect's wing veins.

本発明に係る第1の虫類特定方法は、虫類の翅を表す3次元データを取得し、取得された前記3次元データから複数の屈曲点を抽出し、抽出された前記複数の屈曲点に基づいて、複数のポリゴンを生成し、生成された前記複数のポリゴンに基づいて、虫類の翅脈を含む2次元画像である翅脈画像を生成し、虫類の種類と虫類の翅脈を表す画像とが関連付けられた複数のデータが格納されたデータベース又は前記複数のデータから予め学習された学習済みモデルであって、かつ前記翅脈画像から該翅脈画像に写る虫類の種類を特定するための学習済みモデルを用いて、生成された前記翅脈画像に対応する、虫類の種類を特定する、処理をコンピュータが実行する虫類特定方法である。本発明に係る虫類特定方法によれば、虫類の翅脈に関する情報を用いて虫類の種類を特定することができる。 The first insect identification method according to the present invention is an insect identification method in which a computer executes a process of acquiring three-dimensional data representing an insect's wing, extracting a plurality of bending points from the acquired three-dimensional data, generating a plurality of polygons based on the extracted bending points, generating a vein image, which is a two-dimensional image including the insect's vein, based on the generated polygons, and identifying the type of insect corresponding to the generated vein image using a database storing a plurality of data in which the type of insect is associated with an image representing the insect's vein or a trained model trained in advance from the plurality of data, and using the trained model to identify the type of insect depicted in the vein image from the vein image. According to the insect identification method according to the present invention, the type of insect can be identified using information about the insect's vein.

また、本発明に係る第2の虫類特定方法は、虫類の翅を表す3次元データを取得し、取得された前記3次元データから、翅のアウトライン及び翅脈を含むポリラインデータを抽出し、抽出された前記ポリラインデータから抽出される特徴量に基づいて、虫類の種類と虫類の翅脈を表す特徴量とが関連付けられた複数のデータが格納されたデータベース又は前記複数のデータから予め学習された学習済みモデルであって、かつ前記特徴量から虫類の種類を特定するための学習済みモデルを用いて、取得した前記3次元データに対応する、虫類の種類を特定する、処理をコンピュータが実行する虫類特定方法である。本発明に係る虫類特定方法によれば、虫類の翅脈に関する情報を用いて虫類の種類を特定することができる。 A second insect identification method according to the present invention is an insect identification method in which a computer executes a process of acquiring three-dimensional data representing the wings of an insect, extracting polyline data including the outline and wing veins of the wing from the acquired three-dimensional data, and identifying the type of insect corresponding to the acquired three-dimensional data based on features extracted from the extracted polyline data using a database storing a plurality of data in which the type of insect is associated with features representing the wing veins of the insect, or a trained model trained in advance from the plurality of data, and using the trained model to identify the type of insect from the features. According to the insect identification method according to the present invention, the type of insect can be identified using information about the wing veins of the insect.

また、本発明に係る虫類特定方法は、前記翅脈画像を生成する際に、虫類の翅脈に関する正解データの特徴量から導かれる予め定められたルールを参照することにより、前記虫類の翅の重なり又は折れ曲がりが解消されるように、前記翅脈画像を生成するようにすることができる。これにより、虫類の種類を特定するための翅脈画像を適切に生成することができる。 In addition, the insect identification method according to the present invention can generate the wing vein image by referring to predetermined rules derived from the features of the ground-truth data on the insect's wing veins, so that the wing vein image is generated in such a way that overlaps or bends in the insect's wings are eliminated. This makes it possible to appropriately generate a wing vein image for identifying the type of insect.

本発明によれば、虫類の翅脈に関する情報を用いて虫類の種類を特定することができる、という効果が得られる。 The present invention has the effect of being able to identify the type of insect using information about the wing veins of the insect.

第1実施形態に係る画像処理システムを示すブロック図である。1 is a block diagram showing an image processing system according to a first embodiment. カメラによる粘着紙の画像の撮像を説明するための図である。10 is a diagram for explaining how an image of an adhesive paper is captured by a camera. FIG. 虫類の翅の部分を表す領域の抽出を説明するための図である。FIG. 13 is a diagram for explaining extraction of a region representing a wing portion of an insect. 虫類の翅を表す3次元データの生成を説明するための図である。FIG. 13 is a diagram for explaining the generation of three-dimensional data representing an insect wing. 屈曲点の抽出とポリゴンの生成とを説明するための図である。11A and 11B are diagrams for explaining extraction of bending points and generation of polygons; 虫類の翅脈に関する正解データの特徴量から導かれる予め定められたルールを説明するための図である。11 is a diagram for explaining predetermined rules derived from feature amounts of correct answer data regarding insect wing veins. FIG. ルールを考慮した翅脈画像の生成を説明するための図である。FIG. 13 is a diagram for explaining generation of a vein image taking rules into consideration. データベースに格納されるデータを説明するための図である。FIG. 2 is a diagram for explaining data stored in a database. 虫類の種類の特定を説明するための図である。FIG. 13 is a diagram for explaining identification of insect species. 基本翅脈画像と各虫類の翅脈画像とを説明するための図である。FIG. 2 is a diagram for explaining a basic wing vein image and wing vein images of various insects. 虫類の翅の特徴量の一例を示す図である。FIG. 13 is a diagram illustrating an example of feature amounts of an insect wing. 第1実施形態に係る画像処理システムの虫類特定処理ルーチンの内容を示すフローチャートである。5 is a flowchart showing the contents of an insect identification processing routine of the image processing system according to the first embodiment. 第2実施形態に係る画像処理システムを示すブロック図である。FIG. 11 is a block diagram showing an image processing system according to a second embodiment. ポリラインデータの抽出を説明するための図である。FIG. 13 is a diagram for explaining extraction of polyline data. 第2実施形態に係る画像処理システムの虫類特定処理ルーチンの内容を示すフローチャートである。13 is a flowchart showing the contents of an insect identification processing routine of the image processing system according to the second embodiment. 虫類の種類を特定する際に用いる学習済みモデルの一例を示す図である。FIG. 13 is a diagram showing an example of a trained model used to identify the type of insect. 特徴量の一例を示す図である。FIG. 11 is a diagram illustrating an example of a feature amount.

以下、図面を参照して本発明の実施形態を詳細に説明する。 The following describes in detail an embodiment of the present invention with reference to the drawings.

[第1実施形態] [First embodiment]

<本実施形態の画像処理システムの構成> <Configuration of the image processing system of this embodiment>

図1は、第1実施形態に係る画像処理システム10の構成の一例を示すブロック図である。画像処理システム10は、機能的には、図1に示されるように、カメラ12と、コンピュータ14と、表示部16とを含んだ構成で表すことができる。 Figure 1 is a block diagram showing an example of the configuration of an image processing system 10 according to the first embodiment. Functionally, the image processing system 10 can be represented as including a camera 12, a computer 14, and a display unit 16, as shown in Figure 1.

カメラ12は、虫類が張り付いている粘着紙の画像を撮像する。 Camera 12 captures an image of the sticky paper to which the insects are attached.

図2に、カメラ12による粘着紙の画像の撮像を説明するための図を示す。図2に示されるように、粘着紙Aには虫類が張り付いている。本実施形態のカメラ12は、この粘着紙Aに張り付いている虫類を表す画像Imを撮像する。 Figure 2 shows a diagram for explaining how the camera 12 captures an image of adhesive paper. As shown in Figure 2, an insect is attached to the adhesive paper A. In this embodiment, the camera 12 captures an image Im that shows the insect attached to the adhesive paper A.

なお、本実施形態のカメラ12は、ステレオカメラ又は可動式カメラ等である。カメラ12が可動式カメラである場合には、複数の異なる方向から粘着紙Aに張り付いている虫類の画像が撮像される。このため、カメラ12によって撮像された画像に基づいて、当該画像に写る虫類の3次元データを生成することが可能である。 In this embodiment, the camera 12 is a stereo camera or a movable camera. If the camera 12 is a movable camera, images of the insects attached to the adhesive paper A are captured from a number of different directions. Therefore, based on the images captured by the camera 12, it is possible to generate three-dimensional data of the insects captured in the images.

コンピュータ14は、CPU(Central Processing Unit)、各処理ルーチンを実現するためのプログラム等を記憶したROM(Read Only Memory)、データを一時的に記憶するRAM(Random Access Memory)、記憶手段としてのメモリ、及びネットワークインタフェース等を含んで構成されている。コンピュータ14は、機能的には、図1に示すように、画像記憶部20と、画像処理部22と、3次元データ取得部24と、屈曲点抽出部26と、ポリゴン生成部28と、翅脈ルール記憶部30と、翅脈画像生成部32と、データベース34と、虫類特定部36とを備えている。 The computer 14 is configured to include a CPU (Central Processing Unit), a ROM (Read Only Memory) that stores programs for implementing each processing routine, a RAM (Random Access Memory) that temporarily stores data, a memory as a storage means, and a network interface. As shown in FIG. 1, the computer 14 functionally includes an image storage unit 20, an image processing unit 22, a three-dimensional data acquisition unit 24, a bending point extraction unit 26, a polygon generation unit 28, a vein rule storage unit 30, a vein image generation unit 32, a database 34, and an insect identification unit 36.

画像記憶部20には、カメラ12によって撮像された虫類を表す画像が格納される。 The image memory unit 20 stores images of insects captured by the camera 12.

画像処理部22は、画像記憶部20に格納された虫類を表す画像から、その虫類の翅の部分を表す領域(以下、単に「翅領域」と称する。)を検出する。 The image processing unit 22 detects an area representing the wing of an insect (hereinafter simply referred to as the "wing area") from an image representing the insect stored in the image storage unit 20.

図3に、虫類の翅の部分が検出される処理を説明するための図を示す。図3に示されるように、画像処理部22は、既知のセグメンテーションアルゴリズムを用いて、粘着紙の画像から虫類の翅領域を検出する。例えば、画像処理部22は、既知の機械学習アルゴリズムによって予め生成された翅領域検出用の学習済みモデルを用いて、虫類を表す画像からその虫類の翅領域を検出する。 Figure 3 is a diagram for explaining the process of detecting the wing parts of an insect. As shown in Figure 3, the image processing unit 22 detects the wing region of an insect from the image of the sticky paper using a known segmentation algorithm. For example, the image processing unit 22 detects the wing region of an insect from an image representing the insect using a trained model for wing region detection that has been generated in advance by a known machine learning algorithm.

3次元データ取得部24は、画像処理部22により検出された虫類の翅領域に対応する、画像記憶部20に格納された虫類の画像を用いて、虫類の翅を表す3次元データを取得する。 The three-dimensional data acquisition unit 24 acquires three-dimensional data representing the insect's wings using the images of the insect stored in the image storage unit 20 that correspond to the insect's wing region detected by the image processing unit 22.

粘着紙に張り付いている虫類の翅は歪んでいる又は折り重なっていることが多い。このため、歪んでいる翅の部分の画像又は翅が折り重なっている画像を用いて虫類の種類を同定したとしても、その精度は低い。 Insects that are stuck to sticky paper often have distorted or folded wings. For this reason, even if you use an image of a distorted or folded wing to identify the type of insect, the accuracy is low.

そこで、本実施形態の画像処理システム10では、虫類の翅を表す3次元データを生成し、その3次元データを用いて翅脈の情報である2次元画像を生成し、その2次元画像を用いて虫類の種類を特定する。3次元データには、翅の高さ情報が含まれている。このため、本実施形態の画像処理システム10は、3次元データから2次元画像を生成する際に、3次元データの翅の歪み及び折れ曲がりが解消されるように2次元画像を生成する。これにより、翅が歪んでいる部分又は翅が折り重なっている部分が解消されるため、翅脈から虫類の種類を精度良く特定することができる。 In this embodiment, the image processing system 10 generates three-dimensional data representing the wings of an insect, uses the three-dimensional data to generate a two-dimensional image that is information about the wing veins, and then uses the two-dimensional image to identify the type of insect. The three-dimensional data includes wing height information. Therefore, when generating a two-dimensional image from the three-dimensional data, the image processing system 10 of this embodiment generates the two-dimensional image in such a way that the distortion and bending of the wings in the three-dimensional data is eliminated. This eliminates distorted or overlapping parts of the wings, making it possible to accurately identify the type of insect from the wing veins.

図4に、虫類の翅を表す3次元データの生成を説明するための図を示す。図4に示されるように、3次元データ取得部24は、既知の3次元画像処理アルゴリズムを用いて、虫類の翅を表す3次元データTを生成する。なお、3次元データ取得部24は、以下の参考情報に開示されている技術を用いて、虫類の翅を表す3次元データを生成するようにしてもよい。 Figure 4 shows a diagram for explaining the generation of three-dimensional data representing an insect wing. As shown in Figure 4, the three-dimensional data acquisition unit 24 generates three-dimensional data T representing an insect wing using a known three-dimensional image processing algorithm. The three-dimensional data acquisition unit 24 may also generate three-dimensional data representing an insect wing using the technology disclosed in the following reference information.

参考情報:「デジタル顕微鏡3D表示機能」、[令和2年3月23日検索]、インターネット<https://www.keyence.co.jp/ss/products/microscope/beginner/technology/3d-displayfunction.jsp> Reference information: "Digital microscope 3D display function," [searched March 23, 2020], Internet: <https://www.keyence.co.jp/ss/products/microscope/beginner/technology/3d-displayfunction.jsp>

なお、後述する各処理によって、図4に示されるような3次元データTから翅脈画像Wが生成される。 By performing the processes described below, a vein image W is generated from the three-dimensional data T as shown in Figure 4.

屈曲点抽出部26は、3次元データ取得部24により取得された3次元データから複数の屈曲点を抽出する。 The bending point extraction unit 26 extracts multiple bending points from the three-dimensional data acquired by the three-dimensional data acquisition unit 24.

図5に、屈曲点の抽出とポリゴンの生成とを説明するための図を示す。図5に示されるように、例えば、屈曲点抽出部26は、既知の3次元画像処理アルゴリズムを用いて、虫類の翅を表す3次元データTから複数の屈曲点P,・・・,Pを抽出する。例えば、屈曲点抽出部26は、3次元データTの屈曲線を抽出し、それらの屈曲線の交点を屈曲点として抽出する。 Fig. 5 is a diagram for explaining the extraction of bending points and the generation of polygons. As shown in Fig. 5, for example, the bending point extraction unit 26 uses a known three-dimensional image processing algorithm to extract a plurality of bending points P1 , ..., PN from the three-dimensional data T representing the wing of an insect. For example, the bending point extraction unit 26 extracts bending lines from the three-dimensional data T, and extracts the intersections of these bending lines as bending points.

ポリゴン生成部28は、屈曲点抽出部26により抽出された複数の屈曲点に基づいて、複数のポリゴンを生成する。例えば、ポリゴン生成部28は、上記図5に示されるように、既知の画像処理アルゴリズムを用いて、複数のポリゴンDを生成する。なお、図5に示されるような、複数のポリゴンDに基づいて翅脈画像Wが生成される。なお、ポリゴン生成部28は、複数のポリゴンに対して所定の角度補正を行った後に、翅脈画像Wを生成するようにしてもよい。 The polygon generation unit 28 generates a plurality of polygons based on the plurality of bending points extracted by the bending point extraction unit 26. For example, as shown in FIG. 5 above, the polygon generation unit 28 generates a plurality of polygons D using a known image processing algorithm. Note that a vein image W is generated based on the plurality of polygons D as shown in FIG. 5. Note that the polygon generation unit 28 may generate the vein image W after performing a predetermined angle correction on the plurality of polygons.

翅脈ルール記憶部30には、虫類の翅脈に関する正解データの特徴量から導かれる予め定められたルールが格納されている。例えば、ルールは、図6に示されるようなテーブル形式で翅脈ルール記憶部30に格納される。 The vein rule storage unit 30 stores predetermined rules derived from the features of the correct answer data on the vein patterns of insects. For example, the rules are stored in the vein rule storage unit 30 in a table format as shown in FIG. 6.

図6に示されるテーブルR1には、複数のルールZ1,Z2・・・Znが格納される。例えば、「翅室dがあり、前縁脈Cは翅端で終わる」といった虫類の翅脈に関する正解データの特徴量から導かれるルールがテーブルに格納される。または、「翅室bmは先端横脈bm-cuで閉じられ、中脈Mにより常に翅室brと分かれている」といったルールがテーブルに格納される。 Table R1 shown in FIG. 6 stores multiple rules Z1, Z2, ... Zn. For example, the table stores a rule derived from the features of correct answer data regarding insect wing veins, such as "there is a wing chamber d, and the anterior vein C ends at the wing tip." Or, the table stores a rule such as "the wing chamber bm is closed by the apical transverse vein bm-cu, and is always separated from the wing chamber br by the midvein M."

翅脈画像生成部32は、ポリゴン生成部28により生成された複数のポリゴンに基づいて、虫類の翅脈を含む2次元画像である翅脈画像を生成する。なお、翅脈画像生成部32は、翅脈画像を生成する際に、翅脈ルール記憶部30に格納されたルールを参照することにより、虫類の翅の重なり又は折れ曲がりが解消されるように翅脈画像を生成する。 The vein image generating unit 32 generates a vein image, which is a two-dimensional image including the insect's vein, based on the multiple polygons generated by the polygon generating unit 28. When generating the vein image, the vein image generating unit 32 refers to the rules stored in the vein rule storage unit 30 to generate the vein image in such a way that overlaps or bends in the insect's wings are eliminated.

具体的には、例えば、翅脈画像生成部32は翅脈画像を生成する際に、図7に示されるように、画像ImのAt内のポリゴンにおいて、線lと線lとが交差する場合(線lを構成する各画素と線lを構成する各画素のうち、画像上の位置が同一である画素が存在する場合)には、それらの線l,lは翅脈ではなく翅が重なっており、l,lは翅の外形線であると判定して、線l,lが重ならないように、複数のポリゴンから翅脈画像Wを再構成する。 Specifically, for example, when the wing vein image generating unit 32 generates a wing vein image, if lines l1 and l2 intersect in a polygon within At of image Im as shown in FIG. 7 (if there are pixels among the pixels constituting line l1 and the pixels constituting line l2 that are located at the same position on the image), it determines that lines l1 and l2 are not wing veins but overlapping wings, and that l1 and l2 are the outline lines of wings, and reconstructs a wing vein image W from multiple polygons so that lines l1 and l2 do not overlap.

また、例えば、翅脈画像生成部32は、ポリゴン内に含まれる、ある翅脈を表す線lの湾曲する角度がX度より小さい場合(図示省略)には、線lが表す翅脈は折れ曲がった状態であるものと判定して、線lが折れ曲がらないように、複数のポリゴンから翅脈画像Wを再構成する。 Furthermore, for example, when the angle of curvature of a line l1 representing a certain vein contained within a polygon is smaller than X degrees (not shown), the vein image generating unit 32 determines that the vein represented by the line l1 is in a bent state, and reconstructs a vein image W from multiple polygons so that the line l1 is not bent.

このようにして、翅脈画像生成部32は、翅脈ルール記憶部30に格納された各ルールが満たされるように、複数のポリゴンから翅脈画像を生成する。 In this way, the vein image generation unit 32 generates a vein image from multiple polygons so that each rule stored in the vein rule storage unit 30 is satisfied.

データベース34には、虫類の種類とその虫類の翅脈を表す画像である基本翅脈画像とが関連付けられた複数のデータが格納される。例えば、データは、図8に示されるようなテーブル形式でデータベース34に格納される。なお、基本翅脈画像とは、該当する虫類の種類の典型的な翅脈画像であり、この基本翅脈画像を元に虫類の種類の特定が行われる。 Database 34 stores multiple data items that associate the type of insect with a basic vein image, which is an image that represents the wing veins of that insect. For example, data is stored in database 34 in a table format as shown in FIG. 8. Note that a basic vein image is a typical vein image of the corresponding insect type, and the type of insect is identified based on this basic vein image.

虫類特定部36は、データベース34に格納されている複数のデータを参照して、翅脈画像生成部32により生成された翅脈画像に対応する、虫類の種類を特定する。 The insect identification unit 36 refers to multiple data stored in the database 34 to identify the type of insect that corresponds to the vein image generated by the vein image generation unit 32.

具体的には、虫類特定部36は、翅脈画像生成部32により生成された翅脈画像から所定の特徴量を抽出する。そして、虫類特定部36は、翅脈画像生成部32により生成された翅脈画像の特徴量と、データベース34に格納されている基本翅脈画像及びデータベース34に格納されている各虫類の正解データの翅脈画像から抽出される特徴量とを比較して、翅脈画像生成部32により生成された翅脈画像がどの虫類の種類に該当するかを特定する。 Specifically, the insect identification unit 36 extracts a predetermined feature amount from the wing vein image generated by the wing vein image generation unit 32. Then, the insect identification unit 36 compares the feature amount of the wing vein image generated by the wing vein image generation unit 32 with the feature amount extracted from the basic wing vein image stored in the database 34 and the wing vein image of the correct answer data of each insect stored in the database 34, and identifies which type of insect the wing vein image generated by the wing vein image generation unit 32 corresponds to.

図9Aに、虫類の種類の特定を説明するための図を示す。図9Aに示されるように、虫類特定部36は、翅脈画像生成部32により生成された翅脈画像Imの翅の室r1,d,m2の位置、形状、面積、又は縦横比等を特徴量として抽出する。また、虫類特定部36は、基本翅脈画像ImK1から同様の特徴量を抽出する。更に、虫類特定部36は、各虫類の正解の翅脈画像から特徴量を抽出する。 Fig. 9A is a diagram for explaining the identification of insect types. As shown in Fig. 9A, the insect identification unit 36 extracts the position, shape, area, aspect ratio, etc. of the wing chambers r1, d, m2 of the wing vein image Im1 generated by the wing vein image generation unit 32 as feature quantities. The insect identification unit 36 also extracts similar feature quantities from the basic wing vein image ImK1 . Furthermore, the insect identification unit 36 extracts feature quantities from the correct wing vein image of each insect.

図9Bに、基本翅脈画像と各虫類の正解データの翅脈画像とを説明するための図を示す。図9Bに示されるように、基本翅脈画像ImK1以外にも各虫類の翅脈画像Im,X、Im,Y、Im,Zがデータベース34には格納されている。例えば、翅脈画像Im,Xは虫類Xの正解の翅脈画像であり、翅脈画像Im,Yは虫類Yの正解の翅脈画像であり、翅脈画像Im,Zは虫類Zの正解の翅脈画像である。 9B is a diagram for explaining the basic vein image and the vein image of the correct data of each insect. As shown in FIG. 9B, in addition to the basic vein image Im K1 , vein images Im,X, Im,Y, and Im,Z of each insect are stored in the database 34. For example, vein image Im,X is the correct vein image of insect X, vein image Im,Y is the correct vein image of insect Y, and vein image Im,Z is the correct vein image of insect Z.

このため、虫類特定部36は、基本翅脈画像ImK1から特徴量を抽出すると共に、各虫類の正解の翅脈画像Im,X、Im,Y、Im,Zからも特徴量を抽出する。 For this reason, the insect identification unit 36 extracts features from the basic wing vein image Im K1 , and also extracts features from the correct wing vein images Im,X, Im,Y, and Im,Z of each insect.

そして、虫類特定部36は、翅脈画像Imの特徴量と、データベース34に格納されている基本翅脈画像ImK1の特徴量及び各虫類の正解の翅脈画像Im,X、Im,Y、Im,Zの特徴量とを比較し、翅脈画像Imに対応する虫類の種類を特定する。 Then, the insect identification unit 36 compares the features of the wing vein image Im1 with the features of the basic wing vein image ImK1 stored in the database 34 and the features of the correct wing vein images Im,X, Im,Y, and Im,Z for each insect, and identifies the type of insect corresponding to the wing vein image Im1 .

なお、図9Aに示されるように、特徴量としては、翅脈画像Imを2値化した後に抽出される翅脈の位置、形状、長さ、又は脈接点等を用いることもできる。この場合には、虫類特定部36は、翅脈画像Imの特徴量と、データベース34に格納されている基本翅脈画像ImK2の特徴量及び各虫類の正解の翅脈画像(図示省略)の特徴量とを比較し、翅脈画像Imに対応する虫類の種類を特定する。 9A, the feature amount may be the position, shape, length, or vein contact point of the wing vein extracted after binarizing the wing vein image Im2. In this case, the insect identification unit 36 compares the feature amount of the wing vein image Im2 with the feature amount of the basic wing vein image ImK2 stored in the database 34 and the feature amount of the correct wing vein image of each insect (not shown), and identifies the type of insect corresponding to the wing vein image Im2 .

また、例えば、図10に示されるように、翅脈画像から複数の特徴量(A,h,bM,Sc,r・m,Rs,C,CuA,CuA,M,M,R)が抽出された場合、MとMの湾曲度合いを表す特徴量Fのみでクロバネキノコバエと特定することもできる。 Furthermore, for example, when multiple features ( A1 , h, bM, Sc, r.m, Rs, C, CuA2 , CuA1 , M1 , M2 , R5 ) are extracted from a wing vein image as shown in Figure 10, it is also possible to identify the fly as a sciarid fly based only on feature F, which represents the degree of curvature of M1 and M2 .

虫類特定部36は、例えば、翅脈画像生成部32により生成された翅脈画像に対応する虫類の種類の候補を確率と共に出力する。例えば、虫類特定部36は、ユスリカ科93%、キノコバエ科5%、タマバエ科2%といった情報を出力する。または、虫類特定部36は、該当する確率が所定値以上の虫類の種類を出力するようにしてもよい。 The insect identification unit 36 outputs, for example, candidates for the type of insect that corresponds to the vein image generated by the vein image generation unit 32, together with the probability. For example, the insect identification unit 36 outputs information such as Chironomidae 93%, Mycetophilidae 5%, and Cecidomyiidae 2%. Alternatively, the insect identification unit 36 may output the type of insect whose corresponding probability is equal to or exceeds a predetermined value.

表示部16は、虫類特定部36によって出力された情報を表示する。表示部16は、例えば、ディスプレイ等によって実現される。ユーザは、表示部16に表示された情報を確認し、粘着紙に張り付いている虫類の種類が何であるのかを把握する。 The display unit 16 displays the information output by the insect identification unit 36. The display unit 16 is realized, for example, by a display. The user checks the information displayed on the display unit 16 and determines what type of insect is attached to the adhesive paper.

<画像処理システムの作用> <Function of the image processing system>

次に、図11を参照して、第1実施形態の画像処理システム10の作用を説明する。画像処理システム10のコンピュータ14は、カメラ12により画像を受け付けると、画像記憶部20に格納する。そして、画像処理システム10のコンピュータ14は、虫類の種類の特定処理開始の指示信号を受け付けると、図11に示す虫類特定処理ルーチンを実行する。 Next, the operation of the image processing system 10 of the first embodiment will be described with reference to FIG. 11. When the computer 14 of the image processing system 10 receives an image from the camera 12, it stores the image in the image storage unit 20. Then, when the computer 14 of the image processing system 10 receives an instruction signal to start the insect type identification process, it executes the insect identification process routine shown in FIG. 11.

<虫類特定処理ルーチン> <Insect identification processing routine>

ステップS100において、画像処理部22は、画像記憶部20に格納された虫類を表す画像を読み出し、その画像から虫類の翅領域を検出する。 In step S100, the image processing unit 22 reads an image representing an insect stored in the image storage unit 20, and detects the wing region of the insect from the image.

ステップS102において、3次元データ取得部24は、上記ステップS100で検出された虫類の翅領域の情報を用いて、虫類の翅を表す3次元データを取得する。 In step S102, the 3D data acquisition unit 24 acquires 3D data representing the insect's wing using the information on the insect's wing region detected in step S100 above.

ステップS104において、屈曲点抽出部26は、上記ステップS102で取得された3次元データから複数の屈曲点を抽出する。 In step S104, the bending point extraction unit 26 extracts multiple bending points from the three-dimensional data acquired in step S102.

ステップS106において、ポリゴン生成部28は、上記ステップS104で抽出された複数の屈曲点に基づいて、複数のポリゴンを生成する。 In step S106, the polygon generation unit 28 generates multiple polygons based on the multiple bending points extracted in step S104.

ステップS108において、翅脈画像生成部32は、上記ステップS106で生成された複数のポリゴンに基づいて、虫類の翅の重なり又は折れ曲がりが解消されるように、虫類の翅脈を含む2次元画像である翅脈画像を生成する。 In step S108, the vein image generation unit 32 generates a vein image, which is a two-dimensional image including the insect's vein, based on the multiple polygons generated in step S106, so as to eliminate overlaps or bends in the insect's wings.

ステップS110において、虫類特定部36は、データベース34に格納されている複数のデータを参照して、上記ステップS108で生成された翅脈画像に対応する、虫類の種類を特定する。 In step S110, the insect identification unit 36 refers to multiple pieces of data stored in the database 34 to identify the type of insect that corresponds to the wing vein image generated in step S108.

ステップS112において、虫類特定部36は、上記ステップS110で特定された虫類の種類を結果として出力する。 In step S112, the insect identification unit 36 outputs the type of insect identified in step S110 above as a result.

表示部16には、コンピュータ14から出力された情報が表示される。ユーザは、表示部16に表示された情報を確認し、粘着紙に張り付いている虫類の種類が何であるのかを把握する。 The display unit 16 displays information output from the computer 14. The user checks the information displayed on the display unit 16 and determines what type of insect is stuck to the sticky paper.

以上詳細に説明したように、第1実施形態の画像処理システムにおいて実行される虫類特定方法は、虫類を表す画像から虫類の翅領域を検出する。そして、虫類特定方法は、虫類を表す画像から虫類の翅を表す3次元データを取得し、取得された3次元データから複数の屈曲点を抽出する。そして、虫類特定方法は、抽出された複数の屈曲点に基づいて、複数のポリゴンを生成する。虫類特定方法は、生成された複数のポリゴンに基づいて、虫類の翅脈を含む2次元画像である翅脈画像を生成する。そして、虫類特定方法は、虫類の種類と虫類の翅脈を表す画像とが関連付けられた複数のデータが格納されたデータベースを参照して、生成された翅脈画像に対応する、虫類の種類を特定する。これにより、虫類の翅脈に関する情報を用いて虫類の種類を特定することができる。 As described above in detail, the insect identification method executed in the image processing system of the first embodiment detects the wing region of an insect from an image representing the insect. The insect identification method then acquires three-dimensional data representing the insect's wings from the image representing the insect, and extracts a plurality of bending points from the acquired three-dimensional data. The insect identification method then generates a plurality of polygons based on the extracted bending points. The insect identification method then generates a wing vein image, which is a two-dimensional image including the wing veins of the insect, based on the generated plurality of polygons. The insect identification method then refers to a database that stores a plurality of data that associates the type of insect with an image representing the wing veins of the insect, and identifies the type of insect that corresponds to the generated wing vein image. This makes it possible to identify the type of insect using information about the wing veins of the insect.

より具体的には、本実施形態の虫類特定方法は、2次元画像上では歪んでいる又は折り重なっている翅領域を3次元データとして取得し、その3次元データから2次元画像である翅脈画像を生成する。そして、虫類特定方法は、その翅脈画像を用いて虫類の種類を特定する。これにより、虫類の翅脈に関する情報を用いて虫類の種類を精度良く特定することができる。 More specifically, the insect identification method of this embodiment acquires wing regions that are distorted or overlapped on a two-dimensional image as three-dimensional data, and generates a two-dimensional image, a wing vein image, from the three-dimensional data. The insect identification method then uses the wing vein image to identify the type of insect. This makes it possible to accurately identify the type of insect using information about the insect's wing veins.

また、専門の知識がないユーザであっても虫類の詳細な分類を行うことができ、手間及び時間を削減した有害生物モニタリング調査が可能となる。更に、従来のシステムよりも高精度の分析が行えるため、虫類の特定と発生源又は誘引源の特定に貢献することができる。 In addition, even users without specialist knowledge can perform detailed classification of insects, enabling pest monitoring surveys to be conducted with less effort and time. Furthermore, since it is possible to perform analysis with a higher degree of accuracy than conventional systems, it can contribute to identifying insects and their sources of occurrence or attraction.

[第2実施形態] [Second embodiment]

次に、第2実施形態について説明する。第2実施形態においては、3次元データから2次元画像である翅脈画像の生成方法が第1実施形態と異なる。第2実施形態では、3次元データから翅のアウトライン及び翅脈をポリラインデータとして抽出し、そのポリラインデータを用いて2次元画像を生成する。なお、第1実施形態と同様の構成となる部分については、同一符号を付して説明を省略する。 Next, the second embodiment will be described. In the second embodiment, the method of generating a two-dimensional image of the vein from three-dimensional data differs from that of the first embodiment. In the second embodiment, the wing outline and vein are extracted from the three-dimensional data as polyline data, and the two-dimensional image is generated using the polyline data. Note that parts with the same configuration as the first embodiment are given the same reference numerals and descriptions are omitted.

図12は、第2実施形態に係る画像処理システム210の構成の一例を示すブロック図である。第2実施形態に係る画像処理システム210のコンピュータ214は、機能的には、図12に示すように、画像記憶部20と、画像処理部22と、3次元データ取得部24と、ポリラインデータ抽出部226と、翅脈ルール記憶部30と、翅脈画像生成部232と、データベース34と、虫類特定部36とを備えている。 Fig. 12 is a block diagram showing an example of the configuration of an image processing system 210 according to the second embodiment. Functionally, as shown in Fig. 12, the computer 214 of the image processing system 210 according to the second embodiment includes an image storage unit 20, an image processing unit 22, a three-dimensional data acquisition unit 24, a polyline data extraction unit 226, a vein rule storage unit 30, a vein image generation unit 232, a database 34, and an insect identification unit 36.

ポリラインデータ抽出部226は、3次元データ取得部24により取得された3次元データから、翅のアウトライン及び翅脈を含むポリラインデータを抽出する。 The polyline data extraction unit 226 extracts polyline data including the wing outline and wing veins from the three-dimensional data acquired by the three-dimensional data acquisition unit 24.

図13に、ポリラインデータの抽出を説明するための図を示す。図13に示されるように、例えば、ポリラインデータ抽出部226は、3次元データに対して既知のエッジ抽出処理を行い、翅のアウトライン及び翅脈を含むポリラインデータEを抽出する。なお、この場合には、図13に示されるように、交点P・・・Pが抽出されるため、翅脈の特徴量としての長さL,L等も同時に抽出することも可能である。これらの特徴量は、虫類特定部36において用いられる。 Fig. 13 is a diagram for explaining the extraction of polyline data. As shown in Fig. 13, for example, the polyline data extraction unit 226 performs a known edge extraction process on the three-dimensional data to extract polyline data E including the wing outline and wing veins. In this case, as shown in Fig. 13, intersections P1 ... P4 are extracted, so it is also possible to simultaneously extract lengths L1 , L2 , etc., of the wing veins as feature quantities. These feature quantities are used by the insect identification unit 36.

翅脈画像生成部232は、ポリラインデータ抽出部226により抽出されたポリラインデータに基づいて、虫類の翅脈を含む2次元画像である翅脈画像を生成する。例えば、翅脈画像生成部232は、3次元のポリラインデータをある2次元平面に投影することにより、2次元画像である翅脈画像を生成する。 The vein image generating unit 232 generates a vein image, which is a two-dimensional image including the vein of an insect, based on the polyline data extracted by the polyline data extracting unit 226. For example, the vein image generating unit 232 generates a two-dimensional vein image by projecting three-dimensional polyline data onto a two-dimensional plane.

<画像処理システムの作用> <Function of the image processing system>

次に、図14を参照して、第2実施形態の画像処理システム210の作用を説明する。画像処理システム210のコンピュータ214は、カメラ12により画像を受け付けると、画像記憶部20に格納する。そして、画像処理システム210のコンピュータ214は、虫類の種類の特定処理開始の指示信号を受け付けると、図14に示す虫類特定処理ルーチンを実行する。 Next, the operation of the image processing system 210 of the second embodiment will be described with reference to FIG. 14. When the computer 214 of the image processing system 210 receives an image from the camera 12, it stores the image in the image storage unit 20. Then, when the computer 214 of the image processing system 210 receives an instruction signal to start the process of identifying the type of insect, it executes the insect identification process routine shown in FIG. 14.

<虫類特定処理ルーチン> <Insect identification processing routine>

ステップS100~S102及びステップS110~S112は、第1実施形態と同様に実行される。 Steps S100 to S102 and steps S110 to S112 are executed in the same manner as in the first embodiment.

ステップS204において、ポリラインデータ抽出部226は、ステップS102で取得された3次元データから、翅のアウトライン及び翅脈を含むポリラインデータを抽出する。 In step S204, the polyline data extraction unit 226 extracts polyline data including the wing outline and wing veins from the three-dimensional data acquired in step S102.

ステップS208において、翅脈画像生成部32は、上記ステップS204で生成されたポリラインデータに基づいて、虫類の翅脈を含む2次元画像である翅脈画像を生成する。 In step S208, the vein image generation unit 32 generates a vein image, which is a two-dimensional image including the vein of the insect, based on the polyline data generated in step S204.

なお、第2実施形態に係る画像処理システム210の他の構成及び作用については、第1実施形態と同様であるため、説明を省略する。 Note that other configurations and operations of the image processing system 210 according to the second embodiment are similar to those of the first embodiment, and therefore will not be described.

以上詳細に説明したように、第2実施形態の画像処理システムにおける虫類特定方法は、虫類を表す画像から虫類の翅の領域を検出する。そして、虫類特定方法は、虫類を表す画像から虫類の翅を表す3次元データを取得し、取得された3次元データから翅のアウトライン及び翅脈を含むポリラインデータを抽出する。そして、虫類特定方法は、抽出されたポリラインデータに基づいて、虫類の翅脈を含む2次元画像である翅脈画像を生成する。そして、虫類特定方法は、虫類の種類と虫類の翅脈を表す画像とが関連付けられた複数のデータが格納されたデータベースを参照して、生成された翅脈画像に対応する、虫類の種類を特定する。これにより、虫類の翅脈に関する情報を用いて虫類の種類を特定することができる。 As described above in detail, the insect identification method in the image processing system of the second embodiment detects the area of an insect's wing from an image representing the insect. The insect identification method then acquires three-dimensional data representing the insect's wings from the image representing the insect, and extracts polyline data including the wing outline and wing veins from the acquired three-dimensional data. The insect identification method then generates a wing vein image, which is a two-dimensional image including the insect's wing veins, based on the extracted polyline data. The insect identification method then refers to a database that stores multiple data that associates insect types with images representing insect wing veins, and identifies the type of insect that corresponds to the generated wing vein image. This makes it possible to identify the type of insect using information about the insect's wing veins.

なお、本発明は、上述した実施形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。 The present invention is not limited to the above-described embodiment, and various modifications and applications are possible without departing from the spirit of the invention.

例えば、上記実施形態では、虫類の種類と虫類の翅脈を表す画像とが関連付けられた複数のデータが格納されたデータベースを参照して、生成された翅脈画像に対応する、虫類の種類を特定する場合を例に説明したが、これに限定されるものではない。例えば、翅脈画像から該翅脈画像に写る虫類の種類を特定するための学習済みモデルを用いて、虫類の種類を特定するようにしてもよい。この場合には、例えば、上記実施形態のデータベース34に格納された複数のデータを学習用データとして用いて、学習済みモデルが予め学習される。図15に、脈画像から該翅脈画像に写る虫類の種類を特定するための学習済みモデルの一例を表す図を示す。 For example, in the above embodiment, a database storing multiple data items correlating the type of insect with an image showing the wing veins of the insect is referenced to identify the type of insect corresponding to the generated wing vein image, but the present invention is not limited to this. For example, the type of insect may be identified using a trained model for identifying the type of insect depicted in the wing vein image from the wing vein image. In this case, the trained model is trained in advance using, for example, multiple data items stored in the database 34 of the above embodiment as training data. Figure 15 shows an example of a trained model for identifying the type of insect depicted in the wing vein image from the vein image.

例えば、図15に示されるように、ニューラルネットワーク等の学習済みモデルに翅脈画像が入力されると、その翅脈画像が該当する虫類の種類の確率が出力される。例えば、学習済みモデルは、ユスリカ科0.8、キノコバエ科0.1といった確率情報を出力する。このため、虫類特定部36は、それらの確率情報を用いて、翅脈画像がどの種類に該当するのかを特定するようにしてもよい。 For example, as shown in FIG. 15, when a wing vein image is input to a trained model such as a neural network, the probability of the type of insect to which the wing vein image corresponds is output. For example, the trained model outputs probability information such as 0.8 for Chironomidae and 0.1 for Mycetophilidae. Therefore, the insect identification unit 36 may use this probability information to identify which type the wing vein image corresponds to.

また、上記実施形態では、3次元データから翅脈画像を生成する際に、ポリゴンデータ又はポリラインデータを用いる場合を例に説明したが、これに限定されるものではない。例えば、以下の参考情報3,4に開示されているような技術を用いるようにしてもよい。 In the above embodiment, polygon data or polyline data is used to generate a vein image from three-dimensional data, but the present invention is not limited to this. For example, the techniques disclosed in the following reference information 3 and 4 may be used.

参考情報3:[令和2年3月23日検索]、インターネット<https://tamasoft.co.jp/pepakura/productinfo/index.html>
参考情報4:[令和2年3月23日検索]、インターネット<https://www.cadmac.net/products/seg5>
Reference information 3: [Searched on March 23, 2020], Internet <https://tamasoft.co.jp/pepakura/productinfo/index.html>
Reference information 4: [Searched on March 23, 2020], Internet: <https://www.cadmac.net/products/seg5>

また、上記実施形態では、翅脈画像生成部32は、翅脈画像を生成する際に、虫類の翅脈に関する予め定められたルールが満たされるように翅脈画像を生成する場合を例に説明したが、一旦翅脈画像を生成した後にその翅脈画像を補正するようにしてもよい。この場合には、例えば、翅脈画像生成部32は、特許第3837710号公報又は特許第4095768号公報に開示されている技術を用いて、一旦生成された翅脈画像を補正するようにしてもよい。更に、翅脈画像生成部32は、ルールが満たされるまで翅脈画像の補正を繰り返すようにしてもよい。 In the above embodiment, the wing vein image generating unit 32 generates a wing vein image so that predetermined rules related to insect wing veins are satisfied. However, the wing vein image may be corrected after it is generated. In this case, for example, the wing vein image generating unit 32 may correct the generated wing vein image using the technology disclosed in Japanese Patent No. 3837710 or Japanese Patent No. 4095768. Furthermore, the wing vein image generating unit 32 may repeat the correction of the wing vein image until the rules are satisfied.

また、上記実施形態では、カメラ12によって取得された画像を用いて3次元データを生成する場合を例に説明したが、これに限定されるものではない。例えば、虫類が張り付いている粘着紙を、CTスキャン、レーザ、パターン光照射、又は共焦点顕微鏡等のセンサによってセンシングし、3次元データを直接取得するようにしてもよい。この場合には、3次元の点群データとして情報が取得される。 In the above embodiment, an example has been described in which three-dimensional data is generated using images acquired by the camera 12, but the present invention is not limited to this. For example, the sticky paper on which the insects are attached may be sensed by a sensor such as a CT scan, laser, pattern light irradiation, or confocal microscope to directly acquire three-dimensional data. In this case, information is acquired as three-dimensional point cloud data.

また、例えば、粘着紙に複数の虫類が付着している場合には、それらの虫類の種類をカウントし、カウントされた値が一定値以上となった場合にアラートを出力するようにしてもよい。 For example, if multiple insects are attached to the adhesive paper, the types of insects can be counted, and an alert can be issued if the count value exceeds a certain value.

また、上記第2実施形態では、ポリラインデータに基づいて、虫類の翅脈を含む2次元画像である翅脈画像を生成し、当該翅脈画像から特徴量を抽出する場合を例に説明したが、これに限定されるものではない。例えば、ポリラインデータから直接特徴量を抽出し、ポリラインデータから抽出される特徴量に基づいて、取得した3次元データに対応する虫類の種類を特定するようにしてもよい。図16に、ポリラインデータから抽出される特徴量の一例を示す。図16に示されるように、ポリラインデータから翅脈の何れの部分に該当するか(外形線,C1,R1,R2等)が判定され、それらの相対長と相対位置とが特徴量として抽出される。そして、ポリラインデータから抽出される特徴量と、データベースに格納されている、虫類の種類と虫類の翅脈を表す特徴量とが比較され虫類の種類が特定される。なお、虫類の種類の特定には、予め学習された学習済みモデルが用いられてもよい。なお、図16に示される特徴量は、上記各実施形態においても用いることが可能な特徴量である。 In the second embodiment, a vein image, which is a two-dimensional image including the vein of an insect, is generated based on polyline data, and features are extracted from the vein image. However, the present invention is not limited to this. For example, features may be extracted directly from polyline data, and the type of insect corresponding to the acquired three-dimensional data may be identified based on the features extracted from the polyline data. FIG. 16 shows an example of features extracted from polyline data. As shown in FIG. 16, it is determined which part of the vein corresponds to the polyline data (outline, C1, R1, R2, etc.), and their relative length and relative position are extracted as features. Then, the features extracted from the polyline data are compared with the features representing the type of insect and the vein of the insect stored in the database, and the type of insect is identified. Note that a pre-trained model may be used to identify the type of insect. Note that the features shown in FIG. 16 are features that can be used in each of the above embodiments.

また、上記では本発明に係るプログラムが記憶部(図示省略)に予め記憶(インストール)されている態様を説明したが、本発明に係るプログラムは、CD-ROM、DVD-ROM及びマイクロSDカード等の記録媒体に記録されている形態で提供することも可能である。 In addition, while the above describes an embodiment in which the program according to the present invention is pre-stored (installed) in a storage unit (not shown), the program according to the present invention can also be provided in a form in which it is recorded on a recording medium such as a CD-ROM, DVD-ROM, or microSD card.

10,210 画像処理システム
12 カメラ
14,214 コンピュータ
16 表示部
20 画像記憶部
22 画像処理部
24 3次元データ取得部
26 屈曲点抽出部
28 ポリゴン生成部
30 翅脈ルール記憶部
32,232 翅脈画像生成部
34 データベース
36 虫類特定部
226 ポリラインデータ抽出部
Reference Signs List 10, 210 Image processing system 12 Camera 14, 214 Computer 16 Display unit 20 Image storage unit 22 Image processing unit 24 3D data acquisition unit 26 Bend point extraction unit 28 Polygon generation unit 30 Wing vein rule storage unit 32, 232 Wing vein image generation unit 34 Database 36 Insect identification unit 226 Polyline data extraction unit

Claims (3)

虫類の翅を表す3次元データを取得し、
取得された前記3次元データから複数の屈曲点を抽出し、
抽出された前記複数の屈曲点に基づいて、複数のポリゴンを生成し、
生成された前記複数のポリゴンに基づいて、虫類の翅脈を含む2次元画像である翅脈画像を生成し、
虫類の種類と虫類の翅脈を表す画像とが関連付けられた複数のデータが格納されたデータベース又は前記複数のデータから予め学習された学習済みモデルであって、かつ前記翅脈画像から該翅脈画像に写る虫類の種類を特定するための学習済みモデルを用いて、生成された前記翅脈画像に対応する、虫類の種類を特定する、
処理をコンピュータが実行する虫類特定方法。
Obtain 3D data representing the insect's wings,
Extracting a plurality of bending points from the acquired three-dimensional data;
generating a plurality of polygons based on the extracted plurality of bending points;
generating a vein image, which is a two-dimensional image including the vein of the insect, based on the generated polygons;
Identifying the type of insect corresponding to the generated wing vein image using a database storing a plurality of data items in which the type of insect is associated with an image showing the wing vein of the insect, or a trained model trained in advance from the plurality of data items, and using the trained model for identifying the type of insect depicted in the wing vein image from the wing vein image;
A method for identifying insects in which processing is performed by a computer.
虫類の翅を表す3次元データを取得し、
取得された前記3次元データから、翅のアウトライン及び翅脈を含むポリラインデータを抽出し、
抽出された前記ポリラインデータから抽出される特徴量に基づいて、虫類の種類と虫類の翅脈を表す特徴量とが関連付けられた複数のデータが格納されたデータベース又は前記複数のデータから予め学習された学習済みモデルであって、かつ前記特徴量から虫類の種類を特定するための学習済みモデルを用いて、取得した前記3次元データに対応する、虫類の種類を特定する、
処理をコンピュータが実行する虫類特定方法。
Obtain 3D data representing the insect's wings,
Extracting polyline data including a wing outline and wing veins from the acquired three-dimensional data;
Identifying the type of insect corresponding to the acquired three-dimensional data based on the feature values extracted from the extracted polyline data, using a database storing a plurality of data in which the type of insect is associated with a feature value representing the wing veins of the insect, or a trained model trained in advance from the plurality of data, and using the trained model for identifying the type of insect from the feature values.
A method for identifying insects in which processing is performed by a computer.
前記翅脈画像を生成する際に、
虫類の翅脈に関する正解データの特徴量から導かれる予め定められたルールを参照することにより、前記虫類の翅の重なり又は折れ曲がりが解消されるように、前記翅脈画像を生成する、
請求項1に記載の虫類特定方法。
When generating the vein image,
generating the vein image of the insect so as to eliminate overlapping or bending of the insect's wings by referring to a predetermined rule derived from a feature amount of ground-truth data on the insect's vein;
The method of claim 1 .
JP2020132487A 2020-08-04 2020-08-04 How to identify insects Active JP7481939B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020132487A JP7481939B2 (en) 2020-08-04 2020-08-04 How to identify insects

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020132487A JP7481939B2 (en) 2020-08-04 2020-08-04 How to identify insects

Publications (2)

Publication Number Publication Date
JP2022029248A JP2022029248A (en) 2022-02-17
JP7481939B2 true JP7481939B2 (en) 2024-05-13

Family

ID=80271310

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020132487A Active JP7481939B2 (en) 2020-08-04 2020-08-04 How to identify insects

Country Status (1)

Country Link
JP (1) JP7481939B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101334858B1 (en) 2012-09-27 2013-11-29 기초과학연구원 Automatic butterfly species identification system and method, and portable terminal having automatic butterfly species identification function using the same
JP2014142833A (en) 2013-01-24 2014-08-07 Earth Kankyo Service Kk Captured insect identification method and identification system
JP6313886B1 (en) 2017-05-23 2018-04-18 アース環境サービス株式会社 Identification method of captured insects

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101334858B1 (en) 2012-09-27 2013-11-29 기초과학연구원 Automatic butterfly species identification system and method, and portable terminal having automatic butterfly species identification function using the same
JP2014142833A (en) 2013-01-24 2014-08-07 Earth Kankyo Service Kk Captured insect identification method and identification system
JP6313886B1 (en) 2017-05-23 2018-04-18 アース環境サービス株式会社 Identification method of captured insects

Also Published As

Publication number Publication date
JP2022029248A (en) 2022-02-17

Similar Documents

Publication Publication Date Title
EP3910608B1 (en) Article identification method and system, and electronic device
CN110766014B (en) Bill information positioning method, system and computer readable storage medium
JP6143111B2 (en) Object identification device, object identification method, and program
US10025977B2 (en) Method for identifying a sign on a deformed document
US11521109B2 (en) Information processing apparatus and method of controlling information processing apparatus
JP6278276B2 (en) Object identification device, object identification method, and program
JP7183753B2 (en) LIST GENERATION DEVICE, SUBJECT IDENTIFICATION DEVICE, LIST GENERATION METHOD, AND PROGRAM
CN111680635B (en) Text recognition method and device, electronic equipment and storage medium
CN110490190A (en) A kind of structured image character recognition method and system
CN113095445B (en) Target identification method and device
CN111738979A (en) Automatic certificate image quality inspection method and system
CN114445843A (en) Card image character recognition method and device of fixed format
CN111858977A (en) Bill information acquisition method and device, computer equipment and storage medium
CN114863431A (en) Text detection method, device and equipment
JP6628336B2 (en) Information processing system
JP7481939B2 (en) How to identify insects
JP6098498B2 (en) Information processing apparatus, information processing method, and program
CN109635798B (en) Information extraction method and device
CN110458177B (en) Method for acquiring image depth information, image processing device and storage medium
CN111340040A (en) Paper character recognition method and device, electronic equipment and storage medium
WO2010113217A1 (en) Character recognition device and character recognition method
CN110070490A (en) Image split-joint method and device
CN115019152A (en) Image shooting integrity judgment method and device
US20170236005A1 (en) Method for determining a colour value of an object in an image
JP6890849B2 (en) Information processing system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230628

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240423

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240426

R150 Certificate of patent or registration of utility model

Ref document number: 7481939

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150