Nothing Special   »   [go: up one dir, main page]

JP2020012816A - Detection system and detection method - Google Patents

Detection system and detection method Download PDF

Info

Publication number
JP2020012816A
JP2020012816A JP2019112514A JP2019112514A JP2020012816A JP 2020012816 A JP2020012816 A JP 2020012816A JP 2019112514 A JP2019112514 A JP 2019112514A JP 2019112514 A JP2019112514 A JP 2019112514A JP 2020012816 A JP2020012816 A JP 2020012816A
Authority
JP
Japan
Prior art keywords
abnormality
time correlation
image
detected
amplitude
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019112514A
Other languages
Japanese (ja)
Inventor
井上 靖之
Yasuyuki Inoue
靖之 井上
圭一 赤澤
Keiichi Akazawa
圭一 赤澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Elemex Corp
Original Assignee
Ricoh Elemex Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Elemex Corp filed Critical Ricoh Elemex Corp
Publication of JP2020012816A publication Critical patent/JP2020012816A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)

Abstract

To estimate the type of defects in the time correlation image inspection.SOLUTION: An inspection system of an embodiment includes: a planar illumination part which gives periodic temporal and spatial changes in light intensity; a time correlation image generation part which generates a time correlation image by an imaging system for multiplying a light intensity signal from the inspection object surface and a reference signal which changes periodically in response to the temporal change in the light intensity; an abnormality detection part which performs detection of a plurality of types of abnormalities with respect to features obtained from the time correlation image; and an abnormality type estimation part which estimates the type of abnormality based on the combination of the detection results of the plurality of types of abnormalities detected by the abnormality detection part.SELECTED DRAWING: Figure 1

Description

本発明の実施形態は、検査システムおよび検査方法に関する。   Embodiments described herein relate generally to an inspection system and an inspection method.

従来、被検査体に光を照射し、当該被検査体の表面からの反射光を画像データとして撮像し、当該画像データの輝度変化等に基づいて、被検査体の異常を検出する技術が提案されている。   Conventionally, there has been proposed a technique of irradiating a test object with light, capturing reflected light from the surface of the test object as image data, and detecting an abnormality of the test object based on a change in luminance of the image data. Have been.

その際に被検査体に照射する光の強度を周期的に変化させ、撮像された画像データの輝度変化に基づいて、異常を検出する技術が提案されている。   At that time, there has been proposed a technique of periodically changing the intensity of light applied to an object to be inspected and detecting an abnormality based on a change in luminance of captured image data.

特開2014−002125号公報JP 2014-002125 A

しかしながら、従来技術においては光の強度を変化させているが、撮像された画像データには光の強度を変化させた際の時間の遷移に関する情報が含まれていない。このため、撮影された画像データで被検査体の異常を検出する際に、検出精度が低くなる可能性がある。また、この種の技術において、欠陥の種別を把握することができれば、有意義である。   However, in the related art, the light intensity is changed, but the captured image data does not include information on the time transition when the light intensity is changed. For this reason, when detecting an abnormality of the object to be inspected from the captured image data, the detection accuracy may be reduced. Further, in this type of technology, it is significant if the type of defect can be grasped.

実施形態の検査システムは、光の強度の周期的な時間変化および空間変化を与える面的な照明部と、検査対象面からの光強度信号と、光の強度の時間変化に対応して周期的に変化する参照信号と、を乗算する撮像システムによって時間相関画像を生成する時間相関画像生成部と、時間相関画像より得られる特徴について複数種類の異常の検出を実行する異常検出部と、異常検出部によって検出された複数種類の異常の検出結果の組み合わせに基づいて異常の種別を推定する異常種別推定部と、を備える。   The inspection system according to the embodiment includes a planar illumination unit that provides a periodic time change and a spatial change in light intensity, a light intensity signal from the inspection target surface, and a periodic signal corresponding to the time change in light intensity. A time correlation image generation unit that generates a time correlation image by an imaging system that multiplies the reference signal that changes to a reference signal, an abnormality detection unit that detects a plurality of types of abnormalities for features obtained from the time correlation image, and an abnormality detection An abnormality type estimating unit that estimates an abnormality type based on a combination of detection results of a plurality of types of abnormalities detected by the unit.

図1は、第1の実施形態の検査システムの構成例を示した図である。FIG. 1 is a diagram illustrating a configuration example of the inspection system according to the first embodiment. 図2は、第1の実施形態の時間相関カメラの構成を示したブロック図である。FIG. 2 is a block diagram illustrating a configuration of the time correlation camera according to the first embodiment. 図3は、第1の実施形態の時間相関カメラで時系列順に蓄積されたフレームを表した概念図である。FIG. 3 is a conceptual diagram illustrating frames accumulated in chronological order by the time correlation camera of the first embodiment. 図4は、第1の実施形態の照明装置が照射する縞パターンの一例を示した図である。FIG. 4 is a diagram illustrating an example of a stripe pattern emitted by the illumination device according to the first embodiment. 図5は、第1の実施形態の時間相関カメラによる、被検査体の異常の第1の検出例を示した図である。FIG. 5 is a diagram illustrating a first detection example of the abnormality of the inspection object by the time correlation camera of the first embodiment. 図6は、図5に示される異常が被検査体にある場合に、当該異常に応じて変化する、光の振幅の例を表した図である。FIG. 6 is a diagram illustrating an example of light amplitude that changes according to the abnormality when the abnormality illustrated in FIG. 5 is present in the inspection object. 図7は、第1の実施形態の時間相関カメラによる、被検査体の異常の第2の検出例を示した図である。FIG. 7 is a diagram illustrating a second detection example of the abnormality of the inspection object by the time correlation camera according to the first embodiment. 図8は、第1の実施形態の時間相関カメラによる、被検査体の異常の第3の検出例を示した図である。FIG. 8 is a diagram illustrating a third detection example of the abnormality of the inspection object by the time correlation camera of the first embodiment. 図9は、第1の実施形態の照明制御部が照明装置に出力する縞パターンの例を示した図である。FIG. 9 is a diagram illustrating an example of a stripe pattern output to the lighting device by the lighting control unit according to the first embodiment. 図10は、第1の実施形態のスクリーンを介した後の縞パターンを表した波の形状の例を示した図である。FIG. 10 is a diagram illustrating an example of a wave shape representing a stripe pattern after passing through the screen according to the first embodiment. 図11は、第1の実施形態の異常検出部の構成を示したブロック図である。FIG. 11 is a block diagram illustrating a configuration of the abnormality detection unit according to the first embodiment. 図12は、第1の実施形態の異常検出部における振幅に基づく異常検出処理の手順を示すフローチャートである。FIG. 12 is a flowchart illustrating a procedure of the abnormality detection processing based on the amplitude in the abnormality detection unit according to the first embodiment. 図13は、第1の実施形態の異常検出部における、位相に基づく異常検出処理の手順を示すフローチャートである。FIG. 13 is a flowchart illustrating a procedure of a phase-based abnormality detection process in the abnormality detection unit according to the first embodiment. 図14は、第1の実施形態の異常検出部における振幅および強度に基づく異常検出処理の手順を示すフローチャートである。FIG. 14 is a flowchart illustrating a procedure of an abnormality detection process based on the amplitude and the intensity in the abnormality detection unit according to the first embodiment. 図15は、第1の実施形態の検査システムにおける被検査体の検査処理の手順を示すフローチャートである。FIG. 15 is a flowchart illustrating a procedure of the inspection processing of the inspection object in the inspection system of the first embodiment. 図16は、変形例2の照明制御部が出力する縞パターンの切り替え例を示した図である。FIG. 16 is a diagram illustrating an example of switching a stripe pattern output by the illumination control unit according to the second modification. 図17は、変形例2の照明制御部が、異常(欠陥)を含めた表面に縞パターンを照射した例を示した図である。FIG. 17 is a diagram illustrating an example in which the illumination control unit of the second modification irradiates a stripe pattern on a surface including an abnormality (defect). 図18は、y方向に縞パターンを変化させた場合における、異常(欠陥)とスクリーン上の縞パターンの関係を示した図である。FIG. 18 is a diagram showing a relationship between an abnormality (defect) and a stripe pattern on the screen when the stripe pattern is changed in the y direction. 図19は、変形例3の照明制御部が照明装置に出力する縞パターンの例を示した図である。FIG. 19 is a diagram illustrating an example of a stripe pattern output by the illumination control unit of the third modification to the illumination device. 図20は、第2の実施形態の照明制御部が照明装置に出力する縞パターンの例を示した図である。FIG. 20 is a diagram illustrating an example of a stripe pattern output by the illumination control unit according to the second embodiment to the illumination device.

(第1の実施形態)
本実施形態の検査システムについて説明する。第1の実施形態の検査システムは、被検査体を検査するために様々な構成を備えている。図1は、本実施形態の検査システムの構成例を示した図である。図1に示されるように、本実施形態の検査システムは、PC100と、時間相関カメラ110と、照明装置120と、スクリーン130と、アーム140と、を備えている。
(First embodiment)
An inspection system according to the present embodiment will be described. The inspection system according to the first embodiment has various configurations for inspecting an object to be inspected. FIG. 1 is a diagram illustrating a configuration example of an inspection system according to the present embodiment. As shown in FIG. 1, the inspection system according to the present embodiment includes a PC 100, a time correlation camera 110, a lighting device 120, a screen 130, and an arm 140.

アーム140は、被検査体150を固定するために用いられ、PC100からの制御に応じて、時間相関カメラ110が撮影可能な被検査体150の表面の位置と向きを変化させる。   The arm 140 is used to fix the test object 150, and changes the position and orientation of the surface of the test object 150, which can be photographed by the time correlation camera 110, under the control of the PC 100.

照明装置120は、被検査体150に光を照射する装置であって、PC100からの縞パターンに従って、照射する光の強度を領域単位で制御できる。さらに、照明装置120は、周期的な時間の遷移に従って当該領域単位の光の強度を制御できる。換言すれば、照明装置120は、光の強度の周期的な時間変化及び空間変化を与えることができる。なお、具体的な光の強度の制御手法については後述する。   The illuminating device 120 is a device that irradiates the inspection object 150 with light, and can control the intensity of the irradiating light on a region basis according to a stripe pattern from the PC 100. Further, the lighting device 120 can control the intensity of light in the area unit according to a periodic transition of time. In other words, the lighting device 120 can provide a periodic time change and a spatial change in light intensity. A specific light intensity control method will be described later.

スクリーン130は、照明装置120から出力された光を拡散させた上で、被検査体150に対して面的に光を照射する。本実施形態のスクリーン130は、照明装置120から入力された周期的な時間変化及び空間変化が与えられた光を、面的に被検査体150に照射する。なお、照明装置120とスクリーン130との間には、集光用のフレネルレンズ等の光学系部品(図示されず)が設けられてもよい。   The screen 130 diffuses the light output from the illumination device 120 and then irradiates the inspection object 150 with light in a planar manner. The screen 130 of the present embodiment irradiates the object 150 with the light to which the periodic time change and spatial change given from the illumination device 120 are applied. Note that an optical system component (not shown) such as a Fresnel lens for focusing may be provided between the illumination device 120 and the screen 130.

なお、本実施形態は、照明装置120とスクリーン130とを組み合わせて、光強度の周期的な時間変化及び空間変化を与える面的な照射部を構成する例について説明するが、このような組み合わせに制限するものではなく、例えば、LEDを面的に配置して照明部を構成してもよい。   In the present embodiment, an example will be described in which the illumination device 120 and the screen 130 are combined to form a planar irradiation unit that provides a periodic time change and a spatial change in light intensity. There is no limitation. For example, the lighting unit may be configured by arranging LEDs in a plane.

時間相関カメラ110は、光学系210と、イメージセンサ220と、データバッファ230と、制御部240と、参照信号出力部250と、を備えている。図2は、本実施形態の時間相関カメラ110の構成を示したブロック図である。   The time correlation camera 110 includes an optical system 210, an image sensor 220, a data buffer 230, a control unit 240, and a reference signal output unit 250. FIG. 2 is a block diagram illustrating a configuration of the time correlation camera 110 according to the present embodiment.

光学系210は、撮影レンズ等を含み、時間相関カメラ110の外部の被写体(被検査体を含む)からの光束を透過し、その光束により形成される被写体の光学像を結像させる。   The optical system 210 includes a photographic lens and the like, transmits a light beam from a subject (including an object to be inspected) outside the time correlation camera 110, and forms an optical image of the subject formed by the light beam.

イメージセンサ220は、光学系210を介して入射された光の強弱を光強度信号として画素毎に高速に出力可能なセンサとする。   The image sensor 220 is a sensor that can output the intensity of light incident via the optical system 210 at a high speed for each pixel as a light intensity signal.

本実施形態の光強度信号は、検査システムの照明装置120が被写体(被検査体を含む)に対して光を照射し、当該被写体からの反射光を、イメージセンサ220が受け取ったものである。   The light intensity signal of the present embodiment is obtained by the illumination device 120 of the inspection system irradiating a subject (including the subject) with light, and the image sensor 220 receiving reflected light from the subject.

イメージセンサ220は、例えば従来のものと比べて高速に読み出し可能なセンサであり、行方向(x方向)、列方向(y方向)の2種類の方向に画素が配列された2次元平面状に構成されたものとする。そして、イメージセンサ220の各画素を、画素P(1,1),……,P(i,j),……,P(X,Y)とする(なお、本実施形態の画像サイズをX×Yとする。)。なお、イメージセンサ220の読み出し速度を制限するものではなく、従来と同様であってもよい。   The image sensor 220 is, for example, a sensor that can read at a higher speed than a conventional sensor, and has a two-dimensional planar shape in which pixels are arranged in two types of directions, a row direction (x direction) and a column direction (y direction). It shall be configured. Each pixel of the image sensor 220 is defined as a pixel P (1,1),..., P (i, j),..., P (X, Y). × Y). Note that the reading speed of the image sensor 220 is not limited, and may be the same as the conventional one.

イメージセンサ220は、光学系210によって透過された、被写体(被検査体を含む)からの光束を受光して光電変換することで、被写体から反射された光の強弱を示した光強度信号(撮影信号)で構成される、2次元平面状のフレームを生成し、制御部240に出力する。本実施形態のイメージセンサ220は、読み出し可能な単位時間毎に、当該フレームを出力する。   The image sensor 220 receives the light flux from the subject (including the subject to be inspected) transmitted by the optical system 210 and performs photoelectric conversion on the received light flux, thereby generating a light intensity signal (imaging) indicating the intensity of light reflected from the subject. A two-dimensional frame composed of the signals is generated and output to the control unit 240. The image sensor 220 of the present embodiment outputs the frame for each readable unit time.

本実施形態の制御部240は、例えばCPU、ROM、及びRAM等で構成され、ROMに格納された検査プログラムを実行することで、転送部241と、読出部242と、強度画像用重畳部243と、第1の乗算器244と、第1の相関画像用重畳部245と、第2の乗算器246と、第2の相関画像用重畳部247と、画像出力部248と、を実現する。なお、CPU等で実現することに制限するものではなく、FPGA、またはASICで実現してもよい。   The control unit 240 according to the present embodiment is configured by, for example, a CPU, a ROM, a RAM, and the like, and executes an inspection program stored in the ROM to execute a transfer unit 241, a reading unit 242, and an intensity image superimposing unit 243. , A first multiplier 244, a first correlation image superposition unit 245, a second multiplier 246, a second correlation image superposition unit 247, and an image output unit 248. Note that the present invention is not limited to being realized by a CPU or the like, and may be realized by an FPGA or an ASIC.

転送部241は、イメージセンサ220から出力された、光強度信号で構成されたフレームを、データバッファ230に、時系列順に蓄積する。   The transfer unit 241 stores frames composed of light intensity signals output from the image sensor 220 in the data buffer 230 in chronological order.

データバッファ230は、イメージセンサ220から出力された、光強度信号で構成されたフレームを、時系列順に蓄積する。   The data buffer 230 accumulates frames composed of light intensity signals output from the image sensor 220 in chronological order.

図3は、本実施形態の時間相関カメラ110で時系列順に蓄積されたフレームを表した概念図である。図3に示されるように、本実施形態のデータバッファ230には、時刻t(t=t0,t1,t2,……,tn)毎の複数の光強度信号G(1,1,t),……,G(i,j,t),……,G(X,Y,t)の組み合わせで構成された複数のフレームFk(k=1,2,……,n)が、時系列順に蓄積される。なお、時刻tで作成される一枚のフレームは、光強度信号G(1,1,t),……,G(i,j,t),……,G(X,Y,t)で構成される。   FIG. 3 is a conceptual diagram showing frames stored in chronological order by the time correlation camera 110 of the present embodiment. As shown in FIG. 3, the data buffer 230 of the present embodiment includes a plurality of light intensity signals G (1,1, t) at each time t (t = t0, t1, t2,..., Tn). .., G (i, j, t),..., G (X, Y, t) are combined into a plurality of frames Fk (k = 1, 2,..., N) in chronological order. Stored. One frame created at time t is a light intensity signal G (1,1, t),..., G (i, j, t),..., G (X, Y, t). Be composed.

本実施形態の光強度信号(撮像信号)G(1,1,t),……,G(i,j,t),……,G(X,Y,t)には、フレーム画像Fk(k=1,2,……,n)を構成する各画素P(1,1),……,P(i,j),……,P(X,Y)が対応づけられている。   The light intensity signal (imaging signal) G (1,1, t),..., G (i, j, t),..., G (X, Y, t) of this embodiment includes a frame image Fk ( Each pixel P (1,1),..., P (i, j),..., P (X, Y) constituting k = 1, 2,.

イメージセンサ220から出力されるフレームは、光強度信号のみで構成されており、換言すればモノクロの画像データとも考えることができる。なお、本実施形態は、解像度、感度、及びコスト等を考慮して、イメージセンサ220がモノクロの画像データを生成する例について説明するが、イメージセンサ220としてモノクロ用のイメージセンサに制限するものではなく、カラー用のイメージセンサを用いてもよい。   The frame output from the image sensor 220 is composed of only the light intensity signal, in other words, it can be considered as monochrome image data. In this embodiment, an example in which the image sensor 220 generates monochrome image data in consideration of resolution, sensitivity, cost, and the like will be described. However, the image sensor 220 is not limited to a monochrome image sensor. Instead, a color image sensor may be used.

図2に戻り、本実施形態の読出部242は、データバッファ230から、光強度信号G(1,1,t),……,G(i,j,t),……,G(X,Y,t)をフレーム単位で、時系列順に読み出して、第1の乗算器244と、第2の乗算器246と、強度画像用重畳部243と、に出力する。   Returning to FIG. 2, the reading unit 242 of the present embodiment outputs the light intensity signals G (1,1, t),..., G (i, j, t),. Y, t) are read out in chronological order on a frame basis and output to the first multiplier 244, the second multiplier 246, and the intensity image superimposing unit 243.

本実施形態の時間相関カメラ110は、読出部242の出力先毎に画像データを生成する。換言すれば、時間相関カメラ110は、3種類の画像データを作成する。   The time correlation camera 110 of the present embodiment generates image data for each output destination of the reading unit 242. In other words, the time correlation camera 110 creates three types of image data.

本実施形態の時間相関カメラ110は、3種類の画像データとして、強度画像データと、2種類の時間相関画像データと、を生成する。なお、本実施形態は、3種類の画像データを生成することに制限するものではなく、強度画像データを生成しない場合や、1種類又は3種類以上の時間相関画像データを生成する場合も考えられる。   The time correlation camera 110 of the present embodiment generates intensity image data and two types of time correlation image data as three types of image data. Note that the present embodiment is not limited to the generation of three types of image data, and may include cases where intensity image data is not generated and cases where one or three or more types of time-correlated image data are generated. .

本実施形態のイメージセンサ220は、上述したように単位時間毎に、光強度信号で構成されたフレームを出力している。しかしながら、通常の画像データを生成するためには、撮影に必要な露光時間分の光強度信号が必要になる。そこで、本実施形態では、強度画像用重畳部243が、撮影に必要な露光時間分の複数のフレームを重畳して、強度画像データを生成する。なお、強度画像データの各画素値(光の強度を表す値)G(x,y)は、以下に示す式(1)から導き出すことができる。なお、露光時間は、t0とtnの時間差とする。   As described above, the image sensor 220 of the present embodiment outputs a frame composed of a light intensity signal for each unit time. However, in order to generate normal image data, a light intensity signal for an exposure time required for photographing is required. Thus, in the present embodiment, the intensity image superimposing unit 243 generates intensity image data by superimposing a plurality of frames for an exposure time necessary for photographing. Note that each pixel value (a value representing light intensity) G (x, y) of the intensity image data can be derived from the following equation (1). Note that the exposure time is a time difference between t0 and tn.

Figure 2020012816
Figure 2020012816

これにより、従来のカメラの撮影と同様に、被写体(被検査体を含む)が撮影された強度画像データが生成される。そして、強度画像用重畳部243は、生成した強度画像データを、画像出力部248に出力する。   As a result, intensity image data of a subject (including an object to be inspected) is generated in the same manner as the conventional camera. Then, the intensity image superimposing unit 243 outputs the generated intensity image data to the image output unit 248.

時間相関画像データは、時間遷移に応じた光の強弱の変化を示す画像データである。つまり、本実施形態では、時系列順のフレーム毎に、当該フレームに含まれる光強度信号に対して、時間遷移を示した参照信号を乗算し、参照信号と光強度信号と乗算結果である時間相関値で構成された、時間相関値フレームを生成し、複数の時間相関値フレームを重畳することで、時間相関画像データを生成する。   The time correlation image data is image data indicating a change in light intensity according to a time transition. That is, in the present embodiment, for each frame in chronological order, the light intensity signal included in the frame is multiplied by the reference signal indicating the time transition, and the reference signal is multiplied by the light intensity signal, and A time correlation value frame composed of correlation values is generated, and time correlation image data is generated by superimposing a plurality of time correlation value frames.

ところで、時間相関画像データを用いて、被検査体の異常を検出するためには、イメージセンサ220に入力される光強度信号を、参照信号に同期させて変化させる必要がある。このために、照明装置120が、上述したように、スクリーン130を介して周期的に時間変化および縞の空間的な移動を与えるような、面的な光の照射を行うこととした。   By the way, in order to detect an abnormality of the test object using the time correlation image data, it is necessary to change the light intensity signal input to the image sensor 220 in synchronization with the reference signal. For this reason, as described above, the illumination device 120 performs planar light irradiation that periodically changes the time and spatial movement of the stripes via the screen 130, as described above.

本実施形態では、2種類の時間相関画像データを生成する。参照信号は、時間遷移を表した信号であればよいが、本実施形態では、複素正弦波e-jωtを用いる。なお、角周波数ω、時刻tとする。参照信号を表す複素正弦波e-jωtが、上述した露光時間(換言すれば強度画像データ、時間相関画像を生成するために必要な時間)の一周期と相関をとるように、角周波数ωが設定されるものとする。換言すれば、照明装置120およびスクリーン130等の照明部によって形成された面的かつ動的な光は、被検査体150の表面(反射面)の各位置で第一の周期(時間周期)での時間的な照射強度の変化を与えるとともに、表面に沿った少なくとも一方向に沿った第二の周期(空間周期)での空間的な照射強度の増減分布を与える。この面的な光は、表面で反射される際に、当該表面のスペック(法線ベクトルの分布等)に応じて複素変調される。時間相関カメラ110は、表面で複素変調された光を受光し、第一の周期の参照信号を用いて直交検波(直交復調)することにより、複素信号としての時間相関画像データを得る。このような複素時間相関画像データに基づく変復調により、表面の法線ベクトルの分布に対応した特徴を検出することができる。 In the present embodiment, two types of time-correlated image data are generated. The reference signal may be a signal representing a time transition, but in this embodiment, a complex sine wave e -jωt is used. It is assumed that the angular frequency ω and the time t. The angular frequency ω is set so that the complex sine wave e −jωt representing the reference signal is correlated with one cycle of the above-described exposure time (in other words, the time required to generate the intensity image data and the time correlation image). Shall be set. In other words, the two-dimensional and dynamic light formed by the illumination unit 120 and the illumination unit such as the screen 130 is generated at each position on the surface (reflection surface) of the inspection object 150 at the first period (time period). And a change in spatial irradiation intensity in a second cycle (spatial cycle) along at least one direction along the surface. When this planar light is reflected by a surface, it is subjected to complex modulation according to the specifications of the surface (such as the distribution of normal vectors). The time-correlation camera 110 receives time-modulated image data as a complex signal by receiving light that is complex-modulated on the surface and performing quadrature detection (quadrature demodulation) using the reference signal of the first cycle. By performing modulation and demodulation based on such complex time correlation image data, it is possible to detect a feature corresponding to the distribution of the surface normal vector.

複素正弦波e-jωtは、e-jωt=cos(ωt)−j・sin(ωt)と表すこともできる。従って、時間相関画像データの各画素値C(x,y)は、以下に示す式(2)から導き出すことができる。 The complex sine wave e -jωt can also be expressed as e -jωt = cos (ωt) -j · sin (ωt). Therefore, each pixel value C (x, y) of the time correlation image data can be derived from the following equation (2).

Figure 2020012816
Figure 2020012816

本実施形態では、式(2)において、実数部を表す画素値C1(x,y)と、虚数部を表す画素値C2(x,y)と、に分けて2種類の時間相関画像データを生成する。   In the present embodiment, in equation (2), two types of time-correlated image data are divided into a pixel value C1 (x, y) representing a real part and a pixel value C2 (x, y) representing an imaginary part. Generate.

このため、参照信号出力部250は、第1の乗算器244と、第2の乗算器246と、に対してそれぞれ異なる参照信号を生成し、出力する。本実施形態の参照信号出力部250は、複素正弦波e-jωtの実数部に対応する第1の参照信号cosωtを第1の乗算器244に出力し、複素正弦波e-jωtの虚数部に対応する第2の参照信号sinωtを第2の乗算器246に出力する。このように本実施形態の参照信号出力部250は、互いにヒルベルト変換対をなす正弦波および余弦波の時間関数として表される2種類の参照信号を出力する例について説明するが、参照信号は時間関数のような時間遷移に応じて変化する参照信号であればよい。 For this reason, the reference signal output unit 250 generates and outputs different reference signals to the first multiplier 244 and the second multiplier 246, respectively. Reference signal output section 250 of this embodiment outputs the first reference signal cosωt corresponding to the real part of the complex sine wave e -Jeiomegati the first multiplier 244, the imaginary part of the complex sine wave e -Jeiomegati The corresponding second reference signal sinωt is output to the second multiplier 246. As described above, the reference signal output unit 250 of the present embodiment describes an example of outputting two types of reference signals represented as time functions of a sine wave and a cosine wave that form a Hilbert transform pair with each other. Any reference signal that changes according to time transition, such as a function, may be used.

そして、第1の乗算器244は、読出部242から入力されたフレーム単位で、当該フレームの光強度信号毎に、参照信号出力部250から入力された複素正弦波e-jωtの実数部cosωtを乗算する。 Then, the first multiplier 244 converts the real part cosωt of the complex sine wave e −jωt input from the reference signal output unit 250 for each frame of the light intensity signal of the frame input from the reading unit 242. Multiply.

第1の相関画像用重畳部245は、撮影に必要な露光時間分の複数のフレームについて、第1の乗算器244の乗算結果を画素毎に重畳する処理を行う。これにより、第1の時間相関画像データの各画素値C1(x,y)が、以下の式(3)から導出される。   The first correlation image superimposing unit 245 performs a process of superimposing the multiplication result of the first multiplier 244 for each pixel on a plurality of frames corresponding to the exposure time required for photographing. Thus, each pixel value C1 (x, y) of the first time-correlated image data is derived from the following equation (3).

Figure 2020012816
Figure 2020012816

そして、第2の乗算器246は、読出部242から入力されたフレームの光強度信号に対して、参照信号出力部250から入力された複素正弦波e-jωtの虚数部sinωtを乗算する。 Then, the second multiplier 246 multiplies the light intensity signal of the frame input from the reading unit 242 by the imaginary part sinωt of the complex sine wave e −jωt input from the reference signal output unit 250.

第2の相関画像用重畳部247は、撮影に必要な露光時間分の複数のフレームについて、第2の乗算器246の乗算結果を画素毎に重畳する処理を行う。これにより、第2の時間相関画像データの各画素値C2(x、y)が、以下の式(4)から導出される。   The second correlation image superimposing unit 247 performs a process of superimposing the multiplication result of the second multiplier 246 for each pixel on a plurality of frames corresponding to the exposure time required for photographing. Thereby, each pixel value C2 (x, y) of the second time-correlated image data is derived from the following equation (4).

Figure 2020012816
Figure 2020012816

上述した処理を行うことで、2種類の時間相関画像データ、換言すれば2自由度を有する時間相関画像データを生成できる。   By performing the above-described processing, two types of time-correlated image data, in other words, time-correlated image data having two degrees of freedom can be generated.

また、本実施形態は、参照信号の種類を制限するものでない。例えば、本実施形態では、複素正弦波e-jωtの実部と虚部の2種類の時間相関画像データを作成するが、光の振幅と、光の位相と、による2種類の画像データを生成してもよい。 Further, the present embodiment does not limit the type of the reference signal. For example, in the present embodiment, two types of time-correlated image data of the real part and the imaginary part of the complex sine wave e -jωt are created, but two types of image data are generated based on the amplitude of light and the phase of light. May be.

なお、本実施形態の時間相関カメラ110は、時間相関画像データとして、複数系統分作成可能とする。これにより、例えば複数種類の幅の縞が組み合わされた光が照射された際に、上述した実部と虚部とによる2種類の時間相関画像データを、縞の幅毎に作成可能とする。このために、時間相関カメラ110は、2個の乗算器と2個の相関画像用重畳部とからなる組み合わせを、複数系統分備えるとともに、参照信号出力部250は、系統毎に適した角周波数ωによる参照信号を出力可能とする。   Note that the time correlation camera 110 of the present embodiment can create a plurality of systems as time correlation image data. Thus, for example, when light in which stripes having a plurality of types of widths are combined is irradiated, two types of time-correlated image data based on the real part and the imaginary part described above can be created for each width of the stripes. For this purpose, the time correlation camera 110 includes a plurality of combinations of two multipliers and two correlation image superimposing units for a plurality of systems, and the reference signal output unit 250 provides an angular frequency suitable for each system. A reference signal based on ω can be output.

そして、画像出力部248が、2種類の時間相関画像データと、強度画像データと、をPC100に出力する。これにより、PC100が、2種類の時間相関画像データと、強度画像データと、を用いて、被検査体の異常を検出する。そのためには、被写体に対して光を照射する必要がある。   Then, the image output unit 248 outputs the two types of time correlation image data and the intensity image data to the PC 100. Thereby, the PC 100 detects an abnormality of the test object using the two types of time correlation image data and the intensity image data. For that purpose, it is necessary to irradiate the subject with light.

本実施形態の照明装置120は、高速に移動する縞パターンを照射する。図4は、本実施形態の照明装置120が照射する縞パターンの一例を示した図である。図4に示す例では、縞パターンをx方向にスクロール(移動)させている例とする。白い領域が縞に対応した明領域、黒い領域が縞と縞との間に対応した間隔領域(暗領域)である。   The illumination device 120 according to the present embodiment irradiates a stripe pattern that moves at a high speed. FIG. 4 is a diagram illustrating an example of a stripe pattern emitted by the illumination device 120 of the present embodiment. In the example shown in FIG. 4, the stripe pattern is scrolled (moved) in the x direction. A white area is a bright area corresponding to a stripe, and a black area is an interval area (dark area) corresponding to a stripe.

本実施形態では、時間相関カメラ110が強度画像データ及び時間相関画像データを撮影する露光時間で、照明装置120が照射する縞パターンが一周期分移動させる。これにより、照明装置120は、光の強度の縞パターンの空間的な移動により光の強度の周期的な時間変化を与える。本実施形態では、図4の縞パターンが一周期分移動する時間を、露光時間と対応させることで、時間相関画像データの各画素には、少なくとも、縞パターン一周期分の光の強度信号に関する情報が埋め込まれる。   In the present embodiment, the stripe pattern illuminated by the illumination device 120 is moved by one cycle by the exposure time at which the time correlation camera 110 captures the intensity image data and the time correlation image data. Thereby, the lighting device 120 gives a periodic time change of the light intensity due to the spatial movement of the stripe pattern of the light intensity. In this embodiment, by associating the time during which the stripe pattern of FIG. 4 moves by one cycle with the exposure time, each pixel of the time-correlated image data has at least the light intensity signal of one cycle of the stripe pattern. Information is embedded.

図4に示されるように、本実施形態では、照明装置120が矩形波に基づく縞パターンを照射する例について説明するが、矩形波以外を用いてもよい。本実施形態では、照明装置120がスクリーン130を介して照射されることで、矩形波の明暗の境界領域をぼかすことができる。   As illustrated in FIG. 4, in the present embodiment, an example will be described in which the illumination device 120 irradiates a stripe pattern based on a rectangular wave, but an illumination device other than a rectangular wave may be used. In the present embodiment, by irradiating the illumination device 120 via the screen 130, it is possible to blur the bright and dark boundary region of the rectangular wave.

本実施形態では、照明装置120が照射する縞パターンをA(1+cos(ωt+kx))と表す。すなわち、縞パターンには、複数の縞が反復的に(周期的に)含まれる。なお、被検査体に照射される光の強度は0〜2Aの間で調整可能とし、光の位相kxとする。kは、縞の波数である。xは、位相が変化する方向である。   In the present embodiment, the stripe pattern irradiated by the illumination device 120 is represented as A (1 + cos (ωt + kx)). That is, the stripe pattern includes a plurality of stripes repeatedly (periodically). Note that the intensity of the light applied to the object to be inspected can be adjusted between 0 and 2 A, and is set to the light phase kx. k is the wave number of the stripe. x is the direction in which the phase changes.

そして、フレームの各画素の光強度信号f(x,y,t)の基本周波数成分は、以下の式(5)として表すことができる。式(5)で示されるように、x方向で縞の明暗が変化する。   Then, the fundamental frequency component of the light intensity signal f (x, y, t) of each pixel of the frame can be expressed as the following equation (5). As shown in Expression (5), the brightness of the stripe changes in the x direction.

f(x,y,t)=A(1+cos(ωt+kx))
=A+A/2{ej(ωt+kx)+e-j(ωt+kx)}……(5)
f (x, y, t) = A (1 + cos (ωt + kx))
= A + A / 2 {e j (ωt + kx) + e− j (ωt + kx) } (5)

式(5)で示されるように、照明装置120が照射する縞パターンの強度信号は、複素数として考えることができる。   As shown in Expression (5), the intensity signal of the stripe pattern illuminated by the illumination device 120 can be considered as a complex number.

そして、イメージセンサ220には、当該照明装置120からの光が被写体(被検査体を含む)から反射して入力される。   Then, the light from the illumination device 120 is input to the image sensor 220 after being reflected from the subject (including the object to be inspected).

したがって、イメージセンサ220に入力される光強度信号G(x,y,t)を、照明装置120が照射された際のフレームの各画素の光強度信号f(x,y,t)とできる。そこで、強度画像データを導出するための式(1)に式(5)を代入すると、式(6)を導出できる。なお、位相kxとする。   Therefore, the light intensity signal G (x, y, t) input to the image sensor 220 can be used as the light intensity signal f (x, y, t) of each pixel of the frame when the illumination device 120 is irradiated. Therefore, by substituting Expression (5) into Expression (1) for deriving the intensity image data, Expression (6) can be derived. Note that the phase is kx.

Figure 2020012816
Figure 2020012816

式(6)から、強度画像データの各画素には、露光時間Tに、照明装置120が出力している光の強度の中間値Aを乗じた値が入力されていることが確認できる。さらに、時間相関画像データを導出するための式(2)に式(5)を代入すると、式(7)を導出できる。なお、AT/2を振幅とし、kxを位相とする。   From Expression (6), it can be confirmed that a value obtained by multiplying the exposure time T by the intermediate value A of the light intensity output from the illumination device 120 is input to each pixel of the intensity image data. Further, by substituting equation (5) into equation (2) for deriving the time correlation image data, equation (7) can be derived. Note that AT / 2 is an amplitude and kx is a phase.

Figure 2020012816
Figure 2020012816

これにより、式(7)で示された複素数で示された時間相関画像データは、上述した2種類の時間相関画像データと置き換えることができる。つまり、上述した実部と虚部とで構成される時間相関画像データには、検査体に照射された光強度変化における位相変化と振幅変化とが含まれている。換言すれば、本実施形態のPC100は、2種類の時間相関画像データに基づいて、照明装置120から照射された光の位相変化と、光の振幅変化と、を検出できる。そこで、本実施形態のPC100が、時間相関画像データ及び強度画像データに基づいて、画素毎に入る光の振幅を表した振幅画像データと、画素毎に入る光の位相変化を表した位相画像データと、を生成する。   Accordingly, the time correlation image data represented by the complex number represented by the equation (7) can be replaced with the above-described two types of time correlation image data. That is, the above-described time correlation image data including the real part and the imaginary part includes the phase change and the amplitude change in the light intensity change applied to the test object. In other words, the PC 100 of the present embodiment can detect the phase change of the light emitted from the lighting device 120 and the amplitude change of the light based on the two types of time-correlated image data. Therefore, the PC 100 of the present embodiment uses the time-correlation image data and the intensity image data to generate amplitude image data representing the amplitude of light entering each pixel and phase image data representing the phase change of light entering each pixel. And generate

さらに、PC100は、生成した振幅画像データと位相画像データとに基づいて、被検査体の異常を検出する。   Further, the PC 100 detects an abnormality of the inspection object based on the generated amplitude image data and phase image data.

ところで、被検査体の表面形状に凹凸に基づく異常が生じている場合、被検査体の表面の法線ベクトルの分布には異常に対応した変化が生じている。また、被検査体の表面に光を吸収するような異常が生じている場合、反射した光の強度に変化が生じる。法線ベクトルの分布の変化は、光の位相変化及び振幅変化のうち少なくともいずれか一つとして検出される。そこで、本実施形態では、時間相関画像データ及び強度画像データを用いて、法線ベクトルの分布の変化に対応した、光の位相変化及び振幅変化のうち少なくともいずれか一つを検出する。これにより、表面形状の異常を検出可能となる。次に、被検査体の異常、法線ベクトル、及び光の位相変化又は振幅変化の関係について説明する。   By the way, when an abnormality based on irregularities occurs in the surface shape of the inspection object, a distribution corresponding to the abnormality occurs in the distribution of the normal vectors on the surface of the inspection object. Further, when an abnormality such as light absorption occurs on the surface of the inspection object, the intensity of the reflected light changes. The change in the distribution of the normal vector is detected as at least one of a phase change and an amplitude change of light. Thus, in the present embodiment, at least one of a phase change and an amplitude change of light corresponding to a change in the distribution of the normal vector is detected using the time correlation image data and the intensity image data. This makes it possible to detect an abnormality in the surface shape. Next, the relationship between the abnormality of the test object, the normal vector, and the phase change or amplitude change of light will be described.

図5は、第1の実施形態の時間相関カメラ110による、被検査体の異常の第1の検出例を示した図である。図5に示される例では、被検査体500に突形状の異常501がある状況とする。当該状況においては、異常501の点502の近傍領域においては、法線ベクトル521、522、523が異なる方向を向いていることを確認できる。そして、当該法線ベクトル521、522、523が異なる方向を向いていることで、異常501から反射した光に拡散(例えば、光511、512、513)が生じ、時間相関カメラ110のイメージセンサ220の任意の画素531に入る縞パターンの幅503が広くなる。   FIG. 5 is a diagram illustrating a first detection example of the abnormality of the inspection object by the time correlation camera 110 according to the first embodiment. In the example illustrated in FIG. 5, it is assumed that the inspection object 500 has a protruding abnormality 501. In this situation, it can be confirmed that the normal vectors 521, 522, and 523 face different directions in the area near the point 502 of the abnormality 501. Since the normal vectors 521, 522, and 523 are oriented in different directions, the light reflected from the abnormality 501 diffuses (for example, light 511, 512, and 513), and the image sensor 220 of the time correlation camera 110 The width 503 of the stripe pattern entering an arbitrary pixel 531 becomes wider.

図6は、図5に示される異常501が被検査体500にある場合に、当該異常に応じて変化する、光の振幅の例を表した図である。図6に示される例では、光の振幅を実部(Re)と、虚部(Im)に分けて2次元平面上に表している。図6では、図5の光511、512、513に対応する光の振幅611、612、613として示している。そして、光の振幅611、612、613は互いに打ち消し合い、イメージセンサ220の当該任意の画素531には、振幅621の光が入射する。   FIG. 6 is a diagram illustrating an example of the light amplitude that changes according to the abnormality when the abnormality 501 illustrated in FIG. In the example shown in FIG. 6, the amplitude of light is divided into a real part (Re) and an imaginary part (Im) and is represented on a two-dimensional plane. In FIG. 6, light amplitudes 611, 612, and 613 corresponding to the light 511, 512, and 513 in FIG. Then, the light amplitudes 611, 612, and 613 cancel each other, and the light having the amplitude 621 enters the arbitrary pixel 531 of the image sensor 220.

したがって、図6に示される状況で、被検査体500の異常501が撮像された領域で振幅が小さいことが確認できる。換言すれば、振幅変化を示した振幅画像データで、周囲と比べて暗くなっている領域がある場合に、当該領域で光同士の振幅の打ち消し合いが生じていると推測できるため、当該領域に対応する被検査体500の位置で異常501が生じていると判断できる。   Therefore, in the situation shown in FIG. 6, it can be confirmed that the amplitude is small in a region where the abnormality 501 of the test object 500 is imaged. In other words, in the amplitude image data showing the amplitude change, if there is a region that is darker than the surroundings, it can be estimated that the cancellation of the amplitudes of the light in the region has occurred. It can be determined that the abnormality 501 has occurred at the corresponding position of the test object 500.

本実施形態の検査システムは、図5の異常501のように傾きが急峻に変化しているものに限らず、緩やかに変化する異常も検出できる。図7は、第1の実施形態の時間相関カメラ110による、被検査体の異常の第2の検出例を示した図である。図7に示される例では、正常な場合は被検査体の表面が平面(換言すれば法線が平行)となるが、被検査体700に緩やかな勾配701が生じた状況とする。このような状況においては、勾配701上の法線ベクトル721、722、723も同様に緩やかに変化する。したがって、イメージセンサ220に入力する光711、712、713も少しずつずれていく。図7に示される例では、緩やかな勾配701のために光の振幅の打ち消し合いは生じないため、図5、図6で表したような光の振幅はほとんど変化しない。しかしながら、本来スクリーン130から投影された光が、そのままイメージセンサに平行に入るはずが、緩やかな勾配701のために、スクリーン130から投影された光が平行の状態でイメージセンサに入らないために、光に位相変化が生じる。従って、光の位相変化について、周囲等との違いを検出することで、図7に示したような緩やかな勾配701による異常を検出できる。   The inspection system according to the present embodiment is not limited to the one in which the inclination changes steeply like the abnormality 501 in FIG. FIG. 7 is a diagram illustrating a second detection example of the abnormality of the inspection object by the time correlation camera 110 according to the first embodiment. In the example shown in FIG. 7, in a normal case, the surface of the test object is a flat surface (in other words, the normals are parallel), but the test object 700 has a gentle gradient 701. In such a situation, the normal vectors 721, 722, and 723 on the gradient 701 also change gradually. Therefore, the lights 711, 712, and 713 input to the image sensor 220 also slightly shift. In the example shown in FIG. 7, since the light amplitudes do not cancel each other due to the gentle gradient 701, the light amplitudes shown in FIGS. 5 and 6 hardly change. However, light originally projected from the screen 130 should enter the image sensor in parallel as it is. However, because of the gentle gradient 701, light projected from the screen 130 does not enter the image sensor in a parallel state. A phase change occurs in the light. Therefore, by detecting a difference between the light phase change and the surroundings, an abnormality due to a gentle gradient 701 as shown in FIG. 7 can be detected.

また、被検査体の表面形状(換言すれば、被検査体の法線ベクトルの分布)以外にも異常が生じる場合がある。図8は、第1の実施形態の時間相関カメラ110による、被検査体の異常の第3の検出例を示した図である。図8に示される例では、被検査体800に汚れ801が付着しているため、照明装置120から照射された光が吸収あるいは拡散反射し、時間相関カメラ110の、汚れ801を撮影している任意の画素領域では光がほとんど強度変化しない例を表している。換言すれば、汚れ801を撮影している任意の画素領域では、光強度は位相打ち消しを起こし振動成分がキャンセルされ、ほとんど直流的な明るさになる例を示している。   In addition, abnormalities may occur in addition to the surface shape of the test object (in other words, the distribution of normal vectors of the test object). FIG. 8 is a diagram illustrating a third detection example of the abnormality of the inspection object by the time correlation camera 110 according to the first embodiment. In the example shown in FIG. 8, since the dirt 801 is attached to the inspection object 800, the light emitted from the illumination device 120 is absorbed or diffusely reflected, and the dirt 801 of the time correlation camera 110 is imaged. In this example, light intensity hardly changes in an arbitrary pixel region. In other words, in an arbitrary pixel area where the dirt 801 is photographed, the phase of the light intensity cancels out, the vibration component is canceled, and the brightness becomes almost DC.

このような場合、汚れ801を撮影している画素領域においては、光の振幅がほとんどないため、振幅画像データを表示した際に、周囲と比べて暗くなる領域が生じる。したがって、当該領域に対応する被検査体800の位置に、汚れ801等の異常があることを推定できる。   In such a case, since the amplitude of light hardly exists in the pixel area where the dirt 801 is photographed, an area that is darker than the surroundings when displaying the amplitude image data occurs. Therefore, it can be estimated that there is an abnormality such as dirt 801 at the position of the test object 800 corresponding to the area.

このように、本実施形態では、時間相関画像データに基づいて、光の振幅の変化と、光の位相の変化と、を検出することで、被検査体に異常があることを推定できる。   As described above, in the present embodiment, by detecting a change in the amplitude of light and a change in the phase of light based on the time-correlation image data, it is possible to estimate that the test object has an abnormality.

図1に戻り、PC100について説明する。PC100は、検出システム全体の制御を行う。PC100は、アーム制御部101と、照明制御部102と、制御部103と、を備える。   Returning to FIG. 1, the PC 100 will be described. The PC 100 controls the entire detection system. The PC 100 includes an arm control unit 101, a lighting control unit 102, and a control unit 103.

アーム制御部101は、被検査体150の時間相関カメラ110による撮像対象となる表面を変更するために、アーム140を制御する。本実施形態では、PC100において、被検査体の撮影対象となる表面を複数設定しておく。そして、時間相関カメラ110が被検査体150の撮影が終了する毎に、アーム制御部101が、当該設定に従って、時間相関カメラ110が設定された表面を撮影できるように、アーム140が被検査体150を移動させる。なお、本実施形態は撮影が終了する毎にアームを移動させ、撮影が開始する前に停止させることを繰り返すことに制限するものではなく、継続的にアーム140を駆動させてもよい。なお、アーム140は、搬送部、移動部、位置変更部、姿勢変更部等とも称されうる。   The arm control unit 101 controls the arm 140 to change the surface of the inspection object 150 to be imaged by the time correlation camera 110. In the present embodiment, in the PC 100, a plurality of surfaces to be imaged of the object to be inspected are set. Each time the time-correlation camera 110 finishes capturing an image of the object 150, the arm control unit 101 moves the arm 140 so that the time-correlation camera 110 can capture an image of the set surface in accordance with the setting. Move 150. In the present embodiment, the arm 140 is not limited to repeatedly moving the arm every time the photographing is completed and stopping it before the photographing is started. The arm 140 may be continuously driven. Note that the arm 140 may be referred to as a transport unit, a moving unit, a position changing unit, a posture changing unit, or the like.

照明制御部102は、被検査体150を検査するために照明装置120が照射する縞パターンを出力する。本実施形態の照明制御部102は、少なくとも3枚以上の縞パターンを、照明装置120に受け渡し、当該縞パターンを露光時間中に切り替えて表示するように照明装置120に指示する。   The illumination control unit 102 outputs a stripe pattern emitted by the illumination device 120 to inspect the inspection object 150. The illumination control unit 102 of the present embodiment transfers at least three or more stripe patterns to the illumination device 120, and instructs the illumination device 120 to switch and display the stripe patterns during the exposure time.

図9は、照明制御部102が照明装置120に出力する縞パターンの例を示した図である。図9(B)に示す矩形波に従って、図9(A)に示す黒領域と白領域とが設定された縞パターンが出力されるように、照明制御部102が制御を行う。   FIG. 9 is a diagram illustrating an example of a stripe pattern output from the illumination control unit 102 to the illumination device 120. The illumination control unit 102 controls such that a stripe pattern in which a black area and a white area shown in FIG. 9A are set is output according to the rectangular wave shown in FIG. 9B.

本実施形態で照射する縞パターン毎の縞の間隔は、検出対象となる異常(欠陥)の大きさに応じて設定されるものとしてここでは詳しい説明を省略する。   In the present embodiment, the interval between stripes for each stripe pattern to be irradiated is set in accordance with the size of an abnormality (defect) to be detected, and a detailed description thereof is omitted here.

また、縞パターンを出力するための矩形波の角周波数ωは、参照信号の角周波数ωと同じ値とする。   Further, the angular frequency ω of the rectangular wave for outputting the stripe pattern has the same value as the angular frequency ω of the reference signal.

図9に示されるように、照明制御部102が出力する縞パターンは、矩形波として示すことができるが、スクリーン130を介することで、縞パターンの境界領域をぼかす、すなわち、縞パターンにおける明領域(縞の領域)と暗領域(間隔の領域)との境界での光の強度変化を緩やかにする(鈍らせる)ことで、正弦波に近似させることができる。図10は、スクリーン130を介した後の縞パターンを表した波の形状の例を示した図である。図10に示されるように波の形状が、正弦波に近づくことで、計測精度を向上させることができる。また、縞に明度が多段階に変化するグレー領域を追加したり、グラデーションを与えたりしてもよい。また、カラーの縞を含む縞パターンを用いてもよい。   As shown in FIG. 9, the stripe pattern output by the illumination control unit 102 can be shown as a rectangular wave. However, the boundary area of the stripe pattern is blurred through the screen 130, that is, a bright area in the stripe pattern. By making the intensity change of light at the boundary between the (striped area) and the dark area (spaced area) gentle (dulling), it is possible to approximate a sine wave. FIG. 10 is a diagram showing an example of a wave shape representing a stripe pattern after passing through the screen 130. As shown in FIG. 10, when the wave shape approaches a sine wave, the measurement accuracy can be improved. Further, a gray area in which the brightness changes in multiple steps may be added to the stripes, or a gradation may be given. Further, a stripe pattern including color stripes may be used.

図1に戻り、制御部103は、振幅−位相画像生成部104と、異常検出部105と、異常種別推定部106と、を備え、時間相関カメラ110から入力された強度画像データと、時間相関画像データと、により、被検査体150の検査対象面の法線ベクトルの分布と対応した特徴であって、周囲との違いによって異常を検出する特徴を算出するための処理を行う。なお、本実施形態は、検査を行うために、複素数で示した時間相関画像データ(複素時間相関画像データと称す)の代わりに、複素数相関画像データの実部と虚部とで分けた2種類の時間相関画像データを、時間相関カメラ110から受け取る。   Returning to FIG. 1, the control unit 103 includes an amplitude-phase image generation unit 104, an abnormality detection unit 105, and an abnormality type estimation unit 106, and controls the intensity image data input from the time correlation camera 110 Based on the image data, a process for calculating a feature corresponding to the distribution of the normal vector of the inspection target surface of the inspection object 150 and detecting an abnormality based on a difference from the surroundings is performed. In the present embodiment, in order to perform an inspection, instead of time-correlation image data represented by complex numbers (referred to as complex time-correlation image data), two types of real-number and imaginary parts of complex-number correlation image data are used. Is received from the time correlation camera 110.

振幅−位相画像生成部104は、時間相関カメラ110から入力された強度画像データと、時間相関画像データと、に基づいて、振幅画像データと、位相画像データと、を生成する。   The amplitude-phase image generation unit 104 generates amplitude image data and phase image data based on the intensity image data input from the time correlation camera 110 and the time correlation image data.

振幅画像データは、画素毎に入る光の振幅を表した画像データとする。位相画像データは、画素毎に入る光の位相を表した画像データとする。   The amplitude image data is image data representing the amplitude of light entering each pixel. The phase image data is image data representing the phase of light entering each pixel.

本実施形態は振幅画像データの算出手法を制限するものではないが、例えば、振幅−位相画像生成部104は、2種類の時間相関画像データの画素値C1(x,y)及びC2(x,y)から、式(8)を用いて、振幅画像データの各画素値F(x,y)を導き出せる。   Although the present embodiment does not limit the calculation method of the amplitude image data, for example, the amplitude-phase image generation unit 104 includes the pixel values C1 (x, y) and C2 (x, From y), each pixel value F (x, y) of the amplitude image data can be derived using Expression (8).

Figure 2020012816
Figure 2020012816

そして、本実施形態では、振幅画像データの画素値(振幅)と、強度画像データの画素値と、に基づいて、異常が生じている領域があるか否かを判定できる。例えば、強度画像データの画素値(AT)を2で除算した値と、振幅画像データの振幅(打ち消し合いが生じない場合にはAT/2となる)と、がある程度一致する領域は異常が生じていないと推測できる。一方、一致していない領域については、振幅の打ち消しが生じていると推測できる。なお、具体的な手法については後述する。   Then, in the present embodiment, it is possible to determine whether or not there is a region where an abnormality has occurred, based on the pixel value (amplitude) of the amplitude image data and the pixel value of the intensity image data. For example, a region where the value obtained by dividing the pixel value (AT) of the intensity image data by 2 and the amplitude of the amplitude image data (AT / 2 when there is no cancellation) coincides to some extent causes an abnormality. I can guess that it is not. On the other hand, it can be inferred that the amplitude is canceled in the non-matching areas. The specific method will be described later.

同様に、振幅−位相画像生成部104は、画素値C1(x,y)及びC2(x,y)から、式(9)を用いて、位相画像データの各画素値P(x,y)を導き出せる。   Similarly, the amplitude-phase image generation unit 104 calculates each pixel value P (x, y) of the phase image data from the pixel values C1 (x, y) and C2 (x, y) using Expression (9). Can be derived.

Figure 2020012816
Figure 2020012816

異常検出部105は、振幅画像データ、位相画像データ、および強度画像データにより、検査対称面の法線ベクトルの分布と対応した特徴であって、周囲との違いによって、被検査体150の異常に関連する特徴を検出する。   The abnormality detection unit 105 uses the amplitude image data, the phase image data, and the intensity image data to determine a feature corresponding to the distribution of the normal vector of the inspection symmetry plane. Detect related features.

図11は、異常検出部105の構成を示す図である。図11に示されるように、異常検出部105は、振幅異常検出部105a、位相異常検出部105b、強度異常検出部105c、およびWF異常検出部105dを有している。   FIG. 11 is a diagram illustrating a configuration of the abnormality detection unit 105. As illustrated in FIG. 11, the abnormality detection unit 105 includes an amplitude abnormality detection unit 105a, a phase abnormality detection unit 105b, an intensity abnormality detection unit 105c, and a WF abnormality detection unit 105d.

まずは、本実施形態の振幅異常検出部105aにおける振幅に基づく異常検出処理について説明する。図12は、本実施形態の振幅異常検出部105aにおける当該処理の手順を示すフローチャートである。なお、複素時間相関画像の振幅の分布とは、複素時間相関画像の各画素の振幅の分布を示したデータであり、振幅画像データに相当する。   First, an abnormality detection process based on amplitude in the amplitude abnormality detection unit 105a of the present embodiment will be described. FIG. 12 is a flowchart illustrating a procedure of the processing in the amplitude abnormality detection unit 105a according to the present embodiment. Note that the amplitude distribution of the complex time correlation image is data indicating the amplitude distribution of each pixel of the complex time correlation image, and corresponds to amplitude image data.

まず、振幅異常検出部105aは、振幅画像データの各画素に格納された、光の振幅値(を表した画素値)から、当該画素を基準(例えば中心)として、N×N領域の平均振幅値を減算し(ステップS1101)、振幅の平均差分画像データを生成する。振幅の平均差分画像データは、振幅の勾配に対応する。なお、整数Nは実施の態様に応じて適切な値が設定されるものとする。   First, the amplitude abnormality detection unit 105a calculates the average amplitude of the N × N region with the pixel as a reference (for example, the center) from the light amplitude value (pixel value representing) stored in each pixel of the amplitude image data. The value is subtracted (step S1101) to generate average difference image data of the amplitude. The average difference image data of the amplitude corresponds to the gradient of the amplitude. The integer N is set to an appropriate value according to the embodiment.

次に、振幅異常検出部105aは、減算により生成された振幅の平均差分画像データに対して、予め定められた振幅の閾値を用いたマスク処理を行う(ステップS1102)。   Next, the amplitude abnormality detection unit 105a performs a mask process using a predetermined amplitude threshold value on the average difference image data of the amplitude generated by the subtraction (step S1102).

さらに、振幅異常検出部105aは、平均差分画像データのマスク領域内について画素毎に標準偏差を算出する(ステップS1103)。なお、本実施形態では、標準偏差に基づいた手法について説明するが、標準偏差を用いた場合に制限するものではなく、例えば平均値等を用いてもよい。   Further, the amplitude abnormality detection unit 105a calculates a standard deviation for each pixel within the mask area of the average difference image data (step S1103). In the present embodiment, a method based on the standard deviation will be described. However, the present invention is not limited to the case where the standard deviation is used. For example, an average value may be used.

そして、振幅異常検出部105aは、平均を引いた振幅画素値が−4.5σ(σ:標準偏差)より小さい値の画素を、異常(欠陥)がある領域として検出する(ステップS1104)。   Then, the amplitude abnormality detection unit 105a detects a pixel having a value whose amplitude pixel value obtained by subtracting the average is smaller than -4.5σ (σ: standard deviation) as a region having an abnormality (defect) (step S1104).

上述した処理手順により、各画素の振幅値(換言すれば、振幅の分布)から、被検査体の異常を検出できる。しかしながら、本実施形態は、複素時間相関画像の振幅の分布から異常を検出することに制限するものではない。検査対称面の法線ベクトルの分布と対応した特徴として、位相の分布の勾配を用いてもよい。そこで、次に位相の分布の勾配を用いた例について説明する。   According to the above-described processing procedure, it is possible to detect the abnormality of the inspection object from the amplitude value of each pixel (in other words, the amplitude distribution). However, the present embodiment is not limited to detecting an abnormality from the amplitude distribution of the complex time correlation image. As a feature corresponding to the distribution of the normal vector of the inspection symmetry plane, the gradient of the phase distribution may be used. Therefore, an example using the gradient of the phase distribution will be described next.

次に、本実施形態の位相異常検出部105bにおける位相に基づく異常検出処理について説明する。図13は、本実施形態の位相異常検出部105b(異常検出部105)における当該処理の手順を示すフローチャートである。   Next, an abnormality detection process based on the phase in the phase abnormality detection unit 105b of the present embodiment will be described. FIG. 13 is a flowchart illustrating a procedure of the process in the phase abnormality detection unit 105b (the abnormality detection unit 105) of the present embodiment.

まず、位相異常検出部105bは、位相画像データの画素毎の光の位相値(を表した画素値)から、当該画素を基準(例えば中心)として、N×N領域の平均位相値を減算し(ステップS1201)、位相の平均差分画像データを生成する。位相の平均差分画像データは、位相の勾配に対応する。   First, the phase abnormality detection unit 105b subtracts the average phase value of the N × N region with the pixel as a reference (for example, the center) from the phase value (pixel value representing light) of each pixel of the phase image data. (Step S1201), phase average difference image data is generated. The phase average difference image data corresponds to the phase gradient.

次に、位相異常検出部105bは、減算により生成された位相の平均差分画像データの大きさ(絶対値)と、閾値とを比較し、平均差分画像データの大きさが閾値以上となる画素を、異常(欠陥)のある画素として検出する(ステップS1202)。   Next, the phase abnormality detection unit 105b compares the size (absolute value) of the average difference image data of the phase generated by the subtraction with a threshold value, and determines a pixel whose average difference image data size is equal to or larger than the threshold value. Is detected as a pixel having an abnormality (defect) (step S1202).

このステップS1202の検出結果により、位相異常検出部105bは、平均差分画像データの正負、すなわち、画素の位相値と平均位相値との大小関係によって、凹凸を判別することができる(ステップS1203)。画素の位相値と平均位相値とのどちらが大きい場合に凸となるかは、各部の設定によって変化するが、大小関係が異なると、凹凸が異なる。   Based on the detection result in step S1202, the phase abnormality detection unit 105b can determine the unevenness based on the sign of the average difference image data, that is, the magnitude relationship between the pixel phase value and the average phase value (step S1203). Which one of the pixel phase value and the average phase value becomes convex when it is large depends on the setting of each unit, but if the magnitude relation is different, the irregularities are different.

なお、他の手法によって得られた位相の分布の勾配から、異常を検出することができる。例えば、位相異常検出部105bは、別の手法として、正規化された時間相関画像データのN×Nの領域の平均ベクトルと、正規化された各画素のベクトルとの差の大きさが、閾値よりも大きい場合に、異常(欠陥)がある画素として検出することができる。また、位相の分布の勾配に限られず、位相の分布に対応する情報に基づいて被検査体の異常を検出すればよい。   Note that an abnormality can be detected from the gradient of the phase distribution obtained by another method. For example, as another method, the phase abnormality detection unit 105b determines that the magnitude of the difference between the average vector of the N × N region of the normalized time-correlated image data and the vector of each normalized pixel is equal to a threshold. If it is larger than this, it can be detected as a pixel having an abnormality (defect). Further, the abnormality of the test object may be detected based on information corresponding to the phase distribution, without being limited to the gradient of the phase distribution.

次に、本実施形態の振幅異常検出部105aおよび強度異常検出部105cによる振幅および強度に基づく異常検出処理について説明する。図14は、本実施形態の異常検出部105における当該処理の手順を示すフローチャートである。   Next, an abnormality detection process based on amplitude and intensity by the amplitude abnormality detection unit 105a and the intensity abnormality detection unit 105c of the present embodiment will be described. FIG. 14 is a flowchart illustrating a procedure of the processing in the abnormality detection unit 105 of the present embodiment.

まず、振幅異常検出部105aおよび強度異常検出部105c(異常検出部105)は、時間相関画像データと強度画像データとから、各画素について、次の式(100)を用いて、振幅(を表す画素値)C(x,y)(式(7)参照)と強度(を表す画素値)G(x,y)(式(6)参照)との比R(x,y)を算出する(ステップS1301)。   First, the amplitude abnormality detection unit 105a and the intensity abnormality detection unit 105c (the abnormality detection unit 105) express the amplitude () of each pixel from the time correlation image data and the intensity image data using the following equation (100). The ratio R (x, y) between the pixel value) C (x, y) (see equation (7)) and the intensity (pixel value representing) G (x, y) (see equation (6)) is calculated ( Step S1301).

R(x,y)=C(x,y)/G(x,y)……(100) R (x, y) = C (x, y) / G (x, y) (100)

次に、振幅異常検出部105aおよび強度異常検出部105cは、比R(x,y)と閾値とを比較し、比R(x,y)の値が対応する閾値以下となる画素を、異常(欠陥)のある画素として検出する(ステップS1302)。また、振幅異常検出部105aおよび強度異常検出部105cは、比R(x,y)と閾値とを比較し、比R(x,y)の値が対応する別の閾値以上となる画素を、ムラ(汚れ等)のある画素として検出する(ステップS1303)。法線ベクトルの分布の異常により、振幅の打ち消し合い(減殺)が顕著となった場合には、強度に比べて振幅がより大きく下がる。一方、法線ベクトルの分布にはそれほどの異常は無いものの被検査体150の表面の汚れ等によって光の吸収が顕著となった場合には、振幅に比べて強度がより大きく下がる。よって、振幅異常検出部105aおよび強度異常検出部105cは、ステップS1302およびステップS1303による異常種別の検出が可能となる。   Next, the amplitude abnormality detection unit 105a and the intensity abnormality detection unit 105c compare the ratio R (x, y) with the threshold, and determine a pixel whose value of the ratio R (x, y) is equal to or less than the corresponding threshold. It is detected as a (defective) pixel (step S1302). Further, the amplitude abnormality detection unit 105a and the intensity abnormality detection unit 105c compare the ratio R (x, y) with a threshold, and determine a pixel whose ratio R (x, y) is equal to or greater than another corresponding threshold. It is detected as a pixel having unevenness (dirt, etc.) (step S1303). When the cancellation (decay) of the amplitude becomes remarkable due to the abnormal distribution of the normal vector, the amplitude is much lower than the intensity. On the other hand, when the distribution of the normal vectors does not have much abnormality, but the light absorption becomes remarkable due to the contamination of the surface of the test object 150 or the like, the intensity is much lower than the amplitude. Therefore, the amplitude abnormality detection unit 105a and the intensity abnormality detection unit 105c can detect the abnormality type in steps S1302 and S1303.

WF異常検出部105dは、複素時間相関画像に対するウィーナフィルタを適用することによって得られた複素復元画像と、複素時間相関画像との複素差分画像に基づいて、異常を検出する。   The WF abnormality detection unit 105d detects an abnormality based on a complex difference image between the complex restored image obtained by applying the Wiener filter to the complex time correlation image and the complex time correlation image.

WF異常検出部105dは、まず、複素時間相関画像データに対して、x方向及びy方向についての2次元フーリエ変換(離散フーリエ変換、高速フーリエ変換)を実行し、スペクトル画像を生成する。   The WF abnormality detection unit 105d first performs a two-dimensional Fourier transform (discrete Fourier transform, fast Fourier transform) on the complex time correlation image data in the x direction and the y direction to generate a spectrum image.

ウィーナフィルタK(m,n)は、信号から雑音成分を除去するための数学的フィルタの一種である。WF異常検出部105dは、2次元フーリエ変換によって得られた(空間周波数)スペクトル画像に対して、画素毎に設定されたウィーナフィルタK(m,n)を適用することにより、スペクトル画像に含まれている検査対象の欠陥部分を雑音成分として取り除く。すなわち、WF異常検出部105dは、検査対象から欠陥部分が取り除かれた複素復元画像のスペクトル画像を生成する。ここに、複素復元画像とは、複素時間相関画像データに含まれている、被検査体150の検査対象面の欠陥を表した雑音成分を取り除いた振幅と位相とを含む画像である。なお、mは、スペクトル画像におけるx軸方向の座標を示し、nは、スペクトル画像におけるy軸方向の座標を示す。   The Wiener filter K (m, n) is a kind of mathematical filter for removing a noise component from a signal. The WF abnormality detection unit 105d is included in the spectrum image by applying the Wiener filter K (m, n) set for each pixel to the (spatial frequency) spectrum image obtained by the two-dimensional Fourier transform. The defect part of the inspection target is removed as a noise component. That is, the WF abnormality detection unit 105d generates a spectrum image of the complex restored image in which the defect part has been removed from the inspection target. Here, the complex restored image is an image that is included in the complex time correlation image data and includes an amplitude and a phase from which a noise component representing a defect on the inspection target surface of the inspection object 150 is removed. Note that m indicates the coordinates in the x-axis direction in the spectrum image, and n indicates the coordinates in the y-axis direction in the spectrum image.

ウィーナフィルタK(m,n)は、予め、欠陥が含まれていない良品である、被検査体の検査対象面の複素時間相関画像データに基づいて、生成されうる。また、ウィーナフィルタK(m,n)は、縞パターン毎に設定される。   The Wiener filter K (m, n) can be generated in advance based on the complex time correlation image data of the inspection target surface of the inspection object, which is a nondefective non-defective product. The Wiener filter K (m, n) is set for each stripe pattern.

具体的に、ウィーナフィルタKの算出に際しては、被検査体150の良品に対する複数の(空間周波数)スペクトル画像を用いて、下記の式(101)を演算することで、良品を表した複素時間相関画像の平均的なスペクトル画像のパワースペクトルΦFFを算出する。なお、数値nsumは、スペクトル画像sの合計の数とする。   Specifically, when calculating the Wiener filter K, a complex time correlation representing a non-defective product is calculated by calculating the following equation (101) using a plurality of (spatial frequency) spectrum images of a non-defective product under test 150. The power spectrum ΦFF of the average spectrum image of the image is calculated. Note that the numerical value nsum is the total number of the spectrum images s.

ΦFF = |(1/nsum)*Σs|^2 ・・・ (101) ΦFF = | (1 / nsum) * Σs | ^ 2 (101)

ウィーナフィルタKは、平均的なスペクトル画像のパワースペクトルΦFFを用いた、下記の式(102)の演算から生成される。なお、雑音成分のパワースペクトルΦNNは、取り除きたい雑音成分に基づいて予め定められるパラメータである。   The Wiener filter K is generated from the calculation of the following equation (102) using the power spectrum ΦFF of the average spectrum image. The power spectrum ΦNN of the noise component is a parameter determined in advance based on the noise component to be removed.

K=1/(1+ΦNN/ΦFF) ・・・ (102)   K = 1 / (1 + ΦNN / ΦFF) (102)

雑音成分のパワースペクトルΦNNを小さくすることで、高周波をより通すことになりエッジ際の復元率を向上させることができる。しかしながら、雑音成分のパワースペクトルΦNNを小さくすると、エッジ際の高周波と共に欠陥箇所も復元されてしまう。   By reducing the power spectrum ΦNN of the noise component, a higher frequency can be passed, and the restoration rate at the edge can be improved. However, when the power spectrum ΦNN of the noise component is reduced, the defective portion is restored together with the high frequency at the edge.

そこで、一例としては、被検査体の検査対象面が緩やかに変化するタレ・ヘコミ等の欠陥箇所が復元されきらないような値を、雑音成分のパワースペクトルΦNNに設定することができる。しかし、これは一例であって、取り除く対象となる欠陥は、タレ・ヘコミには限定されない。   Thus, as an example, a value that does not completely restore a defective portion such as sagging or dents in which the surface to be inspected of the object to be inspected changes gradually can be set in the power spectrum ΦNN of the noise component. However, this is only an example, and the defect to be removed is not limited to the sauce and the dent.

ウィーナフィルタとは、従来、劣化成分を認識されている場合に、劣化画像から、劣化を示した雑音成分を取り除くことで、劣化が生じていない原画像を生成するために用いられていた。しかしながら、本実施形態では、ウィーナフィルタを、劣化が生じていない原画像を生成するために用いるのではなく、WF異常検出部105dは、検査対象面の欠陥等が含んだ複素時間相関画像に基づいたスペクトル画像から、当該欠陥等を当該雑音成分として取り除くことで、検査対象面の欠陥等が含まれていない複素復元画像のスペクトル画像を生成している。   Conventionally, the Wiener filter has been used to generate an original image free from deterioration by removing a noise component indicating deterioration from a deteriorated image when the deterioration component is recognized. However, in the present embodiment, instead of using the Wiener filter to generate an original image in which no deterioration has occurred, the WF abnormality detection unit 105d uses a complex time correlation image based on a defect or the like of a surface to be inspected. By removing the defect or the like as the noise component from the spectral image obtained, a spectrum image of a complex restored image that does not include a defect or the like on the inspection target surface is generated.

そして、WF異常検出部105dは、複素復元画像に基づいたスペクトル画像と、複素時間相関画像データに基づいたスペクトル画像と、の画素毎の画素値の差分を示した差分スペクトル画像を生成する。ここで、差分スペクトル画像は、複素復元画像と複素時間相関画像の差分に基づいたスペクトル画像、換言すれば、被検査体の検査対象面の複素時間相関画像に含まれていた欠陥等を表した雑音成分のスペクトル画像である。   Then, the WF abnormality detection unit 105d generates a difference spectrum image indicating a difference between pixel values of each pixel between the spectrum image based on the complex restored image and the spectrum image based on the complex time correlation image data. Here, the difference spectrum image represents a spectrum image based on a difference between the complex restored image and the complex time correlation image, in other words, a defect or the like included in the complex time correlation image of the inspection target surface of the inspection object. It is a spectrum image of a noise component.

WF異常検出部105dは、差分スペクトル画像に対して、フーリエ逆変換を実行して、複素差分画像を得る。   The WF abnormality detection unit 105d performs a Fourier inverse transform on the difference spectrum image to obtain a complex difference image.

WF異常検出部105dは、例えば、複素差分画像に含まれている位相の値(≒位相差)が、所定の閾値以上になる領域を、異常な領域として検出することができる。閾値は、固定値には限定されず、例えば、振幅に応じて可変設定されてもよい。なお、WF異常検出部105dは、複素差分画像から得られる位相とは異なる特徴に基づいて異常な領域を検出してもよい。また、WF異常検出部105dは、欠陥を検出する際に、雑音成分を取り除くためのフィルタ処理を実行しても良い。フィルタ処理としては、例えば、高周波除去フィルタ等がある。異常な領域あるいは異常が検出されたとは、互いに隣接した異常な画素の集合であり、グルーピングおよびラベリングされている。   For example, the WF abnormality detection unit 105d can detect, as an abnormal region, a region where the value of the phase (含 ま phase difference) included in the complex difference image is equal to or larger than a predetermined threshold. The threshold value is not limited to a fixed value, and may be variably set according to the amplitude, for example. Note that the WF abnormality detection unit 105d may detect an abnormal region based on a feature different from the phase obtained from the complex difference image. Further, when detecting a defect, the WF abnormality detection unit 105d may execute a filter process for removing a noise component. Examples of the filter processing include a high-frequency removal filter. An abnormal area or an abnormal state is a set of abnormal pixels adjacent to each other, and is grouped and labeled.

異常種別推定部106は、異常検出部105における複数の異常検出結果の組み合わせに基づいて、異常の種別を推定する。よって、本実施形態によれば、別途の詳細検査が不要となったり、別途の詳細検査の準備をより容易にあるいはより迅速に行えたりといったメリットがある。以下、異常種別の推定について例示する。   The abnormality type estimation unit 106 estimates the type of the abnormality based on a combination of a plurality of abnormality detection results obtained by the abnormality detection unit 105. Therefore, according to the present embodiment, there is an advantage that a separate detailed inspection is not required, and preparation for a separate detailed inspection can be performed more easily or more quickly. Hereinafter, the estimation of the abnormality type will be exemplified.

[異常種別推定1:突起]
発明者らの鋭意検討により、「突起」に対応して生じる検査対象面の傾斜に対しては、振幅および位相の双方が異常な値を示す場合が多いことが判明している。よって、異常種別推定部106は、振幅に異常が検出され、かつ位相に異常が検出された領域の異常の種別を、「突起」と推定する。
[Abnormality type estimation 1: protrusion]
The inventors' earnest study has revealed that both the amplitude and the phase often show abnormal values with respect to the inclination of the inspection target surface corresponding to the “projection”. Therefore, the abnormality type estimating unit 106 estimates the type of abnormality in the area where the abnormality is detected in the amplitude and the phase is detected as “protrusion”.

[異常種別推定2:高突起]
上述したように、「突起」に対応して生じる検査対象面の傾斜に対しては、振幅および位相の双方が異常な値を示す。また、発明者らの鋭意検討により、当該異常が検出された領域について、さらに強度異常検出部105cによる検査において異常が検出された場合には、「突起」の高さが高い場合が多いことが判明している。よって、異常種別推定部106は、振幅に異常が検出され、位相に異常が検出され、かつ強度に異常が検出された領域の異常の種別を、振幅に異常が検出され位相に異常が検出されかつ強度に異常が検出されない領域において推定される上記異常種別推定1の「突起」よりも高い「高突起」と推定する。
[Abnormality type estimation 2: high protrusion]
As described above, both the amplitude and the phase show abnormal values with respect to the inclination of the inspection target surface corresponding to the “projection”. In addition, as a result of intensive studies by the inventors, if an abnormality is detected in the area where the abnormality is detected by the inspection by the intensity abnormality detection unit 105c, the height of the “projection” is often high. It is known. Therefore, the abnormality type estimation unit 106 determines the type of abnormality in the region where the abnormality is detected in the amplitude, the phase is detected, and the abnormality is detected in the intensity, and the abnormality is detected in the amplitude and the phase is detected. In addition, it is estimated that the “protrusion” is higher than the “protrusion” of the abnormality type estimation 1 estimated in a region where no abnormality is detected in the intensity.

[異常種別推定3:欠陥種傷]
「欠陥種傷」とは、例えば被検査体150に何らかの物体が当たってできたような細長い傷であり、一例としては、その幅は数μm〜数10μm程度、その長さは数mm程度である。発明者らの鋭意検討により、位相異常検出部105bによる検査およびWF異常検出部105dによる検査においては異常が検出されず、振幅異常検出部105aによる検査において異常が検出された場合には、当該異常は「欠陥種傷」である場合が多いことが判明している。よって、異常種別推定部106は、振幅には異常が検出されず、位相に異常が検出され、かつ差分画像から異常が検出されなかった領域の異常の種別を、「欠陥種傷」と推定する。
[Estimation of abnormal type 3: Defect damage]
The “defect seed wound” is, for example, an elongated scratch formed by hitting an object to be inspected 150 with an object. As an example, the width is about several μm to several tens of μm, and the length is about several mm. is there. According to the inventor's intensive studies, no abnormality is detected in the inspection by the phase abnormality detection unit 105b and the inspection by the WF abnormality detection unit 105d, and when an abnormality is detected in the inspection by the amplitude abnormality detection unit 105a, the abnormality is detected. Has often been found to be a "defective seed wound". Therefore, the abnormality type estimating unit 106 estimates the type of abnormality in a region where no abnormality is detected in the amplitude, no abnormality is detected in the phase, and no abnormality is detected in the difference image as “defect seed wound”. .

[異常種別推定4:緩凹凸]
発明者らの鋭意検討により、検査対象面上の比較的緩やかな傾斜に対しては、振幅異常検出部105aによる検査においては異常が検出されず、位相異常検出部105bによる検査およびWF異常検出部105dによる検査において異常が検出される場合が多いことが判明している。よって、異常種別推定部106は、振幅には異常が検出されず、位相に異常が検出され、かつ差分画像から異常が検出された領域の異常の種別を、「緩凹凸」と推定する。
[Abnormality type estimation 4: gentle irregularities]
As a result of the inventor's intensive studies, no abnormality is detected in the inspection by the amplitude abnormality detection unit 105a for a relatively gentle inclination on the inspection target surface, and the inspection by the phase abnormality detection unit 105b and the WF abnormality detection unit It has been found that an abnormality is often detected in the inspection by 105d. Therefore, the abnormality type estimating unit 106 estimates the type of abnormality in the area where the abnormality is not detected in the amplitude, the abnormality is detected in the phase, and the abnormality is detected in the difference image as “slow irregularities”.

[異常種別推定5−1:シミ系統欠陥#1]
「シミ系統欠陥」とは、例えば、検査対象面が部分的に白くなったりくもったりするなど、光沢度が低下したような欠陥である。発明者らの鋭意検討により、振幅異常検出部105aによる検査およびWF異常検出部105dによる検査において異常が検出された場合には、当該異常は「シミ系統欠陥」である場合が多いことが判明している。よって、異常種別推定部106は、振幅に異常が検出され、かつ差分画像から異常が検出された領域の異常の種別を「シミ系統欠陥」と推定する。
[Estimation of abnormal type 5-1: spot system defect # 1]
The “stain system defect” is, for example, a defect in which the glossiness is reduced, for example, the surface to be inspected becomes partially white or cloudy. The inventor's diligent studies have revealed that when an abnormality is detected in the inspection by the amplitude abnormality detection unit 105a and the inspection by the WF abnormality detection unit 105d, the abnormality is often a “stain system defect”. ing. Therefore, the abnormality type estimating unit 106 estimates the type of abnormality in the region where the abnormality is detected in the amplitude and the abnormality is detected from the difference image as “stain system defect”.

[異常種別推定5−2:シミ系統欠陥#2]
発明者らの鋭意検討により、WF異常検出部105dによる検査において異常が検出された領域を第一領域、位相異常検出部105bの検査において異常が検出された領域を第二領域とした場合、第一領域と第二領域とが近接するかあるいは少なくとも部分的に重なっている場合に、シミ系統欠陥を、当該第一領域と当該第二領域との和集合(OR)の領域としても検出できることが判明した。
[Abnormality type estimation 5-2: stain system defect # 2]
According to the inventor's earnest studies, when the region where an abnormality is detected in the inspection by the WF abnormality detection unit 105d is the first region, and the region where the abnormality is detected in the inspection of the phase abnormality detection unit 105b is the second region, When the one area and the second area are close to each other or at least partially overlap with each other, the stain system defect can be detected as an area of a union (OR) of the first area and the second area. found.

そこで、異常種別推定部106は、例えば、第一領域および第二領域の周囲を1画素分外側に拡張するという膨張処理を所定回数(例えば1回や複数回)施し、第一領域、および第二領域が結合された第一領域を、異常候補領域とする。ここで、膨張処理とは、異常では無い演算対象画素と隣接し当該演算対象画素を取り囲む八つ(3×3−1)の画素内に異常画素が少なくとも一つ含まれていた場合に、当該異常では無い演算対象画素を異常画素に変更する処理である。また、第二領域を第一領域に結合する処理とは、膨張した第一領域のうち少なくとも一つの画素と膨張した第二領域のうち少なくとも一つの画素とが互いに重なるかあるいは隣接した場合に、当該膨張した第二領域を第一領域に含めて異常候補領域とする処理、言い換えると、膨張された第一領域と膨張された第二領域とが互いに部分的に重なるかあるいは隣接した場合に、それらのOR集合を異常候補領域とする処理である。また、異常種別推定部106は、例えば、第一領域の重心と第二領域の重心との距離が所定値以内である場合や、第二領域の重心が第一領域の重心を中心とする所定範囲内に位置されていた場合、あるいは第二領域の重心が第一領域の重心を中心とする所定範囲内に位置されていた場合であって当該所定範囲が所定方向に細長い場合などに、それら第一領域と第二領域とを含む異常候補領域を決定するなどのように、第一領域と第二領域との距離の条件や、距離および配置(存在する方向)の条件に基づいて、異常候補領域を決定することができる。   Therefore, the abnormality type estimating unit 106 performs, for example, a predetermined number of times (for example, one time or a plurality of times) of expansion processing of expanding the periphery of the first area and the second area outward by one pixel, and performs the first area and the second area. The first region where the two regions are combined is referred to as an abnormal candidate region. Here, the dilation processing is performed when at least one abnormal pixel is included in eight (3 × 3-1) pixels adjacent to and surrounding the non-abnormal operation target pixel. This is a process of changing a non-abnormal calculation target pixel to an abnormal pixel. Further, the process of combining the second region with the first region, when at least one pixel of the expanded first region and at least one pixel of the expanded second region overlap or are adjacent to each other, The process of including the expanded second region in the first region as an abnormal candidate region, in other words, when the expanded first region and the expanded second region partially overlap or are adjacent to each other, This is a process of setting those OR sets as abnormal candidate regions. Further, the abnormality type estimating unit 106 may determine whether the distance between the center of gravity of the first region and the center of gravity of the second region is within a predetermined value, or that the center of gravity of the second region is centered on the center of gravity of the first region. If it is located within the range, or if the center of gravity of the second region is located within a predetermined range centered on the center of gravity of the first region and the predetermined range is elongated in a predetermined direction, Based on the condition of the distance between the first region and the second region, and the condition of the distance and the arrangement (existing direction), such as determining an abnormal candidate region including the first region and the second region, Candidate regions can be determined.

次に、異常種別推定部106は、異常候補領域の幾何学的な特徴に基づいて、当該異常候補領域をシミ系統欠陥とするか否かを決定する。異常種別推定部106は、例えば、
(1)異常候補領域のサイズ(大きさ)、すなわち当該異常候補領域に含まれる画素数が、所定の閾値以上である場合、
(2)異常候補領域の画素配列方向の2方向(例えばi方向、j方向)における長さ(幅)のうち少なくとも一方が所定の閾値以上である場合、
(3)異常候補領域の対角長さを異常種別推定部の円近似直径で除した値が所定の閾値以下である場合(ここに、対角長さとは、例えば、i方向の長さの2乗とj方向の長さの2乗との和の平方根であり、円近似直径とは、画素数をπで除した値の平方根である。)、
(4)異常候補領域の真円度が所定範囲内である場合、のような複数の条件のうち少なくとも一つ、複数、または全てが満たされた場合に、当該異常候補領域を、シミ系統欠陥と決定することができる。これは、例えば、サイズが小さ過ぎるもの、細長いものは、シミ系統欠陥では無い場合が多いという知見に基づいている。ただし、幾何学的な特徴の充足条件や除外条件は、例えば、登録された所定形状との類似度が所定の閾値以上である場合など、他の条件であってもよい。
Next, the abnormality type estimating unit 106 determines whether or not the abnormal candidate region is a stain system defect based on the geometrical characteristics of the abnormal candidate region. The abnormality type estimation unit 106, for example,
(1) When the size (size) of the abnormal candidate area, that is, the number of pixels included in the abnormal candidate area is equal to or larger than a predetermined threshold,
(2) When at least one of the lengths (widths) of the abnormal candidate area in two directions (for example, the i direction and the j direction) of the pixel arrangement direction is equal to or larger than a predetermined threshold value,
(3) When the value obtained by dividing the diagonal length of the abnormal candidate region by the approximate circle diameter of the abnormality type estimating unit is equal to or smaller than a predetermined threshold (here, the diagonal length is, for example, the length of the length in the i direction). The square root of the sum of the square and the square of the length in the j direction, and the approximate circle diameter is the square root of the value obtained by dividing the number of pixels by π.)
(4) When at least one, a plurality, or all of a plurality of conditions such as when the circularity of the abnormal candidate area is within a predetermined range, the abnormal candidate area is replaced with a stain system defect. Can be determined. This is based on the finding that, for example, an object having a too small size or an elongated object is often not a stain system defect. However, the satisfaction condition or the exclusion condition of the geometric feature may be another condition, for example, when the similarity with the registered predetermined shape is equal to or more than a predetermined threshold.

また、異常種別推定部106は、上記幾何学的な条件が満たされない場合にあっても、例えば、シミ系統欠陥の検査対象領域内で検出された異常候補領域の数が所定の閾値以上であった場合には、当該異常候補領域を、シミ系統欠陥と決定することができる。これは、シミ系統欠陥が単独(一つのみ)で出現することがほぼ無いという知見に、基づいている。なお、異常種別推定部106は、上記幾何学的な条件を満たし、かつシミ系統欠陥の検査対象領域内で検出された異常候補領域の数が所定の閾値以上であった場合に、当該異常候補領域を、シミ系統欠陥と決定してもよい。なお、シミ系統欠陥の検査対象領域は、検査面においてシミ系統欠陥が生じやすい領域であり、同じスペックの検査物については、同じ領域に設定される。   Further, even when the geometric condition is not satisfied, for example, the abnormality type estimation unit 106 determines that the number of abnormality candidate regions detected in the inspection target region of the stain system defect is equal to or larger than a predetermined threshold. In this case, the abnormal candidate area can be determined as a stain system defect. This is based on the finding that spot system defects rarely appear alone (only one). Note that, when the above-mentioned geometric condition is satisfied and the number of abnormal candidate areas detected in the inspection target area of the stain system defect is equal to or greater than a predetermined threshold, the abnormal type estimation unit 106 The region may be determined as a stain system defect. In addition, the inspection target area of the stain system defect is an area where the stain system defect is likely to occur on the inspection surface, and the inspection object having the same specification is set to the same area.

異常種別推定5−2における各種の閾値や、条件設定は、種々に変更可能である。   Various thresholds and condition settings in the abnormality type estimation 5-2 can be variously changed.

[異常種別推定6:埃]
発明者らの鋭意検討により、検査対象面に例えば埃のようなもの微小なものが付着している場合には、振幅異常検出部105aによる検査および強度異常検出部105cによる検査において異常が検出され、位相異常検出部105bによる検査およびWF異常検出部105dによる検査においては異常が検出されない場合が多いことが判明している。よって、異常種別推定部106は、振幅に異常が検出され、位相には異常が検出されず、強度に異常が検出され、かつ差分画像から異常が検出されない領域の異常の種別を「埃」と推定する。
[Estimation of abnormal type 6: dust]
According to the inventor's diligent studies, when a minute object such as dust adheres to the inspection target surface, an abnormality is detected in the inspection by the amplitude abnormality detecting unit 105a and the inspection by the intensity abnormality detecting unit 105c. In the inspection by the phase abnormality detection unit 105b and the inspection by the WF abnormality detection unit 105d, it has been found that an abnormality is not often detected. Therefore, the abnormality type estimating unit 106 sets the type of abnormality in the region where the abnormality is detected in the amplitude, the abnormality is not detected in the phase, the abnormality is detected in the intensity, and the abnormality is not detected in the difference image as “dust”. presume.

次に、本実施形態の検査システムにおける被検査体の検査処理について説明する。図15は、本実施形態の検査システムにおける上述した処理の手順を示すフローチャートである。なお、被検査体150は、すでにアーム140に固定された状態で、検査の初期位置に配置されているものとする。   Next, the inspection processing of the inspection object in the inspection system of the present embodiment will be described. FIG. 15 is a flowchart illustrating a procedure of the above-described processing in the inspection system of the present embodiment. It is assumed that the test object 150 is already fixed to the arm 140 and is arranged at the initial position of the test.

本実施形態のPC100が、照明装置120に対して、被検査体を検査するための縞パターンを出力する(ステップS1401)。   The PC 100 according to the present embodiment outputs a stripe pattern for inspecting an object to be inspected to the illumination device 120 (step S1401).

照明装置120は、PC100から入力された縞パターンを格納する(ステップS1421)。そして、照明装置120は、格納された縞パターンを、時間遷移に従って変化するように表示する(ステップS1422)。なお、照明装置120が表示を開始する条件は、縞パターンが格納された際に制限するものではなく、例えば検査者が照明装置120に対して開始操作を行った際でもよい。   The lighting device 120 stores the stripe pattern input from the PC 100 (Step S1421). Then, the lighting device 120 displays the stored stripe pattern so as to change according to the time transition (step S1422). Note that the condition under which the lighting device 120 starts displaying is not limited to when the stripe pattern is stored, and may be, for example, when the inspector performs a start operation on the lighting device 120.

そして、PC100の制御部103が、時間相関カメラ110に対して、撮影の開始指示を送信する(ステップS1402)。   Then, the control unit 103 of the PC 100 transmits a shooting start instruction to the time correlation camera 110 (Step S1402).

次に、時間相関カメラ110が、送信されてきた撮影指示に従って、被検査体150を含む領域について撮像を開始する(ステップS1411)。次に、時間相関カメラ110の制御部240が、強度画像データと、時間相関画像データと、を生成する(ステップS1412)。そして、時間相関カメラ110の制御部240が、強度画像データと、時間相関画像データと、を、PC100に出力する(ステップS1413)。   Next, the time-correlation camera 110 starts capturing an image of the area including the inspection object 150 according to the transmitted capturing instruction (step S1411). Next, the control unit 240 of the time correlation camera 110 generates intensity image data and time correlation image data (step S1412). Then, the control unit 240 of the time correlation camera 110 outputs the intensity image data and the time correlation image data to the PC 100 (Step S1413).

PC100の制御部103は、強度画像データと、時間相関画像データと、を受け取る(ステップS1403)。そして、振幅−位相画像生成部104は、受け取った強度画像データと時間相関画像データとから、振幅画像データと、位相画像データとを生成する(ステップS1404)。   The control unit 103 of the PC 100 receives the intensity image data and the time correlation image data (Step S1403). Then, the amplitude-phase image generation unit 104 generates amplitude image data and phase image data from the received intensity image data and time correlation image data (step S1404).

そして、異常検出部105が、振幅画像データ、位相画像データ、強度画像データ等に基づいて、被検査体の各種の異常検出を実行するとともに、異常種別推定部106が、欠陥種別を推定する(ステップS1405)。そして、異常検出部105は、異常検出および欠陥種別推定の結果を、PC100が備える(図示しない)表示装置に出力する(ステップS1406)。   Then, the abnormality detection unit 105 performs various types of abnormality detection of the inspection object based on the amplitude image data, the phase image data, the intensity image data, and the like, and the abnormality type estimation unit 106 estimates the defect type ( Step S1405). Then, the abnormality detection unit 105 outputs the results of the abnormality detection and the defect type estimation to a display device (not shown) included in the PC 100 (Step S1406).

異常検出結果の出力例としては、強度画像データを表示するとともに、振幅画像データと位相画像データとに基づいて異常が検出された領域に対応する、強度画像データの領域を、検査者が異常を認識できるように装飾表示するなどが考えられる。また、欠陥種別の推定の結果は、異常領域の画像に対応して、当該種別を示す文字や画像等の表示を添付してもよいし、異常領域を示す画像に欠陥種別を識別可能な色や模様等を付与してもよい。なお、視覚に基づく出力に制限するものではなく、音声等で異常が検出されたことを出力してもよい。   As an output example of the abnormality detection result, the intensity image data is displayed, and the area of the intensity image data corresponding to the area where the abnormality is detected based on the amplitude image data and the phase image data is displayed by the inspector. For example, decoration display may be performed so as to be recognized. In addition, as a result of the defect type estimation, a character or image indicating the type may be attached to the image of the abnormal area, or a color that can identify the defect type may be attached to the image indicating the abnormal area. Or a pattern or the like may be provided. It should be noted that the output is not limited to the visual output, and the fact that the abnormality is detected may be output by voice or the like.

制御部103は、当該被検査体の検査が終了したか否かを判定する(ステップS1407)。検査が終了していないと判定した場合(ステップS1407:No)、アーム制御部101が、予め定められた設定に従って、次の検査対象となる被検査体の表面が、時間相関カメラ110で撮影できるように、アームの移動制御を行う(ステップS1408)。アームの移動制御が終了した後、制御部103が、再び時間相関カメラ110に対して、撮影の開始指示を送信する(ステップS1402)。   The control unit 103 determines whether or not the inspection of the subject has been completed (step S1407). If it is determined that the inspection has not been completed (step S1407: No), the arm control unit 101 can take an image of the surface of the object to be inspected next using the time correlation camera 110 in accordance with a predetermined setting. Thus, the movement of the arm is controlled (step S1408). After the end of the arm movement control, the control unit 103 transmits a shooting start instruction to the time correlation camera 110 again (step S1402).

一方、制御部103は、当該被検査体の検査が終了したと判定した場合(ステップS1407:Yes)、終了指示を時間相関カメラ110に対して出力し(ステップS1409)、処理を終了する。   On the other hand, when the control unit 103 determines that the inspection of the object to be inspected has been completed (step S1407: Yes), the control unit 103 outputs an end instruction to the time correlation camera 110 (step S1409), and ends the processing.

そして、時間相関カメラ110は、終了指示を受け付けたか否かを判定する(ステップS1414)。終了指示を受け付けていない場合(ステップS1414:No)、再びステップS1411から処理を行う。一方、終了指示を受け付けた場合(ステップS1414:Yes)、処理を終了する。   Then, the time correlation camera 110 determines whether an end instruction has been received (step S1414). If the end instruction has not been received (step S1414: No), the processing is performed again from step S1411. On the other hand, when the end instruction has been received (step S1414: Yes), the process ends.

なお、照明装置120の終了処理は、検査者が行ってもよいし、他の構成からの指示に従って終了してもよい。   Note that the termination processing of the lighting device 120 may be performed by the inspector, or may be terminated according to an instruction from another configuration.

また、本実施形態では、時間相関カメラ110を用いて生成された強度画像データと、時間相関画像データと、を生成する例について説明した。しかしながら、強度画像データと、時間相関画像データと、を生成するために時間相関カメラ110を用いることに制限するものではなく、アナログ的な処理で実現可能な時間相関カメラや、それと等価な動作をする撮像システムを用いてもよい。例えば、通常のデジタルスチルカメラが生成した画像データを出力し、情報処理装置が、デジタルスチルカメラが生成した画像データを、フレーム画像データとして用いて参照信号を重畳することで、時間相関画像データを生成してもよいし、イメージセンサ内で光強度信号に参照信号を重畳するようなデジタルカメラを用いて、時間相関画像データを生成してもよい。   Further, in the present embodiment, an example has been described in which the intensity image data generated by using the time correlation camera 110 and the time correlation image data are generated. However, the present invention is not limited to the use of the time correlation camera 110 to generate the intensity image data and the time correlation image data, and a time correlation camera that can be realized by analog processing and an operation equivalent thereto are used. An imaging system that performs the operations may be used. For example, image data generated by a normal digital still camera is output, and the information processing apparatus superimposes the time-correlated image data by superimposing a reference signal using the image data generated by the digital still camera as frame image data. The time-correlated image data may be generated using a digital camera that superimposes a reference signal on a light intensity signal in the image sensor.

(変形例1)
本実施形態では、周囲との違いに基づいて、異常に関連する特徴を検出する例について説明したが、周囲との違いに基づいて当該特徴を検出することに制限するものではなく、参照形状のデータ(参照データ、例えば、時間相関データや、振幅画像データ、位相画像データ等)との差異に基づいて当該特徴を検出してもよい。この場合、参照データの場合とで、空間位相変調照明(縞パターン)の位置合わせおよび同期が必要となる。
(Modification 1)
In the present embodiment, an example has been described in which a feature related to an abnormality is detected based on a difference from the surroundings. However, the embodiment is not limited to detecting the feature based on a difference from the surroundings. The feature may be detected based on a difference from data (for example, reference data such as time correlation data, amplitude image data, and phase image data). In this case, it is necessary to align and synchronize the spatial phase modulation illumination (stripe pattern) with the reference data.

本変形例では、異常検出部105が、予め(図示しない)記憶部に記憶された、参照表面から得られた振幅画像データ及び位相画像データと、被検査体150の振幅画像データ及び位相画像データと、を比較し、被検査体150の表面と参照表面との間で、光の振幅及び光の位相とのうちいずれか一つ以上について所定の基準以上の違いがあるか否かを判定する。   In the present modified example, the abnormality detection unit 105 stores the amplitude image data and the phase image data obtained from the reference surface and the amplitude image data and the phase image data of the test object 150 stored in a storage unit (not shown) in advance. To determine whether there is a difference between the surface of the test object 150 and the reference surface with respect to any one or more of the light amplitude and the light phase that is greater than or equal to a predetermined reference. .

本変形例は、第1の実施形態と同じ構成の検査システムを用い、参照表面として正常な被検査体の表面を用いる例とする。   This modified example is an example in which an inspection system having the same configuration as that of the first embodiment is used, and a normal surface of the object to be inspected is used as a reference surface.

照明装置120がスクリーン130を介して縞パターンを照射している間に、時間相関カメラ110が、正常な被検査体の表面を撮像し、時間相関画像データを生成する。そして、PC100が、時間相関カメラ110で生成された時間相関画像データを入力し、振幅画像データ及び位相画像データを生成し、PC100の図示しない記憶部に振幅画像データ及び位相画像データを記憶させておく。そして、時間相関カメラ110が、異常が生じているか否か判定したい被検査体を撮像し、時間相関画像データを生成する。そして、PC100が、時間相関画像データから、振幅画像データ及び位相画像データを生成した後、記憶部に記憶されていた、正常な被検査体の振幅画像データ及び位相画像データと比較する。その際に、正常な被検査体の振幅画像データ及び位相画像データと、検査対象の被検査体の振幅画像データ及び位相画像データと、の比較結果を、異常を検出する特徴を示したデータとして出力する。そして、異常を検出する特徴が、当該所定の基準以上の場合に、被検査体150に対して異常があると推測できる。   While the illuminating device 120 irradiates the fringe pattern via the screen 130, the time-correlation camera 110 captures an image of a normal surface of the test object and generates time-correlation image data. Then, the PC 100 inputs the time-correlated image data generated by the time-correlated camera 110, generates amplitude image data and phase image data, and stores the amplitude image data and the phase image data in a storage unit (not shown) of the PC 100. deep. Then, the time-correlation camera 110 captures an image of the subject to be determined whether or not an abnormality has occurred, and generates time-correlation image data. After the PC 100 generates the amplitude image data and the phase image data from the time correlation image data, the PC 100 compares the amplitude image data and the phase image data with the amplitude image data and the phase image data of the normal subject stored in the storage unit. At that time, a comparison result between the amplitude image data and the phase image data of the normal object to be inspected and the amplitude image data and the phase image data of the object to be inspected is used as data indicating a feature of detecting an abnormality. Output. Then, when the feature of detecting the abnormality is equal to or higher than the predetermined reference, it can be estimated that the inspection object 150 has an abnormality.

これにより、本変形例では、正常な被検査体の表面と差異が生じているか否か、換言すれば、被検査体の表面に異常が生じているか否かを判定できる。なお、振幅画像データ及び位相画像データの比較手法は、どのような手法を用いてもよいので、説明を省略する。   Thus, in the present modification, it is possible to determine whether or not there is a difference from the normal surface of the test object, in other words, whether or not the surface of the test object is abnormal. Note that any method may be used for comparing the amplitude image data and the phase image data, and a description thereof will be omitted.

さらに、本変形例では参照表面の違いに基づいて、異常を検出する特徴を示したデータを出力する例について説明したが、参照表面の違いと、第1の実施形態で示した周囲との違いと、を組み合わせて、異常を検出する特徴を算出してもよい。組み合わせる手法は、どのような手法を用いてもよいので、説明を省略する。   Further, in the present modification, an example has been described in which data indicating a feature of detecting an abnormality is output based on a difference between reference surfaces, but the difference between the reference surface and the surroundings described in the first embodiment is different. May be combined to calculate a feature for detecting an abnormality. Since any method may be used for the combination, the description is omitted.

(変形例2)
第1の実施形態では、x方向に縞パターンを動かして、被検査体の異常(欠陥)を検出する例について説明した。しかしながら、x方向に垂直なy方向で急峻に法線の分布が変化する異常(欠陥)が被検査体に生じている場合、x方向に縞パターンを動かすよりも、y方向に縞パターンを動かす方が欠陥の検出が容易になる場合がある。そこで、変形例では、x方向に移動する縞パターンと、y方向に移動する縞パターンとを、交互に切り替える例について説明する。
(Modification 2)
In the first embodiment, an example has been described in which the stripe pattern is moved in the x direction to detect an abnormality (defect) of the inspection object. However, when an abnormality (defect) in which the distribution of the normal changes steeply in the y direction perpendicular to the x direction occurs in the inspection object, the stripe pattern is moved in the y direction rather than the x direction. It may be easier to detect defects. Thus, in a modified example, an example will be described in which a stripe pattern that moves in the x direction and a stripe pattern that moves in the y direction are alternately switched.

本変形例の照明制御部102は、所定の時間間隔毎に、照明装置120に出力する縞パターンを切り替える。これにより、照明装置120は、一つの検査対象面に対して、異なる方向に延びた複数の縞パターンを出力する。   The illumination control unit 102 of the present modification switches the stripe pattern output to the illumination device 120 at predetermined time intervals. As a result, the illumination device 120 outputs a plurality of stripe patterns extending in different directions on one inspection target surface.

図16は、本変形例の照明制御部102が出力する縞パターンの切り替え例を示した図である。図16の(A)では、照明制御部102は、照明装置120が表示する縞パターンをx方向に遷移させる。その後、(B)に示されるように、照明制御部102は、照明装置120が表示する縞パターンをy方向に遷移させる。   FIG. 16 is a diagram illustrating an example of switching the stripe pattern output by the illumination control unit 102 according to the present modification. In FIG. 16A, the illumination control unit 102 causes the stripe pattern displayed by the illumination device 120 to transition in the x direction. Thereafter, as shown in (B), the illumination control unit 102 causes the stripe pattern displayed by the illumination device 120 to transition in the y direction.

そして、PC100の制御部103は、図16の(A)の縞パターン照射から得られた時間相関画像データに基づいて、異常検出を行い、図16の(B)の縞パターン照射から得られた時間相関画像データに基づいて、異常検出を行う。   Then, the control unit 103 of the PC 100 performs abnormality detection based on the time-correlated image data obtained from the stripe pattern irradiation in FIG. 16A, and obtains the abnormality from the stripe pattern irradiation in FIG. 16B. Abnormality detection is performed based on the time correlation image data.

図17は、本変形例の照明制御部102が、異常(欠陥)1601を含めた表面に縞パターンを照射した例を示した図である。図17に示す例では、異常(欠陥)1601が、x方向に延びている。この場合、照明制御部102は、x方向に交差するy方向、換言すれば異常(欠陥)1601の長手方向に交差する方向に縞パターンが移動するように設定する。当該設定により、検出精度を向上させることができる。   FIG. 17 is a diagram illustrating an example in which the illumination control unit 102 according to the present modification irradiates a surface including an abnormality (defect) 1601 with a stripe pattern. In the example shown in FIG. 17, the abnormality (defect) 1601 extends in the x direction. In this case, the illumination control unit 102 sets the stripe pattern to move in the y direction crossing the x direction, in other words, in the direction crossing the longitudinal direction of the abnormality (defect) 1601. With this setting, detection accuracy can be improved.

図18は、y方向、換言すれば異常(欠陥)1601の長手方向に直交する方向に縞パターンを変化させた場合における、異常(欠陥)1701とスクリーン130上の縞パターンの関係を示した図である。図18に示されるように、y方向に幅が狭く、且つ当該y方向に交差するx方向を長手方向とする異常(欠陥)1701が生じている場合、照明装置120から照射された光は、x方向に交差するy方向で光の振幅の打ち消しが大きくなる。このため、PC100では、y方向に移動させた縞パターンに対応する振幅画像データから、当該異常(欠陥)を検出できる。   FIG. 18 is a diagram showing the relationship between the abnormal (defect) 1701 and the stripe pattern on the screen 130 when the stripe pattern is changed in the y direction, in other words, the direction orthogonal to the longitudinal direction of the abnormal (defect) 1601. It is. As shown in FIG. 18, when an abnormality (defect) 1701 whose width is narrow in the y direction and whose longitudinal direction is the x direction crossing the y direction occurs, the light emitted from the lighting device 120 is The cancellation of the amplitude of the light increases in the y direction crossing the x direction. Therefore, the PC 100 can detect the abnormality (defect) from the amplitude image data corresponding to the stripe pattern moved in the y direction.

本変形例の検査システムにおいて、被検査体に生じる欠陥の長手方向がランダムな場合には、複数方向(例えば、x方向、及び当該x方向に交差するy方向等)で縞パターンを表示することで、欠陥の形状を問わずに当該欠陥の検出が可能となり、異常(欠陥)の検出精度を向上させることができる。また、異常の形状に合わせた縞パターンを投影することで、異常の検出精度を向上させることができる。   In the inspection system of the present modified example, when the longitudinal direction of the defect generated in the inspection object is random, the stripe pattern is displayed in a plurality of directions (for example, the x direction and the y direction intersecting the x direction). Thus, the defect can be detected irrespective of the shape of the defect, and the abnormality (defect) detection accuracy can be improved. Further, by projecting a stripe pattern according to the shape of the abnormality, it is possible to improve the detection accuracy of the abnormality.

(変形例3)
また、上述した変形例2は、x方向の異常検出と、y方向の異常検出と、を行う際に、縞パターンを切り替える手法に制限するものでない。そこで、変形例3では、照明制御部102が照明装置120に出力する縞パターンをx方向及びy方向同時に動かす例について説明する。
(Modification 3)
Further, the second modification described above does not limit the method of switching the stripe pattern when performing the abnormality detection in the x direction and the abnormality detection in the y direction. Therefore, in a third modification, an example will be described in which the illumination control unit 102 simultaneously moves the stripe pattern output to the illumination device 120 in the x direction and the y direction.

図19は、本変形例の照明制御部102が照明装置120に出力する縞パターンの例を示した図である。図19に示される例では、照明制御部102が縞パターンを、方向1801に移動させる。   FIG. 19 is a diagram illustrating an example of a stripe pattern output from the illumination control unit 102 of the present modification to the illumination device 120. In the example shown in FIG. 19, the illumination control unit 102 moves the stripe pattern in the direction 1801.

図19に示される縞パターンは、x方向では1周期1802の縞パターンを含み、y方向では一周期1803の縞パターンを含んでいる。つまり、図19に示される縞パターンは、幅が異なる交差する方向に延びた複数の縞を有している。なお、x方向の縞パターンの幅と、y方向の縞パターンの幅と、を異ならせる必要がある。これにより、x方向に対応する時間相関画像データと、y方向に対応する時間相関画像データと、を生成する際に、対応する参照信号を異ならせることができる。なお、縞パターンによる光の強度の変化の周期(周波数)が変化すればよいので、縞の幅を変化させるのに変えて、縞パターン(縞)の移動速度を変化させてもよい。   The stripe pattern shown in FIG. 19 includes a stripe pattern of one cycle 1802 in the x direction, and a stripe pattern of one cycle 1803 in the y direction. That is, the stripe pattern shown in FIG. 19 has a plurality of stripes extending in the intersecting directions having different widths. It is necessary to make the width of the stripe pattern in the x direction different from the width of the stripe pattern in the y direction. Thereby, when generating the time correlation image data corresponding to the x direction and the time correlation image data corresponding to the y direction, it is possible to make the corresponding reference signals different. Since the period (frequency) of the change in light intensity due to the stripe pattern may be changed, the moving speed of the stripe pattern (strip) may be changed instead of changing the width of the stripe.

そして、時間相関カメラ110が、x方向の縞パターンに対応する参照信号に基づいて、x方向の縞パターンに対応する時間相関画像データを生成し、y方向の縞パターンに対応する参照信号に基づいて、y方向の縞パターンに対応する時間相関画像データを生成する。その後、PC100の制御部103は、x方向の縞パターンに対応する時間相関画像データに基づいて、異常検出を行った後、y方向の縞パターンに対応する時間相関画像データに基づいて、異常検出を行う。これにより、本変形例では、欠陥の生じた方向を問わずに検出が可能となり、異常(欠陥)の検出精度を向上させることができる。   Then, the time correlation camera 110 generates time correlation image data corresponding to the stripe pattern in the x direction based on the reference signal corresponding to the stripe pattern in the x direction, and based on the reference signal corresponding to the stripe pattern in the y direction. Then, time-correlated image data corresponding to the stripe pattern in the y direction is generated. After that, the control unit 103 of the PC 100 performs the abnormality detection based on the time correlation image data corresponding to the stripe pattern in the x direction, and then detects the abnormality based on the time correlation image data corresponding to the stripe pattern in the y direction. I do. As a result, in this modification, detection can be performed regardless of the direction in which the defect has occurred, and the accuracy of detecting an abnormality (defect) can be improved.

(第2の実施形態)
第1の実施形態では、照明装置120が、x方向に縞の幅が一種類の縞パターンを表示する例について説明した。しかしながら、上述した実施形態はx方向の縞の幅を一種類に制限するものではなく、x方向の縞の幅を複数種類にしてもよい。そこで、本実施形態では、x方向の縞の幅を複数種類とする例について説明する。
(Second embodiment)
In the first embodiment, an example has been described in which the illumination device 120 displays a stripe pattern having one type of stripe width in the x direction. However, in the above-described embodiment, the width of the stripe in the x direction is not limited to one type, and the width of the stripe in the x direction may be plural types. Therefore, in this embodiment, an example in which the width of the stripe in the x direction is set to a plurality of types will be described.

本実施形態は、被検査体の一つの検査対象面について、x方向に縞の幅を複数種類用いて、換言すれば縞が異なる複数の縞パターンを用いて、被検査体で生じた異常が突形状か否かを判定する例とする。   The present embodiment uses a plurality of types of stripe widths in the x direction for one inspection target surface of the inspection object, in other words, uses a plurality of stripe patterns having different stripes, and detects an abnormality caused in the inspection object. This is an example in which it is determined whether or not the shape is a protrusion.

第2の実施形態の検査システムは、第1の実施形態の検査システムと同様の構成を備えているため、説明を省略する。次に、第2の実施形態の照明制御部102が出力する縞パターンについて説明する。   The inspection system according to the second embodiment has the same configuration as the inspection system according to the first embodiment, and a description thereof will be omitted. Next, a stripe pattern output by the illumination control unit 102 according to the second embodiment will be described.

図20は、第2の実施形態の照明制御部102が照明装置120に出力する縞パターンの例を示した図である。図20に示されるように、照明制御部102は、幅が異なる同一方向に延びた複数の縞を有する縞パターンを出力するよう制御する。   FIG. 20 is a diagram illustrating an example of a stripe pattern output from the illumination control unit 102 of the second embodiment to the illumination device 120. As shown in FIG. 20, the illumination control unit 102 controls to output a stripe pattern having a plurality of stripes having different widths and extending in the same direction.

図20に示される例では、図20の矩形波(A)と、矩形波(B)と、を重畳した矩形波(C)に対応する縞パターン(D)が照明制御部102により出力される。本実施形態では、距離1901の間に、矩形波(A)が1周する間に、矩形波(B)が8周する。   In the example illustrated in FIG. 20, the illumination control unit 102 outputs a stripe pattern (D) corresponding to a rectangular wave (C) obtained by superimposing the rectangular wave (A) and the rectangular wave (B) in FIG. . In the present embodiment, while the rectangular wave (A) makes one round during the distance 1901, the rectangular wave (B) makes eight rounds.

本実施形態では、矩形波(B)で表される縞の数が、矩形波(A)で表される縞の数の、偶数倍になるように設定されている。これは、矩形波には奇数倍の高調波成分が重畳されていることに基づくものであり、偶数倍にすることで高調波成分と干渉するのを抑止できる。   In the present embodiment, the number of stripes represented by the rectangular wave (B) is set to be an even multiple of the number of stripes represented by the rectangular wave (A). This is based on the fact that an odd-numbered harmonic component is superimposed on a rectangular wave, and interference with the harmonic component can be suppressed by using an even-numbered harmonic component.

複数種類の縞パターンを用いて解析処理を行う場合、複数種類間の縞パターンについて、適宜な縞幅の差があるのが好ましい。例えば、一方の縞の幅に対して、他方の縞の幅が6倍以上であれば好ましい解析結果が得られる。そこで、本実施形態では、例として、一方の縞の幅に対して、他方の縞の幅が8倍になるように設定した。   When the analysis process is performed using a plurality of types of stripe patterns, it is preferable that there is an appropriate difference in stripe width between the plurality of types of stripe patterns. For example, if the width of one stripe is 6 times or more the width of the other stripe, a favorable analysis result can be obtained. Therefore, in the present embodiment, as an example, the width of one stripe is set to be eight times the width of the other stripe.

なお、本実施形態では、矩形波(A)が1周するのに対して、矩形波(B)が8周する例について説明したが、このような例に制限するものではなく、矩形波(A)と、矩形波(B)と、の周波数(周期)が異なっていればよい。   In the present embodiment, an example has been described in which the rectangular wave (A) makes one round while the rectangular wave (B) makes eight rounds. However, the present invention is not limited to such an example. The frequency (period) of A) and the rectangular wave (B) need only be different.

そして、照明装置120が、照明制御部102から出力された図20で示されるような縞パターンを、スクリーン130を介して、被検査体150に対して照射する。これに伴い、時間相関カメラ110は、図20に示される縞パターンの、被検査体からの反射光を撮影する。本実施形態の時間相関カメラ110は、撮影結果として、2系統分の時間相関画像データを生成する。   Then, the illumination device 120 irradiates the inspection object 150 with the stripe pattern shown in FIG. 20 output from the illumination control unit 102 via the screen 130. Along with this, the time correlation camera 110 captures the reflected light of the stripe pattern shown in FIG. The time correlation camera 110 according to the present embodiment generates two systems of time correlation image data as imaging results.

具体的には、時間相関カメラ110は、矩形波(A)の縞パターンに対応する参照信号に基づいて、矩形波(A)の縞パターンに対応する時間相関画像データを生成し、矩形波(B)の縞パターンに対応する参照信号に基づいて、矩形波(B)の縞パターンに対応する時間相関画像データを生成する。出力された2種類(2系統)の時間相関画像データと、強度画像データは、PC100に出力される。なお、1種類の時間相関画像データ毎に、第1の実施の形態で示したように、実部と虚部との時間相関画像データを含んでいる。   Specifically, the time correlation camera 110 generates time correlation image data corresponding to the rectangular wave (A) stripe pattern based on the reference signal corresponding to the rectangular wave (A) stripe pattern, and generates the rectangular wave ( Based on the reference signal corresponding to the stripe pattern B), time-correlated image data corresponding to the rectangular wave (B) stripe pattern is generated. The output two types (two systems) of time correlation image data and intensity image data are output to the PC 100. Note that, as described in the first embodiment, each type of time-correlated image data includes time-correlated image data of a real part and an imaginary part.

その後、PC100の制御部103は、矩形波(A)の縞パターンに対応する時間相関画像データと、矩形波(B)の縞パターンに対応する時間相関画像データと、に基づいて、被検査体の異常検出を行う。   Thereafter, the control unit 103 of the PC 100 determines the inspection object based on the time correlation image data corresponding to the rectangular wave (A) stripe pattern and the time correlation image data corresponding to the rectangular wave (B) stripe pattern. Is detected.

本実施形態のPC100は、矩形波(A)の縞パターンに対応する時間相関画像データと、矩形波(B)の縞パターンに対応する時間相関画像データと、を受け取ることで、第1の実施形態で示したような、位相の違いに基づく異常と振幅の違いに基づく異常との他に、被検査体の表面の形状を確認することが容易となる。   The PC 100 of the present embodiment receives time-correlated image data corresponding to the rectangular wave (A) stripe pattern and time-correlated image data corresponding to the rectangular wave (B) stripe pattern, thereby performing the first embodiment. In addition to the abnormalities based on the difference in phase and the abnormalities based on the difference in amplitude as shown in the embodiments, it becomes easy to confirm the shape of the surface of the inspection object.

なお、本実施形態では、一つの縞パターンに複数種類の縞幅を重畳した例について説明するが、複数種類の縞幅を用いる手法として、重畳する手法に制限するものではなく、一つの検査対象面について幅が異なる複数の縞パターンを出力できればどのような手法を用いてもよく、例えば、幅が異なる複数の縞パターンを切り替えて表示するように制御してもよい。   In the present embodiment, an example in which a plurality of types of stripe widths are superimposed on one stripe pattern will be described. However, a method using a plurality of types of stripe widths is not limited to the method of superimposing, and one inspection target may be used. Any method may be used as long as it can output a plurality of stripe patterns having different widths on the surface. For example, control may be performed such that a plurality of stripe patterns having different widths are switched and displayed.

上述した実施形態のPC100で実行される検査プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録されて提供される。   The inspection program executed by the PC 100 according to the above-described embodiment is a file in an installable format or an executable format in a computer such as a CD-ROM, a flexible disk (FD), a CD-R, and a DVD (Digital Versatile Disk). It is provided by being recorded on a readable recording medium.

また、上述した実施形態のPC100で実行される検査プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、上述した実施形態のPC100で実行される検査プログラムをインターネット等のネットワーク経由で提供または配布するように構成してもよい。   Further, the inspection program executed by the PC 100 of the above-described embodiment may be stored on a computer connected to a network such as the Internet and provided by being downloaded via the network. Further, the inspection program executed by the PC 100 of the above-described embodiment may be provided or distributed via a network such as the Internet.

本発明のいくつかの実施形態及び変形例を説明したが、これらの実施形態及び変形例は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態及び変形例は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形例は、発明の範囲や要旨に含まれるとともに、請求の範囲に記載された発明とその均等の範囲に含まれる。   While some embodiments and modifications of the present invention have been described, these embodiments and modifications are provided as examples and are not intended to limit the scope of the invention. These new embodiments and modifications can be implemented in other various forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. These embodiments and their modifications are included in the scope and gist of the invention, and are also included in the invention described in the claims and equivalents thereof.

100…PC、101…アーム制御部、102…照明制御部、103…制御部、104…振幅−位相画像生成部(時間相関画像生成部)、105…異常検出部、106…異常種別推定部、110…時間相関カメラ、120…照明装置(照明部)、130…スクリーン(照明部)。   100: PC, 101: arm control unit, 102: illumination control unit, 103: control unit, 104: amplitude-phase image generation unit (time correlation image generation unit), 105: abnormality detection unit, 106: abnormality type estimation unit 110: time correlation camera, 120: illumination device (illumination unit), 130: screen (illumination unit).

[異常種別推定3:欠陥種傷]
「欠陥種傷」とは、例えば被検査体150に何らかの物体が当たってできたような細長い傷であり、一例としては、その幅は数μm〜数10μm程度、その長さは数mm程度である。発明者らの鋭意検討により、位相異常検出部105bによる検査およびWF異常検出部105dによる検査においては異常が検出されず、振幅異常検出部105aによる検査において異常が検出された場合には、当該異常は「欠陥種傷」である場合が多いことが判明している。よって、異常種別推定部106は、振幅に異常が検出され、位相に異常が検出されず、かつ差分画像から異常が検出されなかった領域の異常の種別を、「欠陥種傷」と推定する。
[Estimation of abnormal type 3: Defect damage]
The “defect seed wound” is, for example, an elongated scratch made by hitting an object to be inspected 150 with an object. For example, the width is about several μm to several tens of μm, and the length is about several mm. is there. According to the inventor's intensive studies, no abnormality is detected in the inspection by the phase abnormality detection unit 105b and the inspection by the WF abnormality detection unit 105d, and when an abnormality is detected in the inspection by the amplitude abnormality detection unit 105a, the abnormality is detected. Has often been found to be a "defective seed wound". Therefore, the abnormal category estimation unit 106, abnormality is detected in the amplitude abnormality is not detected in phase, and the region abnormality from the difference image is not detected the type of abnormality, estimated as "defect type flaw" I do.

Claims (11)

光の強度の周期的な時間変化および空間変化を与える面的な照明部と、
検査対象面からの光強度信号と、光の強度の時間変化に対応して周期的に変化する参照信号と、を乗算する撮像システムによって時間相関画像を生成する時間相関画像生成部と、
前記時間相関画像より得られる特徴について複数種類の異常の検出を実行する異常検出部と、
前記異常検出部によって検出された複数種類の異常の検出結果の組み合わせに基づいて異常の種別を推定する異常種別推定部と、
を備えた検査システム。
A two-dimensional lighting unit that provides a periodic time change and a spatial change in light intensity;
A light intensity signal from the surface to be inspected, and a reference signal that periodically changes in response to a time change in light intensity, a time correlation image generation unit that generates a time correlation image by an imaging system that multiplies the signal by:
An abnormality detection unit that performs detection of a plurality of types of abnormalities on features obtained from the time correlation image,
An abnormality type estimation unit that estimates the type of abnormality based on a combination of detection results of a plurality of types of abnormality detected by the abnormality detection unit,
Inspection system with
前記異常検出部は、前記時間相関画像の振幅、および前記時間相関画像の位相のそれぞれについて異常を検出し、
前記異常種別推定部は、前記振幅に異常が検出され、かつ前記位相に異常が検出された領域の異常の種別を突起と推定する、
請求項1に記載の検査システム。
The abnormality detection unit detects an abnormality for each of the amplitude of the time correlation image, and the phase of the time correlation image,
The abnormality type estimating unit is configured to estimate an abnormality type in a region where an abnormality is detected in the amplitude, and an abnormality is detected in the phase as a protrusion,
The inspection system according to claim 1.
前記異常検出部は、さらに、前記時間相関画像の強度について異常を検出し、
前記異常種別推定部は、前記振幅に異常が検出され、前記位相に異常が検出され、かつ前記強度に異常が検出された領域の異常の種別を高突起と推定する、
請求項2に記載の検査システム。
The abnormality detection unit further detects an abnormality with respect to the intensity of the time correlation image,
The abnormality type estimating unit is configured to detect an abnormality in the amplitude, detect an abnormality in the phase, and estimate a type of abnormality in a region where the abnormality is detected in the intensity as a high protrusion,
The inspection system according to claim 2.
前記異常種別推定部は、前記時間相関画像の振幅の異常、前記時間相関画像の位相の異常、および前記時間相関画像からウィーナフィルタを用いて復元した復元画像と前記時間相関画像との差分画像から得られる異常を、それぞれ検出し、
前記異常種別推定部は、前記振幅には異常が検出されず、前記位相に異常が検出され、かつ前記差分画像から異常が検出されなかった領域の異常の種別を、欠陥種傷と推定する、
請求項1に記載の検査システム。
The abnormality type estimating unit is configured to calculate an abnormality in the amplitude of the time correlation image, an abnormality in the phase of the time correlation image, and a difference image between the restored image restored from the time correlation image using a Wiener filter and the time correlation image. Each of the obtained abnormalities is detected,
The abnormality type estimation unit estimates an abnormality type in a region where no abnormality is detected in the amplitude, an abnormality is detected in the phase, and no abnormality is detected from the difference image, as a defect seed defect.
The inspection system according to claim 1.
前記異常検出部は、前記時間相関画像の振幅の異常、前記時間相関画像の位相の異常、および前記時間相関画像からウィーナフィルタを用いて復元した復元画像と前記時間相関画像との差分画像から得られる異常を、それぞれ検出し、
前記異常種別推定部は、前記振幅には異常が検出されず、前記位相に異常が検出され、かつ前記差分画像から異常が検出された領域の異常の種別を緩凹凸と推定する、
請求項1に記載の検査システム。
The abnormality detection unit obtains an abnormality in the amplitude of the time correlation image, an abnormality in the phase of the time correlation image, and a difference image between the restored image restored from the time correlation image using a Wiener filter and the time correlation image. Detected abnormalities, respectively,
The abnormality type estimating unit, the abnormality is not detected in the amplitude, the abnormality is detected in the phase, and the type of abnormality in the region where the abnormality is detected from the difference image is estimated as gentle irregularities,
The inspection system according to claim 1.
前記異常検出部は、前記時間相関画像の振幅の異常と、前記時間相関画像からウィーナフィルタを用いて復元した復元画像と前記時間相関画像との差分画像から得られる異常と、をそれぞれ検出し、
前記異常種別推定部は、前記振幅に異常が検出され、かつ前記差分画像から異常が検出された領域の異常の種別をシミ系統欠陥と推定する、
請求項1に記載の検査システム。
The abnormality detection unit detects an abnormality in the amplitude of the time correlation image and an abnormality obtained from a difference image between the restored image restored using the Wiener filter from the time correlation image and the time correlation image, respectively.
The abnormality type estimation unit is configured to estimate an abnormality type in a region where an abnormality is detected in the amplitude, and an abnormality is detected from the difference image as a stain system defect,
The inspection system according to claim 1.
前記異常検出部は、前記時間相関画像の位相の異常と、前記時間相関画像からウィーナフィルタを用いて復元した復元画像と前記時間相関画像との差分画像から得られる異常と、をそれぞれ検出し、
前記異常種別推定部は、前記位相の異常および前記差分画像から得られた異常に基づいて決定した異常候補領域の幾何学的な特徴が所定条件を満たす場合に、当該異常候補領域をシミ系統欠陥と推定する、請求項1に記載の検査システム。
The abnormality detection unit detects an abnormality of the phase of the time correlation image and an abnormality obtained from a difference image between the restored image restored using the Wiener filter from the time correlation image and the time correlation image, respectively.
The abnormal type estimating unit, when the geometric feature of the abnormal candidate region determined based on the phase abnormality and the abnormality obtained from the difference image satisfies a predetermined condition, the abnormal candidate region The inspection system according to claim 1, wherein:
前記異常検出部は、前記時間相関画像の位相の異常と、前記時間相関画像からウィーナフィルタを用いて復元した復元画像と前記時間相関画像との差分画像から得られる異常と、をそれぞれ検出し、
前記異常種別推定部は、前記位相の異常および前記差分画像から得られた異常に基づいて決定した異常候補領域が検査対象領域内に所定数以上存在した場合に、当該異常候補領域をシミ系統欠陥と推定する、請求項1に記載の検査システム。
The abnormality detection unit detects an abnormality of the phase of the time correlation image and an abnormality obtained from a difference image between the restored image restored using the Wiener filter from the time correlation image and the time correlation image, respectively.
The abnormality type estimating unit, when a predetermined number or more of abnormal candidate regions determined based on the abnormality of the phase and the abnormality obtained from the difference image are present in the inspection target region, identifies the abnormal candidate region with a stain system defect. The inspection system according to claim 1, wherein:
前記異常候補領域は、前記位相の異常が検出された領域と前記差分画像から異常が検出された領域との和集合である、請求項7または8に記載の検査システム。   9. The inspection system according to claim 7, wherein the abnormality candidate area is a union of an area in which the phase abnormality is detected and an area in which the abnormality is detected from the difference image. 前記異常検出部は、前記時間相関画像の振幅、前記時間相関画像の位相、および前記時間相関画像の強度のそれぞれについて異常を検出するとともに、前記時間相関画像からウィーナフィルタを用いて復元した復元画像と前記時間相関画像との差分画像から得られる異常を検出し、
前記異常種別推定部は、前記振幅に異常が検出され、前記位相には異常が検出されず、前記強度に異常が検出され、かつ前記差分画像から異常が検出されない領域の異常の種別を埃と推定する、
請求項1に記載の検査システム。
The abnormality detection unit detects an abnormality for each of the amplitude of the time correlation image, the phase of the time correlation image, and the intensity of the time correlation image, and restores the restored image using the Wiener filter from the time correlation image. And detecting an abnormality obtained from a difference image of the time correlation image,
The abnormality type estimation unit detects an abnormality in the amplitude, detects no abnormality in the phase, detects an abnormality in the intensity, and sets the type of abnormality in the region in which no abnormality is detected from the difference image as dust. presume,
The inspection system according to claim 1.
光の強度の周期的な時間変化および空間変化を与える面的な照明で照らされた被検査体について、検査対象面からの光強度信号と、光の強度の時間変化に対応して周期的に変化する参照信号と、を乗算する撮像システムによって時間相関画像を生成し、
前記時間相関画像より、検査対象面の法線ベクトルの分布と対応した特徴であって、周囲との違いおよび参照表面との違いのうち少なくとも一方によって異常を検出する特徴を算出し、
検出された複数種類の異常の検出結果の組み合わせに基づいて異常の種別を推定する、
検査方法。
For a test object illuminated by a two-dimensional illumination that gives a periodic temporal change in light intensity and a spatial change, the light intensity signal from the inspection target surface and the light intensity A time-correlated image is generated by an imaging system that multiplies the changing reference signal by:
From the time correlation image, a feature corresponding to the distribution of the normal vector of the inspection target surface, and calculating a feature for detecting an abnormality by at least one of a difference from the surroundings and a difference from the reference surface,
Estimating the type of abnormality based on a combination of the detection results of the plurality of types of abnormality detected,
Inspection methods.
JP2019112514A 2018-07-04 2019-06-18 Detection system and detection method Pending JP2020012816A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018127455 2018-07-04
JP2018127455 2018-07-04

Publications (1)

Publication Number Publication Date
JP2020012816A true JP2020012816A (en) 2020-01-23

Family

ID=69170908

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019112514A Pending JP2020012816A (en) 2018-07-04 2019-06-18 Detection system and detection method

Country Status (1)

Country Link
JP (1) JP2020012816A (en)

Similar Documents

Publication Publication Date Title
JP6316068B2 (en) Inspection system and inspection method
JP6433268B2 (en) Inspection system and inspection method
JP6542586B2 (en) Inspection system
JP6553412B2 (en) Inspection system
WO2018159825A1 (en) Inspection system and inspection method
JP6276092B2 (en) Inspection system and inspection method
JP6682251B2 (en) Inspection system and inspection method
JP2018009849A (en) Inspection system and inspection method
JP2017101977A (en) Inspection system and inspection method
JP6420131B2 (en) Inspection system and inspection method
JP2018028527A (en) Inspection system
JP2017101979A (en) Inspection system
JP6909378B2 (en) Inspection system
JP2018115937A (en) Inspection system
JP2019002761A (en) Inspection system and inspection method
JP2020012816A (en) Detection system and detection method
JP6902684B2 (en) Image processing equipment and inspection system
JP6781430B2 (en) Inspection system
JP6703415B2 (en) Inspection device and inspection method
JP6909377B2 (en) Inspection system and inspection method
JP2018112470A (en) Inspection system and inspection method
JP6826813B2 (en) Inspection equipment and inspection method
JP2019178941A (en) Inspection system and inspection method
JP2018116026A (en) Illumination device and light-transmissive member
JP2019002873A (en) Inspection system and inspection method

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190808