Nothing Special   »   [go: up one dir, main page]

JP2011191170A - Image processing apparatus - Google Patents

Image processing apparatus Download PDF

Info

Publication number
JP2011191170A
JP2011191170A JP2010057347A JP2010057347A JP2011191170A JP 2011191170 A JP2011191170 A JP 2011191170A JP 2010057347 A JP2010057347 A JP 2010057347A JP 2010057347 A JP2010057347 A JP 2010057347A JP 2011191170 A JP2011191170 A JP 2011191170A
Authority
JP
Japan
Prior art keywords
image
projection
unit
imaging
projected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010057347A
Other languages
Japanese (ja)
Inventor
Yasuyuki Ikeda
泰之 池田
Toyoo Iida
豊男 飯田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Factory Vision Solutions Corp
Original Assignee
Omron Corp
Factory Vision Solutions Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Factory Vision Solutions Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2010057347A priority Critical patent/JP2011191170A/en
Publication of JP2011191170A publication Critical patent/JP2011191170A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To enable a work for confirming the relation between an actual object and an imaging means and a work for comparing the object with an image processing result, to thereby readily carry out the operation without the use of a monitor. <P>SOLUTION: In an imaging section 1, a light-projecting section 11 includes a LCD 12, and is disposed as to be coaxial with a CCD 10, so that an image displayed on a LCD 12 can be projected toward a visual field of the CCD 10. In a processing section 2, a defect D in a workpiece W0 is detected, by using the image generated by the CCD 10 to generate a projection image 50, by setting an image data brighter than an ambience to an area RP corresponding to an area R, including the defect, provided to the projecting section 11, and projected. A range detected as the defect by image processing is defined by a marking pattern M by the projected image in the area RP among a surface of the workpiece W0 with regard to the projection. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、生産現場など、大きさや形状が統一された複数の物品を計測したり、その計測結果に基づき物品を検査する目的に用いられる画像処理装置に関する。   The present invention relates to an image processing apparatus used for the purpose of measuring a plurality of articles whose sizes and shapes are unified, such as a production site, and inspecting articles based on the measurement results.

この種の画像処理装置として、1台のカメラにより生成された画像を用いた2次元の計測処理を行うものと、複数台のカメラにより生成されたステレオ画像を用いた3次元計測を行うものとがある。いずれのタイプの画像処理装置でも、使用に先立ち、対象物を正しく撮像することができるように、カメラの視野の範囲や光軸の方向を合わせる必要がある。   As this type of image processing apparatus, one that performs two-dimensional measurement processing using an image generated by one camera, and one that performs three-dimensional measurement using stereo images generated by a plurality of cameras There is. In any type of image processing apparatus, it is necessary to match the range of the visual field of the camera and the direction of the optical axis so that the object can be correctly imaged before use.

従来のカメラの調整処理では、カメラにより生成された画像をモニタに表示し、モニタの表示と実際の対象物とを見比べながら、最適な撮像状態になるように、カメラの位置や姿勢を調整する。   In a conventional camera adjustment process, an image generated by the camera is displayed on a monitor, and the position and orientation of the camera are adjusted so that an optimal imaging state is obtained while comparing the monitor display with the actual object. .

また、上記の調整が終了して装置が利用される場合にも、適宜、処理結果をモニタに表示することにより、ユーザの便宜を図るようにしている。この表示の従来例として、たとえば、特許文献1には、ステレオ画像中の特定の点や領域を対象にした3次元計測を実行し、その計測結果を計測対象物の全体像に対応づけて立体的に表示することが記載されている。   Further, even when the adjustment is completed and the apparatus is used, the processing result is appropriately displayed on the monitor so as to facilitate the user. As a conventional example of this display, for example, in Patent Document 1, three-dimensional measurement is performed on a specific point or region in a stereo image, and the measurement result is associated with the entire image of the measurement object to create a three-dimensional image. It is described that it displays automatically.

また、特許文献2に記載された発明では、目視検査を行う検査者に、CCDや視線検出用のセンサが設けられたヘッドマウントディスプレイを装着させる。さらに、特許文献2には、CCDにより生成された画像を目視用画像としてディスプレイに表示すると共に、視線センサにより検査者の視線が固定されたことが検出されたときの画像を処理して欠陥を検出し、その欠陥の位置を示す枠画像を目視用画像に重ねて表示することが記載されている。   In the invention described in Patent Document 2, an inspector who conducts a visual inspection is allowed to wear a head mounted display provided with a CCD and a sensor for detecting a line of sight. Further, in Patent Document 2, an image generated by a CCD is displayed on a display as a visual image, and a defect is detected by processing an image when the gaze sensor detects that the gaze of the inspector is fixed. It is described that a frame image that detects and indicates the position of the defect is superimposed on the visual image and displayed.

特開2009−53147号公報JP 2009-53147 A 特開2009−150866号公報JP 2009-150866 A

特許文献1のように、モニタに処理結果が表示される場合には、現場のユーザは、実際の対象物と表示とを見比べることによって、処理結果の適否などを確認する。しかし、モニタの設置場所が撮像が行われる場所から離れている場合には、その確認が困難になり、作業に支障をきたすおそれがある。   When the processing result is displayed on the monitor as in Patent Document 1, the user on site confirms the suitability of the processing result by comparing the actual object with the display. However, when the installation location of the monitor is far from the location where imaging is performed, the confirmation becomes difficult and there is a risk of hindering the work.

特許文献2に記載された発明によれば、ユーザは、対象物の画像と画像処理結果とを容易に見比べることができるが、あくまでも画像の比較ができるだけであり、実物と画像処理の結果とを照合することにはならない。   According to the invention described in Patent Document 2, the user can easily compare the image of the target object with the image processing result, but can only compare the images to the end, and can compare the actual object with the image processing result. It will not be verified.

また、特許文献2に記載された発明では、ユーザが特殊な装置(ヘッドマウントディスプレイ)を装着する必要があるが、この方法が適用できるのは、特許文献2のように、ユーザが現場に拘束されることを前提とする場合である。生産ラインを流れる製品を対象にした自動検査や、ピッキングシステムにおける3次元計測処理など、ユーザが常時処理対象物を見続ける必要のない用途にまで、この方法を適用するのは困難である。   In addition, in the invention described in Patent Document 2, the user needs to wear a special device (head mounted display). However, as in Patent Document 2, the user is restricted to the site. This is the case where it is assumed that It is difficult to apply this method to applications that do not require the user to constantly look at the object to be processed, such as automatic inspection for products flowing through the production line and three-dimensional measurement processing in a picking system.

本発明は、上記の問題点に着目し、実際の対象物と撮像手段との関係を確認する作業や、実際の対象物と画像処理結果とを比較する作業を、モニタを用いることなく、撮像が行われる現場で容易に行うことができるようにすることを、課題とする。   The present invention pays attention to the above-mentioned problems, and does not use a monitor to perform an operation of confirming a relationship between an actual object and an imaging unit or an operation of comparing an actual object and an image processing result. It is an object to be able to easily perform it at the site where the

本発明は、2次元の撮像素子を有する撮像手段と、撮像素子が生成した2次元画像(以下、「撮像画像」という。)を撮像手段から入力し、その入力画像を用いてあらかじめ定められた画像処理および計測処理を実行する画像処理手段とを具備する画像処理装置に適用される。   According to the present invention, an image pickup unit having a two-dimensional image pickup device and a two-dimensional image generated by the image pickup device (hereinafter referred to as “captured image”) are input from the image pickup unit, and predetermined using the input image. The present invention is applied to an image processing apparatus having image processing means for executing image processing and measurement processing.

本発明が適用された画像処理装置は、2次元のディジタル画像を表示するための表示素子を供え、この表示素子に表示された画像を撮像手段の視野に向けて投影する画像投影手段と、周囲と明るさまたは色が異なる画像データが設定された2次元パターンを含むディジタル画像を画像投影手段に与えて当該画像の投影処理を実行させる投影制御手段とを具備する。また、画像投影手段から投影される画像の結像面内における撮像素子の撮像対象範囲が、画像投影手段からの画像が投影される範囲に包含されるように、撮像手段と画像投影手段との関係が調整されると共に、2次元パターンが撮像対象領域内に投影される。   An image processing apparatus to which the present invention is applied includes a display element for displaying a two-dimensional digital image, an image projection unit that projects an image displayed on the display element toward a field of view of an imaging unit, And a projection control means for providing the image projection means with a digital image including a two-dimensional pattern in which image data having different brightness or color is set to the image projection means. In addition, the imaging unit and the image projecting unit are configured so that the imaging target range of the imaging element in the imaging plane of the image projected from the image projecting unit is included in the range in which the image from the image projecting unit is projected. The relationship is adjusted and a two-dimensional pattern is projected into the imaging target area.

上記の構成によれば、画像投影手段から投影される画像の結像面に対象物の表面がほぼ位置合わせされた状態になったとき、この対象物の表面に鮮明な画像を投影することが可能になる。また、撮像素子の撮像対象範囲内に周囲と明るさまたは色が異なる画像データが設定された2次元パターンが投影されるので、撮像素子により撮像される範囲に含まれる対象物の表面のうち、上記の2次元パターンが投影される箇所を当該パターンの投影像により明示することが可能になる。さらに、撮像素子の撮像対象範囲は投影される画像が結像する範囲に包含されているので、撮像対象範囲のいずれの位置にも上記の2次元パターンを投影することが可能になる。   According to the above configuration, when the surface of the object is substantially aligned with the imaging plane of the image projected from the image projecting means, a clear image can be projected onto the surface of the object. It becomes possible. In addition, since a two-dimensional pattern in which image data different in brightness or color from the surroundings is set within the imaging target range of the imaging device is projected, among the surfaces of the objects included in the range imaged by the imaging device, It is possible to clearly indicate the location where the two-dimensional pattern is projected by the projection image of the pattern. Furthermore, since the imaging target range of the imaging device is included in the range in which the projected image is formed, the above two-dimensional pattern can be projected at any position in the imaging target range.

したがって、実物の対象物に対し、撮像手段の視野との関係を表すパターンを投影したり、撮像画像に対する処理により検出された部位を示すパターンを投影するなどの投影処理を行うことが可能になり、撮像画像をモニタの表示により確認する必要をなくすことができる。   Therefore, it is possible to perform a projection process such as projecting a pattern representing a relationship with the field of view of the imaging unit or a pattern indicating a part detected by the process on the captured image onto an actual object. This eliminates the need to confirm the captured image by the display on the monitor.

上記の画像処理装置の好ましい一実施態様では、投影制御手段は、画像処理手段の処理結果に基づき上記2次元パターンの画像データを設定する画素を決定して、画像投影手段に投影される画像を生成する。このようにすれば、たとえば、画像処理により所定の特徴を有する部位が検出された場合に、その検出範囲に対応する表示素子側の画素に輝度の高い画像データを設定して投影処理を行うことにより、実際の対象物の表面のうち画像処理により検出された範囲を明るい投影パターンにより明示することが可能になる。また検出される部位の位置、形状、大きさが種々に変動しても、容易に対応することが可能になる。   In a preferred embodiment of the image processing apparatus, the projection control means determines a pixel for setting the image data of the two-dimensional pattern based on a processing result of the image processing means, and outputs an image projected on the image projection means. Generate. In this way, for example, when a part having a predetermined feature is detected by image processing, projection processing is performed by setting image data with high brightness to the pixel on the display element side corresponding to the detection range. As a result, the range detected by the image processing on the actual surface of the object can be clearly indicated by a bright projection pattern. In addition, even if the position, shape, and size of the detected part are variously changed, it is possible to easily cope with it.

他の好ましい実施態様による画像処理装置は、上記の2次元パターンを含む画像を登録するための画像登録手段を具備し、この画像登録手段に登録されている画像の1つを読み出して表示素子に表示させることにより、当該画像の投影処理を実行させる。   An image processing apparatus according to another preferred embodiment includes an image registration unit for registering an image including the two-dimensional pattern, and reads one of the images registered in the image registration unit as a display element. By displaying, the projection processing of the image is executed.

上記の実施態様によれば、たとえば、撮像手段の視野の中心位置や計測対象範囲などを表す2次元パターンを含む画像を画像登録手段に登録しておくことにより、撮像手段の位置や光軸を合わせる作業を行う場合には、登録された画像を投影することにより、モニタの表示を確認することなく作業を行うことが可能になる。また、複数の画像を登録して、その中から作業に必要な画像をユーザに選択させたり、ユーザが自身の用途に応じて作成した画像を登録するなどすれば、利便性をより一層向上することができる。   According to the above-described embodiment, for example, by registering an image including a two-dimensional pattern representing the center position of the field of view of the imaging unit and the measurement target range in the image registration unit, the position and optical axis of the imaging unit can be determined. When performing the matching operation, it is possible to perform the operation without confirming the display on the monitor by projecting the registered image. Also, if a plurality of images are registered and the user selects an image necessary for the work from among them, or an image created by the user according to his / her own use is registered, the convenience is further improved. be able to.

他の好ましい実施態様による画像処理装置では、撮像手段および画像投影手段は、同軸光学系を形成し、かつ同一の筐体の内部に収容される。また、画像投影手段から投影される画像の結像面内における撮像素子側の各画素に対応する各点に、表示素子の互いに異なる画素からの画像データが投影されるように、撮像手段と画像投影手段との関係が調整される。   In the image processing apparatus according to another preferred embodiment, the image pickup unit and the image projection unit form a coaxial optical system and are accommodated in the same casing. Further, the image pickup means and the image are projected so that image data from different pixels of the display element is projected to each point corresponding to each pixel on the image pickup element side in the imaging plane of the image projected from the image projection means. The relationship with the projection means is adjusted.

上記の構成によれば、撮像手段と画像投影手段との光軸が同軸に揃えられると共に、撮像素子と表示素子との画素の対応関係が明確にされているので、表示素子の各画素の中から、撮像対象範囲内の明示したい箇所への投影を行う画素を容易に特定して、投影用画像を設定することが可能になる。   According to the above configuration, the optical axes of the imaging unit and the image projecting unit are aligned on the same axis, and the correspondence between the imaging element and the display element is clarified. Therefore, it is possible to easily specify a pixel to be projected onto a location to be clearly specified within the imaging target range and set a projection image.

他の好ましい実施態様による画像処理装置では、画像投影手段は、撮像手段とは別体に形成されると共に、画像投影手段から投影される画像の結像面内における撮像素子側の各画素に対応する各点に、表示素子の互いに異なる画素からの画像データが投影されるように、撮像手段に対する関係が調整された状態で配備される。また画像処理手段は、撮像手段から入力された画像を用いて3次元計測処理を実行する。また投影制御手段は、画像処理手段の3次元計測処理の結果に基づく3次元情報を表示素子の表示面に透視変換し、その透視変換結果を用いて3次元計測結果を表す画素に2次元パターンの画像データが設定された画像を生成し、この画像を表示素子に表示させることにより当該画像を投影させる。   In the image processing apparatus according to another preferred embodiment, the image projecting unit is formed separately from the image capturing unit, and corresponds to each pixel on the image sensor side in the imaging plane of the image projected from the image projecting unit. The image sensor is arranged in a state in which the relationship with the imaging unit is adjusted so that image data from different pixels of the display element is projected to each point. The image processing unit executes a three-dimensional measurement process using the image input from the imaging unit. Further, the projection control means perspectively converts the three-dimensional information based on the result of the three-dimensional measurement processing of the image processing means to the display surface of the display element, and uses the perspective conversion result to convert the two-dimensional pattern to the pixel representing the three-dimensional measurement result. An image in which the image data is set is generated, and the image is projected by displaying the image on a display element.

なお、この実施態様においては、撮像手段を、複数の2次元カメラによるステレオカメラとして構成し、このステレオカメラを用いた3次元計測を行うのが望ましい。   In this embodiment, it is desirable to configure the imaging means as a stereo camera using a plurality of two-dimensional cameras and perform three-dimensional measurement using the stereo cameras.

上記の実施態様の構成によれば、たとえば、3次元計測処理により取得した3次元情報に基づき、計測対象部位の輪郭形状を示す3次元パターンを生成して、これを表示素子の表面に透視変換することにより、表示素子から見た計測対象部位の輪郭形状を表す2次元パターンを得ることができる。したがって、この輪郭形状を表す2次元パターンを周囲より明るい画像データが設定されたパターンとした投影用画像を生成して投影すれば、ユーザは、投影された輪郭パターンと実際の対象物の輪郭線とを見比べて、3次元計測の結果の適否を認識することが可能になる。   According to the configuration of the above embodiment, for example, based on the three-dimensional information acquired by the three-dimensional measurement process, a three-dimensional pattern indicating the contour shape of the measurement target part is generated, and this is perspective-transformed on the surface of the display element. By doing so, it is possible to obtain a two-dimensional pattern that represents the contour shape of the measurement target site as viewed from the display element. Accordingly, if a projection image is generated by projecting the two-dimensional pattern representing the contour shape into a pattern in which image data brighter than the surroundings is set, the user can project the projected contour pattern and the contour line of the actual object. It is possible to recognize whether or not the result of the three-dimensional measurement is appropriate.

本発明によれば、実際の対象物の撮像対象範囲内に投影される2次元パターンにより、撮像手段の視野と対象物との関係を確認したり、画像処理の結果と実際の対象物の状態とを比較することが可能になるので、ユーザは、モニタの表示を見なくとも、確認作業を容易に行うことが可能になる。また、撮像素子の撮像対象範囲内のどの場所にも、2次元パターンを投影することができ、パターンの形状や大きさも自由に設定することが可能であるので、利便性が高い装置を提供することができる。また、ユーザは、視認用の器具を装着する必要がなく、必要に応じて、実際の対象物を視覚により認識するだけで良いから、様々な用途の画像処理に利用することが可能になる。   According to the present invention, the relationship between the field of view of the imaging means and the object is confirmed by the two-dimensional pattern projected within the imaging object range of the actual object, and the result of the image processing and the actual object state Therefore, the user can easily perform the confirmation work without looking at the display on the monitor. In addition, since a two-dimensional pattern can be projected to any location within the imaging target range of the imaging device, and the shape and size of the pattern can be freely set, a highly convenient apparatus is provided. be able to. In addition, since the user does not need to wear a visual recognition tool and only needs to visually recognize an actual object as necessary, it can be used for image processing for various purposes.

本発明が適用される画像処理装置の構成例を示す図である。It is a figure which shows the structural example of the image processing apparatus to which this invention is applied. 撮像部の光学系の構成と処理部の機能ブロック図とを対応づけて示す図である。It is a figure which matches and shows the structure of the optical system of an imaging part, and the functional block diagram of a process part. ワークの欠陥に対する光学系の関係、および処理部が実行する処理手順とを対応づけて示す図である。It is a figure which matches and shows the relationship of the optical system with respect to the defect of a workpiece | work, and the process sequence which a process part performs. 2個の撮像部の視点を位置合わせする場合の各撮像部の光学系とワークとの関係、および処理部が実行する処理手順を示す図である。It is a figure which shows the relationship between the optical system of each image pick-up part and a workpiece | work in the case of aligning the viewpoint of two image pick-up parts, and the process sequence which a process part performs. 2個の撮像部の計測対象領域を位置合わせする場合の各撮像部の光学系とワークとの関係、および処理部が実行する処理手順とを対応づけて示す図である。It is a figure which matches and shows the relationship between the optical system and workpiece | work of each imaging part in the case of aligning the measurement object area | region of two imaging parts, and the process procedure which a process part performs. 撮像部と投影部とが別体にされたタイプの画像処理装置の構成を示す図である。It is a figure which shows the structure of the image processing apparatus of the type by which the imaging part and the projection part were made into a different body. 図6の画像処理装置の光学系とワークとの関係、および処理部が実行する処理手順とを対応づけて示す図である。FIG. 7 is a diagram illustrating a relationship between an optical system and a workpiece of the image processing apparatus in FIG. 6 and a processing procedure executed by a processing unit.

図1は、本発明が適用される画像処理装置の使用例を示す。
この実施例の画像処理装置は、生産現場において、完成した製品または製品の一部を構成する部品(この実施例では「ワークW0」として示す。)の表面に視認される傷や汚れ等の欠陥を検査する目的に用いられるもので、検査対象のワークW0の上方に配備された撮像部1と、コンピュータを含む処理部2とにより構成される。なお、処理部2には、必要に応じて、モニタや設定用の操作部(キーボード、マウスなど)が接続される(他の実施例でも同様である。)。
FIG. 1 shows an example of use of an image processing apparatus to which the present invention is applied.
The image processing apparatus according to this embodiment has defects such as scratches and dirt visually recognized on the surface of a finished product or a part of a part of the product (shown as “work W0” in this embodiment) at the production site. The image pickup unit 1 is disposed above the workpiece W0 to be inspected, and the processing unit 2 includes a computer. The processing unit 2 is connected to a monitor and a setting operation unit (keyboard, mouse, etc.) as necessary (the same applies to other embodiments).

処理部2は、図示しないワーク検出用のセンサからの検出信号により撮像位置へのワークW0の搬入を判別し、これに応じて撮像部1を駆動する。これにより撮像処理が実施され、処理部2に撮像画像が入力されると、処理部2では、この撮像画像に対して欠陥検出用の画像処理を実行する。この画像処理には、2値化、エッジ抽出など、欠陥の特徴を抽出するための処理と、抽出された特徴を計測する処理とが含まれる。   The processing unit 2 determines the loading of the workpiece W0 to the imaging position based on a detection signal from a workpiece detection sensor (not shown), and drives the imaging unit 1 accordingly. Thus, when an imaging process is performed and a captured image is input to the processing unit 2, the processing unit 2 executes image processing for defect detection on the captured image. This image processing includes processing for extracting defect features, such as binarization and edge extraction, and processing for measuring the extracted features.

さらに処理部2は、画像処理の結果に基づき欠陥の有無を判別し、その判別結果を図示しない外部装置に出力すると共に、後記する検査結果画像を生成する。   Further, the processing unit 2 determines the presence / absence of a defect based on the result of the image processing, outputs the determination result to an external device (not shown), and generates an inspection result image to be described later.

さらに、この実施例の画像処理装置では、欠陥が検出されたときに、その検出部位や欠陥の状態を現場の作業者が容易に確認できるように、実際のワークW0の該当箇所に撮像部1から輝度の高い光を投光して、その箇所を明示するようにしている。   Furthermore, in the image processing apparatus according to this embodiment, when a defect is detected, the imaging unit 1 is placed at a corresponding portion of the actual workpiece W0 so that a worker on site can easily check the detected portion and the state of the defect. The light with high brightness is projected and the location is clearly indicated.

図2は、上記画像処理装置の撮像部1の光学系の構成と処理部2の機能ブロック図とを対応づけて示したものである。この図2および次の図3では、表面に欠陥Dが生じているワークW0を示す。
図2に示すように、撮像部1には、レンズ14、CCD10、投影部11、およびハーフミラー15による同軸光学系が設けられる。このほか、図示していないが、撮像部1には、CCD10や投影部11を駆動するための回路や、画像信号の出力回路などが含まれる。
FIG. 2 shows the configuration of the optical system of the imaging unit 1 of the image processing apparatus and the functional block diagram of the processing unit 2 in association with each other. FIG. 2 and the next FIG. 3 show a workpiece W0 having a defect D on its surface.
As shown in FIG. 2, the imaging unit 1 is provided with a coaxial optical system including a lens 14, a CCD 10, a projection unit 11, and a half mirror 15. In addition, although not shown, the imaging unit 1 includes a circuit for driving the CCD 10 and the projection unit 11, an output circuit for an image signal, and the like.

投影部11には、液晶パネル(LCD)13およびバックライト用の光源14などが含まれる。LCD12は、CCD10と同じく、レンズ14の焦点位置に配備される。またこの実施例では、LCD12とCCD10とは、縦、横のサイズ(画素数)が同一で、解像度も等しいものとする。   The projection unit 11 includes a liquid crystal panel (LCD) 13 and a light source 14 for backlight. The LCD 12 is arranged at the focal position of the lens 14 as in the CCD 10. In this embodiment, the LCD 12 and the CCD 10 have the same vertical and horizontal sizes (number of pixels) and the same resolution.

ワークW0の表面には、図示しない外部照明からの光が照射される。図2では、ワークW0の表面がレンズ14の合焦位置に合わせられているものとして、その表面の1点からの反射光の光路を一点鎖線により示す。この一点鎖線に示すように、ワークW0からレンズ14に入射した光はハーフミラー16を介してCCD10に導かれ、これを受光したCCD10によってワークWの表面状態を表す画像が生成される。   The surface of the workpiece W0 is irradiated with light from external illumination (not shown). In FIG. 2, it is assumed that the surface of the workpiece W0 is aligned with the focal position of the lens 14, and the optical path of the reflected light from one point on the surface is indicated by a one-dot chain line. As indicated by the alternate long and short dash line, light incident on the lens 14 from the workpiece W0 is guided to the CCD 10 via the half mirror 16, and an image representing the surface state of the workpiece W is generated by the CCD 10 receiving the light.

投影部11では、光源13からのバックライト照明の下でLCD12に2次元画像が表示されたとき、この画像中の各画素からの光が、ハーフミラー15およびレンズ14を介してレンズ14の視野範囲内に投光される。これにより、LCD12に表示されている画像がワークW0の表面に投影される。   In the projection unit 11, when a two-dimensional image is displayed on the LCD 12 under backlight illumination from the light source 13, the light from each pixel in the image passes through the half mirror 15 and the lens 14 and the field of view of the lens 14. Flooded within range. As a result, the image displayed on the LCD 12 is projected onto the surface of the workpiece W0.

処理部2には、撮像処理部21、検査実行部22、投影用画像生成部23、投影動作制御部24の機能が設定される。撮像処理部21は、CCD10を駆動し、生成された撮像画像を入力する。検査実行部22は、撮像処理部21から上記の撮像画像の供給を受け、欠陥検出のための画像処理や欠陥の有無を判別する処理を実行する。また外部機器に判別結果を出力する処理や、検査結果画像を生成する処理も、検査実行部22により実行される。   In the processing unit 2, functions of an imaging processing unit 21, an inspection execution unit 22, a projection image generation unit 23, and a projection operation control unit 24 are set. The imaging processing unit 21 drives the CCD 10 and inputs the generated captured image. The inspection execution unit 22 receives the above-described captured image supplied from the imaging processing unit 21 and executes image processing for defect detection and processing for determining the presence or absence of a defect. Further, the process of outputting the discrimination result to the external device and the process of generating the test result image are also executed by the test execution unit 22.

投影用画像生成部23は、検査実行部22が欠陥Dを検出して検査結果画像を生成したことに応じて起動し、LCD12に表示させる投影用画像を生成する。投影動作制御部24は、投影用画像生成部23により生成された投影用画像を投影部11に出力し、上記した投影処理を行う。   The projection image generation unit 23 is activated in response to the inspection execution unit 22 detecting the defect D and generating an inspection result image, and generates a projection image to be displayed on the LCD 12. The projection operation control unit 24 outputs the projection image generated by the projection image generation unit 23 to the projection unit 11 and performs the above-described projection processing.

この実施例では、CCD10とLCD12とは、画素数や解像度が完全に一致し、レンズ14の焦点の位置に配備されているので、LCD12から投影される画像の結像面においては、CCD10の撮像対象範囲と、LCD12からの画像の投影範囲とは完全に一致する。すなわち、CCD10とLCD12との間では、同じ座標にある画素同士が対応する関係となる。よって、ワークの表面がレンズ14の合焦位置に合わせられている場合には、撮像画像中の座標(x,y)に現れるワークW0上の任意の点に対し、LCD12側の同一の座標(x,y)から画像データを投影することが可能になる。   In this embodiment, the CCD 10 and the LCD 12 have the same number of pixels and the same resolution and are arranged at the focal point of the lens 14, so that the image of the CCD 10 is captured on the image formation plane of the image projected from the LCD 12. The target range and the projection range of the image from the LCD 12 are completely the same. That is, between the CCD 10 and the LCD 12, the pixels at the same coordinates correspond to each other. Therefore, when the surface of the workpiece is aligned with the in-focus position of the lens 14, the same coordinate (on the LCD 12 side) with respect to an arbitrary point on the workpiece W0 that appears at the coordinates (x, y) in the captured image. Image data can be projected from x, y).

この実施例では、上記の光学系の特性を利用して、実際のワークW0のうちの画像処理により欠陥が検出された箇所に、輝度の高い色彩によるパターン画像(以下、これを「マーキングパターン」という。)が投影されるようにしている。この投影により、現場の作業者は、実際のワークの明るく照明された箇所を不良が検出された部位として視認することができるので、検査結果の適否や不良の程度を容易に確認することができる。   In this embodiment, by utilizing the characteristics of the optical system described above, a pattern image (hereinafter referred to as a “marking pattern”) having a high luminance color at a location where a defect is detected by image processing in the actual workpiece W0. Is projected). By this projection, an on-site worker can visually recognize the brightly illuminated part of the actual work as a part where a defect is detected, so that the suitability of the inspection result and the degree of the defect can be easily confirmed. .

図3は、撮像部1の光学系について、ワークW0の欠陥Dに対する光路を示すと共に、処理部2において実施される処理の概略手順のフローチャートを処理中に生成される画像の例に関連づけて示す。以下、この図を参照して、上記の処理部2および撮像部1において実行される処理を説明する。   FIG. 3 shows an optical path for the defect D of the workpiece W0 for the optical system of the imaging unit 1, and shows a flowchart of a schematic procedure of processing performed in the processing unit 2 in association with an example of an image generated during the processing. . Hereinafter, processing executed in the processing unit 2 and the imaging unit 1 will be described with reference to FIG.

検査対象のワークW0が搬入されると、処理部2では、撮像処理部21によりCCD10を駆動して、生成された画像を入力し(ステップA)、検査実行部22による画像処理(計測処理や判別処理を含む。)を実行する(ステップB)。また、欠陥Dが検出された場合には、検査実行部22は、その検出結果を示す検査結果画像40を生成する。   When the workpiece W0 to be inspected is carried in, the processing unit 2 drives the CCD 10 by the imaging processing unit 21, inputs the generated image (step A), and performs image processing (measurement processing or (Including discrimination processing) is executed (step B). Further, when the defect D is detected, the inspection execution unit 22 generates an inspection result image 40 indicating the detection result.

図3に示す検査結果画像40は、撮像画像をベースとするもので、画像中の欠陥D1を囲む範囲に矩形領域Rが設定されている。以下では、この領域Rを「検出領域R」という。   The inspection result image 40 shown in FIG. 3 is based on a captured image, and a rectangular region R is set in a range surrounding the defect D1 in the image. Hereinafter, this region R is referred to as “detection region R”.

投影用画像生成部23は、前記した光学系の特性に基づき、検査結果画像40中の検出領域Rと同じ範囲に輝度の高い色彩領域RP(たとえば赤色の領域)を設定し、その他の画素に暗色(たとえば黒色)を設定した投影用画像50を生成する(ステップC)。
投影動作制御部24は、この投影用画像50を投影部11に与えて、投影処理を実行させる(ステップD)。これにより、投影用画像50中の領域RP内の各画素からは、その領域RPに設定された色彩による光がワークW0に投光されるが、他の暗色が設定された画素からは殆ど光は投光されない。よって、実際のワークW0の検出領域Rに対応する範囲に、領域RPの投影像によるマーキングパターンMが投影されて、この範囲が明示される。このマーキングパターンMの投影範囲は、検査結果画像50中の検出領域R内に現れた箇所に相当する。したがって、マーキングパターンM内に実際の欠陥Dが含まれているならば、検査の結果は正しいということになる。
Based on the characteristics of the optical system described above, the projection image generation unit 23 sets a color region RP (for example, a red region) with a high luminance in the same range as the detection region R in the inspection result image 40, and sets other pixels. A projection image 50 in which a dark color (for example, black) is set is generated (step C).
The projection operation control unit 24 gives the projection image 50 to the projection unit 11 to execute a projection process (step D). Thereby, light from the color set in the region RP is projected to the work W0 from each pixel in the region RP in the projection image 50, but almost light is emitted from the pixels set with other dark colors. Is not flooded. Therefore, the marking pattern M based on the projection image of the region RP is projected on the range corresponding to the detection region R of the actual workpiece W0, and this range is clearly indicated. The projection range of the marking pattern M corresponds to a portion that appears in the detection region R in the inspection result image 50. Therefore, if an actual defect D is included in the marking pattern M, the inspection result is correct.

上記の投影処理によれば、画像処理の結果に基づき、マーキングパターンMの位置や大きさを自由に変更することができるので、検出された欠陥の位置、大きさ、形状などが個々のワークW0によってばらついても、なんの問題もなく、実際のワークW0の表面に欠陥の検出範囲を明示することが可能になる。したがって、撮像が行われる現場付近にモニタが配備されていなくとも、作業者は検査の結果を支障なく確認することができる。   According to the above projection processing, the position and size of the marking pattern M can be freely changed based on the result of the image processing, so that the position, size, shape, etc. of the detected defect are determined by the individual workpiece W0. It is possible to clearly indicate the defect detection range on the surface of the actual work W0 without any problem. Therefore, even if a monitor is not provided near the site where imaging is performed, the operator can confirm the inspection result without any trouble.

なお、上記の実施例では、説明を簡単にするために、CCD10とLCD12とのサイズや解像度が統一されているものとしたが、これらが異なる場合でも、LCD12からの投影用画像の結像面内におけるCCD10の撮像対象範囲が投影用画像の結像範囲に包含され、かつ、この撮像対象範囲内のCCD10の各画素に対応する各点に、それぞれLCD12の互いに異なる画素からの画像データが投影される関係が成立していれば、CCD10とLCD12との間の画素の対応関係に基づき、上記と同様の投影処理を実施することができる。   In the above embodiment, the size and resolution of the CCD 10 and the LCD 12 are unified to simplify the description. However, even if they are different, the image formation plane of the projection image from the LCD 12 is used. The imaging target range of the CCD 10 is included in the imaging range of the projection image, and image data from different pixels of the LCD 12 is projected to each point corresponding to each pixel of the CCD 10 in the imaging target range. If the relationship is established, the same projection processing as described above can be performed based on the correspondence relationship of the pixels between the CCD 10 and the LCD 12.

また、上記の投影処理は欠陥の検出結果を示す目的に限定されるものではない。たとえば、人手により実施される工程において、搬入されたワークを撮像して画像処理により作業対象部位を検出し、検出された対象部位にマーキングパターンを投影することも可能である。このような処理によれば、作業者は、作業対象部位を容易に認識して効率良く作業を行うことができる。   Further, the above-described projection processing is not limited to the purpose of showing the defect detection result. For example, in a process performed manually, it is also possible to image a workpiece that has been carried in, detect a work target part by image processing, and project a marking pattern onto the detected target part. According to such processing, the worker can easily recognize the work target part and perform the work efficiently.

さらに、上記構成の画像処理装置では、種々の2次元パターンを含む画像を生成して投影することができるので、図4および図5に示すように、本格的な使用の前に、撮像部1の視野や光軸の方向などを調整する作業に利用することができる。   Furthermore, since the image processing apparatus having the above configuration can generate and project an image including various two-dimensional patterns, the imaging unit 1 is used before full-scale use, as shown in FIGS. Can be used to adjust the field of view and the direction of the optical axis.

図4および図5の実施例では、図2,3の例より大きいワークW1を対象として、図1〜3の実施例と同様の構成の撮像部1を2つ使用して、ワークW1を異なる視点から撮像する。図4,5では、これらの撮像部1の構成を、図2,3と同じ数字にa,bを付けた符号により示すと共に、各撮像部1a,1bに対して処理部2が実行する処理手順を示すフローチャートと投影用画像とを対応づけている。   4 and 5, the workpiece W1 is different by using two imaging units 1 having the same configuration as the embodiment of FIGS. 1 to 3 for the workpiece W1 larger than the example of FIGS. Take an image from the viewpoint. 4 and 5, the configuration of the imaging unit 1 is indicated by the same numerals as those shown in FIGS. 2 and 3 with a and b added thereto, and processing executed by the processing unit 2 for each imaging unit 1 a and 1 b. The flowchart showing the procedure is associated with the projection image.

また、図4,5には示していないが、各撮像部1a,1bは、同一の処理部2に接続され、処理部2において、各撮像部1a,1bから入力された撮像画像を用いた3次元計測処理、または画像毎に異なる内容の2次元の画像処理を実行する。また、この処理部2には、撮像部1a,1b毎に、図2に示した撮像処理部21、投影用画像生成部23、投影動作制御部24の機能が設定される。   Although not shown in FIGS. 4 and 5, the imaging units 1 a and 1 b are connected to the same processing unit 2, and the processing unit 2 uses captured images input from the imaging units 1 a and 1 b. Three-dimensional measurement processing or two-dimensional image processing with different contents for each image is executed. In the processing unit 2, the functions of the imaging processing unit 21, the projection image generating unit 23, and the projection operation control unit 24 shown in FIG. 2 are set for each of the imaging units 1a and 1b.

なお、装置の構成は上記に限らず、たとえば各撮像部1a,1bを、それぞれ別個の処理部2に接続して、処理部2,2間で通信を行いながら処理を行ったり、各処理部2,2から上位機器に処理結果を出力して、上位機器で各処理結果を二次加工することも可能である。   The configuration of the apparatus is not limited to the above. For example, each imaging unit 1a, 1b is connected to a separate processing unit 2, and processing is performed while communicating between the processing units 2 and 2, or each processing unit It is also possible to output the processing results from 2 and 2 to the host device and to secondary-process each processing result by the host device.

図4の実施例では、ワークW1の表面の一点に各撮像部1a,1bの視野の中心点を合わせるために、投影機能を利用する。   In the embodiment of FIG. 4, a projection function is used to align the center point of the field of view of each imaging unit 1a, 1b with one point on the surface of the workpiece W1.

具体的に説明すると、この実施例では、撮像部1a,1b毎に、十字型のパターンPa,Pbを含む投影用画像51a,51bを生成し(ステップC1,C2)、これらの投影用画像を投影部12a,12bに与えて投影処理を行わせる(D1,D2)。各パターンPa,Pbの中心部(十字のクロス部分)は、CCD10a,10bの中心部の画素に対応し、いずれの投影用画像51a,51bとも、パターンPa,Pbの構成画素以外の画素に、背景色として暗色が設定される。また各投影用画像51a,51bにおけるパターンPa,Pbの形状や大きさは一致しているが、それぞれ色彩が異なる。たとえば、画像51aのパターンPaは赤色に設定され、画像52bのパターンPbは青色に設定される。   More specifically, in this embodiment, projection images 51a and 51b including cross-shaped patterns Pa and Pb are generated for each of the imaging units 1a and 1b (steps C1 and C2), and these projection images are displayed. Projection processing is performed by giving the projection units 12a and 12b (D1, D2). The central part (cross cross part) of each pattern Pa, Pb corresponds to the pixel at the central part of the CCDs 10a, 10b, and any of the projection images 51a, 51b has a pixel other than the constituent pixels of the patterns Pa, Pb. A dark color is set as the background color. The shapes and sizes of the patterns Pa and Pb in the projection images 51a and 51b are the same, but the colors are different. For example, the pattern Pa of the image 51a is set to red, and the pattern Pb of the image 52b is set to blue.

上記によれば、それぞれの撮像部1a,1bの投影部11a,11bから上記の投影用画像51a,51bを投影することにより、ワークWの表面に対し、各パターンPa,Pbの投影像による十字型のマーキングパターンMa,Mbが投影される。これらのマーキングパターンMa,Mbは、それぞれ撮像部1a,1bの視野の中心部を表すことになるので、作業者は、各マーキングパターンMa,Mbの中心部が目標とする位置で合わせるように、各撮像部1a,1bの位置や姿勢を調整することにより、撮像部1a,1bの視点を合わせることができる。   According to the above, by projecting the projection images 51a and 51b from the projection units 11a and 11b of the imaging units 1a and 1b, a cross formed by the projection images of the patterns Pa and Pb on the surface of the workpiece W. Mold marking patterns Ma and Mb are projected. Since these marking patterns Ma and Mb represent the center of the field of view of the imaging units 1a and 1b, respectively, the operator can adjust the center of each marking pattern Ma and Mb at the target position. The viewpoints of the imaging units 1a and 1b can be adjusted by adjusting the positions and orientations of the imaging units 1a and 1b.

図5の実施例は、図4と同様のワークW1に対し、各撮像部1a,1bによる計測範囲を位置合わせする目的に投影機能を利用したものである。
この実施例でも、処理部2は、各撮像部1a,1bに対して図4の例と同様のステップC1,D1、ステップC2,D2を実行するが、この実施例では、撮像画像に設定される計測対象領域に対応する範囲に輝度の高い色彩による矩形パターンSa,Sbを設定した投影用画像52a,52bを生成する。さらに、この実施例でも、図4の例と同様に、各投影用画像52a,52bの矩形パターンSa,Sbにそれぞれ異なる色彩を設定する。
The embodiment of FIG. 5 uses a projection function for the purpose of aligning the measurement ranges by the imaging units 1a and 1b with respect to the workpiece W1 similar to FIG.
Also in this embodiment, the processing unit 2 executes the same steps C1, D1, and C2, D2 as those in the example of FIG. 4 for each of the imaging units 1a and 1b. In this example, the processing unit 2 is set to a captured image. Projection images 52a and 52b in which rectangular patterns Sa and Sb with high-brightness colors are set in a range corresponding to the measurement target region are generated. Further, in this embodiment, similarly to the example of FIG. 4, different colors are set for the rectangular patterns Sa and Sb of the projection images 52a and 52b.

上記の処理によれば、各投影部11a,11bから上記の投影用画像52a,52bを投影することにより、各矩形パターンSa,Sbの投影像Ta,Tbを、各撮像部1a,1bの計測対象領域を示すマーキングパターンとしてワークW1に投影することができる。これにより、作業者は、各色彩のマーキングパターンTa,Tbが重なる範囲ができるだけ広くなるように、撮像部の光軸の向きを調整することによって、最適な計測状態を設定することができる。   According to the above processing, the projection images 52a and 52b are projected from the projection units 11a and 11b, so that the projection images Ta and Tb of the rectangular patterns Sa and Sb are measured by the imaging units 1a and 1b. It can project on the workpiece | work W1 as a marking pattern which shows an object area | region. Thereby, the operator can set an optimal measurement state by adjusting the direction of the optical axis of the imaging unit so that the overlapping range of the marking patterns Ta and Tb of each color is as wide as possible.

なお、図5の実施例においては、ノイズなどの影響を考慮して、CCD10a,10bの外周部の画素により生成される画像データを計測対象から除外し、これに伴い、投影用画像52a,52bでも、矩形パターンSa,Sbの周囲に暗色領域を設定しているが、各撮像部1a,1bの視野に対応する範囲全体を明示したい場合には、投影用画像52a,52bの全ての画素に輝度の高い画像データを設定して投影を行ってもよい。   In the embodiment of FIG. 5, the image data generated by the pixels on the outer periphery of the CCDs 10a and 10b is excluded from the measurement target in consideration of the influence of noise and the like, and accordingly, the projection images 52a and 52b. However, although dark areas are set around the rectangular patterns Sa and Sb, when it is desired to clearly indicate the entire range corresponding to the field of view of the imaging units 1a and 1b, all the pixels of the projection images 52a and 52b are set. Projection may be performed by setting image data with high luminance.

つぎに、図4,5の実施例では、撮像画像に対する画像処理に基づかずに、あらかじめ登録された投影用画像を読み出して投影するものであるが、これらの実施例でも、投影処理中に撮像を行って、生成された撮像画像を処理し、その処理結果に基づき各投影用画像の状態を変更してもよい。   Next, in the embodiments of FIGS. 4 and 5, the image for projection registered in advance is read out and projected without being based on the image processing for the captured image, but in these embodiments as well, the image is captured during the projection processing. The generated captured image may be processed, and the state of each projection image may be changed based on the processing result.

たとえば、図5の実施例に関して説明すると、各投影用画像52a,52bが投影されている状態下で、CCD10a,10bのいずれかによる撮像を行って、撮像画像からマーキングパターンTa,Tbが重なる範囲を検出し、その重なり範囲の面積があらかじめ定めた基準値を超えたときに、各パターンSa,Sbの色彩を統一するような処理を行うことができる。このようにすれば、設定作業に不慣れな作業者でも、ワークW1に投影されたマーキングパターンTa,Tbの色彩が統一されるまで位置合わせ作業を行うことにより、撮像部1a,1bの関係を計測に最適な状態に設定することが可能になる。   For example, the embodiment of FIG. 5 will be described. A range in which the marking patterns Ta and Tb are overlapped from the captured image by performing imaging with either of the CCDs 10a and 10b in a state where the projection images 52a and 52b are projected. When the area of the overlapping range exceeds a predetermined reference value, a process for unifying the colors of the patterns Sa and Sb can be performed. In this way, even a worker unfamiliar with the setting work can measure the relationship between the imaging units 1a and 1b by performing the alignment work until the colors of the marking patterns Ta and Tb projected onto the work W1 are unified. It becomes possible to set to an optimal state.

なお、上記図4,5の例では、2つの撮像部1a,1bの視点や計測対象領域を位置合わせする目的で投影機能を利用しているが、第1実施例のように単体の撮像部1を使用する場合にも、同様の投影処理を行うことにより、ワークに対する撮像部1の視点の位置や光軸方向を合わせる作業を支援することができる。   In the example of FIGS. 4 and 5, the projection function is used for the purpose of aligning the viewpoints and measurement target areas of the two imaging units 1a and 1b, but a single imaging unit as in the first embodiment. Even when 1 is used, the same projection processing can be performed to assist the work of aligning the position of the viewpoint of the imaging unit 1 with respect to the workpiece and the optical axis direction.

また、上記では、図4および図5をそれぞれ別の実施例として説明したが、これらの実施例に適用された4種類の投影用画像51a,51b,52a,52bを含む複数種の投影用画像を処理部2に登録しておき、これらの投影用画像の中から、目的に応じた投影用画像を選択して投影処理に使用するようにしてもよい。さらに、ユーザが画像作成ソフトにより作成した画像を投影用画像として登録できるようにすれば、自由度が増し、撮像部1の位置合わせ以外の目的にも利用することができる。たとえば、ワークを手作業で計測対象位置に配置する場合に、撮像および画像処理が終了したことを作業者に報知する目的で、ワークの特定の場所にマーキングパターンを投影することができる。   In the above description, FIGS. 4 and 5 have been described as different embodiments. However, a plurality of types of projection images including four types of projection images 51a, 51b, 52a, and 52b applied to these embodiments. May be registered in the processing unit 2 and a projection image corresponding to the purpose may be selected from these projection images and used for the projection processing. Furthermore, if an image created by image creation software by a user can be registered as a projection image, the degree of freedom increases and the image can be used for purposes other than the alignment of the imaging unit 1. For example, when a work is manually placed at a measurement target position, a marking pattern can be projected onto a specific location of the work for the purpose of notifying the operator that imaging and image processing have been completed.

つぎに、図6は、投影部と撮像部とを分離させたタイプの画像処理装置の構成例を示す。この図6では、撮像部を100、投影部を110、処理部を200として示す。撮像部100には、CCD101やレンズ102など、撮像機能に関わる部材のみが配備され、投影部110には、LCD111,光源112,および投光用のレンズ113が設けられる。また、この実施例では、計測対象物の例として、立方体状のワークW2を示す。   Next, FIG. 6 shows a configuration example of an image processing apparatus of a type in which a projection unit and an imaging unit are separated. In FIG. 6, the imaging unit is indicated as 100, the projection unit as 110, and the processing unit as 200. The imaging unit 100 includes only members related to the imaging function, such as the CCD 101 and the lens 102, and the projection unit 110 includes an LCD 111, a light source 112, and a projection lens 113. In this embodiment, a cubic work W2 is shown as an example of the measurement object.

図6には示していないが、この実施例では、図中の撮像部100を含む複数台の撮像部が設けられる(以下、全ての撮像部に、図中の撮像部の符号100を適用する。)。処理部200は、各撮像部100から入力された撮像画像を用いた3次元計測処理を実行するもので、撮像処理部201、3次元計測処理部202、投影用画像生成部203、投影動作制御部204、キャリブレーション処理部205の機能が設定される。   Although not shown in FIG. 6, in this embodiment, a plurality of imaging units including the imaging unit 100 in the figure are provided (hereinafter, the imaging unit 100 in the figure is applied to all imaging units). .) The processing unit 200 executes a three-dimensional measurement process using the captured image input from each imaging unit 100, and includes an imaging processing unit 201, a three-dimensional measurement processing unit 202, a projection image generation unit 203, and a projection operation control. Functions of the unit 204 and the calibration processing unit 205 are set.

撮像処理部201は、各撮像部100のCCD101を同じタイミングで駆動し、各CCD101からの撮像画像を入力する。3次元計測処理部202は、これらの撮像画像を用いてワークW2に対する3次元計測処理を実行する。投影用画像生成部203は、この3次元計測処理の結果に基づいて、投影用画像を生成する。投影動作制御部204は、投影画像生成部203から投影用画像の提供を受けて、これを投影部110のLCD111に出力することにより、当該画像を撮像部100の視野に向けて投影させる。   The imaging processing unit 201 drives the CCD 101 of each imaging unit 100 at the same timing, and inputs a captured image from each CCD 101. The three-dimensional measurement processing unit 202 executes a three-dimensional measurement process on the workpiece W2 using these captured images. The projection image generation unit 203 generates a projection image based on the result of the three-dimensional measurement process. The projection operation control unit 204 receives the projection image from the projection image generation unit 203 and outputs the projection image to the LCD 111 of the projection unit 110, thereby projecting the image toward the field of view of the imaging unit 100.

キャリブレーション処理部205は、計測処理に先立ち、キャリブレーション作業を行う作業者の指示に従って動作し、複数の撮像部100毎に、3次元計測用のパラメータを求めるキャリブレーション演算を実行し、この演算により導出されたパラメータを内部のメモリに登録する。さらにキャリブレーション処理部205では、投影部110のLCD111に対してもキャリブレーション演算を実行して、3次元計測により得た3次元座標に対応する画素を特定するのに必要なパラメータを求めるキャリブレーション演算を実行する。   Prior to the measurement process, the calibration processing unit 205 operates in accordance with an instruction from the operator who performs the calibration work, and executes a calibration calculation for obtaining a parameter for three-dimensional measurement for each of the plurality of imaging units 100. The parameter derived by is registered in the internal memory. Further, the calibration processing unit 205 performs a calibration calculation on the LCD 111 of the projection unit 110 to obtain parameters necessary for specifying pixels corresponding to the three-dimensional coordinates obtained by the three-dimensional measurement. Perform the operation.

ここで、LCD110に対するキャリブレーション処理について、簡単に説明する。
この実施例の処理部200には、複数の特徴点が特定の規則に従って配列された構成のキャリブレーションパターンを示す投影用画像が登録されている。作業者は、各撮像部100に対するキャリブレーションが終了した後に、撮像対象位置にスクリーンを配置し、処理部2に対し、キャリブレーションパターンの投影用画像を読み出して投影部110に出力する旨を指示する操作を行う。この操作に応じて、投影用画像生成部203および投影動作制御部204が起動し、上記の投影用画像の読み出しや投影処理を実行する。このとき作業者は、各撮像部100の視野内に十分な数の特徴点が明瞭に現れるように、投影部110の位置や姿勢を調整する。
Here, the calibration process for the LCD 110 will be briefly described.
In the processing unit 200 of this embodiment, a projection image indicating a calibration pattern having a configuration in which a plurality of feature points are arranged according to a specific rule is registered. The operator places a screen at the position to be imaged after calibration for each imaging unit 100 is completed, and instructs the processing unit 2 to read out the projection pattern projection image and output it to the projection unit 110. Perform the operation. In response to this operation, the projection image generation unit 203 and the projection operation control unit 204 are activated to execute the above-described projection image reading and projection processing. At this time, the operator adjusts the position and orientation of the projection unit 110 so that a sufficient number of feature points appear clearly in the field of view of each imaging unit 100.

上記の調整が完了すると、作業者は、処理部200に対し、キャリブレーション演算の実行を指示する操作を行う。この操作により、撮像処理部201,3次元計測処理部202、キャリブレーション処理部205の協働による処理が開始され、まず、各撮像部100からの画像を用いた3次元計測が実施され、各撮像部100の視野内に共通に含まれる複数の特徴点の3次元座標が計測される。キャリブレーション処理部205は、これらの3次元座標を元の投影用画像中の特徴点の座標と対応づけて、これらを用いて、3次元座標の計測値とLCD111上の2次元座標との関係を表すパラメータを導出する。導出されたパラメータは、内部のメモリに登録される。   When the above adjustment is completed, the operator performs an operation to instruct the processing unit 200 to execute the calibration calculation. By this operation, processing by the cooperation of the imaging processing unit 201, the three-dimensional measurement processing unit 202, and the calibration processing unit 205 is started. First, three-dimensional measurement using an image from each imaging unit 100 is performed. The three-dimensional coordinates of a plurality of feature points that are commonly included in the field of view of the imaging unit 100 are measured. The calibration processing unit 205 associates these three-dimensional coordinates with the coordinates of the feature points in the original projection image, and uses these to relate the measured values of the three-dimensional coordinates and the two-dimensional coordinates on the LCD 111. Deriving a parameter representing. The derived parameters are registered in the internal memory.

図7は、上記の登録処理が完了した画像処理装置において実行される処理の概要を、ワークW2に対する撮像部100の光学系の関係、および処理部200において実行される処理の手順を示すフローチャートなどにより示す。   FIG. 7 is a flowchart showing an outline of processing executed in the image processing apparatus in which the registration processing is completed, a relationship of the optical system of the imaging unit 100 with respect to the workpiece W2, and a procedure of processing executed in the processing unit 200. Indicated by

この実施例の処理部200では、まず、撮像処理部201が各撮像部100からの撮像画像を入力し(ステップA3)、3次元計測処理部202による3次元計測処理を実行する(ステップB3)。なお、図7の例では、この3次元計測により、ワークW2のエッジ部分の3次元座標が計測されるものとして、その計測結果を透視変換したものを撮像画像に合成した画像43を計測結果画像として作成する。処理部200にモニタが接続される場合には、この計測結果画像43はモニタに表示される。   In the processing unit 200 of this embodiment, first, the imaging processing unit 201 inputs a captured image from each imaging unit 100 (step A3) and executes a three-dimensional measurement process by the three-dimensional measurement processing unit 202 (step B3). . In the example of FIG. 7, it is assumed that the three-dimensional coordinates of the edge portion of the workpiece W2 are measured by the three-dimensional measurement, and an image 43 obtained by combining the measurement result with a perspective image is combined with the captured image. Create as. When a monitor is connected to the processing unit 200, the measurement result image 43 is displayed on the monitor.

透視用画像生成部203は、上記の処理により求められた3次元座標を取得して、これらを、キャリブレーション処理により登録されたパラメータに基づき、LCD111の表示面に透視変換する。さらに、この透視変換により判明した各3次元座標の投影点に沿って輪郭パターンEPを設定し、この輪郭パターンEPを輝度の高い色彩により表した投影用画像53を生成する(ステップC3)。   The fluoroscopic image generation unit 203 acquires the three-dimensional coordinates obtained by the above processing, and perspective-transforms these on the display surface of the LCD 111 based on the parameters registered by the calibration processing. Further, a contour pattern EP is set along the projection point of each three-dimensional coordinate found by this perspective transformation, and a projection image 53 in which the contour pattern EP is expressed by a color with high luminance is generated (step C3).

投影動作制御部204は、上記の処理により生成された投影用画像53を投影部110に与えて、投影処理を実行させる。これにより、上記の輪郭パターンEPによる投影像MEが3次元計測結果を示すマーキングパターンとしてワークW2に投影される。   The projection operation control unit 204 gives the projection image 53 generated by the above processing to the projection unit 110 to execute the projection processing. Thereby, the projected image ME by the contour pattern EP is projected onto the workpiece W2 as a marking pattern indicating the three-dimensional measurement result.

上記の処理により生成される投影用画像53中の輪郭パターンEPは、3次元計測により計測された各点を、投影部110のLCD111の位置から観察した状態を示すものである。したがって、3次元計測の結果が正しい場合には、輪郭パターンEPの投影により生じたマーキングパターンMEは、実際のワークW2の輪郭に沿う状態となるはずである。よって、作業者は、パターンEPの投影により生じたマーキングパターンが示す輪郭線と実際のワークの輪郭線とを見比べることにより、3次元計測の精度を確認することができる。   The contour pattern EP in the projection image 53 generated by the above processing indicates a state in which each point measured by the three-dimensional measurement is observed from the position of the LCD 111 of the projection unit 110. Therefore, when the result of the three-dimensional measurement is correct, the marking pattern ME generated by the projection of the contour pattern EP should be in a state along the actual contour of the workpiece W2. Therefore, the operator can confirm the accuracy of the three-dimensional measurement by comparing the contour line indicated by the marking pattern generated by the projection of the pattern EP with the contour line of the actual workpiece.

1,100 撮像部
2,200 処理部
10,101 CCD
11,110 投影部
12,111 LCD
23,203 投影画像生成部
24,204 投影動作制御部
22 検査実行部
202 3次元計測処理部
50,51a,51b,52a,52b,53 投影用画像
M,Ma,Mb,Ta,Tb,ME マーキングパターン
W0,W1,W2 ワーク
1,100 Imaging unit 2,200 Processing unit 10,101 CCD
11,110 Projection unit 12,111 LCD
23, 203 Projected image generation unit 24, 204 Projection operation control unit 22 Inspection execution unit 202 Three-dimensional measurement processing unit 50, 51a, 51b, 52a, 52b, 53 Projection image M, Ma, Mb, Ta, Tb, ME Marking Pattern W0, W1, W2 Workpiece

Claims (5)

2次元の撮像素子を有する撮像手段と、前記撮像素子が生成した2次元画像を撮像手段から入力し、その入力画像を用いてあらかじめ定められた画像処理および計測処理を実行する画像処理手段とを具備する画像処理装置において、
2次元のディジタル画像を表示するための表示素子を備え、この表示素子に表示された画像を前記撮像手段の視野に向けて投影する画像投影手段と、
周囲と明るさまたは色が異なる画像データが設定された2次元パターンを含むディジタル画像を前記画像投影手段に与えて当該画像の投影処理を実行させる投影制御手段とを具備し、
前記画像投影手段から投影される画像の結像面内における前記撮像素子の撮像対象範囲が、前記画像投影手段からの画像が投影される範囲に包含されるように、撮像手段と画像投影手段との関係が調整されると共に、前記2次元パターンが前記撮像対象範囲内に投影される、
ことを特徴とする画像処理装置。
An image pickup means having a two-dimensional image pickup device, and an image processing means for inputting a two-dimensional image generated by the image pickup device from the image pickup means and executing predetermined image processing and measurement processing using the input image. In the image processing apparatus provided,
An image projecting unit that includes a display element for displaying a two-dimensional digital image, and projects the image displayed on the display element toward the field of view of the imaging unit;
Projection control means for providing the image projection means with a digital image including a two-dimensional pattern in which image data different in brightness or color from the surroundings is set, and executing projection processing of the image;
An imaging unit and an image projecting unit such that an imaging target range of the imaging element in an imaging plane of an image projected from the image projecting unit is included in a range in which an image from the image projecting unit is projected And the two-dimensional pattern is projected into the imaging target range.
An image processing apparatus.
前記投影制御手段は、前記画像処理手段の処理結果に基づき前記2次元パターンの画像データを設定する画素を決定して、前記画像投影手段に投影させる画像を生成する、請求項1に記載された画像処理装置。   The said projection control means determines the pixel which sets the image data of the said two-dimensional pattern based on the process result of the said image processing means, The image projected on the said image projection means is produced | generated according to Claim 1. Image processing device. 前記投影制御手段は、前記2次元パターンを含む画像を登録するための画像登録手段を具備し、この画像登録手段に登録されている画像の1つを読み出して前記表示素子に表示させることにより、当該画像の投影処理を実行させる、請求項1に記載された画像処理装置。   The projection control unit includes an image registration unit for registering an image including the two-dimensional pattern, and reads one of the images registered in the image registration unit and displays the image on the display element. The image processing apparatus according to claim 1, wherein the image projection processing is executed. 前記撮像手段および前記画像投影手段は、同軸光学系を形成し、かつ同一の筐体の内部に収容されると共に、前記画像投影手段から投影される画像の結像面内における前記撮像素子側の各画素に対応する各点に、前記表示素子の互いに異なる画素からの画像データが投影されるように、前記撮像手段と前記画像投影手段との関係が調整されている、
請求項1〜3のいずれかに記載された画像処理装置。
The image pickup unit and the image projection unit form a coaxial optical system and are housed in the same casing, and are located on the image pickup element side in the imaging plane of an image projected from the image projection unit. The relationship between the imaging unit and the image projecting unit is adjusted so that image data from different pixels of the display element is projected to each point corresponding to each pixel.
The image processing apparatus according to claim 1.
前記画像投影手段は、前記撮像手段とは別体に形成されると共に、前記画像投影手段から投影される画像の結像面内における前記撮像素子側の各画素に対応する各点に、前記表示素子の互いに異なる画素からの画像データが投影されるように、前記撮像手段に対する関係が調整された状態で配備され、
前記画像処理手段は、前記撮像手段から入力された画像を用いた3次元計測処理を実行し、
前記投影制御手段は、前記画像処理手段の3次元計測処理の結果に基づく3次元情報を前記表示素子の表示面に透視変換し、その透視変換結果を用いて前記3次元計測結果を表す画素に前記2次元パターンの画像データが設定された画像を生成し、この画像を前記表示素子に表示させることにより当該画像を投影させる、請求項1に記載された画像処理装置。
The image projecting unit is formed separately from the image capturing unit, and is displayed at each point corresponding to each pixel on the image sensor side in an image formation plane of an image projected from the image projecting unit. Deployed with the relationship to the imaging means adjusted so that image data from different pixels of the element is projected,
The image processing means executes a three-dimensional measurement process using the image input from the imaging means,
The projection control means perspectively converts the three-dimensional information based on the result of the three-dimensional measurement process of the image processing means to the display surface of the display element, and uses the result of the perspective conversion to convert the pixel into the pixel representing the three-dimensional measurement result. The image processing apparatus according to claim 1, wherein an image in which the image data of the two-dimensional pattern is set is generated, and the image is projected by displaying the image on the display element.
JP2010057347A 2010-03-15 2010-03-15 Image processing apparatus Pending JP2011191170A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010057347A JP2011191170A (en) 2010-03-15 2010-03-15 Image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010057347A JP2011191170A (en) 2010-03-15 2010-03-15 Image processing apparatus

Publications (1)

Publication Number Publication Date
JP2011191170A true JP2011191170A (en) 2011-09-29

Family

ID=44796267

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010057347A Pending JP2011191170A (en) 2010-03-15 2010-03-15 Image processing apparatus

Country Status (1)

Country Link
JP (1) JP2011191170A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013196355A (en) * 2012-03-19 2013-09-30 Toshiba Corp Object measuring device and object measuring method
JP2015519568A (en) * 2012-05-15 2015-07-09 ザ・ボーイング・カンパニーTheBoeing Company Pollution identification system
JP2018050298A (en) * 2016-09-22 2018-03-29 フルークコーポレイションFluke Corporation Imaging apparatus with alignment analysis function
CN112930468A (en) * 2018-11-08 2021-06-08 成都频泰鼎丰企业管理中心(有限合伙) Three-dimensional measuring device
JP2023012740A (en) * 2021-07-14 2023-01-26 三菱重工業株式会社 Inspection system and inspection method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002250613A (en) * 2001-02-27 2002-09-06 Ricoh Co Ltd Optical three-dimensional shape measurement system
JP2003131319A (en) * 2001-10-25 2003-05-09 Seiko Epson Corp Optical transmission and reception device
JP2005004165A (en) * 2003-05-21 2005-01-06 Nec Viewtechnology Ltd Projector having tilt angle measuring device
JP2010016019A (en) * 2008-07-01 2010-01-21 Nisshinbo Holdings Inc Photovoltaic device inspection apparatus and method of determining defect in photovoltaic device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002250613A (en) * 2001-02-27 2002-09-06 Ricoh Co Ltd Optical three-dimensional shape measurement system
JP2003131319A (en) * 2001-10-25 2003-05-09 Seiko Epson Corp Optical transmission and reception device
JP2005004165A (en) * 2003-05-21 2005-01-06 Nec Viewtechnology Ltd Projector having tilt angle measuring device
JP2010016019A (en) * 2008-07-01 2010-01-21 Nisshinbo Holdings Inc Photovoltaic device inspection apparatus and method of determining defect in photovoltaic device

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013196355A (en) * 2012-03-19 2013-09-30 Toshiba Corp Object measuring device and object measuring method
JP2015519568A (en) * 2012-05-15 2015-07-09 ザ・ボーイング・カンパニーTheBoeing Company Pollution identification system
JP2017203781A (en) * 2012-05-15 2017-11-16 ザ・ボーイング・カンパニーThe Boeing Company Contamination identification system
JP2018050298A (en) * 2016-09-22 2018-03-29 フルークコーポレイションFluke Corporation Imaging apparatus with alignment analysis function
CN112930468A (en) * 2018-11-08 2021-06-08 成都频泰鼎丰企业管理中心(有限合伙) Three-dimensional measuring device
JP2022514440A (en) * 2018-11-08 2022-02-10 成都頻泰鼎豐企業管理中心(有限合夥) 3D measuring equipment
CN112930468B (en) * 2018-11-08 2022-11-18 成都频泰鼎丰企业管理中心(有限合伙) Three-dimensional measuring device
JP7418455B2 (en) 2018-11-08 2024-01-19 成都頻泰鼎豐企業管理中心(有限合夥) 3D measurement equipment and measurement system
US11953313B2 (en) 2018-11-08 2024-04-09 Chengdu Pin Tai Ding Feng Business Administration Three-dimensional measurement device
JP2023012740A (en) * 2021-07-14 2023-01-26 三菱重工業株式会社 Inspection system and inspection method
JP7236198B2 (en) 2021-07-14 2023-03-09 三菱重工業株式会社 Inspection system and inspection method

Similar Documents

Publication Publication Date Title
US10508902B2 (en) Three-dimensional measurement device
US8233041B2 (en) Image processing device and image processing method for performing three dimensional measurements
TWI614483B (en) Method and system for detecting luminance of a light source
KR101794964B1 (en) Inspection system and inspection method
JP2012032344A (en) Picture measuring device, picture measuring method and program for picture measuring device
JP2005127989A (en) Flaw detector and flaw detecting program
JP4080514B2 (en) Inspection device, inspection method, inspection program, and computer-readable recording medium
JP5270971B2 (en) Image measuring apparatus, image measuring method, and computer program
TW201346251A (en) Method for registering an inspection standard for solder inspection and substrate inspection device using the method
JP2005318652A (en) Projector with distortion correcting function
JP2011191170A (en) Image processing apparatus
JP5222430B1 (en) Dimension measuring apparatus, dimension measuring method and program for dimension measuring apparatus
TW201441604A (en) System and method for detecting shape flaw
JP5467962B2 (en) Measurement setting data creation device, measurement setting data creation method, program for measurement setting data creation device, and dimension measurement device
KR101056393B1 (en) Micro Vision Inspection System for PCC defect inspection
JP2012037257A (en) Measurement setting data creation device, measurement setting data creation method, and program for measurement setting data creation device
JP5272784B2 (en) Optical inspection method and optical inspection apparatus
JP2017053671A (en) Shape measurement method
JP6371742B2 (en) Measuring device and acquisition method
JP2005249946A (en) Defect inspecting apparatus for display device
JP6835020B2 (en) Image processing system, image processing device, image processing program
JP5967470B2 (en) Inspection device
KR101056392B1 (en) Surface inspection method and device
JP6885763B2 (en) Lens meter
JP2016080517A (en) Surface inspection device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121015

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20130828

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130830

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130903

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20130828

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131217

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140415