Nothing Special   »   [go: up one dir, main page]

JP7258259B1 - Alignment system, alignment method and program - Google Patents

Alignment system, alignment method and program Download PDF

Info

Publication number
JP7258259B1
JP7258259B1 JP2022577416A JP2022577416A JP7258259B1 JP 7258259 B1 JP7258259 B1 JP 7258259B1 JP 2022577416 A JP2022577416 A JP 2022577416A JP 2022577416 A JP2022577416 A JP 2022577416A JP 7258259 B1 JP7258259 B1 JP 7258259B1
Authority
JP
Japan
Prior art keywords
search
range
identification target
image processing
coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022577416A
Other languages
Japanese (ja)
Other versions
JPWO2024023976A1 (en
JPWO2024023976A5 (en
Inventor
佳大 杉山
偉浩 李
祐司 浅野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Application granted granted Critical
Publication of JP7258259B1 publication Critical patent/JP7258259B1/en
Publication of JPWO2024023976A1 publication Critical patent/JPWO2024023976A1/ja
Publication of JPWO2024023976A5 publication Critical patent/JPWO2024023976A5/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D3/00Control of position or direction
    • G05D3/12Control of position or direction using feedback

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Image Processing (AREA)

Abstract

アライメントシステム(1)は、識別対象を有するワーク(10)を撮像した撮像画像から、互いに異なる探索方法の粗探索と詳細探索とにより、識別対象を検出する画像処理ユニット(400)と、画像処理ユニット(400)が検出した識別対象の実座標に基づいて、ワーク(10)を移動させる駆動機器(111,112,113)を制御する動作制御ユニット(200)と、を備える。画像処理ユニット(400)の識別対象の検出と、動作制御ユニット(400)の駆動機器(111,112,113)の制御と、は繰り返し実行される。詳細探索は、粗探索の範囲より狭い探索範囲で実行され、詳細探索で識別対象を検出できた場合の次回の探索は、粗探索を行わず詳細探索を実行する。The alignment system (1) includes an image processing unit (400) for detecting an identification target from a photographed image of a workpiece (10) having the identification target by coarse search and detailed search using different search methods, and image processing. a motion control unit (200) for controlling drive devices (111, 112, 113) for moving the workpiece (10) based on the real coordinates of the object to be identified detected by the unit (400). The detection of identification targets by the image processing unit (400) and the control of the drive devices (111, 112, 113) by the motion control unit (400) are repeatedly executed. The fine search is executed in a narrower search range than the rough search range, and the next search when the identification target is detected by the fine search is executed without the rough search.

Description

本開示は、アライメントシステム、アライメント方法及びプログラムに関する。 The present disclosure relates to alignment systems, alignment methods, and programs.

FA(Factory Automation)の分野において、制御対象物であるワークの位置を基準位置に合わせるアライメント技術が活用されている。例えば、撮像装置により撮像された画像からワークを検出し、ワークの位置を基準位置に合わせることにより位置合わせを行う制御システムがある(例えば、特許文献1)。 2. Description of the Related Art In the field of FA (Factory Automation), an alignment technique is used to align the position of a workpiece, which is an object to be controlled, with a reference position. For example, there is a control system that detects a work from an image captured by an imaging device and aligns the position of the work with a reference position (for example, Patent Document 1).

特許文献1に記載のアクチュエータ制御システムにおいて、撮像画像に対して、第1の精度で対象物体の位置を検出する第1位置検出処理と、第1の精度より高い精度で対象物体の位置を検出する第2位置検出処理と、の両方を実行することにより検出されたデータに基づいて、アクチュエータを駆動するための指令が行われている。 In the actuator control system described in Patent Document 1, a first position detection process for detecting the position of the target object with a first precision and a position of the target object with a higher precision than the first precision are performed with respect to the captured image. A command for driving the actuator is issued based on the data detected by executing both the second position detection process and the second position detection process.

このアクチュエータ制御システムにおいて、第1位置検出処理による中間データに基づいて予備的にアクチュエータを駆動させ、第2位置検出処理による最終データと中間データとの差に応じてアクチュエータをさらに駆動させる。これにより、最終データの演算完了より前に予備的に駆動制御を開始するため、制御の高速化が実現できると説明されている。 In this actuator control system, the actuator is preliminarily driven based on the intermediate data obtained by the first position detection process, and the actuator is further driven according to the difference between the final data obtained by the second position detection process and the intermediate data. It is explained that this makes it possible to increase the speed of the control because the drive control is preliminarily started before the completion of the computation of the final data.

特開2020-110916号公報Japanese Patent Application Laid-Open No. 2020-110916

特許文献1に記載のアクチュエータ制御システムにおいて、第1位置検出処理としてラフサーチが用いられ、第2位置検出処理としてファインサーチが用いられる。ラフサーチは、広範囲の画像から対象物体の位置を大まかに検出することを目的としており、例えばパターンマッチングが用いられる。一方、ファインサーチは、狭範囲の画像から対象物体の位置を正確に検出することを目的としており、例えば、エッジ検出が用いられる。 In the actuator control system disclosed in Patent Document 1, a rough search is used as the first position detection process, and a fine search is used as the second position detection process. A rough search is intended to roughly detect the position of a target object from a wide range of images, and pattern matching is used, for example. Fine search, on the other hand, aims to accurately detect the position of a target object from a narrow-range image, and uses, for example, edge detection.

ファインサーチは狭範囲の探索を前提としているため、探索範囲を限定する必要があるが、探索範囲を限定するためのラフサーチも、対象となるパターンの位置及び回転角度の範囲が大きいために探索処理の負荷が大きく処理時間が長くなる場合がある。このため、ラフサーチとファインサーチの両方を実行することにより検出したデータに基づいて制御指令を行うアライメント制御は、制御全体の処理時間が長くなるという問題がある。 Since the fine search is based on searching in a narrow range, it is necessary to limit the search range. , the processing time may be long. For this reason, alignment control, in which control instructions are issued based on data detected by executing both rough search and fine search, has a problem that the processing time for the entire control becomes long.

本開示は上記事情に鑑みてなされたものであり、高速かつ高精度で位置決めすることができるアライメントシステム、アライメント方法及びプログラムを提供することを目的とする。 The present disclosure has been made in view of the circumstances described above, and aims to provide an alignment system, an alignment method, and a program that enable high-speed and high-precision positioning.

上記目的を達成するため、本開示のアライメントシステムは、識別対象を有するワークを撮像した撮像画像から、互いに異なる探索方法の粗探索と詳細探索とにより、識別対象を検出する画像処理ユニットと、画像処理ユニットが検出した識別対象の実座標に基づいて、ワークを移動させる駆動機器を制御する動作制御ユニットと、画像処理ユニットの設定を行う設定端末と、を備える。画像処理ユニットの識別対象の検出と、動作制御ユニットの駆動機器の制御と、は繰り返し実行される。詳細探索は、粗探索の範囲より狭い探索範囲で実行され、詳細探索で識別対象を検出できた場合の次回の探索は、粗探索を行わず詳細探索を実行する。粗探索は、ワークが有するパターンと、設定端末により予め登録されたパターンモデルと、のマッチングを行うパターンマッチング処理を含み、詳細探索は、設定端末が粗探索のパターンマッチング処理で用いるパターンモデルを登録する際に、パターンモデルの形状に基づいて生成した詳細探索の探索ロジックを用いて実行されることを特徴とする。 In order to achieve the above object, the alignment system of the present disclosure includes an image processing unit that detects an identification target from a captured image of a workpiece having the identification target by coarse search and fine search using different search methods; An operation control unit for controlling a driving device for moving a workpiece based on the real coordinates of an identification target detected by the processing unit, and a setting terminal for setting the image processing unit . The detection of the identification target by the image processing unit and the control of the drive device by the motion control unit are repeatedly executed. The fine search is performed in a narrower search range than the coarse search range, and the next fine search is performed without the coarse search when the identification target is detected in the fine search. Coarse search includes pattern matching processing for matching patterns possessed by the workpiece with pattern models registered in advance by the setting terminal, and fine search involves registering pattern models used by the setting terminal in pattern matching processing for coarse search. It is characterized in that it is executed using search logic for detailed search generated based on the shape of the pattern model .

本開示によれば、詳細探索で識別対象を検出できた場合の次回の探索は、粗探索を行わず詳細探索を実行するため、全体の処理時間を削減でき、高速かつ高精度で位置決めすることが可能となる。 According to the present disclosure, when the identification target is detected by the detailed search, the next search executes the detailed search without performing the rough search, so that the overall processing time can be reduced, and the positioning can be performed at high speed and with high accuracy. becomes possible.

実施形態1に係るアライメントシステムの全体構成例を示すブロック図1 is a block diagram showing an example of the overall configuration of an alignment system according to Embodiment 1; FIG. 動作制御ユニットの構成例を示すブロック図Block diagram showing a configuration example of the motion control unit 画像処理ユニットの構成例を示すブロック図Block diagram showing a configuration example of an image processing unit アライメント制御方法を説明する図Diagram for explaining the alignment control method アライメント制御方法を説明する図Diagram for explaining the alignment control method 実施形態1に係るアライメントシステムの機能構成例を示すブロック図FIG. 2 is a block diagram showing a functional configuration example of the alignment system according to the first embodiment; 実施形態1に係るアライメント制御処理を示すフローチャート4 is a flowchart showing alignment control processing according to the first embodiment; 実施形態1に係る探索処理を示すフローチャートFlowchart showing search processing according to the first embodiment 探索範囲の例を示す図A diagram showing an example of a search range 探索角度範囲の例を示す図A diagram showing an example of the search angle range 伝送路遅延計測による同期方式を示す図Diagram showing synchronization method by transmission path delay measurement 撮像装置のシャッタのタイミング制御を説明する図FIG. 4 is a diagram for explaining shutter timing control of an imaging device; 実施形態2に係るアライメントシステムの機能構成例を示すブロック図FIG. 5 is a block diagram showing an example of the functional configuration of an alignment system according to Embodiment 2; 実施形態2に係るアライメント制御処理を示すフローチャート5 is a flowchart showing alignment control processing according to the second embodiment; 実施形態2に係る探索処理を示すフローチャートFlowchart showing search processing according to the second embodiment 変形例1に係るアライメントシステムの機能構成例を示すブロック図FIG. 4 is a block diagram showing an example of the functional configuration of an alignment system according to Modification 1; 変形例1に係るアライメント制御処理を示すフローチャートFlowchart showing alignment control processing according to modification 1 変形例1に係る探索処理を示すフローチャートFlowchart showing search processing according to modification 1 変形例3に係る識別対象の予測を説明する図FIG. 11 is a diagram for explaining prediction of an identification target according to Modification 3; 変形例3に係る識別対象の予測を説明する図FIG. 11 is a diagram for explaining prediction of an identification target according to Modification 3; 変形例4に係る粗探索を説明する図Diagram for explaining rough search according to modification 4 変形例4に係る詳細探索を説明する図FIG. 11 is a diagram for explaining detailed search according to Modification 4; 変形例5に係る粗探索を説明する図Diagram for explaining rough search according to modification 5 変形例5に係る詳細探索を説明する図FIG. 11 is a diagram for explaining detailed search according to Modification 5; 変形例6に係る探索処理を示すフローチャートFlowchart showing search processing according to modification 6

(実施形態1)
以下に、本開示を実施するための実施形態1について図面を参照して詳細に説明する。なお、図中同一又は相当する部分には同じ符号を付す。
(Embodiment 1)
Below, Embodiment 1 for carrying out the present disclosure will be described in detail with reference to the drawings. The same reference numerals are given to the same or corresponding parts in the drawings.

図1は、実施形態1に係るアライメントシステム1の全体構成例を示すブロック図である。アライメントシステム1は、制御対象であるワーク10を移動させるアライメント機構100と、アライメント機構100を制御する動作制御ユニット200と、ワーク10を撮像する撮像装置300と、撮像装置300が撮像した画像を処理する画像処理ユニット400と、画像処理ユニット400での処理に用いる各種設定を行う設定端末500と、を備える。 FIG. 1 is a block diagram showing an overall configuration example of an alignment system 1 according to Embodiment 1. As shown in FIG. The alignment system 1 includes an alignment mechanism 100 that moves a workpiece 10 to be controlled, an operation control unit 200 that controls the alignment mechanism 100, an imaging device 300 that captures an image of the workpiece 10, and processes images captured by the imaging device 300. and a setting terminal 500 for performing various settings used for processing in the image processing unit 400 .

アライメント機構100には、各方向への駆動力を与えワーク10を移動させる駆動機器111,112,113が接続されている。また、駆動機器111,112,113には、駆動制御装置121,122,123がそれぞれ接続されており、動作制御ユニット200からの制御信号に基づいて、駆動制御装置121,122,123がそれぞれ駆動機器111,112,113を駆動させる。 Driving devices 111 , 112 , and 113 are connected to the alignment mechanism 100 for applying driving force in each direction to move the workpiece 10 . Further, drive control devices 121, 122 and 123 are connected to the drive devices 111, 112 and 113, respectively. Devices 111, 112, and 113 are driven.

駆動制御装置121,122,123、動作制御ユニット200、画像処理ユニット400及び撮像装置300は、互いに通信接続されている。通信手段は、イーサネット(登録商標)、CameraLink、CoaxPress(登録商標)、USB(Universal Serial Bus、登録商標)等、従来の任意の通信手段でよいが、同期性を担保するため、CC-Link IE/field(登録商標)、CC-Link IE/TSN(登録商標)等のイーサネットをベースとした産業用ネットワークが好適である。 The drive control devices 121, 122, 123, the motion control unit 200, the image processing unit 400, and the imaging device 300 are connected for communication with each other. The communication means may be any conventional communication means such as Ethernet (registered trademark), CameraLink, CoaxPress (registered trademark), USB (Universal Serial Bus, registered trademark). Ethernet-based industrial networks such as /field™, CC-Link IE/TSN™, etc. are suitable.

アライメント機構100は、ワーク10を載置する載置台101を備え、載置台101を移動させる機構を有する。例えば、水平方向で互いに直交するX方向及びY方向に載置台を並進移動させることができ、また、水平面上の回転方向であるθ方向に載置台を回転移動させることができる。本実施形態では、アライメント機構100に結合された駆動機器111がX方向に並進移動させ、駆動機器112がY方向に並進移動させ、駆動機器113がθ方向に回転移動させるとする。 The alignment mechanism 100 has a mounting table 101 on which the workpiece 10 is mounted, and a mechanism for moving the mounting table 101 . For example, the mounting table can be translated in X and Y directions that are orthogonal to each other in the horizontal direction, and can be rotated in the θ direction, which is the rotational direction on the horizontal plane. In this embodiment, the driving device 111 coupled to the alignment mechanism 100 translates in the X direction, the driving device 112 translates in the Y direction, and the driving device 113 rotates in the θ direction.

駆動機器111,112,113は、アライメント機構100を精密に駆動することのできる任意の駆動機器(アクチュエータ)であり、例えばサーボモータである。駆動制御装置121,122,123は、動作制御ユニット200からの制御信号に基づいて、それぞれ、駆動機器111,112,113の駆動を制御する制御装置であり、例えばサーボアンプである。 The drive devices 111, 112, and 113 are arbitrary drive devices (actuators) capable of precisely driving the alignment mechanism 100, such as servo motors. The drive control devices 121, 122, 123 are control devices, such as servo amplifiers, that control the driving of the drive devices 111, 112, 113, respectively, based on control signals from the motion control unit 200. FIG.

駆動機器111,112,113は、内部又は外部に任意の位置センサを有しており、駆動機器111,112,113の駆動により実際に変化した位置を検出し出力する。位置センサは、例えばアクチュエータに付属されているエンコーダである。エンコーダの出力信号は、駆動制御装置121,122,123を介して動作制御ユニット200に入力される。本実施形態では、駆動機器111,112,113がサーボモータであり、駆動制御装置121,122,123がサーボアンプであり、位置センサがエンコーダである場合について説明する。 The drive devices 111, 112, and 113 have arbitrary position sensors inside or outside, and detect and output positions actually changed by driving the drive devices 111, 112, and 113. FIG. A position sensor is, for example, an encoder attached to the actuator. The encoder output signals are input to the motion control unit 200 via the drive control devices 121 , 122 and 123 . In this embodiment, a case will be described in which the drive devices 111, 112, 113 are servo motors, the drive control devices 121, 122, 123 are servo amplifiers, and the position sensors are encoders.

動作制御ユニット200は、駆動制御装置121,122,123に対して駆動機器111,112,113の動作に係る指令を行うモーションコントローラであり、例えばPLC(Programmable Logic Controller)を含む。動作制御ユニット200は、駆動制御装置121,122,123及び画像処理ユニット400から取得した情報に基づいて、指令を示す制御信号を生成し、駆動制御装置121,122,123に対して出力する。 The motion control unit 200 is a motion controller that issues commands relating to the motion of the drive devices 111, 112, and 113 to the drive control devices 121, 122, and 123, and includes, for example, a PLC (Programmable Logic Controller). The motion control unit 200 generates control signals indicating commands based on the information acquired from the drive control devices 121 , 122 , 123 and the image processing unit 400 and outputs them to the drive control devices 121 , 122 , 123 .

動作制御ユニット200は、図2に示すように、プロセッサ210、揮発性メモリ220、不揮発性メモリ230、クロック240、通信インタフェース250を備える。プロセッサ210と、揮発性メモリ220と、不揮発性メモリ230と、クロック240と、通信インタフェース250と、はバスB1を介して互いに通信接続されている。 The operation control unit 200 comprises a processor 210, a volatile memory 220, a non-volatile memory 230, a clock 240, and a communication interface 250, as shown in FIG. Processor 210, volatile memory 220, nonvolatile memory 230, clock 240, and communication interface 250 are communicatively connected to each other via bus B1.

プロセッサ210は、例えばCPU(Central Processing Unit:中央演算装置)であり、不揮発性メモリ230に記憶された制御プログラム231を読み込んで実行することにより、位置情報生成部211、移動量算出部212、指令部213として機能する。 The processor 210 is, for example, a CPU (Central Processing Unit), and reads and executes a control program 231 stored in a nonvolatile memory 230 to generate a position information generator 211, a movement amount calculator 212, a command It functions as part 213 .

プロセッサ210の位置情報生成部211は、駆動機器111,112,113の位置センサの出力信号に基づいて、ワーク10が載置された載置台101の位置に対応する位置情報を生成する。移動量算出部212は、画像処理ユニット400が撮像画像から検出した識別対象の位置に基づいて、ワーク10のX方向、Y方向及びθ方向の移動量を算出する。指令部213は、移動量算出部212が算出した移動量に基づく制御信号を駆動制御装置121,122,123に出力する。 A position information generating unit 211 of the processor 210 generates position information corresponding to the position of the mounting table 101 on which the workpiece 10 is mounted based on the output signals of the position sensors of the driving devices 111 , 112 and 113 . The movement amount calculator 212 calculates the movement amount of the work 10 in the X direction, Y direction and θ direction based on the position of the identification target detected from the captured image by the image processing unit 400 . The command unit 213 outputs control signals based on the movement amount calculated by the movement amount calculation unit 212 to the drive control devices 121 , 122 and 123 .

揮発性メモリ220は、プロセッサ210が実行する演算処理の際に、高速でデータの読み書きが可能なワークメモリであり、例えば、RAM(Random Access Memory)である。不揮発性メモリ230は、動作制御ユニット200の各種機能を実現するための制御プログラム231と、制御プログラム231の実行時に使用されるパラメータ、過去の検出データ及び指令データを含む制御データ232と、を記憶する。不揮発性メモリ230は、例えば、EEPROM(Electrically Erasable Programmable Read-Only Memory)、フラッシュメモリ等の不揮発性半導体メモリ、磁気ディスク、又は、光ディスクである。 The volatile memory 220 is a work memory from which data can be read and written at high speed during arithmetic processing executed by the processor 210, and is, for example, a RAM (Random Access Memory). The nonvolatile memory 230 stores a control program 231 for realizing various functions of the operation control unit 200, and control data 232 including parameters used when executing the control program 231, past detection data, and command data. do. The nonvolatile memory 230 is, for example, an EEPROM (Electrically Erasable Programmable Read-Only Memory), a nonvolatile semiconductor memory such as a flash memory, a magnetic disk, or an optical disk.

クロック240は、動作制御ユニット200が有するクロック素子のクロック信号をカウントすることによりローカル時刻を計測し、さらに、駆動制御装置121,122,123、撮像装置300、画像処理ユニット400との同期を行う。これにより動作制御ユニット200は、駆動制御装置121,122,123、撮像装置300、画像処理ユニット400と同期された時刻情報を有する。 The clock 240 measures the local time by counting the clock signals of the clock elements of the operation control unit 200, and synchronizes with the drive control devices 121, 122, 123, the imaging device 300, and the image processing unit 400. . Accordingly, the motion control unit 200 has time information synchronized with the drive control devices 121 , 122 , 123 , the imaging device 300 and the image processing unit 400 .

通信インタフェース250は、動作制御ユニット200が駆動制御装置121,122,123、撮像装置300、画像処理ユニット400と通信するためのインタフェースであり、例えば、CC-Link IE/field、CC-Link IE/TSN等の通信規格に準拠したインタフェースである。 The communication interface 250 is an interface for the operation control unit 200 to communicate with the drive control devices 121, 122, 123, the imaging device 300, and the image processing unit 400. For example, CC-Link IE/field, CC-Link IE/ It is an interface conforming to communication standards such as TSN.

撮像装置300は、アライメント機構100の上方からワーク10を一定時間間隔で撮像する撮像装置であり、例えばアライメントシステム1のアライメント精度を実現させるのに十分な解像度を有するカメラである。撮像装置300の数は任意であるが、アライメントのために用いる識別対象の数及び位置に応じて撮像装置300の数は決定される。図1は、2つの撮像装置300を備えた場合を示している。識別対象は、ワーク10の位置を示す任意の対象でよく、例えば、ワーク10上に付したアライメントマーク、ワーク10の角端部、又は、載置台101の角端部である。 The imaging device 300 is an imaging device that captures images of the workpiece 10 from above the alignment mechanism 100 at regular time intervals, and is, for example, a camera that has sufficient resolution to realize the alignment accuracy of the alignment system 1 . Although the number of imaging devices 300 is arbitrary, the number of imaging devices 300 is determined according to the number and positions of identification targets used for alignment. FIG. 1 shows a case in which two imaging devices 300 are provided. The object to be identified may be any object that indicates the position of the work 10 , such as an alignment mark provided on the work 10 , a corner end of the work 10 , or a corner end of the mounting table 101 .

撮像装置300も、駆動制御装置121,122,123、動作制御ユニット200、画像処理ユニット400と同期された時刻情報と、駆動制御装置121,122,123、動作制御ユニット200、画像処理ユニット400と通信するための通信インタフェースと、を有する。 The imaging device 300 also has time information synchronized with the drive control devices 121, 122, and 123, the motion control unit 200, and the image processing unit 400, and the drive control devices 121, 122, and 123, the motion control unit 200, and the image processing unit 400. and a communication interface for communicating.

画像処理ユニット400は、撮像装置300から取得した撮像画像に対して、互いに異なる探索方法の粗探索と詳細探索とにより、識別対象を検出する処理を行う。粗探索は、撮像装置300から取得した撮像画像の全範囲で実行され、詳細探索は、粗探索の範囲より狭い探索範囲で実行される。画像処理ユニット400は、詳細探索により識別対象が検出されたとき、動作制御ユニット200に対して、識別対象の実座標を出力する。ここで実座標は、動作制御ユニット200の移動量算出部212と整合の取れた基準座標における座標である。 The image processing unit 400 performs a process of detecting an identification target on the captured image acquired from the imaging device 300 by coarse search and fine search using different search methods. A coarse search is performed in the entire range of the captured image acquired from the imaging device 300, and a fine search is performed in a narrower search range than the range of the coarse search. The image processing unit 400 outputs the real coordinates of the identification target to the operation control unit 200 when the identification target is detected by the detailed search. Here, the actual coordinates are coordinates in reference coordinates that are consistent with the movement amount calculation section 212 of the motion control unit 200 .

画像処理ユニット400は、図3に示すように、プロセッサ410、揮発性メモリ420、不揮発性メモリ430、クロック440、通信インタフェース450を備える。プロセッサ410と、揮発性メモリ420と、不揮発性メモリ430と、クロック440と、通信インタフェース450と、はバスB2を介して互いに通信接続されている。 The image processing unit 400 includes a processor 410, a volatile memory 420, a nonvolatile memory 430, a clock 440, and a communication interface 450, as shown in FIG. Processor 410, volatile memory 420, nonvolatile memory 430, clock 440, and communication interface 450 are communicatively connected to each other via bus B2.

プロセッサ410は、例えばCPU(Central Processing Unit:中央演算装置)であり、不揮発性メモリ430に記憶された制御プログラム431を読み込んで実行することにより、画像取得部411、範囲決定部412、探索部413として機能する。 The processor 410 is, for example, a CPU (Central Processing Unit), and by reading and executing a control program 431 stored in a nonvolatile memory 430, an image acquisition unit 411, a range determination unit 412, and a search unit 413. function as

プロセッサ410の画像取得部411は、撮像装置300が撮像した画像を取得する。範囲決定部412は、動作制御ユニット200の位置情報生成部211が生成した位置情報を含む情報に基づいて、画像取得部411が取得した撮像画像のうち、識別対象を探索する範囲を決定する。探索部413は、範囲決定部412が決定した探索範囲内の画像について識別対象の詳細探索を行い、識別対象を検出できたときは、識別対象の実座標を、動作制御ユニット200に対して出力する。 The image acquisition unit 411 of the processor 410 acquires the image captured by the imaging device 300 . The range determination unit 412 determines a range for searching for an identification target in the captured image acquired by the image acquisition unit 411 based on information including position information generated by the position information generation unit 211 of the operation control unit 200 . The search unit 413 performs a detailed search for the identification target in the image within the search range determined by the range determination unit 412, and outputs the real coordinates of the identification target to the operation control unit 200 when the identification target is detected. do.

揮発性メモリ420は、プロセッサ410が実行する演算処理の際に、高速でデータの読み書きが可能なワークメモリであり、例えば、RAM(Random Access Memory)である。不揮発性メモリ430は、画像処理ユニット400の各種機能を実現するための制御プログラム431と、制御プログラム431の実行時に使用されるパラメータ、過去の検出データを含む制御データ432と、を記憶する。不揮発性メモリ430は、例えば、EEPROM(Electrically Erasable Programmable Read-Only Memory)、フラッシュメモリ等の不揮発性半導体メモリ、磁気ディスク、又は、光ディスクである。 The volatile memory 420 is a work memory from which data can be read and written at high speed during arithmetic processing executed by the processor 410, and is, for example, a RAM (Random Access Memory). The nonvolatile memory 430 stores a control program 431 for realizing various functions of the image processing unit 400, and control data 432 including parameters used when executing the control program 431 and past detection data. The nonvolatile memory 430 is, for example, an EEPROM (Electrically Erasable Programmable Read-Only Memory), a nonvolatile semiconductor memory such as a flash memory, a magnetic disk, or an optical disk.

クロック440は、画像処理ユニット400が有するクロック素子のクロック信号をカウントすることによりローカル時刻を計測し、さらに、駆動制御装置121,122,123、動作制御ユニット200、撮像装置300との同期を行う。これにより画像処理ユニット400は、駆動制御装置121,122,123、動作制御ユニット200、撮像装置300と同期された時刻情報を有する。 The clock 440 measures the local time by counting the clock signal of the clock element of the image processing unit 400, and synchronizes with the drive control devices 121, 122, 123, the operation control unit 200, and the imaging device 300. . Accordingly, the image processing unit 400 has time information synchronized with the drive control devices 121 , 122 , 123 , the motion control unit 200 and the imaging device 300 .

通信インタフェース450は、画像処理ユニット400が駆動制御装置121,122,123、動作制御ユニット200、撮像装置300と通信するためのインタフェースであり、例えば、CC-Link IE/field、CC-Link IE/TSN等の通信規格に準拠したインタフェースである。 The communication interface 450 is an interface for the image processing unit 400 to communicate with the drive control devices 121, 122, 123, the motion control unit 200, and the imaging device 300. For example, CC-Link IE/field, CC-Link IE/ It is an interface conforming to communication standards such as TSN.

設定端末500は、画像処理ユニット400の制御プログラム431に対応したアプリケーションプログラムをインストールした端末であり、例えば、パーソナルコンピュータである。設定端末500は、画像処理ユニット400の不揮発性メモリ430に記憶されているパラメータの入力又は変更を含む画像処理ユニット400の管理機能を有する。設定端末500が画像処理ユニット400と通信接続するための通信インタフェースは、画像処理ユニット400が有するインタフェースに対応した任意のインタフェースであり、例えば、USBインタフェース又はRS232Cインタフェースである。 The setting terminal 500 is a terminal installed with an application program corresponding to the control program 431 of the image processing unit 400, and is, for example, a personal computer. The setting terminal 500 has management functions for the image processing unit 400 including inputting or changing parameters stored in the non-volatile memory 430 of the image processing unit 400 . A communication interface for communication connection between the setting terminal 500 and the image processing unit 400 is an arbitrary interface corresponding to the interface of the image processing unit 400, such as a USB interface or an RS232C interface.

動作制御ユニット200は、画像処理ユニット400が検出した識別対象の実座標と、アライメント先の目標座標との差に基づく移動量を算出し、移動量に基づく制御信号を駆動制御装置121,122,123に対して出力する。 The motion control unit 200 calculates the amount of movement based on the difference between the actual coordinates of the object to be identified detected by the image processing unit 400 and the target coordinates of the alignment destination, and outputs control signals based on the amount of movement to the drive control devices 121, 122, . 123.

以上説明した構成を有するアライメントシステム1の動作について説明する。まず、前提となる、識別対象の位置に基づくアライメント方法の例について、図4,5を用いて説明する。図4,5は、識別対象がワーク10の端部に付されたアライメントマーク1001,1002である場合のアライメント方法を説明する図である。 The operation of the alignment system 1 having the configuration described above will be described. First, an example of an alignment method based on the position of an identification target, which is a premise, will be described with reference to FIGS. 4 and 5 are diagrams for explaining an alignment method when the objects to be identified are the alignment marks 1001 and 1002 attached to the end of the workpiece 10. FIG.

アライメントマーク1001,1002の形状は任意であるが、基準点の位置及び回転角度が明確に判別できる形状が好ましく、例えば、図4,5に示す十字のマークが好適である。また、アライメントマークの数は任意であり、図4に示すように1個でもよく、図5に示すようにワーク10の対角の端部に2個のアライメントマーク1001,1002が付されていてもよい。 Although the shape of the alignment marks 1001 and 1002 is arbitrary, it is preferable to use a shape that allows the positions and rotation angles of the reference points to be clearly determined. For example, the cross marks shown in FIGS. Moreover, the number of alignment marks is arbitrary, and may be one as shown in FIG. 4. As shown in FIG. good too.

1個のアライメントマーク1001を用いる場合は、1つの撮像装置300で撮像範囲1300の画像を取得する。2個のアライメントマーク1001,1002を用いる場合で、かつ1つの撮像範囲1300で2個のアライメントマーク1001,1002を撮像できない場合は、2つの撮像装置300で互いにずれた撮像範囲1300の画像を取得する。 When one alignment mark 1001 is used, one imaging device 300 acquires an image of the imaging range 1300 . When two alignment marks 1001 and 1002 are used, and when the two alignment marks 1001 and 1002 cannot be imaged in one imaging range 1300, images of the imaging ranges 1300 shifted from each other are acquired by the two imaging devices 300. do.

図4のように1つのアライメントマーク1001を使用する場合は、アライメント先マーク1101の基準点の座標と、ワーク10上のアライメントマーク1001の基準点の座標と、アライメント先マーク1101とアライメントマーク1001との角度差の3つの情報を用いる。 When one alignment mark 1001 is used as shown in FIG. uses three pieces of information of the angle difference between .

一方、図5のように2つのアライメントマーク1001,1002を使用する場合は、アライメント先マーク1101,1102の基準点の中点座標と、ワーク10上のアライメントマーク1001,1002の基準点の中点座標と、アライメント先マーク1101,1102を結ぶ直線とアライメントマーク1001,1002を結ぶ直線との角度差の3つの情報を用いる。 On the other hand, when two alignment marks 1001 and 1002 are used as shown in FIG. Three pieces of information are used: the coordinates and the angle difference between the straight line connecting the alignment marks 1101 and 1102 and the straight line connecting the alignment marks 1001 and 1002 .

図4,5のいずれの場合も、角度差Δθがθ軸の移動量となる。このため、動作制御ユニット200は、図4に示すように、ワーク10をアライメント機構100のθ軸回転中心1200を中心に角度Δθ回転した後の仮想マーク1201の基準点の仮想座標を求める。その後、仮想座標と、アライメント先マーク1101の目標座標と、の差により、X軸方向の移動量ΔX及びY軸方向の移動量ΔYを計算する。このようにして得られたΔθ、ΔX、ΔYの移動を実現する制御信号を、動作制御ユニット200の指令部213が駆動制御装置121,122,123に送信することにより指令を行う。 In both cases of FIGS. 4 and 5, the angular difference Δθ is the amount of movement of the θ-axis. Therefore, as shown in FIG. 4, the motion control unit 200 obtains the virtual coordinates of the reference point of the virtual mark 1201 after the work 10 is rotated by the angle .DELTA..theta. After that, the amount of movement ΔX in the X-axis direction and the amount of movement ΔY in the Y-axis direction are calculated from the difference between the virtual coordinates and the target coordinates of the alignment target mark 1101 . The command section 213 of the motion control unit 200 transmits control signals for realizing the movements of Δθ, ΔX, and ΔY thus obtained to the drive control devices 121, 122, and 123, thereby issuing commands.

図4に示すように、1つのアライメントマーク1001を使用する方法は、十字マークのように、アライメントマーク1001の回転を明確に判別できる場合に使用できる。一方、図5に示すように、2つのアライメントマーク1001,1002を使用する場合は、アライメントマーク自体の回転を検出する必要がないため、例えば、円のアライメントマークであってもワークの回転を検出できる。また、十分に離れた2点の検出によりθ方向の角度差Δθを算出するため高精度で制御ができる。 As shown in FIG. 4, the method of using one alignment mark 1001 can be used when the rotation of the alignment mark 1001 can be clearly determined like a cross mark. On the other hand, as shown in FIG. 5, when two alignment marks 1001 and 1002 are used, it is not necessary to detect the rotation of the alignment marks themselves. can. Further, since the angle difference Δθ in the θ direction is calculated by detecting two points sufficiently separated from each other, highly accurate control can be performed.

このようにして、動作制御ユニット200が、識別対象であるアライメントマーク1001,1002の基準点の座標及び角度差に基づいてΔθ、ΔX、ΔYを算出し、これらの値を用いて駆動制御装置121,122,123が駆動機器111,112,113を制御してワーク10を移動させる。しかし、通常は、一度で目標座標との差が認容範囲内にならないことも多いため、識別対象の検出と駆動機器111,112,113の制御とが繰り返し実行される。 In this manner, the motion control unit 200 calculates Δθ, ΔX, and ΔY based on the coordinates of the reference points of the alignment marks 1001 and 1002 to be identified and the angular difference, and the drive control unit 121 uses these values to , 122 and 123 control the drive devices 111 , 112 and 113 to move the workpiece 10 . Normally, however, the difference from the target coordinates often does not fall within the allowable range at one time, so the detection of the identification target and the control of the drive devices 111, 112, 113 are repeatedly executed.

このような繰り返しの処理において、撮像装置300による撮像画像から識別対象を探索する処理の負担が非常に大きい。よって、本実施形態に係るアライメントシステム1は、探索を実行する範囲を限定して処理負担を軽減させたものである。 In such repetitive processing, the burden of processing to search for an identification target from an image captured by the imaging device 300 is very heavy. Therefore, the alignment system 1 according to this embodiment reduces the processing load by limiting the range in which the search is executed.

以下、詳細の処理について、図6-8を用いて説明する。図6は、本実施形態に係るアライメントシステム1の機能構成例を示したブロック図であり、図7は、動作制御ユニット200が実行するアライメント制御処理のフローチャートであり、図8は、画像処理ユニット400が実行する探索処理のフローチャートである。 Detailed processing will be described below with reference to FIGS. FIG. 6 is a block diagram showing a functional configuration example of the alignment system 1 according to this embodiment, FIG. 7 is a flowchart of alignment control processing executed by the motion control unit 200, and FIG. 8 is an image processing unit. 4 is a flowchart of a search process performed by 400;

まず、動作制御ユニット200は、ワーク10を予め設定された概算目標位置まで移動させる指令を行う(図7、ステップS101)。具体的には、動作制御ユニット200が、駆動制御装置121,122,123に対して、各方向の移動を実現させる制御信号を出力する。そして、制御信号に基づく駆動制御装置121,122,123の制御により駆動機器111,112,113が駆動し、ワーク10を載置した載置台101が移動する。 First, the motion control unit 200 issues a command to move the workpiece 10 to a preset approximate target position (FIG. 7, step S101). Specifically, the motion control unit 200 outputs control signals to the drive control devices 121, 122, and 123 to realize movement in each direction. Then, the drive devices 111, 112, and 113 are driven by the control of the drive control devices 121, 122, and 123 based on the control signals, and the mounting table 101 on which the workpiece 10 is mounted is moved.

移動終了後、動作制御ユニット200は画像処理ユニット400に対して、撮像画像の取得及び探索を指示するとともに(ステップS102)、駆動機器111,112,113が有する位置センサの出力に基づいて位置情報を生成し出力する(ステップS103)。その後、動作制御ユニット200は、画像処理ユニット400の探索終了まで待機する(ステップS104)。 After the movement is completed, the motion control unit 200 instructs the image processing unit 400 to acquire and search for captured images (step S102), and acquires position information based on the outputs of the position sensors of the drive devices 111, 112, and 113. is generated and output (step S103). After that, the operation control unit 200 waits until the image processing unit 400 finishes searching (step S104).

ステップS102で動作制御ユニット200から識別対象の探索処理を指示された画像処理ユニット400は、図8に示す処理を実行する。ここでは撮像が初回であるため(ステップS201:Yes)、画像処理ユニット400の画像取得部411は、撮像装置300が撮像した撮像画像を取得する(ステップS202)。その後、探索部413が、識別対象の粗探索(ラフサーチ)を実行する(ステップS203)。 The image processing unit 400 instructed by the operation control unit 200 to search for an identification target in step S102 executes the processing shown in FIG. Since the imaging is the first time here (step S201: Yes), the image acquisition unit 411 of the image processing unit 400 acquires the captured image captured by the imaging device 300 (step S202). After that, the search unit 413 performs a rough search of the identification target (step S203).

粗探索は、例えば、予め登録しておいたアライメントマーク1001のパターンモデルを用いたパターンマッチング処理により行う。探索部413は、パターンマッチングの一致率が予め定めた閾値以上であったときのアライメントマーク1001を検出し、アライメントマーク1001の基準点の位置又は回転角度に基づいて、詳細探索の探索範囲を決定する(ステップS204)。このときの探索範囲の形状又は大きさは、アライメントマーク1001の形状又は大きさに応じて予め設定されたものであり、設定端末500へのユーザの入力により設定可能としてもよい。 The rough search is performed, for example, by pattern matching processing using a pre-registered pattern model of the alignment mark 1001 . The search unit 413 detects the alignment mark 1001 when the match rate of pattern matching is equal to or higher than a predetermined threshold value, and determines the search range of the detailed search based on the position or rotation angle of the reference point of the alignment mark 1001. (step S204). The shape or size of the search range at this time is set in advance according to the shape or size of the alignment mark 1001 , and may be set by the user's input to the setting terminal 500 .

例えば、図9Aに示す十字のアライメントマーク1001の場合には、パターンマッチングで基準点である中心の位置と十字の回転角度を特定し、アライメントマーク1001の大きさに対して、予め定めた余裕分を追加した大きさの探索範囲1301を決定する。また、図9Bに示す角度に係る探索範囲(探索角度範囲)も決定する。 For example, in the case of the cross-shaped alignment mark 1001 shown in FIG. 9A, the position of the center, which is the reference point, and the rotation angle of the cross are specified by pattern matching, and the size of the alignment mark 1001 is increased by a predetermined margin. is added to determine a search range 1301 . Also, the search range (search angle range) related to the angles shown in FIG. 9B is determined.

次に、探索部413は、ステップS204で決定した探索範囲内の画像に対して、詳細探索(ファインサーチ)を実行する(ステップS205)。詳細探索としては、例えば、エッジ検出を行い、正確な直線又は曲線を検出することにより、より正確な識別対象の実座標を取得することができる。ここで、識別対象の実座標は、識別対象の基準点の位置(XY座標)と回転角度(θ座標)を含む。 Next, the search unit 413 executes a detailed search (fine search) on the images within the search range determined in step S204 (step S205). As the detailed search, for example, edge detection is performed to detect an accurate straight line or curve, thereby obtaining more accurate real coordinates of the identification target. Here, the real coordinates of the identification target include the position (XY coordinates) and the rotation angle (θ coordinates) of the reference point of the identification target.

探索部413がステップS205の詳細探索で識別対象を検出できなかった場合は(ステップS212:No)、ステップS201に戻り、ステップS202~205の処理を繰り返す。一方、ステップS205の詳細探索で識別対象の検出に成功した場合は(ステップS212:Yes)、動作制御ユニット200に対して、ステップS205で取得した識別対象の実座標を出力する(ステップS213)。 If the search unit 413 cannot detect the identification target in the detailed search of step S205 (step S212: No), the process returns to step S201 and repeats the processes of steps S202 to S205. On the other hand, if the identification target is successfully detected in the detailed search of step S205 (step S212: Yes), the real coordinates of the identification target acquired in step S205 are output to the operation control unit 200 (step S213).

ここで図7のフローチャートに戻り、画像処理ユニット400による探索処理が終了後(ステップS104:Yes)、動作制御ユニット200は、画像処理ユニット400より実座標を取得し(ステップS105)、目標座標との差を算出する。実座標と目標座標との差が閾値以下である場合は(ステップS106:Yes)、アライメント制御処理を終了する。ここで、目標座標は、アライメント先の座標であり、中心位置(XY座標)と回転角度(θ座標)を含む。 Returning to the flowchart of FIG. 7, after the search processing by the image processing unit 400 is completed (step S104: Yes), the motion control unit 200 acquires the actual coordinates from the image processing unit 400 (step S105), Calculate the difference between If the difference between the actual coordinates and the target coordinates is equal to or less than the threshold (step S106: Yes), the alignment control process is terminated. Here, the target coordinates are the coordinates of the alignment destination, and include the center position (XY coordinates) and the rotation angle (θ coordinates).

実座標と目標座標との差が閾値を超える場合は(ステップS106:No)、指令部213が、アライメント機構100の位置を補正する指令を実行する(ステップS107;指令ステップ)。具体的には、実座標を目標座標に一致させる制御信号を駆動制御装置121,122,123に対して出力する。 When the difference between the actual coordinates and the target coordinates exceeds the threshold (step S106: No), the command unit 213 executes a command to correct the position of the alignment mechanism 100 (step S107; command step). Specifically, it outputs a control signal to drive control devices 121 , 122 , and 123 to match the actual coordinates with the target coordinates.

駆動機器111,112,113の駆動終了後、ステップS102に戻る。動作制御ユニット200は再度、撮像と探索を指示し(ステップS102)、位置情報を出力する(ステップS103)。 After the drive devices 111, 112, and 113 have been driven, the process returns to step S102. The motion control unit 200 again instructs imaging and searching (step S102), and outputs position information (step S103).

再び、図8のフローチャートに移り、撮像が2回目以降であり、前回検出成功しているため(ステップS201:No)、画像処理ユニット400は、位置情報を取得する(ステップS206)。画像処理ユニット400の範囲決定部412は、その時点の識別対象の予測座標の算出を行う(ステップS207)。 Returning to the flowchart of FIG. 8 again, since the imaging is the second time or later and detection was successful last time (step S201: No), the image processing unit 400 acquires position information (step S206). The range determination unit 412 of the image processing unit 400 calculates predicted coordinates of the identification target at that time (step S207).

具体的には、範囲決定部412は、初回のアライメント制御時に動作制御ユニット200から取得した位置情報と、初回の詳細探索で検出した実座標の対応関係を特定する。例えば、初回の位置情報のXY座標が(x,y)で表され、実座標のXY座標が(X,Y)で表されるとき、これらの関係は、以下の式(1)の定数行列Aで表される。Specifically, the range determination unit 412 identifies the correspondence relationship between the position information acquired from the motion control unit 200 during the initial alignment control and the actual coordinates detected in the initial detailed search. For example, when the XY coordinates of the initial position information are represented by (x 1 , y 1 ) and the XY coordinates of the actual coordinates are represented by (X 1 , Y 1 ), the relationship between them is given by the following equation (1 ) is represented by a constant matrix A.

Figure 0007258259000001
Figure 0007258259000001

2回目のアライメント制御時に動作制御ユニット200から取得した位置情報のXY座標を(x,y)とすると、2回目の探索で用いる予測座標のXY座標(X,Y)は、式(1)で表される定数行列Aを用いて、以下の式(2)で表すことができる。また、3回目以降を含むn回目についても同様に式(3)で表すことができる。Let (x 2 , y 2 ) be the XY coordinates of the positional information acquired from the motion control unit 200 during the second alignment control. Using the constant matrix A represented by (1), it can be represented by the following equation (2). Also, the n-th time including the third and subsequent times can be similarly represented by Equation (3).

Figure 0007258259000002
Figure 0007258259000002

なお、位置情報と実座標の対応関係を表す定数行列Aは、繰り返しのアライメント制御において取得する位置情報及び実座標に基づいて、毎回更新してもよく、又は、複数回の平均を用いてもよい。あるいは、事前のキャリブレーションにより、予め位置情報と実座標の対応関係を構築してもよい。例えば、識別対象として載置台101の角端部を用いたアライメント制御の場合には、実行毎の誤差が小さいため、このような事前のキャリブレーションが有効である。 Note that the constant matrix A representing the correspondence relationship between the position information and the real coordinates may be updated each time based on the position information and the real coordinates acquired in repeated alignment control, or may be averaged multiple times. good. Alternatively, a correspondence relationship between position information and actual coordinates may be constructed in advance by prior calibration. For example, in the case of alignment control using a corner end portion of the mounting table 101 as an identification target, since the error for each execution is small, such pre-calibration is effective.

このようにして、撮像画像から検出した識別対象の基準点のXY座標と位置情報との対応関係を予め特定し、この対応関係を用いて新たに取得した位置情報からXY座標を予測する(ステップS207)。その後、予測したXY座標を中心とし、予め定めた大きさの探索範囲を決定する(ステップS208)。また、θ座標についても、同様に、詳細探索で検出した実座標と位置情報との対応関係を予め特定した上で、新たに取得した位置情報に基づいて識別対象の回転角度を示すθ座標の予測を行い(ステップS207)、予測したθ座標を中心とし、予め定めた角度幅の探索角度範囲を決定する(ステップS208)。なお、探索範囲は予測座標を中心とした範囲でなくてもよく、アライメント条件又は識別対象の形態によっては、予測座標を含む範囲を探索範囲としてもよい。 In this way, the correspondence relationship between the XY coordinates of the reference point of the identification target detected from the captured image and the position information is specified in advance, and the XY coordinates are predicted from the newly acquired position information using this correspondence relationship (step S207). After that, a search range having a predetermined size is determined centering on the predicted XY coordinates (step S208). Similarly, with respect to the θ coordinate, the correspondence relationship between the actual coordinates detected in the detailed search and the position information is specified in advance, and then the θ coordinate indicating the rotation angle of the identification target is determined based on the newly acquired position information. Prediction is performed (step S207), and a search angle range having a predetermined angle width centered on the predicted .theta. coordinate is determined (step S208). Note that the search range may not be a range centered on the predicted coordinates, and the range including the predicted coordinates may be set as the search range depending on the alignment conditions or the form of the identification target.

ここで、探索範囲の大きさは、設定端末500へのユーザの入力により設定してもよく、自動で設定してもよい。例えば、探索範囲の大きさは、識別対象の形状又は大きさに対して、駆動機器111,112,113の移動速度に基づいて自動又は手動で設定した余裕分を追加した大きさであってもよい。あるいは、過去のアライメント制御結果に基づいて統計的に探索範囲の大きさを決定してもよく、例えば、識別対象の形状及び大きさに対して、過去の互いに対応する時点における、位置情報から算出した予測座標と、撮像画像から検出した実座標との差の平均値を余裕分として加えた大きさであってもよい。 Here, the size of the search range may be set by the user's input to the setting terminal 500, or may be set automatically. For example, the size of the search range may be a size obtained by adding a margin set automatically or manually based on the moving speed of the drive devices 111, 112, and 113 to the shape or size of the object to be identified. good. Alternatively, the size of the search range may be determined statistically based on past alignment control results. The size may be obtained by adding, as a margin, the average value of the difference between the predicted coordinates obtained from the calculation and the actual coordinates detected from the captured image.

つまり、範囲決定部412は、2回目以降でかつ前回検出を失敗していない場合には、ステップS203の粗探索を実行せずに、ステップS207で位置センサ出力に基づく位置情報から算出した予測座標を中心とする探索範囲を決定する。この位置情報に基づく探索範囲の決定処理は、ステップS203で実行した粗探索による探索範囲の決定処理と比較して、処理量が大幅に少ない。よって、毎回粗探索から行う従来のアライメント制御と比較して、高速制御が可能となる。 In other words, if the second or later detection has not failed the previous time, the range determination unit 412 does not execute the rough search in step S203, and calculates the predicted coordinates calculated from the position information based on the position sensor output in step S207. Determines the search range centered at . The processing for determining the search range based on this positional information has a much smaller amount of processing than the processing for determining the search range by the rough search executed in step S203. Therefore, high-speed control is possible compared to conventional alignment control that starts from rough search each time.

次に、画像取得部411が画像を取得し(ステップS209;画像取得ステップ)、取得した画像のうちステップS208で決定した探索範囲の画像について、簡易処理を行う(ステップS210)。簡易処理は、詳細探索を行う前の任意の処理であり、例えば、探索部413が、ステップS208で決定した探索範囲より広いが全範囲より限定した範囲での粗探索を行い、探索範囲を再決定してもよい。あるいは、ステップS207でXY座標の予測座標を算出してステップS208でXY座標における探索範囲を決定しておいた場合には、簡易処理として、θ座標の粗検索を行い探索角度範囲を決定してもよい。なお、簡易処理は省略してもよい。 Next, the image acquisition unit 411 acquires an image (step S209; image acquisition step), and performs simple processing on the image in the search range determined in step S208 among the acquired images (step S210). Simplified processing is arbitrary processing before performing a detailed search. For example, the search unit 413 performs a rough search in a range wider than the search range determined in step S208, but narrower than the entire range, and repeats the search range. may decide. Alternatively, if the predicted coordinates of the XY coordinates have been calculated in step S207 and the search range in the XY coordinates has been determined in step S208, rough search of the θ coordinates is performed as simple processing to determine the search angle range. good too. Note that the simplified processing may be omitted.

その後、探索部413が、ステップS208で決定した探索範囲又はステップS210で決定した範囲について詳細探索を実行する(ステップS211:探索ステップ)。詳細探索の方法は、ステップS205と同じである。ステップS211で詳細探索を実行した結果、識別対象が検出できなかった場合は(ステップS212:No)、ステップS201に戻り、前回検出失敗であるため(ステップS201:Yes)ステップS202~205の処理を実行する。ここで、全範囲の粗探索からやり直すのは、詳細探索で検出失敗を繰り返すことにより、制御不能になるのを回避するためである。 After that, the search unit 413 executes a detailed search for the search range determined in step S208 or the range determined in step S210 (step S211: search step). The detailed search method is the same as in step S205. As a result of executing the detailed search in step S211, if the identification target could not be detected (step S212: No), the process returns to step S201. Execute. Here, the reason why the coarse search of the entire range is restarted is to avoid loss of control due to repeated detection failures in the detailed search.

ステップS211の詳細探索で識別対象の検出に成功した場合は(ステップS212:Yes)、動作制御ユニット200に対して、ステップS211で取得した識別対象の実座標を出力する。 If the identification target is successfully detected in the detailed search in step S211 (step S212: Yes), the real coordinates of the identification target acquired in step S211 are output to the motion control unit 200. FIG.

再度、図7のフローチャートに戻り、動作制御ユニット200は、画像処理ユニット400より実座標を取得し(ステップS105)、目標座標との差を算出する。実座標と目標座標との差が閾値以下である場合は(ステップS106:Yes)、アライメント処理を終了する。 Returning to the flowchart of FIG. 7 again, the motion control unit 200 acquires the actual coordinates from the image processing unit 400 (step S105), and calculates the difference from the target coordinates. If the difference between the actual coordinates and the target coordinates is equal to or less than the threshold (step S106: Yes), the alignment process is terminated.

実座標と目標座標との差が閾値を超える場合は(ステップS106:No)、指令部213がアライメント機構100の位置を補正する指令を実行する(ステップS107)。具体的には、実座標を目標座標に一致させるための制御信号を駆動制御装置121,122,123に対して出力する。その後、ステップS102に戻り、処理を継続する。 If the difference between the actual coordinates and the target coordinates exceeds the threshold (step S106: No), the command unit 213 executes a command to correct the position of the alignment mechanism 100 (step S107). Specifically, it outputs a control signal to the drive control devices 121 , 122 , 123 to match the actual coordinates with the target coordinates. After that, the process returns to step S102 to continue the process.

以上説明したように、本実施形態に係るアライメントシステム1は、識別対象を有するワーク10を撮像した画像から識別対象を検出する画像処理ユニット400と、画像処理ユニット400が検出した識別対象の実座標に基づいて、ワーク10を移動させる駆動機器111,112,113を制御する動作制御ユニットと、を備える。画像処理ユニット400は、駆動機器111,112,113の位置センサ出力に基づく位置情報と撮像画像から検出する識別対象の実座標との対応関係を予め特定し、この対応関係を用いて、次に取得する位置情報から識別対象の予測座標を算出し、この予測座標を含む探索範囲を決定し、探索範囲の画像から識別対象を検出することとした。これにより、全範囲の粗探索処理を省略でき高速かつ高精度で位置決めすることが可能となる。 As described above, the alignment system 1 according to the present embodiment includes the image processing unit 400 for detecting an identification target from an image of the workpiece 10 having the identification target, and the real coordinates of the identification target detected by the image processing unit 400. and an operation control unit for controlling the drive devices 111, 112, 113 for moving the workpiece 10 based on the following. The image processing unit 400 identifies in advance the correspondence relationship between the position information based on the position sensor outputs of the driving devices 111, 112, and 113 and the real coordinates of the identification target detected from the captured image, and uses this correspondence relationship to perform the following: The predicted coordinates of the identification target are calculated from the acquired position information, the search range including the predicted coordinates is determined, and the identification target is detected from the image of the search range. As a result, it is possible to omit rough search processing for the entire range and perform positioning with high speed and high accuracy.

(実施形態2)
以下に、本開示を実施するための実施形態2について図面を参照して詳細に説明する。なお、図中同一又は相当する部分には同じ符号を付す。
(Embodiment 2)
Below, Embodiment 2 for carrying out the present disclosure will be described in detail with reference to the drawings. The same reference numerals are given to the same or corresponding parts in the drawings.

本実施形態2に係るアライメントシステム2の全体構成及び各構成部のハードウェア構成は実施形態1と同様である。本実施形態2に係るアライメントシステム2において、画像処理ユニット400の画像取得部411が、転送範囲を指定した転送指示を行うことにより、撮像装置300から撮像画像を取得し、転送範囲内の撮像画像について探索部413が探索処理を行う点が、実施形態1と異なる。 The overall configuration of the alignment system 2 according to the second embodiment and the hardware configuration of each component are the same as those of the first embodiment. In the alignment system 2 according to the second embodiment, the image acquisition unit 411 of the image processing unit 400 acquires a captured image from the imaging device 300 by issuing a transfer instruction specifying a transfer range, and obtains a captured image within the transfer range. differs from the first embodiment in that the search unit 413 performs search processing for .

本実施形態においても、実施形態1と同様に、駆動制御装置121,122,123、動作制御ユニット200、画像処理ユニット400及び撮像装置300は、互いに通信接続されている。ただし、本実施形態は、実施形態1よりもさらに高い応答性を求められるため、CC-Link IE/field、CC-Link IE/TSN等の産業用ネットワークにより通信接続することが望ましい。 Also in this embodiment, as in the first embodiment, the drive control devices 121, 122, 123, the motion control unit 200, the image processing unit 400, and the imaging device 300 are connected for communication with each other. However, since this embodiment requires higher responsiveness than the first embodiment, it is desirable to establish a communication connection through an industrial network such as CC-Link IE/field, CC-Link IE/TSN.

CC-Link IE/field、CC-Link IE/TSN等の産業用ネットワークは、同期性を担保するために、H/W機器にて一定以上の定時性を実現しつつ、統計的に伝送路遅延計測を行い、μ秒精度で機器間のタイミングを合わせる仕組みを有している。 In industrial networks such as CC-Link IE/field and CC-Link IE/TSN, in order to ensure synchronism, while achieving a certain or more punctuality in H / W equipment, the transmission path delay is statistically It has a mechanism that performs measurement and synchronizes the timing between devices with microsecond accuracy.

伝送路遅延計測による同期方式は、マスタ局からデバイス局までの伝送路遅延測定値を利用して、より高精度の同期を実現する方式である。図10に伝送路遅延計測による同期方式を示す。伝送路遅延計測方式では、同期ポイントで同期を行う。マスタ局40から送信された伝送制御(MyStatus)フレームは距離が離れるにつれて遅延が生じる。 A synchronization method based on transmission path delay measurement is a method that uses transmission path delay measurement values from a master station to a device station to achieve higher-precision synchronization. FIG. 10 shows a synchronization method based on transmission line delay measurement. In the transmission path delay measurement method, synchronization is performed at synchronization points. A transmission control (MyStatus) frame transmitted from the master station 40 is delayed as the distance increases.

マスタ局40は、各デバイス局50、60、70から応答信号を受信したマスタ局時刻から各デバイス局50、60、70における伝送路遅延時間を算出し、各デバイス局50、60、70に送信する。同期ポイントは、マスタ局40が伝送制御(MyStatus)フレームを送信してから一定時間(Tsync)経過後の時刻である。各デバイス局50、60、70は、伝送制御(MyStatus)フレームを受け取ってから、伝送路遅延時間を差し引いた時間であるTps時間(Tsync-遅延時間)後に同期を行う。 The master station 40 calculates the transmission path delay time in each device station 50, 60, 70 from the master station time when the response signal was received from each device station 50, 60, 70, and transmits the transmission path delay time to each device station 50, 60, 70. do. The synchronization point is the time after a certain time (Tsync) has passed since the master station 40 transmitted the transmission control (MyStatus) frame. Each device station 50, 60, 70 synchronizes after Tps time (Tsync-delay time), which is the time obtained by subtracting the transmission path delay time, after receiving the transmission control (MyStatus) frame.

本実施形態では、この伝送路遅延計測方式を用いて、例えば動作制御ユニット200をマスタ局40として、駆動制御装置121,122,123、動作制御ユニット200、撮像装置300及び画像処理ユニット400のタイミング制御が行われる。つまり、駆動制御装置121,122,123、動作制御ユニット200、撮像装置300及び画像処理ユニット400は、伝送路遅延時間が計測される産業用ネットワーク(通信線)で互いに通信接続されており、同期された時刻情報を有することとなる。 In this embodiment, using this transmission path delay measurement method, for example, with the operation control unit 200 as the master station 40, the timings of the drive control devices 121, 122, 123, the operation control unit 200, the imaging device 300, and the image processing unit 400 are calculated. control is performed. That is, the drive control devices 121, 122, 123, the motion control unit 200, the imaging device 300, and the image processing unit 400 are connected to communicate with each other via an industrial network (communication line) in which the transmission line delay time is measured, and are synchronized. time information.

マスタ局40である動作制御ユニット200は、指示の送信時刻から最長の伝送路遅延時間を経過した後の特定時刻を同期ポイントとして設定する。そして、画像処理ユニット400は、未来の特定時刻における予測座標を含む範囲を、転送範囲として決定し、撮像装置300に対して特定時刻における撮像と、撮像した画像のうち転送範囲内の画像の転送と、を指示する。 The operation control unit 200, which is the master station 40, sets a specific time after the longest transmission path delay time has passed since the transmission time of the instruction as a synchronization point. Then, the image processing unit 400 determines a range including predicted coordinates at a specific time in the future as a transfer range. and instruct.

さらに撮像装置300についてはシャッタ速度も考慮したタイミング制御を行う必要がある。図11は、撮像装置300のシャッタのタイミング制御を説明する図である。同期ポイントの算出元である同期された時刻情報を用いて、画像処理ユニット400から得た又は事前の設定情報に従って撮像装置300が自動的に撮像タイミングを決定する。このとき、未来の特定時刻で撮像するために、画像処理ユニット400は必要に応じて猶予時間内に先行した撮像指示を行うことができる。また、予約撮像のタイミングを露出時間範囲の中心を合わせることも有用である。 Furthermore, it is necessary to perform timing control in consideration of the shutter speed for the imaging device 300 as well. FIG. 11 is a diagram for explaining timing control of the shutter of the imaging device 300. As shown in FIG. The imaging device 300 automatically determines the imaging timing according to the setting information obtained from the image processing unit 400 or in advance using the synchronized time information that is the source of calculation of the synchronization point. At this time, the image processing unit 400 can issue an earlier image capturing instruction within the grace period as necessary in order to perform image capturing at a specific time in the future. It is also useful to align the timing of reserved imaging with the center of the exposure time range.

図12は、本実施形態に係るアライメントシステム2の機能構成例を示したブロック図であり、図13は、動作制御ユニット200が実行するアライメント制御処理のフローチャートであり、図14は、画像処理ユニット400が実行する探索処理のフローチャートである。図13,14のフローチャートに沿って、アライメントシステム2の動作について説明する。 FIG. 12 is a block diagram showing a functional configuration example of the alignment system 2 according to this embodiment, FIG. 13 is a flowchart of alignment control processing executed by the motion control unit 200, and FIG. 14 is an image processing unit. 4 is a flowchart of a search process performed by 400; The operation of the alignment system 2 will be described along the flow charts of FIGS.

まず、動作制御ユニット200は、ワーク10を予め設定された概算目標位置まで移動させる指令を行う(図13、ステップS101)。具体的には、動作制御ユニット200が、駆動制御装置121,122,123に対して、各方向の移動を実現させる制御信号を出力する。そして、制御信号に基づく駆動制御装置121,122,123の制御により、駆動機器111,112,113が駆動し、ワーク10を載置した載置台101が移動する。 First, the motion control unit 200 issues a command to move the workpiece 10 to a preset approximate target position (FIG. 13, step S101). Specifically, the motion control unit 200 outputs control signals to the drive control devices 121, 122, and 123 to realize movement in each direction. Then, the drive devices 111, 112, and 113 are driven by the control of the drive control devices 121, 122, and 123 based on the control signals, and the mounting table 101 on which the workpiece 10 is mounted is moved.

移動指令後、動作制御ユニット200は撮像装置300における撮像時刻を時刻T(n=1)に決定し(ステップS122)、画像処理ユニット400に対して指定する。また、動作制御ユニット200の位置情報生成部211は、駆動機器111,112,113が有する位置センサの出力に基づいて位置情報を生成し位置情報を出力する(ステップS103)。その後、動作制御ユニット200は、画像処理ユニット400の探索終了まで待機する(ステップS104)。After issuing the movement command, the operation control unit 200 determines the imaging time of the imaging device 300 to be time T n (n=1) (step S 122 ), and designates it to the image processing unit 400 . Further, the position information generator 211 of the motion control unit 200 generates position information based on the outputs of the position sensors included in the driving devices 111, 112, and 113, and outputs the position information (step S103). After that, the operation control unit 200 waits until the image processing unit 400 finishes searching (step S104).

動作制御ユニット200から位置情報を取得した画像処理ユニット400は、図14に示す処理を実行する。ここでは撮像が初回であるため(ステップS201:Yes)、画像処理ユニット400の画像取得部411は、撮像装置300に対して、時刻T(n=1)における撮像と、全範囲の撮像画像の転送を指示する(ステップS221)。その後、画像取得部411は、全範囲の撮像画像を取得する(ステップS222)。The image processing unit 400 that has acquired the position information from the motion control unit 200 executes the processing shown in FIG. Since the imaging is the first time here (step S201: Yes), the image acquisition unit 411 of the image processing unit 400 instructs the imaging device 300 to perform the imaging at time T n (n=1) and the captured image of the entire range. is instructed to transfer (step S221). After that, the image acquisition unit 411 acquires the captured image of the entire range (step S222).

次に、画像処理ユニット400の探索部413が、全範囲の撮影画像に対して、識別対象の粗探索(ラフサーチ)を実行する(ステップS203)。粗探索は、例えば、予め登録しておいたアライメントマーク1001のパターンモデルを用いたパターンマッチング処理により行う。探索部413は、パターンマッチングの一致率が予め定めた閾値以上であったときのアライメントマーク1001を識別対象として検出し、アライメントマーク1001の基準点の位置又は回転角度に基づいて、詳細探索の探索範囲を決定する(ステップS204)。このときの探索範囲の形状又は大きさは、アライメントマーク1001の形状又は大きさに基づいて予め決定されたものであり、設定端末500へのユーザの入力により設定可能としてもよい。 Next, the search section 413 of the image processing unit 400 performs a rough search of an identification target on the captured image of the entire range (step S203). The rough search is performed, for example, by pattern matching processing using a pre-registered pattern model of the alignment mark 1001 . The search unit 413 detects the alignment mark 1001 as an identification target when the matching rate of pattern matching is equal to or higher than a predetermined threshold, and performs a detailed search based on the position or rotation angle of the reference point of the alignment mark 1001. A range is determined (step S204). The shape or size of the search range at this time is determined in advance based on the shape or size of the alignment mark 1001 , and may be set by the user's input to the setting terminal 500 .

次に、ステップS204で決定した探索範囲内の画像に対して、詳細探索(ファインサーチ)を実行する(ステップS205)。詳細探索は、例えば、エッジ検出を行い、正確な直線又は曲線を検出することにより、より正確な識別対象の実座標を取得することができる。ここで、識別対象の実座標は、識別対象の基準点の位置(XY座標)と回転角度(θ座標)を含む。 Next, a detailed search (fine search) is executed for the image within the search range determined in step S204 (step S205). In the detailed search, for example, edge detection is performed to detect an accurate straight line or curve, thereby obtaining more accurate real coordinates of the object to be identified. Here, the real coordinates of the identification target include the position (XY coordinates) and the rotation angle (θ coordinates) of the reference point of the identification target.

ステップS205の詳細探索で識別対象が検出できなかった場合は(ステップS212:No)、ステップS201に戻り、ステップS221,S222,S203~205の処理を繰り返す。一方、ステップS205の詳細探索で識別対象の検出に成功した場合は(ステップS212:Yes)、動作制御ユニット200に対して、ステップS205で取得した識別対象の実座標を出力する(ステップS213)。 If the detailed search in step S205 fails to detect an identification target (step S212: No), the process returns to step S201 and repeats steps S221, S222, and steps S203 to 205. On the other hand, if the identification target is successfully detected in the detailed search of step S205 (step S212: Yes), the real coordinates of the identification target acquired in step S205 are output to the operation control unit 200 (step S213).

図13のフローチャートに戻り、画像処理ユニット400の探索処理が終了後(ステップS104:Yes)、動作制御ユニット200は、画像処理ユニット400より実座標を取得し(ステップS105)、目標座標との差を算出する。実座標と目標座標との差が閾値以下である場合は(ステップS106:Yes)、アライメント制御処理を終了する。ここで、目標座標は、アライメント先の座標であり、中心位置(XY座標)と回転角度(θ座標)を含む。 Returning to the flowchart of FIG. 13, after the search processing of the image processing unit 400 is completed (step S104: Yes), the motion control unit 200 acquires the actual coordinates from the image processing unit 400 (step S105), and calculates the difference from the target coordinates. Calculate If the difference between the actual coordinates and the target coordinates is equal to or less than the threshold (step S106: Yes), the alignment control process is terminated. Here, the target coordinates are the coordinates of the alignment destination, and include the center position (XY coordinates) and the rotation angle (θ coordinates).

実座標と目標座標との差が閾値を超える場合は(ステップS106:No)、指令部213が、アライメント機構100の位置を補正する指令を実行する(ステップS107;指令ステップ)。具体的には、実座標を目標座標に一致させるための制御信号を駆動制御装置121,122,123に対して出力する。 When the difference between the actual coordinates and the target coordinates exceeds the threshold (step S106: No), the command unit 213 executes a command to correct the position of the alignment mechanism 100 (step S107; command step). Specifically, it outputs a control signal to the drive control devices 121 , 122 , 123 to match the actual coordinates with the target coordinates.

動作制御ユニット200は、アライメント機構100への補正指令後、ステップS122に戻り、撮像時刻を時刻T(n=2)に決定し(ステップS122)、位置情報を出力し(ステップS103)、画像処理ユニット400の探索処理が終了するまで待機する(ステップS104)。After issuing the correction command to the alignment mechanism 100, the motion control unit 200 returns to step S122, determines the imaging time to be time T n (n=2) (step S122), outputs position information (step S103), and outputs the image. It waits until the search process of the processing unit 400 ends (step S104).

再度、図14のフローチャートに戻り、次の撮像が2回目以降であり、前回検出成功しているため(ステップS201:No)、画像処理ユニット400は、撮像装置300に対して、時刻T(n=2)における撮像を指示する(ステップS223)。また、画像処理ユニット400は動作制御ユニット200から位置情報を取得する(ステップS206)。画像処理ユニット400の範囲決定部412は、その時点の識別対象の座標の予測を行う(ステップS207)。Returning to the flowchart of FIG. 14 again, the next imaging is the second or subsequent imaging, and the previous detection was successful (step S201: No ). n=2) is instructed (step S223). Also, the image processing unit 400 acquires position information from the operation control unit 200 (step S206). The range determination unit 412 of the image processing unit 400 predicts the coordinates of the identification target at that time (step S207).

座標の予測方法は、実施形態1と同様であり、初回のアライメント制御時に動作制御ユニット200から取得した位置情報と、初回の詳細探索で検出した実座標の対応関係を特定する。範囲決定部412は、特定した対応関係を用いて、ステップS206で取得した位置情報から識別対象の基準点のXY座標の予測を行う(ステップS207)。その後、範囲決定部412は、ステップS207で予測したXY座標を中心とし、予め定めた大きさの転送範囲を決定し、撮像装置300に対して、転送範囲を指定した撮像画像の転送指示を行う。(ステップS226)。なお、転送範囲は予測したXY座標を中心とした範囲でなくてもよく、アライメント条件又は識別対象の形態によっては、予測したXY座標を含む範囲を転送範囲としてもよい。 The coordinate prediction method is the same as in the first embodiment, and specifies the correspondence relationship between the position information acquired from the motion control unit 200 during the initial alignment control and the actual coordinates detected in the initial detailed search. The range determination unit 412 uses the specified correspondence relationship to predict the XY coordinates of the reference point to be identified from the position information acquired in step S206 (step S207). After that, the range determination unit 412 determines a transfer range having a predetermined size centered on the XY coordinates predicted in step S207, and instructs the imaging device 300 to transfer the captured image with the transfer range specified. . (Step S226). Note that the transfer range may not be a range centered on the predicted XY coordinates, and the transfer range may be a range including the predicted XY coordinates depending on the alignment conditions or the form of the identification object.

ここで、転送範囲の大きさは、設定端末500へのユーザの入力により設定してもよい。例えば、ロバスト性と処理速度とがトレードオフの関係にあるため、処理のぶれを許容しつつ平均処理速度を最大化することによりスループットを優先させる場合には転送範囲を小さく設定してもよい。一方、処理速度よりもジッター特性を優先させて処理時間を一定化したい場合には、転送範囲を大きく設定してもよい。 Here, the size of the transfer range may be set by the user's input to the setting terminal 500 . For example, since there is a trade-off between robustness and processing speed, the transfer range may be set small when priority is given to throughput by maximizing the average processing speed while allowing fluctuations in processing. On the other hand, if it is desired to make the processing time constant by giving priority to the jitter characteristics over the processing speed, the transfer range may be set large.

あるいは、転送範囲の大きさは、識別対象の形状又は大きさに対して、駆動機器111,112,113の移動速度に基づいて自動又は手動で設定した余裕分を追加した大きさであってもよい。あるいは、範囲決定部412が過去のアライメント制御結果に基づいて統計的に転送範囲の大きさを決定してもよく、例えば、識別対象の大きさに、過去の位置情報に基づいて算出した予測座標と、画像から検出した識別対象の実座標との差の平均値を余裕分として加えた大きさを転送範囲の大きさとしてもよい。 Alternatively, the size of the transfer range may be a size obtained by adding a margin set automatically or manually based on the moving speed of the drive devices 111, 112, and 113 to the shape or size of the object to be identified. good. Alternatively, the range determining unit 412 may statistically determine the size of the transfer range based on past alignment control results. and the average value of the difference from the real coordinates of the identification object detected from the image as a margin may be added as the size of the transfer range.

このように、撮像が2回目以降でかつ前回検出を失敗していない場合には、撮像装置300は全範囲の画像を転送せずに、ステップS226で求めた、位置センサの位置情報に基づく予測座標を中心とする転送範囲の画像のみを転送する。ここで転送する画像のデータ容量は、ステップS221で転送する全範囲の画像のデータ量と比較して大幅に少ない。よって、毎回全範囲の画像を転送する場合と比較して、データの転送容量を削減でき転送時間も短縮され、また、全範囲の粗探索を実行しないため高速制御が可能となる。 In this way, if the imaging is the second or subsequent time and the previous detection has not failed, the imaging device 300 does not transfer the image of the entire range, and the prediction based on the position information of the position sensor obtained in step S226. Transfer only the image within the transfer range centered on the coordinates. The data volume of the image transferred here is significantly smaller than the data volume of the image of the entire range transferred in step S221. Therefore, compared to the case where the image of the entire range is transferred every time, the data transfer capacity can be reduced, the transfer time can be shortened, and high-speed control is possible because the coarse search of the entire range is not executed.

ステップS226で転送指示することにより転送されてきた、転送範囲の画像を画像取得部411が取得し(ステップS209;画像取得ステップ)、探索部413が、転送範囲内の画像について簡易処理を行う(ステップS210)。簡易処理は、詳細探索を行う前の任意の処理であり、例えば、ステップS209で取得した転送範囲内の画像について粗探索を行い、探索範囲を決定してもよい。特に、θ座標の粗検索を簡易処理として行い、探索角度範囲を決定してもよい。なお、簡易処理は省略してもよい。 The image acquisition unit 411 acquires the image in the transfer range that has been transferred by the transfer instruction in step S226 (step S209; image acquisition step), and the search unit 413 performs simple processing on the image within the transfer range ( step S210). Simplified processing is arbitrary processing before detailed search is performed. For example, the search range may be determined by performing coarse search on the image within the transfer range acquired in step S209. In particular, a rough search of the θ coordinate may be performed as a simple process to determine the search angle range. Note that the simplified processing may be omitted.

その後、ステップS209で取得した転送範囲内の画像について、又は、ステップS210で決定した探索範囲について詳細探索を実行する(ステップS211;探索ステップ)。詳細探索の方法は、ステップS205と同じである。ステップS211で詳細探索を実行した結果、識別対象が検出できなかった場合は(ステップS212:No)、ステップS201に戻り、前回検出失敗であるため(ステップS201:Yes)ステップS221,S222,S203~205の処理を実行する。ここで、全範囲の画像の粗探索からやり直すのは、詳細探索で検出失敗を繰り返すことにより、制御不能になるのを回避するためである。 After that, a detailed search is executed for the image within the transfer range acquired in step S209 or for the search range determined in step S210 (step S211; search step). The detailed search method is the same as in step S205. As a result of executing the detailed search in step S211, if the identification target could not be detected (step S212: No), the process returns to step S201. 205 is executed. Here, the reason why the coarse search of the entire range of the image is restarted is to avoid loss of control due to repeated detection failures in the detailed search.

ステップS211の詳細探索で識別対象の検出に成功した場合は(ステップS212:Yes)、動作制御ユニット200に対して、ステップS211で取得した識別対象の実座標を出力する(ステップS213)。 If the identification target is successfully detected in the detailed search in step S211 (step S212: Yes), the real coordinates of the identification target acquired in step S211 are output to the operation control unit 200 (step S213).

再度、図13のフローチャートに戻り、動作制御ユニット200は、画像処理ユニット400より実座標を取得し(ステップS105)、目標座標との差を算出する。実座標と目標座標との差が閾値以下である場合は(ステップS106:Yes)、アライメント処理を終了する。 Returning to the flowchart of FIG. 13 again, the motion control unit 200 acquires the actual coordinates from the image processing unit 400 (step S105) and calculates the difference from the target coordinates. If the difference between the actual coordinates and the target coordinates is equal to or less than the threshold (step S106: Yes), the alignment process is terminated.

実座標と目標座標との差が閾値を超える場合は(ステップS106:No)、指令部213が、アライメント機構100の位置を補正する指令を実行する(ステップS107)。具体的には、実座標を目標座標に一致させるための制御信号を駆動制御装置121,122,123に対して出力する。その後、ステップS122に戻り、処理を継続する。 If the difference between the actual coordinates and the target coordinates exceeds the threshold (step S106: No), the command unit 213 executes a command to correct the position of the alignment mechanism 100 (step S107). Specifically, it outputs a control signal to the drive control devices 121 , 122 , 123 to match the actual coordinates with the target coordinates. After that, the process returns to step S122 to continue the process.

このようにして、画像処理ユニット400の範囲決定部412が位置情報に基づいて画像の転送範囲を決定し、探索部413が撮像装置300から転送される画像について詳細探索を行うとした。これにより、転送時間及び探索時間を大幅に短縮することができる。 In this manner, the range determination unit 412 of the image processing unit 400 determines the transfer range of the image based on the position information, and the search unit 413 performs detailed search for the image transferred from the imaging device 300 . This can significantly reduce transfer time and search time.

なお、画像処理ユニット400から撮像装置300への転送範囲の指定は、撮像指示と共に転送範囲を含む撮像パラメータを指定する方法の他、事前に撮像装置300に対して転送範囲を指定し、その後撮像トリガを撮像装置300に出力してもよい。 The transfer range from the image processing unit 400 to the imaging device 300 can be specified by specifying the imaging parameters including the transfer range together with the imaging instruction, or by specifying the transfer range in advance for the imaging device 300 and then performing imaging. A trigger may be output to the imaging device 300 .

前者の撮像指示と共に転送範囲指定を行う場合は、前述した伝送路遅延計測の同期方式を用いて、撮像装置300の撮像と、位置情報の取得のタイミングを合わせることにより、待機時間を削減すると共に適切な転送範囲での探索が可能となる。一方、後者の事前に転送範囲を指定する場合は、撮像トリガのみを専用線で出力することにより、撮像タイミングを高精度に合わせることが可能となる。 When specifying the transfer range together with the former imaging instruction, the above-described transmission path delay measurement synchronization method is used to match the timing of imaging by the imaging device 300 and the acquisition of position information, thereby reducing the waiting time. It is possible to search within an appropriate transfer range. On the other hand, in the latter case of specifying the transfer range in advance, it is possible to adjust the imaging timing with high accuracy by outputting only the imaging trigger through the dedicated line.

また、図14のステップS221で指定する全範囲の画像転送、及び、ステップS226で指定する転送範囲の画像転送は、撮像装置300により画像を縮小して転送してもよい。縮小方法は、従来の任意の方法でよく、例えば、サブサンプリング又はビニングが用いられる。特にビニングは、処理が比較的軽く、画素信号のS/N比(Signal to Noise Ratio)を改善させる効果があり、縮小による解像度の低下に対して、位置認識精度の低下を抑えることができるため好適である。 Further, in the image transfer of the entire range designated in step S221 of FIG. 14 and the image transfer of the transfer range designated in step S226, the image may be reduced by the imaging device 300 and transferred. The reduction method can be any conventional method, for example subsampling or binning is used. Binning, in particular, is relatively light in processing and has the effect of improving the signal-to-noise ratio (S/N ratio) of pixel signals. preferred.

ステップS226での転送指示により転送範囲の限定(トリミング)を行う際に、アライメント制御の早い段階で実座標と目標座標が離れている場合に転送範囲の限定と共に縮小を行い、実座標と目標座標との距離が一定の範囲内となり近づいてきた後に、縮小を行わない制御を行ってもよい。また、全範囲又は転送範囲内の画像の縮小を行う場合に、探索用のパターンモデルとして縮小データに合わせたモデルを予め用意しておき、探索部413はこのモデルを用いた粗探索又は詳細探索を行ってもよい。 When the transfer range is limited (trimmed) by the transfer instruction in step S226, if the actual coordinates and the target coordinates are separated at an early stage of alignment control, the transfer range is limited and reduced, and the actual coordinates and the target coordinates are reduced. After the distance from the . Also, when reducing the image within the entire range or the transfer range, a model suitable for the reduced data is prepared in advance as a pattern model for search, and the search unit 413 performs a rough search or a detailed search using this model. may be performed.

また、ステップS226での転送指示により転送範囲の撮像画像を取得した後の詳細探索(ステップS211)に並行して、全範囲の撮像画像を取得しておいてもよい。ステップS211の詳細探索で識別対象が検出できなかった場合(ステップS212:No)の全範囲の撮像画像を取得する時間を削減することができる。この場合、詳細探索で識別対象が検出できた段階で、全範囲の撮像画像の転送停止又は転送画像の削除を行ってもよい。 Further, in parallel with the detailed search (step S211) after acquiring the captured image of the transfer range according to the transfer instruction in step S226, the captured image of the entire range may be acquired. It is possible to reduce the time taken to acquire the captured image of the entire range when the identification target cannot be detected in the detailed search in step S211 (step S212: No). In this case, when the identification target is detected by the detailed search, the transfer of the captured image of the entire range may be stopped or the transferred image may be deleted.

以上説明したように、本実施形態に係るアライメントシステム2において、画像処理ユニット400は、駆動機器111,112,113が有する位置情報と撮像画像から検出する識別対象の実座標との対応関係を予め特定し、この対応関係を用いて、次に取得する位置情報から識別対象の予測座標を算出し、この予測座標を含む画像の転送範囲を決定し、撮像装置300から転送された転送範囲内の画像を詳細探索して識別対象を検出することとした。これにより、転送時間及び転送する画像の容量を削減でき、また、全範囲の画像の粗探索を省略できるため、高速かつ高精度でアライメント制御することが可能となる。 As described above, in the alignment system 2 according to the present embodiment, the image processing unit 400 predetermines the correspondence relationship between the position information of the driving devices 111, 112, and 113 and the real coordinates of the identification target detected from the captured image. Using this correspondence relationship, the predicted coordinates of the identification target are calculated from the position information to be acquired next, the transfer range of the image including the predicted coordinates is determined, and the transfer range transferred from the imaging device 300 is determined. We decided to search the image in detail and detect the object to be identified. As a result, it is possible to reduce the transfer time and the capacity of the image to be transferred, and to omit the rough search of the entire range of the image, so that the alignment control can be performed at high speed and with high accuracy.

(変形例)
上記実施形態は、種々の変更が可能である。変形例について以下に述べる。
(Modification)
Various modifications of the above embodiment are possible. Modifications are described below.

[変形例1]
実施形態1,2において、画像処理ユニット400の範囲決定部412が、駆動機器111,112,113の位置センサ出力に基づく位置情報から算出した予測座標を含む範囲を、探索範囲又は転送範囲として決定するとした。しかし、探索範囲又は転送範囲を他の方法で決定してもよい。本変形例1は、探索範囲又は転送範囲を決定する他の方法について説明する。
[Modification 1]
In Embodiments 1 and 2, the range determination section 412 of the image processing unit 400 determines the range including the predicted coordinates calculated from the position information based on the position sensor outputs of the drive devices 111, 112, and 113 as the search range or transfer range. I thought I would. However, the search range or transfer range may be determined in other ways. Modification 1 describes another method for determining the search range or the transfer range.

本変形例は、駆動機器111,112,113の駆動に係る指令情報を、探索範囲又は転送範囲を決定するための予測座標の算出に用いる。具体的には、画像処理ユニットの範囲決定部412が指令情報に基づいて予測座標の算出を行い、予測座標を含む探索範囲又は転送範囲を決定する。 In this modification, command information relating to driving of the driving devices 111, 112, and 113 is used to calculate predicted coordinates for determining the search range or transfer range. Specifically, the range determination unit 412 of the image processing unit calculates the predicted coordinates based on the command information, and determines the search range or transfer range including the predicted coordinates.

本変形例において、撮像装置300の撮像と、指令情報に基づく駆動機器111,112,113の駆動と、位置センサ出力の取得と、のタイミング制御を、同期性を担保して行うことで、より高速な制御が可能となる。図15は本変形例に係るアライメントシステム3の機能構成例を示したブロック図であり、図16は本変形例に係る動作制御ユニット200が実行するアライメント制御処理のフローチャートであり、図17は画像処理ユニット400が実行する探索処理のフローチャートである。 In this modified example, timing control of imaging by the imaging device 300, driving of the drive devices 111, 112, and 113 based on the command information, and acquisition of the position sensor output is performed while ensuring synchronism. High-speed control becomes possible. FIG. 15 is a block diagram showing a functional configuration example of the alignment system 3 according to this modification, FIG. 16 is a flowchart of alignment control processing executed by the motion control unit 200 according to this modification, and FIG. 4 is a flowchart of search processing executed by the processing unit 400. FIG.

ここで、図15-17は、実施形態2の変形例であって、指令情報に基づいて画像の転送範囲を決定する形態を表しているが、実施形態1の変形例として、指令情報に基づいて画像の探索範囲を決定する形態も、同様に実現できる。以下、図16,17のフローチャートに沿って、本変形例に係るアライメントシステム3の動作について説明するが、実施形態2と同じ処理については説明を省略する。 Here, FIGS. 15 to 17 are modifications of the second embodiment, showing forms in which the transfer range of an image is determined based on command information. A form in which the search range of the image is determined by using the same method can also be realized. The operation of the alignment system 3 according to this modified example will be described below with reference to the flowcharts of FIGS.

まず、動作制御ユニット200は、ワーク10を予め設定された概算目標位置まで移動させる指令を行う(図16、ステップS101)。このときの指令情報は、転送範囲の決定に用いるために、画像処理ユニット400に渡される。その後、指令情報に係る制御信号に基づいて駆動機器111,112,113が駆動開始し、ワーク10を載置した載置台101が移動する。 First, the motion control unit 200 issues a command to move the workpiece 10 to a preset approximate target position (FIG. 16, step S101). The command information at this time is passed to the image processing unit 400 for use in determining the transfer range. After that, the driving devices 111, 112, and 113 start driving based on the control signal related to the command information, and the mounting table 101 on which the work 10 is mounted moves.

移動指令後、動作制御ユニット200は撮像装置300における撮像時刻を未来の特定時刻T(n=1)を決定し(ステップS122)、画像処理ユニット400に対して指定する。また、動作制御ユニット200の位置情報生成部211は、駆動機器111,112,113が有する位置センサの出力に基づいて、時刻Tにおける位置情報の記録を指定する(ステップS123)。その後、動作制御ユニット200は、画像処理ユニット400の探索終了まで待機する(ステップS104)。その後の画像処理ユニット400の動作は、実施形態2と同様であり、図17のステップS221,222,203-205,212,213の処理を実行する。After issuing the movement command, the operation control unit 200 determines the future specific time T n (n=1) as the imaging time of the imaging device 300 (step S 122 ), and designates it to the image processing unit 400 . Further, the position information generator 211 of the motion control unit 200 designates recording of position information at time Tn based on the outputs of the position sensors of the drive devices 111, 112, and 113 (step S123). After that, the operation control unit 200 waits until the image processing unit 400 finishes searching (step S104). The subsequent operation of the image processing unit 400 is the same as in the second embodiment, and the processing of steps S221, 222, 203-205, 212, and 213 in FIG. 17 is executed.

図16のフローチャートに戻り、画像処理ユニット400の探索処理が終了した時に(ステップS104:Yes)、動作制御ユニット200の移動量算出部212が、画像処理ユニット400より実座標を取得し(ステップS105)、位置情報生成部211が時刻Tの位置センサ出力に基づいて位置情報を生成し記録する(ステップS124)。移動量算出部212は、実座標と目標座標との差を算出し、実座標と目標座標との差が閾値以下である場合は(ステップS106:Yes)、アライメント制御処理を終了する。Returning to the flowchart of FIG. 16, when the search processing of the image processing unit 400 is completed (step S104: Yes), the movement amount calculator 212 of the motion control unit 200 acquires the actual coordinates from the image processing unit 400 (step S105). ), the position information generator 211 generates and records position information based on the position sensor output at time Tn (step S124). The movement amount calculation unit 212 calculates the difference between the actual coordinates and the target coordinates, and if the difference between the actual coordinates and the target coordinates is equal to or less than the threshold (step S106: Yes), the alignment control process ends.

実座標と目標座標との差が閾値を超える場合は(ステップS106:No)、指令部213が、アライメント機構100の位置を補正する指令を実行するが、このとき、ステップS124で記録した特定時刻Tにおける位置情報を参照し、指令が示す位置と位置情報が示す実際の位置とのずれも補償した指令を実行する(ステップS125)。When the difference between the actual coordinates and the target coordinates exceeds the threshold (step S106: No), the command unit 213 executes a command to correct the position of the alignment mechanism 100. At this time, the specific time recorded in step S124 The position information in Tn is referenced, and a command is executed in which the deviation between the position indicated by the command and the actual position indicated by the position information is also compensated (step S125).

指令部213によりアライメント機構100への指令を実行した後、ステップS122に戻り、撮像時刻を時刻T(n=2)に決定し(ステップS122)、特定時刻T(n=2)の位置情報の記録を指定し(ステップS123)、画像処理ユニット400の探索処理が終了するまで待機する(ステップS104)。After executing the command to the alignment mechanism 100 by the command unit 213, the process returns to step S122, the imaging time is determined to be the time T n (n=2) (step S122), and the position at the specific time T n (n=2) is determined (step S122). The recording of information is specified (step S123), and the process waits until the search processing of the image processing unit 400 is completed (step S104).

再度、図17のフローチャートに移り、次の撮像が2回目以降であり、前回検出成功しているため(ステップS201:No)、画像処理ユニット400は、撮像装置300に対して、時刻T(n=2)における撮像を指示する(ステップS223)。また、画像処理ユニット400は動作制御ユニット200から時刻Tにおける指令情報を取得する(ステップS224)。画像処理ユニット400の範囲決定部412は、その時点の識別対象の予測座標を算出する(ステップS225)。Returning to the flowchart of FIG. 17 again, the next imaging is the second or subsequent time, and the previous detection was successful (step S201: No ). n=2) is instructed (step S223). Also, the image processing unit 400 acquires command information at the time Tn from the operation control unit 200 (step S224). The range determination unit 412 of the image processing unit 400 calculates predicted coordinates of the identification target at that time (step S225).

範囲決定部412による予測座標の算出方法は、まず、実施形態2の位置情報に代えて初回のアライメント制御時の指令情報と、初回の詳細探索で検出した実座標と、の対応関係を特定する。範囲決定部412は、特定した対応関係を用いて、ステップS224で取得した特定時刻Tの予定位置に係る指令情報から識別対象の基準点の予測座標(XY座標)の算出を行う(ステップS225)。対応関係を用いた予測方法は実施形態2と同様である。In the method of calculating the predicted coordinates by the range determination unit 412, first, instead of the position information of the second embodiment, the correspondence relationship between the command information during the initial alignment control and the actual coordinates detected in the initial detailed search is specified. . The range determination unit 412 uses the specified correspondence relationship to calculate the predicted coordinates (XY coordinates) of the reference point to be identified from the command information related to the scheduled position at the specific time Tn acquired in step S224 (step S225). ). The prediction method using correspondence is the same as in the second embodiment.

その後、範囲決定部412は、ステップS225で予測したXY座標を中心とし、予め定めた大きさの転送範囲を決定し、撮像装置300に対して、決定した転送範囲内の画像の転送を指示する。(ステップS226)。なお、転送範囲は予測したXY座標を中心とした範囲でなくてもよく、アライメント条件又は識別対象の形態によっては、予測したXY座標を含む範囲を転送範囲としてもよい。 After that, the range determination unit 412 determines a transfer range having a predetermined size centered on the XY coordinates predicted in step S225, and instructs the imaging device 300 to transfer an image within the determined transfer range. . (Step S226). Note that the transfer range may not be a range centered on the predicted XY coordinates, and the transfer range may be a range including the predicted XY coordinates depending on the alignment conditions or the form of the identification target.

ステップS226で転送指示することにより転送されてきた、転送範囲の画像を画像取得部411が取得し(ステップS209)、簡易処理を行う(ステップS210)。その後、探索部413は、ステップS209で取得した転送範囲内の画像について、又は、ステップS210で簡易処理した画像について詳細探索を実行する(ステップS211)。ステップS211で詳細探索を実行した結果、識別対象が検出できなかった場合は(ステップS212:No)、ステップS201に戻り、前回検出失敗であるため(ステップS201:Yes)ステップS221,S222,S203-205の処理を実行する。 The image acquisition unit 411 acquires the image of the transfer range transferred by the transfer instruction in step S226 (step S209), and performs simple processing (step S210). After that, the search unit 413 executes a detailed search for the image within the transfer range acquired in step S209 or the image subjected to the simple processing in step S210 (step S211). As a result of executing the detailed search in step S211, if the identification target could not be detected (step S212: No), the process returns to step S201. 205 is executed.

ステップS211の詳細探索で識別対象の検出に成功した場合は(ステップS212:Yes)、動作制御ユニット200に対して、ステップS211で取得した識別対象の実座標を出力する(ステップS213)。その後の動作制御ユニット200の処理は実施形態2と同様である。 If the identification target is successfully detected in the detailed search in step S211 (step S212: Yes), the real coordinates of the identification target acquired in step S211 are output to the operation control unit 200 (step S213). Subsequent processing by the operation control unit 200 is the same as in the second embodiment.

このようにして、画像処理ユニット400の範囲決定部412が動作制御ユニット200の指令情報に基づいて画像の転送範囲を決定し、探索部413が撮像装置300から転送される画像について詳細探索を行うとした。これにより、未来の予定位置に係る指令情報に基づいて探索範囲又は転送範囲を決定するため、より高効率なタイミング制御ができ、より高速のアライメント制御が可能となる。 In this manner, the range determination section 412 of the image processing unit 400 determines the transfer range of the image based on the command information of the operation control unit 200, and the search section 413 performs a detailed search for the image transferred from the imaging device 300. and Accordingly, since the search range or transfer range is determined based on the command information regarding the future planned position, more efficient timing control can be performed, and faster alignment control can be performed.

[変形例2]
本変形例2は、探索範囲又は転送範囲を決定するための、さらに他の方法について説明する。実施形態1,2においては、範囲決定部412が、位置情報に基づいて算出した予測座標を中心とする探索範囲又は転送範囲を決定するとしたが、本変形例では、前回検出した実座標を中心とする探索範囲又は転送範囲を決定する。
[Modification 2]
Modification 2 describes still another method for determining the search range or transfer range. In the first and second embodiments, the range determination unit 412 determines the search range or transfer range centered on the predicted coordinates calculated based on the position information. Determine the search range or transfer range to be used.

具体的には、範囲決定部412は、位置情報又は指令情報を取得することなく、画像処理ユニット400の探索部413による詳細探索で前回検出し、不揮発性メモリ230に記憶しておいた識別対象の基準点を中心とする範囲を転送範囲として決定する。あるいは、範囲決定部412は、記憶しておいた識別対象の基準点を中心とする範囲、又は、識別対象の回転角度を中心とする角度範囲を、探索範囲として決定する。なお、転送範囲又は探索範囲は前回検出した実座標を中心とした範囲でなくてもよく、アライメント条件又は識別対象の形態によっては、前回検出した実座標を含む範囲を転送範囲又は探索範囲としてもよい。 Specifically, the range determination unit 412 detects the identification target previously detected in the detailed search by the search unit 413 of the image processing unit 400 and stored in the nonvolatile memory 230 without acquiring position information or command information. The range centered on the reference point of is determined as the transfer range. Alternatively, the range determination unit 412 determines a range centered on the stored reference point of the identification target or an angle range centered on the rotation angle of the identification target as the search range. Note that the transfer range or search range may not be a range centered on the previously detected actual coordinates, and depending on the alignment conditions or the form of the identification target, a range including the previously detected actual coordinates may be used as the transfer range or search range. good.

探索範囲又は転送範囲の大きさは、過去に検出した識別対象の実座標の移動速度に基づいて決定してもよい。あるいは、アライメント制御の設定パラメータに基づいて各駆動機器の移動速度に基づいて決定してもよい。例えば、最大移動速度に撮像装置300の撮像間隔を乗じて決定した大きさにしてもよい。撮像間隔が短く設定されることにより撮像間隔間の移動距離が短い場合には、前回の検出結果を利用することで十分に探索範囲又は転送範囲を限定することができるため、実施形態1,2及び変形例1と比較して、処理を簡易化することが可能となる。 The size of the search range or transfer range may be determined based on the moving speed of the real coordinates of the identification target detected in the past. Alternatively, it may be determined based on the moving speed of each driving device based on the setting parameters of the alignment control. For example, the size may be determined by multiplying the maximum moving speed by the imaging interval of the imaging device 300 . When the moving distance between imaging intervals is short because the imaging interval is set short, the search range or transfer range can be sufficiently limited by using the previous detection result. And compared with Modification 1, the processing can be simplified.

[変形例3]
本変形例3は、探索範囲又は転送範囲を決定するための、さらに他の方法について説明する。本変形例では、範囲決定部412は、探索部413による詳細探索で過去に検出した実座標の軌跡に基づいて探索範囲又は転送範囲を決定する。つまり、実施形態1,2のように位置情報又は指令情報を取得することなく、画像処理ユニット400の探索部413による詳細探索で過去に検出し、不揮発性メモリ230に記憶しておいた識別対象の実座標の軌跡に基づいて予測座標を算出し、予測座標を中心とする範囲を探索範囲又は転送範囲として決定する。
[Modification 3]
Modification 3 describes yet another method for determining the search range or transfer range. In this modification, the range determination unit 412 determines the search range or the transfer range based on the trajectory of the actual coordinates detected in the past by the detailed search by the search unit 413 . In other words, without acquiring the position information or command information as in the first and second embodiments, the identification object detected in the past by the detailed search by the search unit 413 of the image processing unit 400 and stored in the nonvolatile memory 230 Calculate the predicted coordinates based on the locus of the actual coordinates, and determine the range centered on the predicted coordinates as the search range or the transfer range.

具体的には、範囲決定部412は、識別対象の基準点のXY座標の軌跡に基づいて予測したXY座標を中心とし予め定めた大きさを有する範囲を転送範囲として決定する。あるいは、範囲決定部412は、識別対象の基準点のXY座標の軌跡に基づいて予測したXY座標を中心とし予め定めた大きさを有する範囲、又は、θ座標の軌跡に基づいて予測したθ座標を中心とする角度範囲を、探索範囲として決定する。図18A,Bは識別対象の予測を説明する図である。なお、転送範囲又は探索範囲は予測座標を中心とした範囲でなくてもよく、アライメント条件又は識別対象の形態によっては、予測座標を含む範囲を転送範囲又は探索範囲としてもよい。 Specifically, the range determination unit 412 determines a range having a predetermined size centered on the XY coordinates predicted based on the locus of the XY coordinates of the reference point to be identified as the transfer range. Alternatively, the range determining unit 412 may be a range having a predetermined size centered on the XY coordinates predicted based on the locus of the XY coordinates of the reference point to be identified, or a θ coordinate predicted based on the locus of the θ coordinates. is determined as the search range. 18A and 18B are diagrams for explaining prediction of an identification target. Note that the transfer range or search range may not be a range centered on the predicted coordinates, and depending on the alignment conditions or the form of the identification target, a range including the predicted coordinates may be used as the transfer range or search range.

予測座標(XYθ座標)の算出は、前回以前2回分以上の時刻と、各時刻の実座標を用いて、撮像装置300の撮像時における予測により行う。例えば、図18Aに示すように、前回と前々回の2回分のXY座標のデータに基づいて線形予測して、撮像時におけるXY座標を予測する。あるいは、図18Bに示すように、前回と前々回と前々々回の3回分のXY座標のデータに基づいて2次予測して、撮像時におけるXY座標を予測する。 Calculation of the predicted coordinates (XYθ coordinates) is performed by prediction at the time of imaging by the imaging device 300 using two or more times before the previous time and the actual coordinates at each time. For example, as shown in FIG. 18A, the XY coordinates at the time of imaging are predicted by performing linear prediction based on the XY coordinate data for two times, the previous time and the time before last time. Alternatively, as shown in FIG. 18B, the XY coordinates at the time of imaging are predicted by performing secondary prediction based on the XY coordinate data for three times, ie, the previous time, the time before the time before the time, and the time before the time before the time before.

探索範囲又は転送範囲の大きさは、過去に検出した識別対象の実座標の移動速度に基づいて決定してもよい。あるいは、駆動機器111,112,113の移動速度に基づいて決定してもよい。例えば、最大移動速度に撮像装置300の撮像間隔を乗じて決定した大きさにしてもよい。線形予測は、2次予測又はさらに高次の予測より、予測精度が悪くなるため、探索範囲又は転送範囲の大きさを大きくする必要がある。 The size of the search range or transfer range may be determined based on the moving speed of the real coordinates of the identification target detected in the past. Alternatively, it may be determined based on the moving speed of the driving devices 111, 112, 113. For example, the size may be determined by multiplying the maximum moving speed by the imaging interval of the imaging device 300 . Linear prediction is less accurate than quadratic prediction or even higher-order prediction, so the size of the search range or transfer range must be increased.

また、探索範囲又は転送範囲の大きさは、過去の検出結果に対する誤差の統計的情報に基づいて決定してもよい。例えば、識別対象の形状及び大きさに対して、過去の互いに対応する時点における、実座標の軌跡に基づく予測座標と、撮像画像から検出した実座標との差の平均値を余裕分として加えた大きさであってもよい。 Also, the size of the search range or transfer range may be determined based on statistical information of errors with respect to past detection results. For example, for the shape and size of the identification target, the average value of the difference between the predicted coordinates based on the trajectory of the real coordinates and the real coordinates detected from the captured image at corresponding points in the past is added as a margin. It can be any size.

本変形例によれば、撮像間隔が長く撮像間隔間の移動距離が長い場合には、予測精度が向上し、探索範囲又は転送範囲を狭くすることが可能となる。 According to this modification, when the imaging interval is long and the movement distance between the imaging intervals is long, the prediction accuracy is improved, and the search range or transfer range can be narrowed.

[変形例4]
実施形態1,2において、識別対象がワーク10上に付されたアライメントマーク1001,1002である場合について説明したが、識別対象の形態に応じて、処理を一部変更してもよい。図19Aは本変形例に係る粗探索を説明する図であり、図19Bは本変形例に係る詳細探索を説明する図である。
[Modification 4]
In the first and second embodiments, the alignment marks 1001 and 1002 provided on the workpiece 10 have been described as objects to be identified, but the processing may be partially changed according to the form of the object to be identified. FIG. 19A is a diagram for explaining coarse search according to this modification, and FIG. 19B is a diagram for explaining fine search according to this modification.

例えば、ワーク12が図19Aに示すような多数の端子を有するIC(Integrated Circuit)であって、識別対象がICの端子である場合には、探索部413はパターンモデル1312を用いて、パターンマッチング処理を行うことにより粗探索を行う(図8、ステップS203)。 For example, when the work 12 is an IC (Integrated Circuit) having many terminals as shown in FIG. A rough search is performed by performing processing ( FIG. 8 , step S203).

このとき、探索部413は、パターンマッチングの一致率が予め定めた閾値以上であったときのパターン1313の位置又は回転角度に基づいて、詳細探索の探索範囲1314を決定する(図8、ステップS204)。このパターンマッチングにおいて、図19Aに示すように、一致率が予め定めた閾値以上であるパターンが複数検出される場合があるが、その場合は一致率が最高である場合のパターン1313を特定して、探索範囲1314を決定してもよい。 At this time, the search unit 413 determines the search range 1314 for the detailed search based on the position or rotation angle of the pattern 1313 when the match rate of pattern matching is equal to or greater than a predetermined threshold (FIG. 8, step S204). ). In this pattern matching, as shown in FIG. 19A, there are cases where a plurality of patterns with matching rates equal to or higher than a predetermined threshold are detected. , may determine the search range 1314 .

図19Bに示す例において、探索部413は、粗探索により特定したパターン1313から予め定めた位置関係を有する探索範囲1314を、詳細探索の探索範囲として決定する(図8、ステップS204)。探索部413は、ステップS204で決定した探索範囲について詳細探索を実行する(図8、ステップS205)。 In the example shown in FIG. 19B, the search unit 413 determines a search range 1314 having a predetermined positional relationship from the pattern 1313 specified by the rough search as the search range for the fine search (FIG. 8, step S204). The search unit 413 executes a detailed search for the search range determined in step S204 (FIG. 8, step S205).

ここで、実施形態1,2において、2回目以降の撮像であって、前回の検出に成功していた場合には(図8、ステップS201:No)、位置情報から算出した予測座標を含む探索範囲を決定して(図8、ステップS208)、詳細探索を実行する(図8、ステップS211)。しかし、図19Aに示したICのように一定の精度で予測座標の算出が可能な場合は、位置情報に基づく予測座標の算出をすることなく、ステップS203の粗探索で決定した探索範囲を用いて、詳細探索を繰り返してもよい。そして、詳細探索による検出に失敗した場合のみ、粗探索による探索範囲の決定処理を行ってもよい。 Here, in Embodiments 1 and 2, in the second and subsequent imaging, if the previous detection was successful (FIG. 8, step S201: No), the search including the predicted coordinates calculated from the position information A range is determined (FIG. 8, step S208), and a detailed search is executed (FIG. 8, step S211). However, if it is possible to calculate the predicted coordinates with a certain degree of accuracy like the IC shown in FIG. The finer search may be repeated. Then, only when the detection by the fine search fails, the process of determining the search range by the rough search may be performed.

本変形例によれば、識別対象の形態に応じて、処理を簡易化することが可能となる。なお、設定端末500のアプリケーションにより、識別対象の形態を分類し、当該分類に適した探索処理方法を自動選択してもよい。 According to this modified example, it is possible to simplify the processing according to the form of the object to be identified. Note that the application of the setting terminal 500 may classify the form to be identified and automatically select a search processing method suitable for the classification.

[変形例5]
本変形例5は、識別対象がさらに異なる形態である場合について説明する。図20Aは本変形例に係る粗探索を説明する図であり、図20Bは本変形例に係る詳細探索を説明する図である。本変形例において、設定端末500のプロセッサが、専用のアプリケーションプログラムを実行することにより、粗探索のモデル登録と、詳細探索のロジック生成を自動で行う。
[Modification 5]
Modification 5 describes a case where the identification target has a further different form. FIG. 20A is a diagram for explaining coarse search according to this modification, and FIG. 20B is a diagram for explaining fine search according to this modification. In this modified example, the processor of the setting terminal 500 executes a dedicated application program to automatically perform coarse search model registration and detailed search logic generation.

例えば、ワーク13が図20Aに示すようなレンズである場合には、設定端末500のプロセッサは、撮像画像からレンズの外形を抽出しパターンモデル1322の登録を行う。さらにプロセッサは、パターンモデル1322の形状に基づいて詳細探索の探索ロジックを自動生成する。例えば、設定端末500のプロセッサが、パターンモデル1322の形状が円弧を含むことを検出した場合には図20Bに示すように、詳細探索のロジックとしてエッジを探索し、検出したエッジに対して円近似を行い、円の中心を基準点1323として検出するロジックを自動生成する。 For example, when the workpiece 13 is a lens as shown in FIG. 20A, the processor of the setting terminal 500 extracts the outer shape of the lens from the captured image and registers the pattern model 1322 . Further, the processor automatically generates search logic for the fine search based on the shape of the pattern model 1322 . For example, when the processor of the setting terminal 500 detects that the shape of the pattern model 1322 includes an arc, as shown in FIG. and automatically generate logic for detecting the center of the circle as the reference point 1323 .

画像処理ユニット400は、設定端末500のアプリケーションにより生成された粗探索のパターンモデルと詳細探索のロジックを用いて、実施形態1,2で説明した探索処理を実行する。本変形例によれば、識別対象の形態に応じて、最適な粗探索及び詳細探索を実行することができる。また、画像処理ユニット400の探索処理を実行するための事前の設定を自動化することができ、ユーザの設定端末500への設定入力の負担を軽減することが可能となる。 The image processing unit 400 executes the search processing described in the first and second embodiments using the coarse search pattern model and the fine search logic generated by the application of the setting terminal 500 . According to this modified example, it is possible to perform an optimum coarse search and fine search according to the form of the object to be identified. In addition, it is possible to automate the preliminary setting for executing the search processing of the image processing unit 400, and it is possible to reduce the user's burden of setting input to the setting terminal 500. FIG.

[変形例6]
実施形態1,2では、初回の撮像画像に対して粗探索を行い、粗探索の結果に基づいて決定した探索範囲の詳細探索を実行し、詳細探索の結果に基づき、次の詳細探索の探索範囲又は転送範囲を決定するための識別対象の予測座標を算出する。しかし、識別対象の座標の予測精度が十分高い場合には、アライメント制御の事前のキャリブレーションにより、初回の撮像画像に対する粗探索を省略してもよい。特に、ワーク10を載置する載置台101の角端部を用いたアライメント制御の場合には、実行毎の誤差が小さいため、このような事前のキャリブレーションが有効である。
[Modification 6]
In Embodiments 1 and 2, a coarse search is performed on the first captured image, a fine search is performed in a search range determined based on the result of the coarse search, and the next fine search is performed based on the result of the fine search. Compute predicted coordinates of the object to be identified for determining the range or transfer range. However, if the prediction accuracy of the coordinates to be identified is sufficiently high, preliminary calibration of the alignment control may omit the rough search for the first captured image. In particular, in the case of alignment control using the corner end of the mounting table 101 on which the work 10 is mounted, since the error for each execution is small, such pre-calibration is effective.

図21は、初回の撮像画像に対する粗探索を省略した場合の探索処理のフローチャートである。画像取得部411が初回の撮像画像を取得した後(ステップS301)、範囲決定部412は、事前のキャリブレーション情報を用いて位置情報に基づいて識別対象の予測座標を算出する(ステップS302)。範囲決定部412が算出した予測座標を含む探索範囲を決定し(ステップS303)、決定した探索範囲について詳細探索を実行する(ステップS304)。 FIG. 21 is a flowchart of search processing when rough search for the first captured image is omitted. After the image acquisition unit 411 acquires the first captured image (step S301), the range determination unit 412 calculates the predicted coordinates of the identification target based on the position information using the calibration information in advance (step S302). A search range including the predicted coordinates calculated by the range determination unit 412 is determined (step S303), and a detailed search is performed for the determined search range (step S304).

ステップS304の詳細探索で識別対象の実座標の検出に成功した場合は(ステップS305:Yes)、実座標は動作制御ユニット200に対して出力され(ステップS309)、動作制御ユニット200が、その実座標を用いて駆動機器111,112,113を制御する。ワーク10の移動後、次の撮像画像について前回と同じ探索範囲について詳細探索を実行する。このように、詳細探索で検出成功した場合には、粗探索を実行せずに詳細探索を繰り返し実行する。 If the detailed search in step S304 succeeds in detecting the real coordinates of the object to be identified (step S305: Yes), the real coordinates are output to the motion control unit 200 (step S309), and the motion control unit 200 are used to control the drive devices 111 , 112 , 113 . After the work 10 is moved, a detailed search is executed for the same search range as the previous one for the next picked-up image. In this way, when the fine search succeeds in detection, the fine search is repeatedly executed without executing the coarse search.

詳細探索を繰り返す中で、識別対象の検出に失敗した場合のみ(ステップS305:No)、粗探索を実行することにより(ステップS306)探索範囲を決定し(ステップS307)、決定した探索範囲において詳細探索を実行し(ステップS308)、実座標が出力される(ステップS309)。このように本変形例によれば、事前のキャリブレーション情報に基づいて詳細探索を繰り返し、識別対象が検出できなかったときのみ、粗探索を実行することとした。これにより、処理を簡易化することができ高速なアライメント制御が可能となる。 While repeating the detailed search, only when the detection of the identification target fails (step S305: No), the coarse search is executed (step S306) to determine the search range (step S307), and the detailed search is performed in the determined search range. A search is executed (step S308), and the actual coordinates are output (step S309). As described above, according to this modified example, the detailed search is repeated based on the calibration information in advance, and the rough search is executed only when the identification target cannot be detected. This simplifies the process and enables high-speed alignment control.

なお、上記実施形態及び変形例に示したハードウェア構成及びフローチャートは一例であり、任意に変更及び修正が可能である。例えば、上記実施形態及び変形例において、動作制御ユニット200、撮像装置300、画像処理ユニット400及び設定端末500は、独立した構成としたが、これらの少なくとも2つを一体化した構成でもよい。 It should be noted that the hardware configuration and flowcharts shown in the above embodiments and modifications are examples, and can be arbitrarily changed and modified. For example, in the above embodiments and modifications, the operation control unit 200, the imaging device 300, the image processing unit 400, and the setting terminal 500 are configured independently, but at least two of them may be integrated.

また、上記実施形態及び変形例に示した探索処理は、任意に組み合わせて実行してもよい。また、設定端末500により、上記実施形態及び変形例に係る探索処理のいずれかを選択可能にしてもよい。あるいは、画像処理ユニット400が、ワークの種類、識別対象の形態等の条件に応じて上記実施形態及び変形例に係る探索処理のいずれかを自動選択してもよい。 Further, the search processes shown in the above embodiments and modifications may be executed in arbitrary combinations. Alternatively, the setting terminal 500 may be configured to be able to select one of the search processes according to the above-described embodiment and modifications. Alternatively, the image processing unit 400 may automatically select one of the search processes according to the above-described embodiments and modifications according to conditions such as the type of work and the form of an identification target.

また、上記実施形態及び変形例における動作制御ユニット200と画像処理ユニット400と、におけるプロセッサが実現する各機能の分担は一例であり、任意に分担を変更してもよい。また、動作制御ユニット200又は画像処理ユニット400のプロセッサが実現する各機能は、専用のシステムによらず、通常のコンピュータシステムを用いて実現可能である。 Also, the division of each function realized by the processors in the operation control unit 200 and the image processing unit 400 in the above-described embodiment and modification is an example, and the division may be arbitrarily changed. Moreover, each function realized by the processor of the operation control unit 200 or the image processing unit 400 can be realized using a normal computer system without using a dedicated system.

また、上記実施形態の動作を実行するためのプログラムを、コンピュータが読み取り可能なCD-ROM(Compact Disc Read-Only Memory)、DVD(Digital Versatile Disc)、MO(Magneto Optical Disc)、メモリカード等の記録媒体に格納して配布し、プログラムをコンピュータにインストールすることにより、各機能を実現することができるコンピュータを構成してもよい。そして、各機能をOS(Operating System)とアプリケーションとの分担、又はOSとアプリケーションとの協同により実現する場合には、OS以外の部分のみを記録媒体に格納してもよい。 Further, the program for executing the operation of the above embodiment can be stored in a computer-readable CD-ROM (Compact Disc Read-Only Memory), DVD (Digital Versatile Disc), MO (Magneto Optical Disc), memory card, or the like. A computer that can implement each function may be configured by storing the program in a recording medium, distributing it, and installing the program in the computer. When each function is shared between an OS (Operating System) and an application, or by cooperation between the OS and an application, only portions other than the OS may be stored in the recording medium.

本開示は、本開示の広義の精神と範囲を逸脱することなく、様々な実施形態及び変形が可能とされるものである。また、上述した実施形態は、本開示を説明するためのものであり、本開示の範囲を限定するものではない。すなわち、本開示の範囲は、実施形態ではなく、請求の範囲によって示される。そして、請求の範囲内及びそれと同等の開示の意義の範囲内で施される様々な変形が、本開示の範囲内とみなされる。 This disclosure is capable of various embodiments and modifications without departing from the broader spirit and scope of this disclosure. Moreover, the embodiments described above are for explaining the present disclosure, and do not limit the scope of the present disclosure. That is, the scope of the present disclosure is indicated by the claims rather than the embodiments. Various modifications made within the scope of the claims and within the scope of equivalent disclosure are considered to be within the scope of the present disclosure.

1,2,3 アライメントシステム、10,12,13 ワーク、11 アライメント先、40 マスタ局、50,60,70 デバイス局、100 アライメント機構、101 載置台、111,112,113 駆動機器、121,122,123 駆動制御装置、200 動作制御ユニット、210 プロセッサ、211 位置情報生成部、212 移動量算出部、213 指令部、220 揮発性メモリ、230 不揮発性メモリ、231 制御プログラム、232 制御データ、240 クロック、250 通信インタフェース、300 撮像装置、400 画像処理ユニット、410 プロセッサ、411 画像取得部、412 範囲決定部、413 探索部、420 揮発性メモリ、430 不揮発性メモリ、431 制御プログラム、432 制御データ、440 クロック、450 通信インタフェース、500 設定端末、1001,1002 アライメントマーク、1101,1102 アライメント先マーク、1200 θ軸回転中心、1201 仮想マーク、1300 撮像範囲、1301,1314 探索範囲、1312,1322 パターンモデル、1313 パターン、1323 基準点。 Reference Signs List 1,2,3 alignment system, 10,12,13 workpiece, 11 alignment target, 40 master station, 50,60,70 device station, 100 alignment mechanism, 101 mounting table, 111,112,113 drive device, 121,122 , 123 drive control device, 200 operation control unit, 210 processor, 211 position information generation unit, 212 movement amount calculation unit, 213 command unit, 220 volatile memory, 230 nonvolatile memory, 231 control program, 232 control data, 240 clock , 250 communication interface, 300 imaging device, 400 image processing unit, 410 processor, 411 image acquisition unit, 412 range determination unit, 413 search unit, 420 volatile memory, 430 nonvolatile memory, 431 control program, 432 control data, 440 Clock 450 Communication interface 500 Setting terminal 1001, 1002 Alignment mark 1101, 1102 Alignment destination mark 1200 θ-axis rotation center 1201 Virtual mark 1300 Imaging range 1301, 1314 Search range 1312, 1322 Pattern model 1313 Pattern, 1323 reference point.

Claims (10)

識別対象を有するワークを撮像した撮像画像から、互いに異なる探索方法の粗探索と詳細探索とにより、前記識別対象を検出する画像処理ユニットと、
前記画像処理ユニットが検出した前記識別対象の実座標に基づいて、前記ワークを移動させる駆動機器を制御する動作制御ユニットと、
前記画像処理ユニットの設定を行う設定端末と、を備え、
前記画像処理ユニットの前記識別対象の検出と、前記動作制御ユニットの前記駆動機器の制御と、は繰り返し実行され、
前記詳細探索は、前記粗探索の範囲より狭い探索範囲で実行され、前記詳細探索で前記識別対象を検出できた場合の次回の探索は、前記粗探索を行わず前記詳細探索を実行し、
前記粗探索は、前記ワークが有するパターンと、前記設定端末により予め登録されたパターンモデルと、のマッチングを行うパターンマッチング処理を含み、
前記詳細探索は、前記設定端末が前記粗探索のパターンマッチング処理で用いる前記パターンモデルを登録する際に、前記パターンモデルの形状に基づいて生成した前記詳細探索の探索ロジックを用いて実行される、
アライメントシステム。
an image processing unit that detects an identification target from a captured image of a workpiece having the identification target by coarse search and fine search using different search methods;
a motion control unit that controls a driving device that moves the workpiece based on the real coordinates of the identification target detected by the image processing unit;
a setting terminal for setting the image processing unit,
the detection of the identification target by the image processing unit and the control of the drive device by the operation control unit are repeatedly executed,
the fine search is performed in a search range narrower than the range of the coarse search, and the next search when the identification target is detected in the fine search is performed without the coarse search , and
The rough search includes pattern matching processing for matching patterns of the work with pattern models registered in advance by the setting terminal,
The fine search is executed using search logic for the fine search generated based on the shape of the pattern model when the setting terminal registers the pattern model to be used in the coarse search pattern matching process.
alignment system.
前記設定端末は、前記粗探索のパターンマッチング処理で用いる前記パターンモデルを登録する際に、前記パターンモデルの形状が円弧を含むことを検出した場合に、前記詳細探索のロジックとして、エッジを探索し、検出したエッジに対して円近似を行い、円の中心を前記識別対象の基準点として検出する前記探索ロジックを生成し、 When the pattern model used in the coarse search pattern matching process is registered, the setting terminal searches for an edge as logic for the fine search when detecting that the shape of the pattern model includes an arc. generating said search logic for performing circle approximation on the detected edge and detecting the center of the circle as a reference point for said identification target;
前記画像処理ユニットは、前記設定端末により生成された前記探索ロジックを用いて前記詳細探索を実行する、 The image processing unit performs the fine search using the search logic generated by the setting terminal.
請求項1に記載のアライメントシステム。 The alignment system of Claim 1.
前記画像処理ユニットは、前記詳細探索で前記識別対象を検出できた場合は、当該詳細探索により得られた前記識別対象の実座標に基づいて決定した探索範囲について、次回の前記詳細探索を実行する、
請求項1に記載のアライメントシステム。
When the identification target is detected by the detailed search, the image processing unit executes the next detailed search for a search range determined based on the real coordinates of the identification target obtained by the detailed search. ,
The alignment system of Claim 1.
前記画像処理ユニットは、前記粗探索で決定した探索範囲内における前記詳細探索で前記識別対象を検出できた場合は、当該詳細探索で探索した前記探索範囲について、次回の前記詳細探索を実行する、
請求項1に記載のアライメントシステム。
When the detailed search within the search range determined by the rough search detects the identification target, the image processing unit executes the next detailed search for the search range searched by the fine search.
The alignment system of Claim 1.
前記画像処理ユニットは、前記詳細探索で前記識別対象の実座標を検出できなかった場合の次回の探索は、新たに前記粗探索を実行して決定した探索範囲内で前記詳細探索を実行する、
請求項1に記載のアライメントシステム。
The image processing unit executes the detailed search within the search range determined by newly executing the rough search in the next search when the real coordinates of the identification target cannot be detected in the detailed search.
The alignment system of Claim 1 .
前記画像処理ユニットは、事前のキャリブレーションにより決定された探索範囲において前記詳細探索を実行し、前記詳細探索で前記識別対象を検出できなかった場合に、前記粗探索を実行して決定した探索範囲内で前記詳細探索を実行する、
請求項1に記載のアライメントシステム。
The image processing unit executes the fine search in a search range determined by pre-calibration, and executes the rough search to determine the search range when the identification target cannot be detected in the fine search. performing said deep exploration in
The alignment system of Claim 1 .
前記粗探索は、前記パターンマッチング処理の一致率が予め定めた閾値以上であ前記パターンの位置又は回転角度に基づいて、前記詳細探索の範囲を決定する、
請求項1に記載のアライメントシステム。
The rough search determines the range of the fine search based on the position or rotation angle of the pattern for which the matching rate of the pattern matching process is equal to or greater than a predetermined threshold.
The alignment system of Claim 1 .
前記粗探索は、前記パターンマッチング処理の一致率が予め定めた閾値以上であ前記パターンが複数ある場合は、一致率が最高である前記パターンの位置又は回転角度に基づいて、前記詳細探索の範囲を決定する、
請求項1に記載のアライメントシステム。
When there are a plurality of patterns whose matching rate in the pattern matching process is equal to or higher than a predetermined threshold, the coarse search is performed based on the position or rotation angle of the pattern with the highest matching rate. determine the range of
The alignment system of Claim 1 .
識別対象を有するワークを撮像した撮像画像から、粗探索又は詳細探索により、前記識別対象を検出する探索ステップと、
前記探索ステップで検出した前記識別対象の実座標に基づいて、前記ワークを移動させる駆動機器に対する指令を行う指令ステップと、を有し、
前記探索ステップと、前記指令ステップと、は繰り返し実行され、
前記探索ステップにおいて前記詳細探索で前記識別対象を検出できた場合の次回の探索は、前記粗探索を行わず前記詳細探索を実行され、
前記粗探索は、前記ワークが有するパターンと、予め登録されたパターンモデルと、のマッチングを行うパターンマッチング処理を含み、
前記詳細探索は、前記粗探索のパターンマッチング処理で用いられる前記パターンモデルの形状に基づいて生成された探索ロジックを用いて実行される、
アライメント方法。
a search step of detecting the identification target by a rough search or a detailed search from a captured image of a workpiece having the identification target;
a command step of commanding a driving device for moving the workpiece based on the real coordinates of the identification target detected in the search step;
The searching step and the commanding step are repeatedly performed,
In the search step, when the identification target can be detected by the fine search, the next search is performed by the fine search without performing the rough search,
The rough search includes pattern matching processing for matching patterns of the workpiece with pre-registered pattern models,
The fine search is performed using search logic generated based on the shape of the pattern model used in the coarse search pattern matching process.
alignment method.
識別対象を有するワークを撮像した撮像画像から前記識別対象を検出し、検出した前記識別対象の実座標に基づいて前記ワークのアライメント制御を行うアライメントシステムにおいて、前記撮像画像の画像処理を行うコンピュータを、
粗探索又は詳細探索により前記撮像画像から前記識別対象を検出し、前記詳細探索で前記識別対象を検出できた場合の次回の探索は、前記粗探索を行わず前記詳細探索を実行する探索部として機能させるためのプログラムであって、
前記粗探索は、前記ワークが有するパターンと、予め登録されたパターンモデルと、のマッチングを行うパターンマッチング処理を含み、
前記詳細探索は、前記粗探索のパターンマッチング処理で用いられる前記パターンモデルの形状に基づいて生成された探索ロジックを用いて実行される、
プログラム。
In an alignment system that detects an identification target from a captured image of a workpiece having the identification target and performs alignment control of the workpiece based on the detected real coordinates of the identification target, a computer that performs image processing of the captured image is provided. ,
The identification target is detected from the captured image by coarse search or fine search, and when the fine search successfully detects the discrimination target, the next search is performed as a search unit that executes the fine search without performing the coarse search. A program for functioning ,
The rough search includes pattern matching processing for matching patterns of the workpiece with pre-registered pattern models,
The fine search is performed using search logic generated based on the shape of the pattern model used in the coarse search pattern matching process.
program.
JP2022577416A 2022-07-27 2022-07-27 Alignment system, alignment method and program Active JP7258259B1 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/028958 WO2024023976A1 (en) 2022-07-27 2022-07-27 Alignment system, alignment method, and program

Publications (3)

Publication Number Publication Date
JP7258259B1 true JP7258259B1 (en) 2023-04-14
JPWO2024023976A1 JPWO2024023976A1 (en) 2024-02-01
JPWO2024023976A5 JPWO2024023976A5 (en) 2024-07-02

Family

ID=85980425

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022577416A Active JP7258259B1 (en) 2022-07-27 2022-07-27 Alignment system, alignment method and program

Country Status (2)

Country Link
JP (1) JP7258259B1 (en)
WO (1) WO2024023976A1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0936202A (en) * 1995-07-14 1997-02-07 Nikon Corp Positioning method
JP2002023851A (en) * 2000-07-06 2002-01-25 Canon Inc Method for aligning plural members and device for the same
JP2019215633A (en) * 2018-06-11 2019-12-19 オムロン株式会社 Control system, control unit, image processing apparatus, and program
JP2022045522A (en) * 2020-09-09 2022-03-22 キヤノントッキ株式会社 Teaching apparatus, substrate transfer apparatus, substrate processing apparatus, teaching method, and method of manufacturing electronic device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0936202A (en) * 1995-07-14 1997-02-07 Nikon Corp Positioning method
JP2002023851A (en) * 2000-07-06 2002-01-25 Canon Inc Method for aligning plural members and device for the same
JP2019215633A (en) * 2018-06-11 2019-12-19 オムロン株式会社 Control system, control unit, image processing apparatus, and program
JP2022045522A (en) * 2020-09-09 2022-03-22 キヤノントッキ株式会社 Teaching apparatus, substrate transfer apparatus, substrate processing apparatus, teaching method, and method of manufacturing electronic device

Also Published As

Publication number Publication date
WO2024023976A1 (en) 2024-02-01
JPWO2024023976A1 (en) 2024-02-01

Similar Documents

Publication Publication Date Title
JP6167622B2 (en) Control system and control method
JP7078894B2 (en) Control systems, controls, image processing devices and programs
CN110581945B (en) Control system, control device, image processing device, and storage medium
JP7258259B1 (en) Alignment system, alignment method and program
US10845776B2 (en) Control device, control method of control device, and recording medium
JP7374353B1 (en) Alignment system, alignment method and program
JP7374354B1 (en) Alignment system, alignment method and program
WO2020003945A1 (en) Position determination system, control method, and program
CN111886556A (en) Control system, control method, and control program
KR102560944B1 (en) Control device and alignment device
JP7172151B2 (en) Control systems, controllers and programs
CN111902785B (en) Control system, control method, and computer-readable storage medium
JP7570570B1 (en) ALIGNMENT SYSTEM, ALIGNMENT METHOD, AND PROGRAM
JP7570571B1 (en) ALIGNMENT SYSTEM, ALIGNMENT METHOD, AND PROGRAM
CN111868658B (en) Control system, control method, and computer-readable storage medium
CN118507375A (en) Wafer defect positioning method, device, terminal equipment and storage medium
CN114077264A (en) Control device, control method for control device, and computer-readable recording medium
CN114077247A (en) Position specifying device, method for controlling position specifying device, and storage medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221215

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221215

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20221215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230307

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230404

R150 Certificate of patent or registration of utility model

Ref document number: 7258259

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150