JP2011191170A - Image processing apparatus - Google Patents
Image processing apparatus Download PDFInfo
- Publication number
- JP2011191170A JP2011191170A JP2010057347A JP2010057347A JP2011191170A JP 2011191170 A JP2011191170 A JP 2011191170A JP 2010057347 A JP2010057347 A JP 2010057347A JP 2010057347 A JP2010057347 A JP 2010057347A JP 2011191170 A JP2011191170 A JP 2011191170A
- Authority
- JP
- Japan
- Prior art keywords
- image
- projection
- unit
- imaging
- projected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Studio Devices (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
- Image Processing (AREA)
Abstract
Description
本発明は、生産現場など、大きさや形状が統一された複数の物品を計測したり、その計測結果に基づき物品を検査する目的に用いられる画像処理装置に関する。 The present invention relates to an image processing apparatus used for the purpose of measuring a plurality of articles whose sizes and shapes are unified, such as a production site, and inspecting articles based on the measurement results.
この種の画像処理装置として、1台のカメラにより生成された画像を用いた2次元の計測処理を行うものと、複数台のカメラにより生成されたステレオ画像を用いた3次元計測を行うものとがある。いずれのタイプの画像処理装置でも、使用に先立ち、対象物を正しく撮像することができるように、カメラの視野の範囲や光軸の方向を合わせる必要がある。 As this type of image processing apparatus, one that performs two-dimensional measurement processing using an image generated by one camera, and one that performs three-dimensional measurement using stereo images generated by a plurality of cameras There is. In any type of image processing apparatus, it is necessary to match the range of the visual field of the camera and the direction of the optical axis so that the object can be correctly imaged before use.
従来のカメラの調整処理では、カメラにより生成された画像をモニタに表示し、モニタの表示と実際の対象物とを見比べながら、最適な撮像状態になるように、カメラの位置や姿勢を調整する。 In a conventional camera adjustment process, an image generated by the camera is displayed on a monitor, and the position and orientation of the camera are adjusted so that an optimal imaging state is obtained while comparing the monitor display with the actual object. .
また、上記の調整が終了して装置が利用される場合にも、適宜、処理結果をモニタに表示することにより、ユーザの便宜を図るようにしている。この表示の従来例として、たとえば、特許文献1には、ステレオ画像中の特定の点や領域を対象にした3次元計測を実行し、その計測結果を計測対象物の全体像に対応づけて立体的に表示することが記載されている。
Further, even when the adjustment is completed and the apparatus is used, the processing result is appropriately displayed on the monitor so as to facilitate the user. As a conventional example of this display, for example, in
また、特許文献2に記載された発明では、目視検査を行う検査者に、CCDや視線検出用のセンサが設けられたヘッドマウントディスプレイを装着させる。さらに、特許文献2には、CCDにより生成された画像を目視用画像としてディスプレイに表示すると共に、視線センサにより検査者の視線が固定されたことが検出されたときの画像を処理して欠陥を検出し、その欠陥の位置を示す枠画像を目視用画像に重ねて表示することが記載されている。
In the invention described in
特許文献1のように、モニタに処理結果が表示される場合には、現場のユーザは、実際の対象物と表示とを見比べることによって、処理結果の適否などを確認する。しかし、モニタの設置場所が撮像が行われる場所から離れている場合には、その確認が困難になり、作業に支障をきたすおそれがある。
When the processing result is displayed on the monitor as in
特許文献2に記載された発明によれば、ユーザは、対象物の画像と画像処理結果とを容易に見比べることができるが、あくまでも画像の比較ができるだけであり、実物と画像処理の結果とを照合することにはならない。
According to the invention described in
また、特許文献2に記載された発明では、ユーザが特殊な装置(ヘッドマウントディスプレイ)を装着する必要があるが、この方法が適用できるのは、特許文献2のように、ユーザが現場に拘束されることを前提とする場合である。生産ラインを流れる製品を対象にした自動検査や、ピッキングシステムにおける3次元計測処理など、ユーザが常時処理対象物を見続ける必要のない用途にまで、この方法を適用するのは困難である。
In addition, in the invention described in
本発明は、上記の問題点に着目し、実際の対象物と撮像手段との関係を確認する作業や、実際の対象物と画像処理結果とを比較する作業を、モニタを用いることなく、撮像が行われる現場で容易に行うことができるようにすることを、課題とする。 The present invention pays attention to the above-mentioned problems, and does not use a monitor to perform an operation of confirming a relationship between an actual object and an imaging unit or an operation of comparing an actual object and an image processing result. It is an object to be able to easily perform it at the site where the
本発明は、2次元の撮像素子を有する撮像手段と、撮像素子が生成した2次元画像(以下、「撮像画像」という。)を撮像手段から入力し、その入力画像を用いてあらかじめ定められた画像処理および計測処理を実行する画像処理手段とを具備する画像処理装置に適用される。 According to the present invention, an image pickup unit having a two-dimensional image pickup device and a two-dimensional image generated by the image pickup device (hereinafter referred to as “captured image”) are input from the image pickup unit, and predetermined using the input image. The present invention is applied to an image processing apparatus having image processing means for executing image processing and measurement processing.
本発明が適用された画像処理装置は、2次元のディジタル画像を表示するための表示素子を供え、この表示素子に表示された画像を撮像手段の視野に向けて投影する画像投影手段と、周囲と明るさまたは色が異なる画像データが設定された2次元パターンを含むディジタル画像を画像投影手段に与えて当該画像の投影処理を実行させる投影制御手段とを具備する。また、画像投影手段から投影される画像の結像面内における撮像素子の撮像対象範囲が、画像投影手段からの画像が投影される範囲に包含されるように、撮像手段と画像投影手段との関係が調整されると共に、2次元パターンが撮像対象領域内に投影される。 An image processing apparatus to which the present invention is applied includes a display element for displaying a two-dimensional digital image, an image projection unit that projects an image displayed on the display element toward a field of view of an imaging unit, And a projection control means for providing the image projection means with a digital image including a two-dimensional pattern in which image data having different brightness or color is set to the image projection means. In addition, the imaging unit and the image projecting unit are configured so that the imaging target range of the imaging element in the imaging plane of the image projected from the image projecting unit is included in the range in which the image from the image projecting unit is projected. The relationship is adjusted and a two-dimensional pattern is projected into the imaging target area.
上記の構成によれば、画像投影手段から投影される画像の結像面に対象物の表面がほぼ位置合わせされた状態になったとき、この対象物の表面に鮮明な画像を投影することが可能になる。また、撮像素子の撮像対象範囲内に周囲と明るさまたは色が異なる画像データが設定された2次元パターンが投影されるので、撮像素子により撮像される範囲に含まれる対象物の表面のうち、上記の2次元パターンが投影される箇所を当該パターンの投影像により明示することが可能になる。さらに、撮像素子の撮像対象範囲は投影される画像が結像する範囲に包含されているので、撮像対象範囲のいずれの位置にも上記の2次元パターンを投影することが可能になる。 According to the above configuration, when the surface of the object is substantially aligned with the imaging plane of the image projected from the image projecting means, a clear image can be projected onto the surface of the object. It becomes possible. In addition, since a two-dimensional pattern in which image data different in brightness or color from the surroundings is set within the imaging target range of the imaging device is projected, among the surfaces of the objects included in the range imaged by the imaging device, It is possible to clearly indicate the location where the two-dimensional pattern is projected by the projection image of the pattern. Furthermore, since the imaging target range of the imaging device is included in the range in which the projected image is formed, the above two-dimensional pattern can be projected at any position in the imaging target range.
したがって、実物の対象物に対し、撮像手段の視野との関係を表すパターンを投影したり、撮像画像に対する処理により検出された部位を示すパターンを投影するなどの投影処理を行うことが可能になり、撮像画像をモニタの表示により確認する必要をなくすことができる。 Therefore, it is possible to perform a projection process such as projecting a pattern representing a relationship with the field of view of the imaging unit or a pattern indicating a part detected by the process on the captured image onto an actual object. This eliminates the need to confirm the captured image by the display on the monitor.
上記の画像処理装置の好ましい一実施態様では、投影制御手段は、画像処理手段の処理結果に基づき上記2次元パターンの画像データを設定する画素を決定して、画像投影手段に投影される画像を生成する。このようにすれば、たとえば、画像処理により所定の特徴を有する部位が検出された場合に、その検出範囲に対応する表示素子側の画素に輝度の高い画像データを設定して投影処理を行うことにより、実際の対象物の表面のうち画像処理により検出された範囲を明るい投影パターンにより明示することが可能になる。また検出される部位の位置、形状、大きさが種々に変動しても、容易に対応することが可能になる。 In a preferred embodiment of the image processing apparatus, the projection control means determines a pixel for setting the image data of the two-dimensional pattern based on a processing result of the image processing means, and outputs an image projected on the image projection means. Generate. In this way, for example, when a part having a predetermined feature is detected by image processing, projection processing is performed by setting image data with high brightness to the pixel on the display element side corresponding to the detection range. As a result, the range detected by the image processing on the actual surface of the object can be clearly indicated by a bright projection pattern. In addition, even if the position, shape, and size of the detected part are variously changed, it is possible to easily cope with it.
他の好ましい実施態様による画像処理装置は、上記の2次元パターンを含む画像を登録するための画像登録手段を具備し、この画像登録手段に登録されている画像の1つを読み出して表示素子に表示させることにより、当該画像の投影処理を実行させる。 An image processing apparatus according to another preferred embodiment includes an image registration unit for registering an image including the two-dimensional pattern, and reads one of the images registered in the image registration unit as a display element. By displaying, the projection processing of the image is executed.
上記の実施態様によれば、たとえば、撮像手段の視野の中心位置や計測対象範囲などを表す2次元パターンを含む画像を画像登録手段に登録しておくことにより、撮像手段の位置や光軸を合わせる作業を行う場合には、登録された画像を投影することにより、モニタの表示を確認することなく作業を行うことが可能になる。また、複数の画像を登録して、その中から作業に必要な画像をユーザに選択させたり、ユーザが自身の用途に応じて作成した画像を登録するなどすれば、利便性をより一層向上することができる。 According to the above-described embodiment, for example, by registering an image including a two-dimensional pattern representing the center position of the field of view of the imaging unit and the measurement target range in the image registration unit, the position and optical axis of the imaging unit can be determined. When performing the matching operation, it is possible to perform the operation without confirming the display on the monitor by projecting the registered image. Also, if a plurality of images are registered and the user selects an image necessary for the work from among them, or an image created by the user according to his / her own use is registered, the convenience is further improved. be able to.
他の好ましい実施態様による画像処理装置では、撮像手段および画像投影手段は、同軸光学系を形成し、かつ同一の筐体の内部に収容される。また、画像投影手段から投影される画像の結像面内における撮像素子側の各画素に対応する各点に、表示素子の互いに異なる画素からの画像データが投影されるように、撮像手段と画像投影手段との関係が調整される。 In the image processing apparatus according to another preferred embodiment, the image pickup unit and the image projection unit form a coaxial optical system and are accommodated in the same casing. Further, the image pickup means and the image are projected so that image data from different pixels of the display element is projected to each point corresponding to each pixel on the image pickup element side in the imaging plane of the image projected from the image projection means. The relationship with the projection means is adjusted.
上記の構成によれば、撮像手段と画像投影手段との光軸が同軸に揃えられると共に、撮像素子と表示素子との画素の対応関係が明確にされているので、表示素子の各画素の中から、撮像対象範囲内の明示したい箇所への投影を行う画素を容易に特定して、投影用画像を設定することが可能になる。 According to the above configuration, the optical axes of the imaging unit and the image projecting unit are aligned on the same axis, and the correspondence between the imaging element and the display element is clarified. Therefore, it is possible to easily specify a pixel to be projected onto a location to be clearly specified within the imaging target range and set a projection image.
他の好ましい実施態様による画像処理装置では、画像投影手段は、撮像手段とは別体に形成されると共に、画像投影手段から投影される画像の結像面内における撮像素子側の各画素に対応する各点に、表示素子の互いに異なる画素からの画像データが投影されるように、撮像手段に対する関係が調整された状態で配備される。また画像処理手段は、撮像手段から入力された画像を用いて3次元計測処理を実行する。また投影制御手段は、画像処理手段の3次元計測処理の結果に基づく3次元情報を表示素子の表示面に透視変換し、その透視変換結果を用いて3次元計測結果を表す画素に2次元パターンの画像データが設定された画像を生成し、この画像を表示素子に表示させることにより当該画像を投影させる。 In the image processing apparatus according to another preferred embodiment, the image projecting unit is formed separately from the image capturing unit, and corresponds to each pixel on the image sensor side in the imaging plane of the image projected from the image projecting unit. The image sensor is arranged in a state in which the relationship with the imaging unit is adjusted so that image data from different pixels of the display element is projected to each point. The image processing unit executes a three-dimensional measurement process using the image input from the imaging unit. Further, the projection control means perspectively converts the three-dimensional information based on the result of the three-dimensional measurement processing of the image processing means to the display surface of the display element, and uses the perspective conversion result to convert the two-dimensional pattern to the pixel representing the three-dimensional measurement result. An image in which the image data is set is generated, and the image is projected by displaying the image on a display element.
なお、この実施態様においては、撮像手段を、複数の2次元カメラによるステレオカメラとして構成し、このステレオカメラを用いた3次元計測を行うのが望ましい。 In this embodiment, it is desirable to configure the imaging means as a stereo camera using a plurality of two-dimensional cameras and perform three-dimensional measurement using the stereo cameras.
上記の実施態様の構成によれば、たとえば、3次元計測処理により取得した3次元情報に基づき、計測対象部位の輪郭形状を示す3次元パターンを生成して、これを表示素子の表面に透視変換することにより、表示素子から見た計測対象部位の輪郭形状を表す2次元パターンを得ることができる。したがって、この輪郭形状を表す2次元パターンを周囲より明るい画像データが設定されたパターンとした投影用画像を生成して投影すれば、ユーザは、投影された輪郭パターンと実際の対象物の輪郭線とを見比べて、3次元計測の結果の適否を認識することが可能になる。 According to the configuration of the above embodiment, for example, based on the three-dimensional information acquired by the three-dimensional measurement process, a three-dimensional pattern indicating the contour shape of the measurement target part is generated, and this is perspective-transformed on the surface of the display element. By doing so, it is possible to obtain a two-dimensional pattern that represents the contour shape of the measurement target site as viewed from the display element. Accordingly, if a projection image is generated by projecting the two-dimensional pattern representing the contour shape into a pattern in which image data brighter than the surroundings is set, the user can project the projected contour pattern and the contour line of the actual object. It is possible to recognize whether or not the result of the three-dimensional measurement is appropriate.
本発明によれば、実際の対象物の撮像対象範囲内に投影される2次元パターンにより、撮像手段の視野と対象物との関係を確認したり、画像処理の結果と実際の対象物の状態とを比較することが可能になるので、ユーザは、モニタの表示を見なくとも、確認作業を容易に行うことが可能になる。また、撮像素子の撮像対象範囲内のどの場所にも、2次元パターンを投影することができ、パターンの形状や大きさも自由に設定することが可能であるので、利便性が高い装置を提供することができる。また、ユーザは、視認用の器具を装着する必要がなく、必要に応じて、実際の対象物を視覚により認識するだけで良いから、様々な用途の画像処理に利用することが可能になる。 According to the present invention, the relationship between the field of view of the imaging means and the object is confirmed by the two-dimensional pattern projected within the imaging object range of the actual object, and the result of the image processing and the actual object state Therefore, the user can easily perform the confirmation work without looking at the display on the monitor. In addition, since a two-dimensional pattern can be projected to any location within the imaging target range of the imaging device, and the shape and size of the pattern can be freely set, a highly convenient apparatus is provided. be able to. In addition, since the user does not need to wear a visual recognition tool and only needs to visually recognize an actual object as necessary, it can be used for image processing for various purposes.
図1は、本発明が適用される画像処理装置の使用例を示す。
この実施例の画像処理装置は、生産現場において、完成した製品または製品の一部を構成する部品(この実施例では「ワークW0」として示す。)の表面に視認される傷や汚れ等の欠陥を検査する目的に用いられるもので、検査対象のワークW0の上方に配備された撮像部1と、コンピュータを含む処理部2とにより構成される。なお、処理部2には、必要に応じて、モニタや設定用の操作部(キーボード、マウスなど)が接続される(他の実施例でも同様である。)。
FIG. 1 shows an example of use of an image processing apparatus to which the present invention is applied.
The image processing apparatus according to this embodiment has defects such as scratches and dirt visually recognized on the surface of a finished product or a part of a part of the product (shown as “work W0” in this embodiment) at the production site. The
処理部2は、図示しないワーク検出用のセンサからの検出信号により撮像位置へのワークW0の搬入を判別し、これに応じて撮像部1を駆動する。これにより撮像処理が実施され、処理部2に撮像画像が入力されると、処理部2では、この撮像画像に対して欠陥検出用の画像処理を実行する。この画像処理には、2値化、エッジ抽出など、欠陥の特徴を抽出するための処理と、抽出された特徴を計測する処理とが含まれる。
The
さらに処理部2は、画像処理の結果に基づき欠陥の有無を判別し、その判別結果を図示しない外部装置に出力すると共に、後記する検査結果画像を生成する。
Further, the
さらに、この実施例の画像処理装置では、欠陥が検出されたときに、その検出部位や欠陥の状態を現場の作業者が容易に確認できるように、実際のワークW0の該当箇所に撮像部1から輝度の高い光を投光して、その箇所を明示するようにしている。
Furthermore, in the image processing apparatus according to this embodiment, when a defect is detected, the
図2は、上記画像処理装置の撮像部1の光学系の構成と処理部2の機能ブロック図とを対応づけて示したものである。この図2および次の図3では、表面に欠陥Dが生じているワークW0を示す。
図2に示すように、撮像部1には、レンズ14、CCD10、投影部11、およびハーフミラー15による同軸光学系が設けられる。このほか、図示していないが、撮像部1には、CCD10や投影部11を駆動するための回路や、画像信号の出力回路などが含まれる。
FIG. 2 shows the configuration of the optical system of the
As shown in FIG. 2, the
投影部11には、液晶パネル(LCD)13およびバックライト用の光源14などが含まれる。LCD12は、CCD10と同じく、レンズ14の焦点位置に配備される。またこの実施例では、LCD12とCCD10とは、縦、横のサイズ(画素数)が同一で、解像度も等しいものとする。
The
ワークW0の表面には、図示しない外部照明からの光が照射される。図2では、ワークW0の表面がレンズ14の合焦位置に合わせられているものとして、その表面の1点からの反射光の光路を一点鎖線により示す。この一点鎖線に示すように、ワークW0からレンズ14に入射した光はハーフミラー16を介してCCD10に導かれ、これを受光したCCD10によってワークWの表面状態を表す画像が生成される。
The surface of the workpiece W0 is irradiated with light from external illumination (not shown). In FIG. 2, it is assumed that the surface of the workpiece W0 is aligned with the focal position of the
投影部11では、光源13からのバックライト照明の下でLCD12に2次元画像が表示されたとき、この画像中の各画素からの光が、ハーフミラー15およびレンズ14を介してレンズ14の視野範囲内に投光される。これにより、LCD12に表示されている画像がワークW0の表面に投影される。
In the
処理部2には、撮像処理部21、検査実行部22、投影用画像生成部23、投影動作制御部24の機能が設定される。撮像処理部21は、CCD10を駆動し、生成された撮像画像を入力する。検査実行部22は、撮像処理部21から上記の撮像画像の供給を受け、欠陥検出のための画像処理や欠陥の有無を判別する処理を実行する。また外部機器に判別結果を出力する処理や、検査結果画像を生成する処理も、検査実行部22により実行される。
In the
投影用画像生成部23は、検査実行部22が欠陥Dを検出して検査結果画像を生成したことに応じて起動し、LCD12に表示させる投影用画像を生成する。投影動作制御部24は、投影用画像生成部23により生成された投影用画像を投影部11に出力し、上記した投影処理を行う。
The projection
この実施例では、CCD10とLCD12とは、画素数や解像度が完全に一致し、レンズ14の焦点の位置に配備されているので、LCD12から投影される画像の結像面においては、CCD10の撮像対象範囲と、LCD12からの画像の投影範囲とは完全に一致する。すなわち、CCD10とLCD12との間では、同じ座標にある画素同士が対応する関係となる。よって、ワークの表面がレンズ14の合焦位置に合わせられている場合には、撮像画像中の座標(x,y)に現れるワークW0上の任意の点に対し、LCD12側の同一の座標(x,y)から画像データを投影することが可能になる。
In this embodiment, the
この実施例では、上記の光学系の特性を利用して、実際のワークW0のうちの画像処理により欠陥が検出された箇所に、輝度の高い色彩によるパターン画像(以下、これを「マーキングパターン」という。)が投影されるようにしている。この投影により、現場の作業者は、実際のワークの明るく照明された箇所を不良が検出された部位として視認することができるので、検査結果の適否や不良の程度を容易に確認することができる。 In this embodiment, by utilizing the characteristics of the optical system described above, a pattern image (hereinafter referred to as a “marking pattern”) having a high luminance color at a location where a defect is detected by image processing in the actual workpiece W0. Is projected). By this projection, an on-site worker can visually recognize the brightly illuminated part of the actual work as a part where a defect is detected, so that the suitability of the inspection result and the degree of the defect can be easily confirmed. .
図3は、撮像部1の光学系について、ワークW0の欠陥Dに対する光路を示すと共に、処理部2において実施される処理の概略手順のフローチャートを処理中に生成される画像の例に関連づけて示す。以下、この図を参照して、上記の処理部2および撮像部1において実行される処理を説明する。
FIG. 3 shows an optical path for the defect D of the workpiece W0 for the optical system of the
検査対象のワークW0が搬入されると、処理部2では、撮像処理部21によりCCD10を駆動して、生成された画像を入力し(ステップA)、検査実行部22による画像処理(計測処理や判別処理を含む。)を実行する(ステップB)。また、欠陥Dが検出された場合には、検査実行部22は、その検出結果を示す検査結果画像40を生成する。
When the workpiece W0 to be inspected is carried in, the
図3に示す検査結果画像40は、撮像画像をベースとするもので、画像中の欠陥D1を囲む範囲に矩形領域Rが設定されている。以下では、この領域Rを「検出領域R」という。
The inspection result
投影用画像生成部23は、前記した光学系の特性に基づき、検査結果画像40中の検出領域Rと同じ範囲に輝度の高い色彩領域RP(たとえば赤色の領域)を設定し、その他の画素に暗色(たとえば黒色)を設定した投影用画像50を生成する(ステップC)。
投影動作制御部24は、この投影用画像50を投影部11に与えて、投影処理を実行させる(ステップD)。これにより、投影用画像50中の領域RP内の各画素からは、その領域RPに設定された色彩による光がワークW0に投光されるが、他の暗色が設定された画素からは殆ど光は投光されない。よって、実際のワークW0の検出領域Rに対応する範囲に、領域RPの投影像によるマーキングパターンMが投影されて、この範囲が明示される。このマーキングパターンMの投影範囲は、検査結果画像50中の検出領域R内に現れた箇所に相当する。したがって、マーキングパターンM内に実際の欠陥Dが含まれているならば、検査の結果は正しいということになる。
Based on the characteristics of the optical system described above, the projection
The projection
上記の投影処理によれば、画像処理の結果に基づき、マーキングパターンMの位置や大きさを自由に変更することができるので、検出された欠陥の位置、大きさ、形状などが個々のワークW0によってばらついても、なんの問題もなく、実際のワークW0の表面に欠陥の検出範囲を明示することが可能になる。したがって、撮像が行われる現場付近にモニタが配備されていなくとも、作業者は検査の結果を支障なく確認することができる。 According to the above projection processing, the position and size of the marking pattern M can be freely changed based on the result of the image processing, so that the position, size, shape, etc. of the detected defect are determined by the individual workpiece W0. It is possible to clearly indicate the defect detection range on the surface of the actual work W0 without any problem. Therefore, even if a monitor is not provided near the site where imaging is performed, the operator can confirm the inspection result without any trouble.
なお、上記の実施例では、説明を簡単にするために、CCD10とLCD12とのサイズや解像度が統一されているものとしたが、これらが異なる場合でも、LCD12からの投影用画像の結像面内におけるCCD10の撮像対象範囲が投影用画像の結像範囲に包含され、かつ、この撮像対象範囲内のCCD10の各画素に対応する各点に、それぞれLCD12の互いに異なる画素からの画像データが投影される関係が成立していれば、CCD10とLCD12との間の画素の対応関係に基づき、上記と同様の投影処理を実施することができる。
In the above embodiment, the size and resolution of the
また、上記の投影処理は欠陥の検出結果を示す目的に限定されるものではない。たとえば、人手により実施される工程において、搬入されたワークを撮像して画像処理により作業対象部位を検出し、検出された対象部位にマーキングパターンを投影することも可能である。このような処理によれば、作業者は、作業対象部位を容易に認識して効率良く作業を行うことができる。 Further, the above-described projection processing is not limited to the purpose of showing the defect detection result. For example, in a process performed manually, it is also possible to image a workpiece that has been carried in, detect a work target part by image processing, and project a marking pattern onto the detected target part. According to such processing, the worker can easily recognize the work target part and perform the work efficiently.
さらに、上記構成の画像処理装置では、種々の2次元パターンを含む画像を生成して投影することができるので、図4および図5に示すように、本格的な使用の前に、撮像部1の視野や光軸の方向などを調整する作業に利用することができる。
Furthermore, since the image processing apparatus having the above configuration can generate and project an image including various two-dimensional patterns, the
図4および図5の実施例では、図2,3の例より大きいワークW1を対象として、図1〜3の実施例と同様の構成の撮像部1を2つ使用して、ワークW1を異なる視点から撮像する。図4,5では、これらの撮像部1の構成を、図2,3と同じ数字にa,bを付けた符号により示すと共に、各撮像部1a,1bに対して処理部2が実行する処理手順を示すフローチャートと投影用画像とを対応づけている。
4 and 5, the workpiece W1 is different by using two
また、図4,5には示していないが、各撮像部1a,1bは、同一の処理部2に接続され、処理部2において、各撮像部1a,1bから入力された撮像画像を用いた3次元計測処理、または画像毎に異なる内容の2次元の画像処理を実行する。また、この処理部2には、撮像部1a,1b毎に、図2に示した撮像処理部21、投影用画像生成部23、投影動作制御部24の機能が設定される。
Although not shown in FIGS. 4 and 5, the imaging units 1 a and 1 b are connected to the
なお、装置の構成は上記に限らず、たとえば各撮像部1a,1bを、それぞれ別個の処理部2に接続して、処理部2,2間で通信を行いながら処理を行ったり、各処理部2,2から上位機器に処理結果を出力して、上位機器で各処理結果を二次加工することも可能である。
The configuration of the apparatus is not limited to the above. For example, each imaging unit 1a, 1b is connected to a
図4の実施例では、ワークW1の表面の一点に各撮像部1a,1bの視野の中心点を合わせるために、投影機能を利用する。 In the embodiment of FIG. 4, a projection function is used to align the center point of the field of view of each imaging unit 1a, 1b with one point on the surface of the workpiece W1.
具体的に説明すると、この実施例では、撮像部1a,1b毎に、十字型のパターンPa,Pbを含む投影用画像51a,51bを生成し(ステップC1,C2)、これらの投影用画像を投影部12a,12bに与えて投影処理を行わせる(D1,D2)。各パターンPa,Pbの中心部(十字のクロス部分)は、CCD10a,10bの中心部の画素に対応し、いずれの投影用画像51a,51bとも、パターンPa,Pbの構成画素以外の画素に、背景色として暗色が設定される。また各投影用画像51a,51bにおけるパターンPa,Pbの形状や大きさは一致しているが、それぞれ色彩が異なる。たとえば、画像51aのパターンPaは赤色に設定され、画像52bのパターンPbは青色に設定される。
More specifically, in this embodiment,
上記によれば、それぞれの撮像部1a,1bの投影部11a,11bから上記の投影用画像51a,51bを投影することにより、ワークWの表面に対し、各パターンPa,Pbの投影像による十字型のマーキングパターンMa,Mbが投影される。これらのマーキングパターンMa,Mbは、それぞれ撮像部1a,1bの視野の中心部を表すことになるので、作業者は、各マーキングパターンMa,Mbの中心部が目標とする位置で合わせるように、各撮像部1a,1bの位置や姿勢を調整することにより、撮像部1a,1bの視点を合わせることができる。
According to the above, by projecting the
図5の実施例は、図4と同様のワークW1に対し、各撮像部1a,1bによる計測範囲を位置合わせする目的に投影機能を利用したものである。
この実施例でも、処理部2は、各撮像部1a,1bに対して図4の例と同様のステップC1,D1、ステップC2,D2を実行するが、この実施例では、撮像画像に設定される計測対象領域に対応する範囲に輝度の高い色彩による矩形パターンSa,Sbを設定した投影用画像52a,52bを生成する。さらに、この実施例でも、図4の例と同様に、各投影用画像52a,52bの矩形パターンSa,Sbにそれぞれ異なる色彩を設定する。
The embodiment of FIG. 5 uses a projection function for the purpose of aligning the measurement ranges by the imaging units 1a and 1b with respect to the workpiece W1 similar to FIG.
Also in this embodiment, the
上記の処理によれば、各投影部11a,11bから上記の投影用画像52a,52bを投影することにより、各矩形パターンSa,Sbの投影像Ta,Tbを、各撮像部1a,1bの計測対象領域を示すマーキングパターンとしてワークW1に投影することができる。これにより、作業者は、各色彩のマーキングパターンTa,Tbが重なる範囲ができるだけ広くなるように、撮像部の光軸の向きを調整することによって、最適な計測状態を設定することができる。
According to the above processing, the
なお、図5の実施例においては、ノイズなどの影響を考慮して、CCD10a,10bの外周部の画素により生成される画像データを計測対象から除外し、これに伴い、投影用画像52a,52bでも、矩形パターンSa,Sbの周囲に暗色領域を設定しているが、各撮像部1a,1bの視野に対応する範囲全体を明示したい場合には、投影用画像52a,52bの全ての画素に輝度の高い画像データを設定して投影を行ってもよい。
In the embodiment of FIG. 5, the image data generated by the pixels on the outer periphery of the
つぎに、図4,5の実施例では、撮像画像に対する画像処理に基づかずに、あらかじめ登録された投影用画像を読み出して投影するものであるが、これらの実施例でも、投影処理中に撮像を行って、生成された撮像画像を処理し、その処理結果に基づき各投影用画像の状態を変更してもよい。 Next, in the embodiments of FIGS. 4 and 5, the image for projection registered in advance is read out and projected without being based on the image processing for the captured image, but in these embodiments as well, the image is captured during the projection processing. The generated captured image may be processed, and the state of each projection image may be changed based on the processing result.
たとえば、図5の実施例に関して説明すると、各投影用画像52a,52bが投影されている状態下で、CCD10a,10bのいずれかによる撮像を行って、撮像画像からマーキングパターンTa,Tbが重なる範囲を検出し、その重なり範囲の面積があらかじめ定めた基準値を超えたときに、各パターンSa,Sbの色彩を統一するような処理を行うことができる。このようにすれば、設定作業に不慣れな作業者でも、ワークW1に投影されたマーキングパターンTa,Tbの色彩が統一されるまで位置合わせ作業を行うことにより、撮像部1a,1bの関係を計測に最適な状態に設定することが可能になる。
For example, the embodiment of FIG. 5 will be described. A range in which the marking patterns Ta and Tb are overlapped from the captured image by performing imaging with either of the
なお、上記図4,5の例では、2つの撮像部1a,1bの視点や計測対象領域を位置合わせする目的で投影機能を利用しているが、第1実施例のように単体の撮像部1を使用する場合にも、同様の投影処理を行うことにより、ワークに対する撮像部1の視点の位置や光軸方向を合わせる作業を支援することができる。
In the example of FIGS. 4 and 5, the projection function is used for the purpose of aligning the viewpoints and measurement target areas of the two imaging units 1a and 1b, but a single imaging unit as in the first embodiment. Even when 1 is used, the same projection processing can be performed to assist the work of aligning the position of the viewpoint of the
また、上記では、図4および図5をそれぞれ別の実施例として説明したが、これらの実施例に適用された4種類の投影用画像51a,51b,52a,52bを含む複数種の投影用画像を処理部2に登録しておき、これらの投影用画像の中から、目的に応じた投影用画像を選択して投影処理に使用するようにしてもよい。さらに、ユーザが画像作成ソフトにより作成した画像を投影用画像として登録できるようにすれば、自由度が増し、撮像部1の位置合わせ以外の目的にも利用することができる。たとえば、ワークを手作業で計測対象位置に配置する場合に、撮像および画像処理が終了したことを作業者に報知する目的で、ワークの特定の場所にマーキングパターンを投影することができる。
In the above description, FIGS. 4 and 5 have been described as different embodiments. However, a plurality of types of projection images including four types of
つぎに、図6は、投影部と撮像部とを分離させたタイプの画像処理装置の構成例を示す。この図6では、撮像部を100、投影部を110、処理部を200として示す。撮像部100には、CCD101やレンズ102など、撮像機能に関わる部材のみが配備され、投影部110には、LCD111,光源112,および投光用のレンズ113が設けられる。また、この実施例では、計測対象物の例として、立方体状のワークW2を示す。
Next, FIG. 6 shows a configuration example of an image processing apparatus of a type in which a projection unit and an imaging unit are separated. In FIG. 6, the imaging unit is indicated as 100, the projection unit as 110, and the processing unit as 200. The
図6には示していないが、この実施例では、図中の撮像部100を含む複数台の撮像部が設けられる(以下、全ての撮像部に、図中の撮像部の符号100を適用する。)。処理部200は、各撮像部100から入力された撮像画像を用いた3次元計測処理を実行するもので、撮像処理部201、3次元計測処理部202、投影用画像生成部203、投影動作制御部204、キャリブレーション処理部205の機能が設定される。
Although not shown in FIG. 6, in this embodiment, a plurality of imaging units including the
撮像処理部201は、各撮像部100のCCD101を同じタイミングで駆動し、各CCD101からの撮像画像を入力する。3次元計測処理部202は、これらの撮像画像を用いてワークW2に対する3次元計測処理を実行する。投影用画像生成部203は、この3次元計測処理の結果に基づいて、投影用画像を生成する。投影動作制御部204は、投影画像生成部203から投影用画像の提供を受けて、これを投影部110のLCD111に出力することにより、当該画像を撮像部100の視野に向けて投影させる。
The
キャリブレーション処理部205は、計測処理に先立ち、キャリブレーション作業を行う作業者の指示に従って動作し、複数の撮像部100毎に、3次元計測用のパラメータを求めるキャリブレーション演算を実行し、この演算により導出されたパラメータを内部のメモリに登録する。さらにキャリブレーション処理部205では、投影部110のLCD111に対してもキャリブレーション演算を実行して、3次元計測により得た3次元座標に対応する画素を特定するのに必要なパラメータを求めるキャリブレーション演算を実行する。
Prior to the measurement process, the
ここで、LCD110に対するキャリブレーション処理について、簡単に説明する。
この実施例の処理部200には、複数の特徴点が特定の規則に従って配列された構成のキャリブレーションパターンを示す投影用画像が登録されている。作業者は、各撮像部100に対するキャリブレーションが終了した後に、撮像対象位置にスクリーンを配置し、処理部2に対し、キャリブレーションパターンの投影用画像を読み出して投影部110に出力する旨を指示する操作を行う。この操作に応じて、投影用画像生成部203および投影動作制御部204が起動し、上記の投影用画像の読み出しや投影処理を実行する。このとき作業者は、各撮像部100の視野内に十分な数の特徴点が明瞭に現れるように、投影部110の位置や姿勢を調整する。
Here, the calibration process for the
In the
上記の調整が完了すると、作業者は、処理部200に対し、キャリブレーション演算の実行を指示する操作を行う。この操作により、撮像処理部201,3次元計測処理部202、キャリブレーション処理部205の協働による処理が開始され、まず、各撮像部100からの画像を用いた3次元計測が実施され、各撮像部100の視野内に共通に含まれる複数の特徴点の3次元座標が計測される。キャリブレーション処理部205は、これらの3次元座標を元の投影用画像中の特徴点の座標と対応づけて、これらを用いて、3次元座標の計測値とLCD111上の2次元座標との関係を表すパラメータを導出する。導出されたパラメータは、内部のメモリに登録される。
When the above adjustment is completed, the operator performs an operation to instruct the
図7は、上記の登録処理が完了した画像処理装置において実行される処理の概要を、ワークW2に対する撮像部100の光学系の関係、および処理部200において実行される処理の手順を示すフローチャートなどにより示す。
FIG. 7 is a flowchart showing an outline of processing executed in the image processing apparatus in which the registration processing is completed, a relationship of the optical system of the
この実施例の処理部200では、まず、撮像処理部201が各撮像部100からの撮像画像を入力し(ステップA3)、3次元計測処理部202による3次元計測処理を実行する(ステップB3)。なお、図7の例では、この3次元計測により、ワークW2のエッジ部分の3次元座標が計測されるものとして、その計測結果を透視変換したものを撮像画像に合成した画像43を計測結果画像として作成する。処理部200にモニタが接続される場合には、この計測結果画像43はモニタに表示される。
In the
透視用画像生成部203は、上記の処理により求められた3次元座標を取得して、これらを、キャリブレーション処理により登録されたパラメータに基づき、LCD111の表示面に透視変換する。さらに、この透視変換により判明した各3次元座標の投影点に沿って輪郭パターンEPを設定し、この輪郭パターンEPを輝度の高い色彩により表した投影用画像53を生成する(ステップC3)。
The fluoroscopic
投影動作制御部204は、上記の処理により生成された投影用画像53を投影部110に与えて、投影処理を実行させる。これにより、上記の輪郭パターンEPによる投影像MEが3次元計測結果を示すマーキングパターンとしてワークW2に投影される。
The projection
上記の処理により生成される投影用画像53中の輪郭パターンEPは、3次元計測により計測された各点を、投影部110のLCD111の位置から観察した状態を示すものである。したがって、3次元計測の結果が正しい場合には、輪郭パターンEPの投影により生じたマーキングパターンMEは、実際のワークW2の輪郭に沿う状態となるはずである。よって、作業者は、パターンEPの投影により生じたマーキングパターンが示す輪郭線と実際のワークの輪郭線とを見比べることにより、3次元計測の精度を確認することができる。
The contour pattern EP in the projection image 53 generated by the above processing indicates a state in which each point measured by the three-dimensional measurement is observed from the position of the
1,100 撮像部
2,200 処理部
10,101 CCD
11,110 投影部
12,111 LCD
23,203 投影画像生成部
24,204 投影動作制御部
22 検査実行部
202 3次元計測処理部
50,51a,51b,52a,52b,53 投影用画像
M,Ma,Mb,Ta,Tb,ME マーキングパターン
W0,W1,W2 ワーク
1,100 Imaging unit 2,200 Processing unit 10,101 CCD
11,110 Projection unit 12,111 LCD
23, 203 Projected
Claims (5)
2次元のディジタル画像を表示するための表示素子を備え、この表示素子に表示された画像を前記撮像手段の視野に向けて投影する画像投影手段と、
周囲と明るさまたは色が異なる画像データが設定された2次元パターンを含むディジタル画像を前記画像投影手段に与えて当該画像の投影処理を実行させる投影制御手段とを具備し、
前記画像投影手段から投影される画像の結像面内における前記撮像素子の撮像対象範囲が、前記画像投影手段からの画像が投影される範囲に包含されるように、撮像手段と画像投影手段との関係が調整されると共に、前記2次元パターンが前記撮像対象範囲内に投影される、
ことを特徴とする画像処理装置。 An image pickup means having a two-dimensional image pickup device, and an image processing means for inputting a two-dimensional image generated by the image pickup device from the image pickup means and executing predetermined image processing and measurement processing using the input image. In the image processing apparatus provided,
An image projecting unit that includes a display element for displaying a two-dimensional digital image, and projects the image displayed on the display element toward the field of view of the imaging unit;
Projection control means for providing the image projection means with a digital image including a two-dimensional pattern in which image data different in brightness or color from the surroundings is set, and executing projection processing of the image;
An imaging unit and an image projecting unit such that an imaging target range of the imaging element in an imaging plane of an image projected from the image projecting unit is included in a range in which an image from the image projecting unit is projected And the two-dimensional pattern is projected into the imaging target range.
An image processing apparatus.
請求項1〜3のいずれかに記載された画像処理装置。 The image pickup unit and the image projection unit form a coaxial optical system and are housed in the same casing, and are located on the image pickup element side in the imaging plane of an image projected from the image projection unit. The relationship between the imaging unit and the image projecting unit is adjusted so that image data from different pixels of the display element is projected to each point corresponding to each pixel.
The image processing apparatus according to claim 1.
前記画像処理手段は、前記撮像手段から入力された画像を用いた3次元計測処理を実行し、
前記投影制御手段は、前記画像処理手段の3次元計測処理の結果に基づく3次元情報を前記表示素子の表示面に透視変換し、その透視変換結果を用いて前記3次元計測結果を表す画素に前記2次元パターンの画像データが設定された画像を生成し、この画像を前記表示素子に表示させることにより当該画像を投影させる、請求項1に記載された画像処理装置。 The image projecting unit is formed separately from the image capturing unit, and is displayed at each point corresponding to each pixel on the image sensor side in an image formation plane of an image projected from the image projecting unit. Deployed with the relationship to the imaging means adjusted so that image data from different pixels of the element is projected,
The image processing means executes a three-dimensional measurement process using the image input from the imaging means,
The projection control means perspectively converts the three-dimensional information based on the result of the three-dimensional measurement process of the image processing means to the display surface of the display element, and uses the result of the perspective conversion to convert the pixel into the pixel representing the three-dimensional measurement result. The image processing apparatus according to claim 1, wherein an image in which the image data of the two-dimensional pattern is set is generated, and the image is projected by displaying the image on the display element.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010057347A JP2011191170A (en) | 2010-03-15 | 2010-03-15 | Image processing apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010057347A JP2011191170A (en) | 2010-03-15 | 2010-03-15 | Image processing apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011191170A true JP2011191170A (en) | 2011-09-29 |
Family
ID=44796267
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010057347A Pending JP2011191170A (en) | 2010-03-15 | 2010-03-15 | Image processing apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011191170A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013196355A (en) * | 2012-03-19 | 2013-09-30 | Toshiba Corp | Object measuring device and object measuring method |
JP2015519568A (en) * | 2012-05-15 | 2015-07-09 | ザ・ボーイング・カンパニーTheBoeing Company | Pollution identification system |
JP2018050298A (en) * | 2016-09-22 | 2018-03-29 | フルークコーポレイションFluke Corporation | Imaging apparatus with alignment analysis function |
CN112930468A (en) * | 2018-11-08 | 2021-06-08 | 成都频泰鼎丰企业管理中心(有限合伙) | Three-dimensional measuring device |
JP2023012740A (en) * | 2021-07-14 | 2023-01-26 | 三菱重工業株式会社 | Inspection system and inspection method |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002250613A (en) * | 2001-02-27 | 2002-09-06 | Ricoh Co Ltd | Optical three-dimensional shape measurement system |
JP2003131319A (en) * | 2001-10-25 | 2003-05-09 | Seiko Epson Corp | Optical transmission and reception device |
JP2005004165A (en) * | 2003-05-21 | 2005-01-06 | Nec Viewtechnology Ltd | Projector having tilt angle measuring device |
JP2010016019A (en) * | 2008-07-01 | 2010-01-21 | Nisshinbo Holdings Inc | Photovoltaic device inspection apparatus and method of determining defect in photovoltaic device |
-
2010
- 2010-03-15 JP JP2010057347A patent/JP2011191170A/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002250613A (en) * | 2001-02-27 | 2002-09-06 | Ricoh Co Ltd | Optical three-dimensional shape measurement system |
JP2003131319A (en) * | 2001-10-25 | 2003-05-09 | Seiko Epson Corp | Optical transmission and reception device |
JP2005004165A (en) * | 2003-05-21 | 2005-01-06 | Nec Viewtechnology Ltd | Projector having tilt angle measuring device |
JP2010016019A (en) * | 2008-07-01 | 2010-01-21 | Nisshinbo Holdings Inc | Photovoltaic device inspection apparatus and method of determining defect in photovoltaic device |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013196355A (en) * | 2012-03-19 | 2013-09-30 | Toshiba Corp | Object measuring device and object measuring method |
JP2015519568A (en) * | 2012-05-15 | 2015-07-09 | ザ・ボーイング・カンパニーTheBoeing Company | Pollution identification system |
JP2017203781A (en) * | 2012-05-15 | 2017-11-16 | ザ・ボーイング・カンパニーThe Boeing Company | Contamination identification system |
JP2018050298A (en) * | 2016-09-22 | 2018-03-29 | フルークコーポレイションFluke Corporation | Imaging apparatus with alignment analysis function |
CN112930468A (en) * | 2018-11-08 | 2021-06-08 | 成都频泰鼎丰企业管理中心(有限合伙) | Three-dimensional measuring device |
JP2022514440A (en) * | 2018-11-08 | 2022-02-10 | 成都頻泰鼎豐企業管理中心(有限合夥) | 3D measuring equipment |
CN112930468B (en) * | 2018-11-08 | 2022-11-18 | 成都频泰鼎丰企业管理中心(有限合伙) | Three-dimensional measuring device |
JP7418455B2 (en) | 2018-11-08 | 2024-01-19 | 成都頻泰鼎豐企業管理中心(有限合夥) | 3D measurement equipment and measurement system |
US11953313B2 (en) | 2018-11-08 | 2024-04-09 | Chengdu Pin Tai Ding Feng Business Administration | Three-dimensional measurement device |
JP2023012740A (en) * | 2021-07-14 | 2023-01-26 | 三菱重工業株式会社 | Inspection system and inspection method |
JP7236198B2 (en) | 2021-07-14 | 2023-03-09 | 三菱重工業株式会社 | Inspection system and inspection method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10508902B2 (en) | Three-dimensional measurement device | |
US8233041B2 (en) | Image processing device and image processing method for performing three dimensional measurements | |
TWI614483B (en) | Method and system for detecting luminance of a light source | |
KR101794964B1 (en) | Inspection system and inspection method | |
JP2012032344A (en) | Picture measuring device, picture measuring method and program for picture measuring device | |
JP2005127989A (en) | Flaw detector and flaw detecting program | |
JP4080514B2 (en) | Inspection device, inspection method, inspection program, and computer-readable recording medium | |
JP5270971B2 (en) | Image measuring apparatus, image measuring method, and computer program | |
TW201346251A (en) | Method for registering an inspection standard for solder inspection and substrate inspection device using the method | |
JP2005318652A (en) | Projector with distortion correcting function | |
JP2011191170A (en) | Image processing apparatus | |
JP5222430B1 (en) | Dimension measuring apparatus, dimension measuring method and program for dimension measuring apparatus | |
TW201441604A (en) | System and method for detecting shape flaw | |
JP5467962B2 (en) | Measurement setting data creation device, measurement setting data creation method, program for measurement setting data creation device, and dimension measurement device | |
KR101056393B1 (en) | Micro Vision Inspection System for PCC defect inspection | |
JP2012037257A (en) | Measurement setting data creation device, measurement setting data creation method, and program for measurement setting data creation device | |
JP5272784B2 (en) | Optical inspection method and optical inspection apparatus | |
JP2017053671A (en) | Shape measurement method | |
JP6371742B2 (en) | Measuring device and acquisition method | |
JP2005249946A (en) | Defect inspecting apparatus for display device | |
JP6835020B2 (en) | Image processing system, image processing device, image processing program | |
JP5967470B2 (en) | Inspection device | |
KR101056392B1 (en) | Surface inspection method and device | |
JP6885763B2 (en) | Lens meter | |
JP2016080517A (en) | Surface inspection device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20121015 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20130828 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130830 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130903 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20130828 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20131031 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20131217 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20140415 |