DE102013014475B4 - Process for the detection and compensation of measurement deviations during the operation of an optical measuring device, optical measuring method and optical measuring device - Google Patents
Process for the detection and compensation of measurement deviations during the operation of an optical measuring device, optical measuring method and optical measuring device Download PDFInfo
- Publication number
- DE102013014475B4 DE102013014475B4 DE102013014475.2A DE102013014475A DE102013014475B4 DE 102013014475 B4 DE102013014475 B4 DE 102013014475B4 DE 102013014475 A DE102013014475 A DE 102013014475A DE 102013014475 B4 DE102013014475 B4 DE 102013014475B4
- Authority
- DE
- Germany
- Prior art keywords
- display device
- calibration
- measurement object
- measuring
- measurement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000005259 measurement Methods 0.000 title claims abstract description 77
- 238000000034 method Methods 0.000 title claims abstract description 52
- 230000003287 optical effect Effects 0.000 title claims abstract description 29
- 238000001514 detection method Methods 0.000 title claims abstract description 28
- 230000008569 process Effects 0.000 title claims abstract description 10
- 230000003068 static effect Effects 0.000 claims abstract description 40
- 238000011156 evaluation Methods 0.000 claims abstract description 18
- 238000012937 correction Methods 0.000 claims abstract description 8
- 238000004364 calculation method Methods 0.000 claims abstract description 6
- 230000005540 biological transmission Effects 0.000 claims abstract description 5
- 230000001131 transforming effect Effects 0.000 claims abstract 4
- 238000004140 cleaning Methods 0.000 claims abstract 2
- 230000001419 dependent effect Effects 0.000 claims description 4
- 230000003044 adaptive effect Effects 0.000 claims description 3
- 230000006870 function Effects 0.000 abstract description 5
- 230000008030 elimination Effects 0.000 abstract 1
- 238000003379 elimination reaction Methods 0.000 abstract 1
- 230000003595 spectral effect Effects 0.000 description 7
- 238000003384 imaging method Methods 0.000 description 6
- 238000012545 processing Methods 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- 239000003086 colorant Substances 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000007620 mathematical function Methods 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 230000005693 optoelectronics Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B21/00—Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant
- G01B21/02—Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring length, width, or thickness
- G01B21/04—Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring length, width, or thickness by measuring coordinates of points
- G01B21/042—Calibration or calibration artifacts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
- G06T2207/30208—Marker matrix
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Verfahren zur Erkennung und Kompensation von Messabweichungen während des Betriebes einer optischen Messvorrichtung zum Messen von geometrischen Merkmalen eines Messobjektes (4), wobei die Messvorrichtung zumindest eine Erfassungseinrichtung (1) zum berührungslosen Erfassen von zwei- oder dreidimensionalen Größen des Messobjektes (4), zumindest eine Anzeigeeinrichtung (2), die aus einem festen Raster steuerbarer Elemente besteht und als Maßverkörperung dienende Muster erzeugt, und eine Auswerte- und Steuereinrichtung (3) aufweist, gekennzeichnet durch folgende Schritte:a) Ausführen einer statischen Kalibrierung und Erzeugen von statischen Kalibrierdaten oder Laden von vorhandenen statischen Kalibrierdaten aus der Auswerte- und Steuereinrichtung (3) oder aus einer externen Datenquelle;b) Erzeugung eines Hintergrundes auf der Anzeigeeinrichtung (2), der eine gleichmäßige, homogene Leuchtdichte ausweist und sich hinter / unter dem Messobjekt befindet;c) Aufnahme eines ersten Bildes mit der Erfassungseinrichtung (1) und Übertragung zum Speicher der Auswerte- und Steuereinrichtung (3);d) Bestimmen von Punkten von Interesse am Messobjekt (4) und an der Anzeigeeinrichtung (2), und Ermittlung ihrer Koordinaten im Koordinatensystem (KS1) der Erfassungseinrichtung (1);e) Transformieren der Koordinaten der Punkte von Interesse am Messobjekt (4) mit Hilfe der in Schritt a) ermittelten / bereitgestellten statischen Kalibrierdaten in das Koordinatensystem (KS2) der Anzeigeeinrichtung (2);f) Ermittlung der durch das Messobjekt (4) nicht verdeckten Bereiche der Anzeigeeinrichtung (2), die im Bild der Erfassungseinrichtung (1) sichtbar sind;g) Darstellen von virtuellen, in Position, Größe, Farbe und Form veränderbaren Kalibriermarken in Bereichen der Anzeigeeinrichtung (2), die nicht durch das Messobjekt (4) verdeckt sind und gleichzeitig im Bild der Erfassungseinrichtung (2) sichtbar sind, und Ermittlung von definierten Punkten an den virtuellen Kalibriermarken im Koordinatensystem (KS2) der Anzeigeeinrichtung (2);h) Aufnahme mindestens eines zweiten Bildes mit der Erfassungseinrichtung (1) und Übertragung zum Speicher der Auswerte- und Steuereinrichtung (3);i) Auffinden der vordefinierten Punkte an den virtuellen Kalibriermarken und Ermittlung ihrer Koordinaten im Koordinatensystem (KS1) der Erfassungseinrichtung (1);j) Transformieren dieser Koordinaten der vordefinierten Punkte an den virtuellen Kalibriermarken mit Hilfe der in Schritt a) ermittelten / bereitgestellten statischen Kalibrierdaten in das Koordinatensystem (KS2) der Anzeigeeinrichtung (2);k) Vergleich der unter Punkt g) und unter Punkt j) ermittelten Koordinaten der virtuellen Kalibriermarken im Koordinatensystem (KS2) der Anzeigeeinrichtung (2) und bei Überschreitung zulässiger vorgegebener Abweichungen, dem Aufbau und der Funktionsweise der Messvorrichtung angepasste Instruktion eines Bedieners zur Entnahme des Messobjektes und zur Reinigung und / oder Beseitigung eines Fehlers in der Messvorrichtung,I) Wiederholen der Schritte a) bis k) bis die zulässigen Abweichungen eingehalten werden und bei Einhaltung der zulässigen Abweichungen dem Aufbau und der Funktionsweise der Messvorrichtung angepasste Berechnung von Korrekturen für die statischen Kalibrierdaten und Erzeugen von dynamischen Kalibrierdaten; bei Überschreitung einer vorbestimmten Anzahl unzulässiger Abweichungen erfolgt ein Abbruch des Verfahrens.A method for the detection and compensation of measurement deviations during the operation of an optical measuring device for measuring geometric features of a measurement object (4), the measurement device having at least one detection device (1) for the contactless detection of two- or three-dimensional quantities of the measurement object (4), at least one Display device (2), which consists of a fixed grid of controllable elements and generates patterns serving as a measuring standard, and has an evaluation and control device (3), characterized by the following steps: a) performing a static calibration and generating static calibration data or loading existing static calibration data from the evaluation and control device (3) or from an external data source; b) generation of a background on the display device (2) that shows a uniform, homogeneous luminance and is located behind / under the measurement object; c) recording of a first picture with de r detection device (1) and transmission to the memory of the evaluation and control device (3); d) determination of points of interest on the measurement object (4) and on the display device (2), and determination of their coordinates in the coordinate system (KS1) of the detection device ( 1); e) Transforming the coordinates of the points of interest on the measurement object (4) with the aid of the static calibration data determined / provided in step a) into the coordinate system (KS2) of the display device (2); f) Determination of the by the measurement object (4 ) non-covered areas of the display device (2) that are visible in the image of the detection device (1); g) display of virtual calibration marks, which can be changed in position, size, color and shape in areas of the display device (2) that are not through the measurement object (4) are concealed and at the same time visible in the image of the detection device (2), and determination of defined points at the virtual calibration marks in the coordinate system (KS2) of the display device (2); h) recording of at least one second image with the acquisition device (1) and transmission to the memory of the evaluation and control device (3); i) finding the predefined points at the virtual calibration marks and determining their coordinates in Coordinate system (KS1) of the detection device (1); j) transforming these coordinates of the predefined points at the virtual calibration marks with the aid of the static calibration data determined / provided in step a) into the coordinate system (KS2) of the display device (2); k) comparison of the under point g) and under point j) determined coordinates of the virtual calibration marks in the coordinate system (KS2) of the display device (2) and if the permissible predefined deviations are exceeded, instruction of an operator adapted to the structure and function of the measuring device for removing the measuring object and for cleaning and / or elimination of an error in the measuring device I) repeating steps a) to k) until the permissible deviations are complied with and, if the permissible deviations are complied with, calculation of corrections for the static calibration data and generation of dynamic calibration data adapted to the structure and mode of operation of the measuring device; if a predetermined number of impermissible deviations is exceeded, the process is aborted.
Description
Die vorliegende Erfindung betrifft ein Verfahren zur Erkennung und Kompensation von Messabweichungen während des Betriebes einer optischen Messvorrichtung, ein optisches Messverfahren und eine optische Messvorrichtung zum Messen von geometrischen Merkmalen eines Messobjektes.The present invention relates to a method for recognizing and compensating measurement deviations during the operation of an optical measuring device, an optical measuring method and an optical measuring device for measuring geometric features of a measurement object.
Für die Messung geometrischer Größen mit einem Bildverarbeitungsverfahren müssen die Verhältnisse zwischen dem Objektraum und den Ortskoordinaten des digitalen Bildes bekannt sein.
In dem idealisierten Fall von einer Objektebene hin zu der optimalen Abtastung einer fehlerfreien Bildebene, würde diese Beziehung nur durch einen Faktor ausgedrückt werden können, dem Abbildungsmaßstab β. In der Realität gibt es aber Abbildungsfehler und Abtastfehler. Außerdem ist zu beachten, dass der abgebildete Teil des Objektraums keine Ebene ist. Die für die Messung geometrischer Größen wichtigsten Einflüsse sind die Verzeichnung des Objektivs und die perspektivische Verzerrung durch Abweichungen von der Objektebene. Die Folge beider Einflüsse ist, dass der Abbildungsmaßstab β lokal unterschiedlich ist und sich in Abhängigkeit von der Position im Bild ändert. Er ist für eine konstante Objektszene abhängig von den Ortskoordinaten des Bildes β(c,r), wobei mit der Größe r die Anzahl der Reihen (in Pixel) und mit der Größe c die Anzahl der Spalten (in Pixel) in einem Bild definiert werden. In der Praxis wird dieses Problem gelöst, indem die Ortsabhängigkeit des Abbildungsmaßstabs (Verzeichnung) an diskreten Positionen gemessen wird. Mit lokal stetigen Funktionen wird β für den Objektraum interpoliert / approximiert. Da es sich bei dem digitalen Bild um eine 2D-Projektion des 3D-Objektraums handelt, wird bei einigen Verfahren die Kalibrierung dadurch erweitert, dass die Ortsabhängigkeit des Abbildungsmaßstabs in mehreren 2D-Ebenen mit bekannter z-Koordinate gemessen wird. Ein beliebiger Punkt des digitalen Bildes lässt sich später mit den Korrekturfunktionen zu einem Objektpunkt zurück transformieren. Unter Umständen werden neben dem digitalen Bild weitere Sensor- oder Apriori-Informationen hinzugezogen. Die Korrekturfunktionen für die Verzeichnungskorrektur sind jedoch im normalen Messbetrieb eines Gerätes statisch und werden nur bei speziellen Kalibrier-Routinen vom Messgerät überprüft, bzw. verändert.
Nachteilig bei diesem Vorgehen ist, dass jede nicht erfasste Änderung im Funktionskreis des Messsystems (z.B. durch thermische oder mechanische Einflüsse) direkt zu Fehlern bei der Koordinatentransformation führt. Die Erfassung des ortsabhängigen Abbildungsmaßstabes erfolgt nur an wenigen diskreten Punkten des Objektraums. Differenzen zwischen approximierten Werten und tatsächlichen Werten gehen direkt als Messfehler ein. Dieser Fehler wird größer, je weiter ein Messpunkt von dem nächsten Kalibrierpunkt entfernt ist. Ein gröberes Kalibrierpunktraster führt deshalb im Mittel zu größeren Messfehlern.For the measurement of geometric quantities with an image processing method, the relationships between the object space and the spatial coordinates of the digital image must be known.
In the idealized case from an object plane to the optimal scanning of an error-free image plane, this relationship could only be expressed by one factor, the imaging scale β. In reality, however, there are imaging errors and scanning errors. It should also be noted that the depicted part of the object space is not a plane. The most important influences for the measurement of geometric quantities are the distortion of the lens and the perspective distortion due to deviations from the object plane. The consequence of both influences is that the imaging scale β is locally different and changes depending on the position in the image. For a constant object scene it depends on the spatial coordinates of the image β (c, r), where the number of rows (in pixels) is defined with the size r and the number of columns (in pixels) in an image with the size c . In practice, this problem is solved by measuring the spatial dependency of the image scale (distortion) at discrete positions. With locally continuous functions, β is interpolated / approximated for the object space. Since the digital image is a 2D projection of the 3D object space, the calibration is expanded in some methods by measuring the location dependency of the image scale in several 2D planes with a known z coordinate. Any point of the digital image can later be transformed back to an object point using the correction functions. In addition to the digital image, additional sensor or a priori information may be used. However, the correction functions for the distortion correction are static in the normal measuring operation of a device and are only checked or changed by the measuring device during special calibration routines.
The disadvantage of this procedure is that any non-recorded change in the functional circuit of the measuring system (eg due to thermal or mechanical influences) leads directly to errors in the coordinate transformation. The location-dependent image scale is recorded only at a few discrete points in the object space. Differences between approximated values and actual values are entered directly as measurement errors. This error increases the further a measuring point is from the next calibration point. A coarser calibration point grid therefore leads to larger measurement errors on average.
In der Folge werden Kalibrierverfahren, die nicht zeitgleich mit dem Messbetrieb eines Messgeräts durchgeführt werden, als „statische Kalibrierung“ bezeichnet.In the following, calibration procedures that are not carried out at the same time as the measuring operation of a measuring device are referred to as “static calibration”.
Die meisten Kalibierverfahren für Kameras basieren auf einer Modellbildung über den Zusammenhang zwischen Bildebene und Objektraum. Diese Modelle sind unterschiedlich komplex und berücksichtigen die Einzelelemente des Gesamtsystems unterschiedlich stark. So z.B. wird in dem Verfahren nach
Aus dem Stand der Technik sind weitere Verfahren bekannt, die diese Modelle während des Messvorgangs überwachen. So wird in der
Mit der
Schließlich wird in der
Der Erfindung liegt als technisches Problem die Bereitstellung eines Verfahrens zur Erkennung und Kompensation von Messabweichungen während des Betriebes einer optischen Messvorrichtung, mit dem ein statisches Kalibrier-Modell jederzeit vollautomatisch neu eingelernt und während des Messvorgangs mit hoher Genauigkeit überwacht und verfeinert werden kann, eines dieses Kalibrierungsverfahren nutzenden optischen Messverfahrens sowie einer optischen Messvorrichtung zur robusteren, genaueren und kostengünstigeren Messung von geometrischen Merkmalen eines Messobjektes zugrunde.A technical problem of the invention is the provision of a method for recognizing and compensating measurement deviations during the operation of an optical measuring device, with which a static calibration model can be re-learned fully automatically at any time and monitored and refined with high accuracy during the measuring process, one of these calibration methods using optical measuring method as well as an optical measuring device for more robust, more precise and more economical measurement of geometric features of a measurement object.
Die Erfindung löst dieses Problem durch die Bereitstellung eines Verfahrens zur Erkennung und Kompensation von Messabweichungen während des Betriebes einer optischen Messvorrichtung mit den Merkmalen des Anspruchs 1, eines optischen Messverfahrens mit den Merkmalen des Anspruchs 7 sowie einer optischen Messvorrichtung mit den Merkmalen des Anspruchs 8.The invention solves this problem by providing a method for recognizing and compensating measurement deviations during operation of an optical measuring device having the features of
Erfindungsgemäß wird zur Kalibrierung einer optischen Messvorrichtung eine Maßverkörperung verwendet, deren Erscheinung veränderbar und steuerbar ist, deren Struktur (Raster) aber bekannt und konstant ist und auch während der Messung im Objektraum verbleibt. Dadurch können auch dynamische Änderungen erfasst und korrigiert werden.
Das erfindungsgemäße Kalibrierverfahren kann vor, zwischen und nach Messungen durchgeführt werden. Mit Hilfe der gewonnen Kalibrierdaten können sowohl Bilddaten verändert (Verzeichniskorrektur), Koordinatenpunkte übersetzt (Koordinatentransformation) als auch geometrische Beziehungen zwischen mehreren Erfassungseinrichtungen hergestellt werden (Epipolargeometrie).
Dass im Folgenden vorgestellte erfindungsgemäße Verfahren ist im Gegensatz zum Stand der Technik adaptiv, das Messobjekt und die Objektszene werden bei der Erzeugung der Kalibriermarken berücksichtigt.According to the invention, a material measure is used to calibrate an optical measuring device whose appearance can be changed and controlled, but whose structure (grid) is known and constant and also remains in the object space during the measurement. This means that dynamic changes can also be recorded and corrected.
The calibration method according to the invention can be carried out before, between and after measurements. With the aid of the calibration data obtained, both image data can be changed (directory correction), coordinate points can be translated (coordinate transformation) and geometric relationships can be established between several detection devices (epipolar geometry).
In contrast to the prior art, the method according to the invention presented below is adaptive; the measurement object and the object scene are taken into account when generating the calibration marks.
In einer Ausgestaltung der Erfindung als statisches Kalibrierverfahren wird ein veränderbares Kalibriermuster auf einem festen (bekannten) Raster dargestellt. Es wird nicht nur ein Muster von Stützpunkten verwendet, sondern eine Serie von verschieden Mustern. Ziel ist es, die für die Approximation der Verzeichnungsfunktion nötigen Punkte, mit einem deutlich feineren Raster zur Verfügung zu stellen. Die Auflösung dieses Rasters kann dabei feiner werden, als die projizierte Auflösung der Sensormatrix, (in der Folge „Kalibrierung mit erhöhter Auflösung“ genannt)In one embodiment of the invention as a static calibration method, a changeable calibration pattern is displayed on a fixed (known) grid. Not just one pattern of support points is used, but a series of different patterns. The aim is to provide the points required for approximating the distortion function with a significantly finer grid. The resolution of this grid can be finer than the projected resolution of the sensor matrix (hereinafter referred to as "calibration with increased resolution")
In einer weiteren Ausgestaltung der Erfindung verbleibt während der Messung ständig eine veränderbare Maßverkörperung mit festem Raster im Objektraum. Es werden verschiedene Kalibriermarken auf den veränderbaren Maßverkörperungen dargestellt. Die Positionen, Formen, Farben und Größen der Kalibriermarken auf dieser Maßverkörperung werden jeweils an die Position und Größe des Messobjektes und der aktuellen Messmethode angepasst. Damit werden die Abstände zwischen bekannter Kalibriermarke und unbekanntem Objektpunkt minimiert. Die Position, Größe, Farbe, und Struktur der Kalibriermarken kann auf Basis von weiteren Informationen optimiert werden. Dazu gehören Apriori-Informationen über Bauteilspezifikationen z.B. auf Basis von Benutzereingaben oder CAD-Daten, oder Informationen, die über Sensoren des Messgerätes selbst erfasst werden wie spektrale Reflektions-/Transmissions-Eigenschaften. (in der Folge „dynamische Kalibrierung“ genannt). Die Informationen, die aus den Kalibriermarken gewonnen werden, können direkt mit der statischen Kalibrierung verglichen werden. Unterschiede fließen in die Berechnung der Koordinatentransformation ein. Zudem können Differenzen (ggf. über die Zeit) verwendet werden, um die Gültigkeit der statischen Kalibrierung zu überprüfen.In a further embodiment of the invention, a variable measuring standard with a fixed grid remains in the object space during the measurement. Different calibration marks are displayed on the changeable measuring standards. The positions, shapes, colors and sizes of the calibration marks on this measuring standard are each adapted to the position and size of the measurement object and the current measurement method. This minimizes the distances between the known calibration mark and the unknown object point. The position, size, color and structure of the calibration marks can be optimized on the basis of further information. This includes a priori information about component specifications, e.g. on the basis of user input or CAD data, or information that is recorded via sensors of the measuring device itself, such as spectral reflection / transmission properties. (hereinafter referred to as "dynamic calibration"). The information obtained from the calibration marks can be compared directly with the static calibration. Differences are included in the calculation of the coordinate transformation. In addition, differences (possibly over time) can be used to check the validity of the static calibration.
Weitere Einzelheiten und Vorteile der Erfindung sind dem nachfolgenden Beschreibungsteil zu entnehmen, in dem die Erfindung unter Bezugnahme auf die beigefügten Zeichnungen näher erläutert wird. Es zeigt:
-
1 ein Flussdiagramm eines optischen Messverfahrens, mit einem erfindungsgemäßen Verfahren zur Kalibrierung einer optischen Messvorrichtung -
2 eine schematische Darstellung einer mitdem Verfahren von 1 kalibrierbaren optischen Messvorrichtung -
3 ein Kamerabild bei einer dynamischen Kalibrierung
-
1 a flowchart of an optical measuring method with a method according to the invention for calibrating an optical measuring device -
2 a schematic representation of a with the method of1 calibratable optical measuring device -
3 a camera image with a dynamic calibration
Die in
Zu Beginn des Verfahrens wird entschieden, ob eine statische Kalibrierung durchgeführt werden soll. Das kann beispielsweise durch einen Benutzerbefehl oder auf Basis des vorhergehenden Gerätezustands entschieden werden. Falls keine Kalibrierung erfolgen soll, werden statische Kalibrierdaten geladen, bzw. stehen bereits zur Verfügung. Falls eine Kalibrierung durchgeführt werden soll, wird eine statische Kalibrierung durchgeführt. Das könnte beispielsweise eine erfindungsgemäße statische Kalibrierung mit erhöhter Auflösung sein. Für die statische Kalibrierung ist es vorteilhaft, wenn sich das Messobjekt nicht im Sichtfeld der Erfassungseinrichtung (
In der Folge wird das Messobjekt (
Im Anschluss wird mindestens ein Bild der Objektszene von der Erfassungseinrichtung (
Außerdem wird in der Auswerte- und Steuereinrichtung (
Die dynamischen Marken werden auf der Anzeigeeinrichtung (
Gegebenenfalls werden die Koordinaten der Punkte von Interesse am Messobjekt (
Die Punkte an den dynamischen Kalibriermarken werden mittels der statischen Kalibrierdaten von KS1 nach KS2 transformiert. Damit existieren nun zwei Sätze von Koordinaten für jeden Punkt an den dynamischen Kalibriermarken. Unterschiede sind ein Maß für die Diskrepanz zwischen dem statisch kalibrierten Modell der Messvorrichtung und seinem tatsächlichen aktuellen Zustand.
In der Auswerte- und Steuereinrichtung (
As a result, the measurement object (
At least one image of the object scene is then captured by the detection device (
In addition, in the evaluation and control device (
The dynamic marks are displayed on the display device (
If necessary, the coordinates of the points of interest on the measurement object (
The points at the dynamic calibration marks are transformed from KS1 to KS2 using the static calibration data. There are now two sets of coordinates for each point on the dynamic calibration marks. Differences are a measure of the discrepancy between the statically calibrated model of the measuring device and its actual current state.
In the evaluation and control device (
Sind die Abweichungen unter den zulässigen Werten, werden die Koordinatenpaare der dynamischen Marken (KS1 und KS2) genutzt um die dynamischen Kalibrierdaten zu berechnen. Gegebenenfalls werden die statischen Kalibrierdaten für diese Berechnung hinzugezogen.
Falls noch keine Punkte von Interesse am Messobjekt bestimmt wurden, wird dies nun durchgeführt. Das kann entweder durch erneute Bilderfassung, oder durch Auswertung gespeicherter Bilder erfolgen. Von den Punkten von Interesse werden die Koordinaten in KS1 ermittelt. Mit Hilfe der dynamischen Kalibrierdaten werden diese Punkte nach KS2 transformiert.
Diese Messobjektpunkte können in der Folge für die Berechnung von Messwerten von Merkmalen des Messobjekts genutzt werden. Dazu kann eine weitere Transformation von KS2 in das Messobjekt-Koordinatensystem (KS3) nötig sein. Und es kann nötig sein, eine Mehrzahl von Punkten zu Merkmalen zu kombinieren, Beispielsweise Längen, Abstände, Winkel, Durchmesser, u.v.m.If the deviations are below the permissible values, the coordinate pairs of the dynamic marks (KS1 and KS2) are used to calculate the dynamic calibration data. If necessary, the static calibration data are used for this calculation.
If no points of interest on the measurement object have yet been determined, this is done now. This can be done either through renewed image capture or through evaluation of stored images. The coordinates in KS1 are determined from the points of interest. With the help of the dynamic calibration data, these points are transformed according to KS2.
These measurement object points can subsequently be used for the calculation of measured values of features of the measurement object. A further transformation from KS2 into the measurement object coordinate system (KS3) may be necessary for this. And it may be necessary to combine a number of points into features, for example lengths, distances, angles, diameters, and much more
Die Kalibrierung mit erhöhter Auflösung wird im Folgenden anhand eines Ausführungsbeispiels näher erläutert. Ein LC-Display bildet die Hintergrundbeleuchtung, die Auflagefläche und die Maßverkörperung zu gleich. Das LCD hat ein festes und bekanntes Raster. Es kann aber gesteuert werden, welche Muster es darstellt. Die Kamera(s) wird auf das LCD gerichtet. Vom Sichtfeld der Kamera(s) wird mindestens ein Teil des LCD erfasst. Auf dem LC-Display wird ein Schachbrett-Muster dargestellt. Jedes der hellen oder dunklen Felder hat ca. 50 Pixel Ausdehnung in Bildkoordinaten. Die Kantenübergänge zwischen den hellen und dunklen Feldern werden von dem Bildverarbeitungsprogramm in Bildkoordinaten bestimmt. Die Kreuzungspunkte zwischen jeweils vier Feldern werden mit erhöhter Genauigkeit berechnet (Subpixelpräzision).
Zu jedem Kreuzungspunkt des Schachbrettmusters sind somit ein Paar von Koordinaten bekannt, die Objektkoordinaten (aus den technischen Daten des LCD), und die Bildkoordinaten. Jedes Koordinatenpaar ist eine Stützstelle für die Berechnung der Kalibrierdaten. Damit ist etwa pro 50 Pixel des Bildes eine Stützstelle bekannt. Nachfolgend wird das Muster auf dem LCD in x und y Richtung jeweils in 10 Schritten verschoben. Es ergibt sich also eine Folge von weiteren 99 Positionen des Schachbrettmusters auf dem LCD, die sich alle unterscheiden. Die Kamera und das LCD bleiben dabei unbewegt. Die Kamera zeichnet für jedes Muster der Folge mindestens ein Bild auf. Es entstehen mindestens 100 digitale Bilder. In der Verarbeitungseinheit wird das Vorgehen zur Erfassung der Kreuzungspunkte in jedem der folgenden 99 Bilder analog zum ersten Bild wiederholt. Das Ergebnis ist, dass die Abstände der Stützstellen auf 1/10 reduziert werden. Im Bild ergibt sich auf etwa je 5 Pixel eine Stützstelle. Gleichzeitig steigt die Anzahl der Stützstellen um Faktor 100. Werden alle Stützstellen gemeinsam genutzt, den Zusammenhang zwischen Objektraum und digitalen Bild zu berechnen und durch geeignete mathematische Funktionen zu beschreiben, ist das Ergebnis die Kalibrierdaten für das System.
Wie fein das Raster des Schachbrettmusters gewählt, und in welchen Schritten es bewegt wird, ist von den Eigenschaften des LCD, des optisches Systems und des Sensors sowie der bei der Anwendung gewünschten Genauigkeit abhängig.
Neben der Möglichkeit hell-dunkel-Muster zu erzeugen, können auch farbige Muster erzeugt werden. Farbige Displays haben drei oder mehr Subpixel mit den Primärvalenzen. Ein Farbwechsel des Musters würde die Möglichkeit eröffnen, Subpixel-Verschiebungen (LCD) des Musters zu realisieren. Dies kann z.B. bei nicht transparenten Objekten genutzt werden.
Bei transparenten Objekten kann die Farbe des Displays jeweils so gewählt werden, dass die maximale Messgenauigkeit bei minimalem Messfehler zu erwarten ist.
Die Farbe bzw. die Transparenz des Objektes können mit einem Sensor erkannt und bei der Messung berücksichtigt werden.
Durch die Steuerbarkeit der kombinierten Beleuchtung und der Maßverkörperung ist es möglich, störendes Fremdlicht (z.B. Punktlichtquellen), zu starkes Umgebungslicht oder Verschleiß (z.B. Kratzer) auf der Displayoberfläche vor und nach der Messung zu erkennen. Damit bestehen z.B. die Möglichkeiten den Betrieb mit verminderter Qualität weiter zu führen und Warnungen zu melden, die Messung zu unterbrechen, Hinweise auf Fehlerquellen zu melden und zu kontrollieren, ob die Fehlerquelle beseitigt wurde.
Mit dem zusätzlichen Einsatz eines IR-Sensors können Temperaturen bzw. die Temperaturverteilung auf dem Objekt bestimmt und damit Temperaturkorrekturen ermöglicht werden. Je größer der lineare Wärmeausdehnungskoeffizient (z.B. bei Kunststoffteilen) desto wichtiger wird bei der Messung die exakte Temperatur des Objektes und der Maßverkörperung zu kennen.The calibration with increased resolution is explained in more detail below using an exemplary embodiment. An LC display forms the background lighting, the support surface and the measuring standard at the same time. The LCD has a fixed and known grid. But it can be controlled which pattern it represents. The camera (s) is pointed at the LCD. At least part of the LCD is captured by the field of view of the camera (s). A chessboard pattern is shown on the LC display. Each of the light or dark fields has an area of approx. 50 pixels in image coordinates. The edge transitions between the light and dark fields are determined by the image processing program in image coordinates. The intersection points between four fields are calculated with increased accuracy (subpixel precision).
A pair of coordinates are therefore known for each crossing point of the checkerboard pattern, the object coordinates (from the technical data of the LCD) and the image coordinates. Each coordinate pair is a support point for the calculation of the calibration data. This means that one interpolation point is known per 50 pixels of the image. The pattern is then shifted on the LCD in the x and y directions in 10 steps each. This results in a sequence of further 99 positions of the checkerboard pattern on the LCD, all of which are different. The camera and the LCD remain stationary. The camera records at least one image for each pattern in the sequence. At least 100 digital images are created. In the processing unit, the procedure for detecting the intersection points in each of the following 99 images is repeated in the same way as the first image. The result is that the spacing between the support points is reduced to 1/10. In the picture there is one interpolation point for every 5 pixels. At the same time, the number of support points increases by a factor of 100. If all support points are used together to calculate the relationship between the object space and the digital image and to describe it using suitable mathematical functions, the result is the calibration data for the system.
How fine the grid of the checkerboard pattern is chosen and the steps in which it is moved depends on the properties of the LCD, the optical system and the sensor as well as the accuracy desired in the application.
In addition to the possibility of creating light-dark patterns, colored patterns can also be created. Color displays have three or more sub-pixels with the primary valences. A color change of the pattern would open up the possibility of realizing subpixel shifts (LCD) of the pattern. This can be used, for example, for non-transparent objects.
In the case of transparent objects, the color of the display can be selected in such a way that the maximum measurement accuracy can be expected with a minimum measurement error.
The color or the transparency of the object can be recognized with a sensor and taken into account during the measurement.
Due to the controllability of the combined lighting and the measuring standard, it is possible to detect disturbing extraneous light (e.g. point light sources), excessive ambient light or wear (e.g. scratches) on the display surface before and after the measurement. This means, for example, that there is the possibility of continuing operations with reduced quality and reporting warnings, interrupting the measurement, reporting information on sources of error and checking whether the source of the error has been eliminated.
With the additional use of an IR sensor, temperatures or the temperature distribution on the object can be determined and thus temperature corrections made possible. The greater the coefficient of linear thermal expansion (eg with plastic parts), the more important it is to know the exact temperature of the object and the material measure when measuring.
Außerdem kann die Z-Achse zusätzlich verfahren werden, um in verschiedenen Z-Ebenen das Kalibrierverfahren zu wiederholen. Damit entstehen Kalibrierdaten die besser der dreidimensionalen Struktur des Objektraums gerecht werden und so besser für höhenausgedehnte Messobjekte geeignet sind.
Weiterhin kann eine kanalabhänge Variante des Kalibrierverfahrens durchgeführt werden. Bei Kameras mit mehreren Spektralkanälen werden nicht dieselben Kalibrierdaten für alle Kanäle verwendet. Stattdessen werden die Primärvalenzen des Displays jeweils für die Spektralkanäle des Sensors genutzt, die die beste spektrale Übereinstimmung haben. (Bei einem RGB-Sensor wird die Kalibrierung für den grünen Kanal vorzugsweise mit Mustern der grünen Subpixel des Displays durchgeführt.) Dieses Vorgehen ist vorteilhaft, da die Abbildungseigenschaften von optischen Systemen wellenlängenabhängig sind.
Mit der Kalibrierung mit erhöhter Auflösung ist auch eine permanente Überwachung der Hardware des Messsystems möglich. Es können alle Veränderungen an den möglichen 6 Freiheitsgraden zwischen dem Sensor und dem Objekt erkannt werden.
Bei der Anzeigeeinrichtung, die die Kalibriermuster darstellt, muss es sich um ein Gerät handeln dessen geometrische Fehler der Anzeige deutlich geringer sind, als die gewünschte Genauigkeit bei der Kalibrierung. Geräte mir sehr geringen Toleranzen bei der Geometrie sind Anzeigeeinrichtungen der „flat panel technologies - FPT“. Dazu gehören beispielsweise LCD, OLED, LED, ELD, MEMS, Plasma, FED, elektrophoretische Display und viele mehr. Neben Flat-Panel-Anzeigen eigenen sich aber auch hoch genaue projizierte oder holografische Anzeigen. Die Überwachung von Veränderungen der Anzeigeeinrichtung während des Betriebs (bspw. thermische Ausdehnung) durch zusätzliche Sensoren, kann die Genauigkeit weiter erhöhen.The Z-axis can also be moved in order to repeat the calibration procedure in different Z-planes. This results in calibration data that do better justice to the three-dimensional structure of the object space and are therefore better suited for measuring objects with extended heights.
A channel-dependent variant of the calibration process can also be carried out. In cameras with multiple spectral channels, the same calibration data is not used for all channels. Instead, the primary valences of the display are used for the spectral channels of the sensor that have the best spectral agreement. (In the case of an RGB sensor, the calibration for the green channel is preferably carried out with patterns from the green subpixels of the display.) This procedure is advantageous because the imaging properties of optical systems are wavelength-dependent.
With the calibration with increased resolution, permanent monitoring of the hardware of the measuring system is also possible. All changes in the possible 6 degrees of freedom between the sensor and the object can be recognized.
The display device that displays the calibration pattern must be a device whose geometric errors in the display are significantly lower than the desired accuracy during calibration. Devices with very low tolerances in terms of geometry are display devices from "flat panel technologies - FPT". These include, for example, LCD, OLED, LED, ELD, MEMS, plasma, FED, electrophoretic displays and many more. In addition to flat panel displays, highly accurate projected or holographic displays are also suitable. The monitoring of changes in the display device during operation (for example thermal expansion) by additional sensors can further increase the accuracy.
Wenn ein Objekt vermessen wird, erkennt das Bildverarbeitungssystem welche Bereiche des LCD durch das Objekt verdeckt werden, und welche Bereiche weiterhin sichtbar sind. Bei der dynamischen Kalibrierung werden adaptiv Kalibriermarken auf dem LCD in unverdeckten Bereichen angezeigt. Mittels Bildverarbeitungsprogramm werden aus den Kalibriermarken repräsentative Punkte in Bildkoordinaten gewonnen. Diese Bildkoordinaten können nun einerseits mit den zuvor abgelegten statischen Kalibrierdaten in Objektkoordinaten zurückgerechnet werden, anderseits gibt es bereits konkrete Soll-Objektkoordinaten dafür. Die Differenzen aus beiden Werten dienen der Beurteilung und/oder Verbesserung der statischen Kalibrierung. Hierzu ist es denkbar, dass Kalibriermarken, die weiter entfernt von dem Objekt sind, relativ groß sein können und verwendet werden, um die Gültigkeit der statischen Kalibrierung zu überwachen. Kalibriermarken, die sehr dicht an der Kontur des Messobjektes angezeigt werden, sind kleiner und werden genutzt, um dynamisch die Genauigkeit der Kalibrierung zu erhöhen und um die statische Kalibrierung zu überwachen (s.
Zu dem erfindungsgemäßen Kalibrierverfahren sind verschiedene Variationen denkbar. So kann z.B. die Z-Achse in verschiedenen Z-Ebenen verfahren und Daten über das Messobjekt und die Maßverkörperung erfasst werden. Es entstehen Messdaten für einen 3D-Objektraum. Die Gültigkeit der statischen 3D-Kalibrierung wird dabei überwacht.
Bei der Verwendung mehrerer Kameras, die aus unterschiedlichen Blickwinkeln das Display beobachten, können mit Hilfe gemeinsamer bekannter Punkte auf dem LCD und gemeinsamer unbekannter Punkte auf dem Objekt räumliche Informationen über das Objekt erzeugt werden. Die Korrespondenz zwischen Punkten in mehreren Kamerabildern herzustellen wird mit dem erfindungsgemäßen Kalibrierverfahren vereinfacht, weil die Formen, Farben und Größen der virtuellen Kalibriermarken bekannt sind. Im einfachsten Fall sind es zwei Kameras, dann handelt es sich um ein Stereo-Kamerasystem.
Ebenso ist es denkbar, Objektive mit variabler Brennweite einzusetzen. Durch die Möglichkeit der vollautomatischen Kalibrierung, dürfen nicht nur feste und zuvor kalibrierte Zoomstufen angefahren werden, sondern es darf stufenlos „gezoomt“ werden. Es kann von der Bildverarbeitung überprüft werden, ob die Brennweite geändert wurde. Eine vollautomatische (Neu)Kalibrierung ist möglich.
Bei Verwendung von Kameras mit mehreren Spektralkanälen werden nicht dieselben Kalibriermarken für alle Kanäle verwendet. Stattdessen werden die Primärvalenzen des Displays jeweils für den Spektralkanal des Sensors genutzt, der die beste spektrale Übereinstimmung aufweisen.
Das Prinzip zur Überwachung und Verbesserung der statischen Kalibrierung kann auch durchgeführt werden, sollte sich kein Objekt im Messraum befinden, also wenn das LCD völlig unverdeckt ist.
Für den Fall, dass bei vorhandenem Messobjekt die statische Kalibrierung für ungültig erklärt wird, könnte auch nur mit der dynamischen Kalibrierung weitergearbeitet werden. Wenn es der Betriebszustand zulässt, würde die statische Kalibrierung voll- oder teilautomatisch wiederholt werden. Davon abgeleitet, wäre es ebenso möglich den Messbetrieb des Gerätes gänzlich ohne statische Kalibrierung durchzuführen. Es wird also ausschließlich die dynamische Kalibrierung genutzt.
Wenn die Auflösung des LC-Display-Rasters deutlich feiner ist als die projizierte Auflösung der Sensormatrix, dann bietet sich ein weiterer Lösungsweg für eine genaue Messung an. Die nahe am Objekt angezeigte, sehr kleine Kalibriermarke wird in kleinstmöglichen Schritten unter der Kante des Objektes durchgeführt, wobei die Position der Kalibriermarke zu jeder Zeit bekannt ist. Die Bildverarbeitungs-Kantenortsbestimmung erfasst nun die Objektkante und Kalibriermarken-Kante als dieselbe Kante. Wenn in der Bildserie mit den Verschiebungen der Kalibriermarke keine Änderung im Bild nachweisbar ist, ist das exakt die Einstellung, bei der die Kalibriermarken-Kante und die Objektkante sich überlagern. Dabei ist eine Auswertung mit Subpixel-Genauigkeit möglich. Die Messgenauigkeit ist damit nicht an die Auflösung der projizierten Sensormatrix gebunden, sondern nur an die Größe der Pixel des Displays.
Es ist möglich störendes Fremdlicht (z.B. Punktlichtquellen), zu starkes Umgebungslicht oder Verschleiß (z.B. Kratzer) auf der Displayoberfläche vor und nach der Messung zu erkennen. Damit besteht z.B. die Möglichkeit: den Betrieb mit verminderter Qualität weiter zu führen, die Messung mit einem Hinweis auf die Fehlerquelle zu unterbrechen und zu kontrollieren, ob die Fehlerquelle beseitigt wurde.
Mit dem zusätzlichen Einsatz eines MIR-Sensors ist die Temperatur bzw. die Temperaturverteilung auf dem Objekt zu bestimmen und damit Korrekturen zu ermöglichen. Je größer der lineare Wärmeausdehnungskoeffizient (z.B. bei Kunststoffteilen) desto wichtiger ist bei der Messung die exakte Temperatur des Objektes zu ermitteln.Various variations are conceivable for the calibration method according to the invention. For example, the Z-axis can move in different Z-planes and data about the measuring object and the material measure can be recorded. Measurement data are created for a 3D object space. The validity of the static 3D calibration is monitored.
When using several cameras that observe the display from different angles, spatial information about the object can be generated with the aid of common known points on the LCD and common unknown points on the object. Establishing the correspondence between points in several camera images is simplified with the calibration method according to the invention because the shapes, colors and sizes of the virtual calibration marks are known. In the simplest case there are two cameras, then it is a stereo camera system.
It is also conceivable to use lenses with a variable focal length. Due to the possibility of fully automatic calibration, not only can fixed and previously calibrated zoom levels be approached, but infinitely variable zooming is also allowed. The image processing can check whether the focal length has been changed. A fully automatic (re) calibration is possible.
When using cameras with several spectral channels, the same calibration marks are not used for all channels. Instead, the primary valences of the display are used for the spectral channel of the sensor that has the best spectral match.
The principle of monitoring and improving the static calibration can also be carried out if there is no object in the measuring room, i.e. if the LCD is completely uncovered.
In the event that the static calibration is declared invalid for an existing measurement object, it is also possible to continue working with just the dynamic calibration. If the operating condition permits, the static calibration would be repeated fully or partially automatically. Derived from this, it would also be possible to carry out the measuring operation of the device entirely without static calibration. So only dynamic calibration is used.
If the resolution of the LC display grid is significantly finer than the projected resolution of the sensor matrix, then there is another solution for an accurate measurement. The very small calibration mark displayed close to the object is carried out in the smallest possible steps under the edge of the object, the position of the calibration mark being known at all times. The image processing edge location determination now detects the object edge and the calibration mark edge as the same edge. If no change can be detected in the image in the image series with the displacement of the calibration mark, this is exactly the setting at which the calibration mark edge and the object edge overlap. An evaluation with subpixel accuracy is possible. The measurement accuracy is therefore not tied to the resolution of the projected sensor matrix, but only to the size of the pixels on the display.
It is possible to detect disturbing extraneous light (e.g. point light sources), excessive ambient light or wear (e.g. scratches) on the display surface before and after the measurement. This gives you the possibility, for example: to continue operation with reduced quality, to interrupt the measurement with a reference to the source of the error and to check whether the source of the error has been eliminated.
With the additional use of a MIR sensor, the temperature or the temperature distribution on the object can be determined and corrections to be made possible. The greater the coefficient of linear thermal expansion (eg with plastic parts), the more important it is to determine the exact temperature of the object during the measurement.
Claims (9)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102013014475.2A DE102013014475B4 (en) | 2012-08-29 | 2013-08-28 | Process for the detection and compensation of measurement deviations during the operation of an optical measuring device, optical measuring method and optical measuring device |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102012017416 | 2012-08-29 | ||
DE102012017416.0 | 2012-08-29 | ||
DE102013014475.2A DE102013014475B4 (en) | 2012-08-29 | 2013-08-28 | Process for the detection and compensation of measurement deviations during the operation of an optical measuring device, optical measuring method and optical measuring device |
Publications (2)
Publication Number | Publication Date |
---|---|
DE102013014475A1 DE102013014475A1 (en) | 2014-03-06 |
DE102013014475B4 true DE102013014475B4 (en) | 2020-11-12 |
Family
ID=50098519
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102013014475.2A Active DE102013014475B4 (en) | 2012-08-29 | 2013-08-28 | Process for the detection and compensation of measurement deviations during the operation of an optical measuring device, optical measuring method and optical measuring device |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102013014475B4 (en) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015169345A1 (en) * | 2014-05-06 | 2015-11-12 | Carl Zeiss Industrielle Messtechnik Gmbh | Method and device for calibrating an imaging optical unit for measurement applications |
GB2532772A (en) * | 2014-11-27 | 2016-06-01 | Airbus Operations Ltd | Improvements in or relating to digital image correlation systems |
DE102015103785A1 (en) * | 2015-03-16 | 2016-09-22 | Hochschule Offenburg | Method and device for calibrating a camera |
FR3041111B1 (en) * | 2015-09-15 | 2017-09-15 | Vit | CALIBRATION OR TEST MIRROR |
DE102018133671A1 (en) | 2018-12-28 | 2020-07-02 | Carl Zeiss Industrielle Messtechnik Gmbh | Normal for calibrating a coordinate measuring machine |
CN114909994B (en) * | 2022-04-29 | 2023-10-20 | 深圳市中图仪器股份有限公司 | Calibration method of image measuring instrument |
DE102022208259A1 (en) | 2022-08-09 | 2024-02-15 | Continental Autonomous Mobility Germany GmbH | Device and method for calibrating an optical sensor |
DE102022129462B3 (en) | 2022-11-08 | 2023-11-09 | Göpel electronic GmbH | Arrangement for calibrating a camera system, calibration body and method for carrying out the calibration |
CN116067290B (en) * | 2023-03-07 | 2023-07-14 | 西安航天动力研究所 | Displacement testing method and displacement testing system for static test of engine |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2002039055A1 (en) * | 2000-10-25 | 2002-05-16 | Electro Scientific Industries, Inc. | Integrated alignment and calibration of optical system |
US20030085890A1 (en) * | 2001-11-05 | 2003-05-08 | Baumberg Adam Michael | Image processing apparatus |
DE102007030378A1 (en) * | 2007-06-29 | 2009-01-02 | Spatial View Gmbh Dresden | Camera system e.g. eye tracking system, position determining method for use in vehicle, involves performing determination of position of camera system with respect to reference system under consideration of position of display system |
-
2013
- 2013-08-28 DE DE102013014475.2A patent/DE102013014475B4/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2002039055A1 (en) * | 2000-10-25 | 2002-05-16 | Electro Scientific Industries, Inc. | Integrated alignment and calibration of optical system |
US20030085890A1 (en) * | 2001-11-05 | 2003-05-08 | Baumberg Adam Michael | Image processing apparatus |
DE102007030378A1 (en) * | 2007-06-29 | 2009-01-02 | Spatial View Gmbh Dresden | Camera system e.g. eye tracking system, position determining method for use in vehicle, involves performing determination of position of camera system with respect to reference system under consideration of position of display system |
Non-Patent Citations (2)
Title |
---|
C. Schmalz, F. Forster, E. Angelopoulou: Camera calibration: active versus passive targets. In: Optical Engineering 50(11), 2011, 113601-1 bis 113601-10 * |
Z. Zhang: A Flexible New Technique for Camera Calibration, in: IEEE Transactions on Pattern Analysis and Machine Intelligence, 22(11):1330-1334, 2000 * |
Also Published As
Publication number | Publication date |
---|---|
DE102013014475A1 (en) | 2014-03-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102013014475B4 (en) | Process for the detection and compensation of measurement deviations during the operation of an optical measuring device, optical measuring method and optical measuring device | |
DE102012108567B4 (en) | Method of obtaining depth information using a light pattern | |
DE112014001459B4 (en) | Method for determining three-dimensional coordinates on a surface of an object | |
EP2040026B1 (en) | Method and system for calibrating an apparatus for measuring the shape of a reflective surface | |
EP3557523B1 (en) | Method for generating a correcting model of a camera for correcting an imaging error | |
DE102012220048B4 (en) | Calibration device and method for calibrating a dental camera | |
DE102014210099B3 (en) | Method for image-based calibration of multi-camera systems with adjustable focus and / or zoom | |
DE112014001483T5 (en) | Three-dimensional coordinate scanner and operating procedures | |
EP2886043A1 (en) | Method for continuing recordings to detect three-dimensional geometries of objects | |
WO2016146105A1 (en) | Method and device for calibrating a camera | |
DE102006042311A1 (en) | Method and device for the three-dimensional measurement of objects in an extended angle range | |
EP3071928B1 (en) | Image capturing simulation in a coordinate measuring apparatus | |
EP3417237A1 (en) | Reference plate and method for calibrating and/or checking a deflectometry sensor system | |
DE102017010683B4 (en) | Method for automatic restoration of a measured state of a projection system | |
EP3077763B1 (en) | Method for evaluating coordinate measurement data, corresponding device for object measurement and corresponding computer program product | |
DE102014016087B4 (en) | Three-dimensional optical detection of object surfaces | |
DE102019110674A1 (en) | Method of providing visual feedback | |
DE102011055967B4 (en) | Measuring method and device for carrying out the measuring method | |
DE102015117276B4 (en) | Method and device for measuring a test object with improved measuring accuracy | |
WO2014114663A1 (en) | Optical device and method for determining spatial coordinates of surfaces of macroscopic objects by triangulating two line-scan cameras | |
DE102020129923B4 (en) | Procedure to prepare a 3D scan and 3D scanner to perform the procedure | |
EP3436770A1 (en) | Multi-directional triangulation measuring system with method | |
DE102017220720B4 (en) | Method and device for contactless measurement of three-dimensional surface contours | |
DE102014117498B4 (en) | Optical measuring device and method for optical measurement | |
DE10328145A1 (en) | Imaging characteristics measuring method for transparent object e.g. optical component, using light transmitted through object for providing images of spaced raster structures at receiver |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication | ||
R016 | Response to examination communication | ||
R018 | Grant decision by examination section/examining division | ||
R020 | Patent grant now final | ||
R084 | Declaration of willingness to licence |