Nothing Special   »   [go: up one dir, main page]

DE102019201526A1 - Verfahren und System zum Erfassen und Messen der Position eines Bauteils gegenüber einer Referenzposition sowie der Verschiebung und der Verdrehung eines sich relativ zu einem Bezugssystem bewegenden Bauteils - Google Patents

Verfahren und System zum Erfassen und Messen der Position eines Bauteils gegenüber einer Referenzposition sowie der Verschiebung und der Verdrehung eines sich relativ zu einem Bezugssystem bewegenden Bauteils Download PDF

Info

Publication number
DE102019201526A1
DE102019201526A1 DE102019201526.3A DE102019201526A DE102019201526A1 DE 102019201526 A1 DE102019201526 A1 DE 102019201526A1 DE 102019201526 A DE102019201526 A DE 102019201526A DE 102019201526 A1 DE102019201526 A1 DE 102019201526A1
Authority
DE
Germany
Prior art keywords
points
component
marker
camera
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102019201526.3A
Other languages
English (en)
Inventor
Arne Heymer
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ford Global Technologies LLC
Original Assignee
Ford Global Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ford Global Technologies LLC filed Critical Ford Global Technologies LLC
Priority to DE102019201526.3A priority Critical patent/DE102019201526A1/de
Priority to US16/783,636 priority patent/US11754386B2/en
Publication of DE102019201526A1 publication Critical patent/DE102019201526A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/26Measuring arrangements characterised by the use of optical techniques for measuring angles or tapers; for testing the alignment of axes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/64Imaging systems using optical elements for stabilisation of the lateral and angular position of the image
    • G02B27/644Imaging systems using optical elements for stabilisation of the lateral and angular position of the image compensating for large deviations, e.g. maintaining a fixed line of sight while a vehicle on which the system is mounted changes course
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/02Affine transformations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Das Verfahren zum Erfassen und Messen der Verschiebung und/oder Verdrehung eines sich relativ zu einem Bezugssystem bewegenden Bauteils (20) schlägt vor:a) Anbringen eines Markers (22) am Bauteil (20), wobei der Marker (22) auf einer Oberseite (26) mindestens drei Punkte (A, B, C) aufweist, die nicht auf einer Geraden liegen,b) zur Verfügungstellen eines Messsystems (28), das eine in dem Bezugssystem angeordnete Kamera (30) und eine Auswerteeinheit (32) aufweist, in der die Geometrie der Oberseite (26) und damit insbesondere der drei Punkte (A, B, C) abgespeichert ist,c) Ausrichten der Kamera (30) auf die drei Punkte (A, B, C),d) Erfassen eines ersten Bildes des Markers (22) und des Bauteils (20), die sich in einer ersten Position befinden, und Bestimmen der Lage der drei Punkte (A, B, C) im ersten Bild, wobei in der Bildebene des ersten Bildes die x- und y- Koordinaten der drei Punkte (A, B, C) und gegebenenfalls ihre Ausrichtung bestimmt werden,e) Erfassen eines zweiten Bildes des Markers (22) und des Bauteils (20), die sich in einer von der ersten Position unterschiedlichen zweiten Position befinden, und Bestimmen der Lage der drei Punkte (A, B, C) im zweiten Bild, wobei in der Bildebene des zweiten Bildes die x- und y- Koordinaten der drei Punkte (A, B, C) und gegebenenfalls ihre Ausrichtung bestimmt werden,f) Berechnen der Verschiebung und/oder Verdrehung des Bauteils (20) im dreidimensionalen Raum zwischen der ersten und der zweiten Position des Bauteils (20).

Description

  • Eine Vielzahl von praktischen Anwendungen benötigt die vollständige Beschreibung der Position und der Bewegung eines Bauteils eines Kraftfahrzeugs in Bezug auf ein Bezugs- bzw. Referenzsystem, und zwar in allen sechs Freiheitsgraden, nämlich den drei Freiheitsgraden der Translation und den drei Freiheitsgraden der Rotation dieses Bauteils. Als Beispiele seien hierfür angegeben:
    • - die Bewegungen des Motors und des Getriebes während eines Anlassvorgangs, insbesondere während eines Wiederstartens nach einem Abschaltvorgang, und während eines Lastwechsels,
    • - die Bewegungen von Federn, elastischen Lagern und dergleichen während der Fahrt und
    • - die Bewegungen von Karosseriebauteilen und damit die Änderung von Spaltmaßen während der Fahrt, insbesondere einer Fahrt im Gelände.
  • Nach dem Stand der Technik werden diese Bewegungen durch verschiedene Verfahren erfasst. Diese bekannten Verfahren haben eine Reihe von Nachteilen:
    • - Die von Sensoren erhaltenen Signale müssen entweder einmal, bei Geschwindigkeitsmessungen, oder zweimal, bei Beschleunigungsmessungen, integriert werden, um die örtliche Position zu erhalten.
    • - Es kommt zu Ungenauigkeiten des Ergebnisses aufgrund von Drift und Abweichungen, insbesondere Streuung, der von den Sensoren gelieferten Signale, dies macht sich insbesondere bei langsamen Bewegungen bemerkbar.
  • Benötigt werden dreidimensionale Messungen in allen sechs Freiheitsgraden. Hierfür wird im Stand der Technik ein Satz spezieller Sensoren, die eine örtliche Verschiebung erfassen, eingesetzt. Sie können mechanisch, optisch, induktiv oder dergleichen arbeiten. Üblicherweise ist ein Sensor pro Freiheitsgrad oder pro Dimension vorgesehen:
    • - Ein Sensor wird für jede zu erfassende Dimension an einem Ort des Bauteils benötigt, d.h. drei Sensoren für die dreidimensionale örtliche Verschiebung, sechs Sensoren für das Erfassen von Bewegungen in allen sechs Freiheitsgraden.
    • - Es wird eine relativ aufwändige Messordnung benötigt, es ist der Zugang zu dem Bauteil von zumindest drei Seiten des Bauteils erforderlich.
  • Bei einem bekannten Messverfahren wird mit Markern gearbeitet, die auf dem Bauteil befestigt sind. Sie werden mit zwei CCD-Kameras, die sich in der Referenzposition befinden, erfasst. Durch Triangulation wird die Position errechnet, bekannte Verfahren bzw. Systeme sind hier zum Beispiel GOM PONTOS, Metris K-System usw., dabei kann es sich um eingetragene Marken handeln. Bei diesen Verfahren wird eine spezielle Beleuchtung benötigt. Es wird ein Platz für die Positionierung der beiden Kameras in einem angepassten, teilweise erheblichen Abstand voneinander benötigt. Die Verfahren sind kostspielig.
  • Aus der US 8 073 201 B2 sind ein Verfahren und eine Vorrichtung zum Erfassen und Messen der Position und Orientierung eines Objekts und insbesondere eines Bildes eines Objekts bekannt, das mit einer Kamera erfasst wird. Auf dem Objekt ist eine Vielzahl unterschiedlicher Marker Q1 bis Qn angebracht. Die Koordinaten dieser Marke auf dem Objekt werden erfasst und über einen Algorithmus wird die Position und Orientierung der einzelnen sichtbaren Marker ermittelt. Wenn die Marker über einen ausreichend großen Bereich verteilt sind, können sechs Parameter der Position und Orientierung als Unbekannte erfasst werden. Wenn der Verteilungsbereich der Marker kleiner wird, ist die Anzahl der Freiheitsgrade, die erfasst werden kann, geringer.
  • Aus der US 2003/0063292 A1 ist ein Verfahren zum Verfolgen der Lage und Winkelstellung eines Objekts im dreidimensionalen Raum unter Verwendung einer einzigen Kamera bekannt. Bei dem Objekt handelt sich bevorzugt um ein chirurgisches Instrument. Auf dem Objekt werden mindestens drei Marker angebracht. Deren Position wird optisch verfolgt und es wird hieraus die Lage im Raum des Objekts ermittelt.
  • Bei diesen beiden US-Veröffentlichungen ist die Position der Marker auf dem Objekt nicht vorgegeben, sondern beliebig. Die Marker werden so auf dem Objekt angeordnet, wie es das Objekt ermöglicht.
  • Aus EP 2 952 953 A1 sind ein Verfahren zum Ausrichten eines Kamerasystems auf ein Zielobjekt und ein entsprechendes Kamerasystem bekannt.
  • Aufgabe der Erfindung ist es, eine Erfassungsvorrichtung für sechs Freiheitsgrade unter Verwendung von nur einem Marker auf dem Bauteil zu schaffen und die nach den vorbekannten Messverfahren arbeitenden Erfassungsvorrichtungen dahingehend zu verbessern, dass eine einfache Versuchsanordnung mit nur einer Kamera in einer Position im Bezugssystem ausreicht, wobei das Bauteil nur von einer Richtung erfasst werden muss.
  • Diese Aufgabe wird gelöst durch ein Verfahren zum Erfassen und Messen der Verschiebung und der Verdrehung eines sich relativ zu einem Bezugssystem bewegenden Bauteils, insbesondere eines Bauteils eines Kraftfahrzeugs, im dreidimensionalen Raum und bei sechs Freiheitsgraden mit folgenden Schritten:
    1. a) Anbringen eines Markers am Bauteil, wobei der Marker einen starren Träger, ein an diesem angeordnetes Befestigungsmittel für die Befestigung am Bauteil und auf einer Oberseite mindestens drei Punkte aufweist, die nicht auf einer Geraden liegen,
    2. b) zur Verfügungstellen eines Messsystems, das eine in dem Bezugssystem angeordnete Kamera, gegenüber der die Verschiebung und Verdrehung des sich bewegenden Bauteils erfasst wird, und eine an dieser Kamera angeschlossene Auswerteeinheit aufweist, in der die Geometrie der Oberseite und damit insbesondere der drei Punkte abgespeichert ist,
    3. c) Ausrichten der Kamera auf die drei Punkte, insbesondere einen Mittelpunkt der drei Punkte und vorzugsweise den Mittelpunkt P des Kreises durch die drei Punkte,
    4. d) Erfassen eines ersten Bildes des Markers und des Bauteils, die sich in einer ersten Position befinden, und Bestimmen der Lage der drei Punkte im ersten Bild, wobei in der Bildebene des ersten Bildes die x- und y- Koordinaten der drei Punkte und ihre Ausrichtung bestimmt werden,
    5. e) Erfassen eines zweiten Bildes des Markers und des Bauteils, die sich in einer von der ersten Position unterschiedlichen zweiten Position befinden, und Bestimmen der Lage der drei Punkte im zweiten Bild, wobei in der Bildebene des zweiten Bildes die x- und y- Koordinaten der drei Punkte und ihre Ausrichtung bestimmt werden,
    6. f) Berechnen der Verschiebung und Verdrehung des Bauteils im dreidimensionalen Raum zwischen der ersten und der zweiten Position des Bauteils.
  • Im Schritt d) erfolgt die Berechnung einer ersten Position des Markers im dreidimensionalen Raum. Hiermit wird eine Referenzposition erhalten. Eine andere Referenzposition zu anderer Zeit ist möglich. Im Schritt e) erfolgt die Berechnung einer zweiten Position des Markers im dreidimensionalen Raum bezüglich Verschiebung und Verdrehung gegenüber der Referenzposition. Im Schritt f) kann ein Vergleich der x- und y-Koordinaten und der Ausrichtung der drei Punkte in den beiden Bildern erfolgen.
  • Die Punkte sind spezielle Symbole oder Flächen, die sich klar vom Hintergrund der Oberseite abheben. Wenn man den Kontrast zwischen schwarz und weiß mit eins bezeichnet und den Kontrast zwischen weiß und weiß mit null, weiterhin den Übergang von Kontrast null zu Kontrast eins linear gestaltet, soll der Kontrast zwischen den Punkten und dem Hintergrund möglichst nahe bei eins liegen, insbesondere größer als 0,3, vorzugsweise größer als 0,5 und idealerweise größer als 0,7 sein. Der Kontrast 0,5 liegt zwischen einerseits einer weißen (schwarzen) Fläche und einer Fläche vor, die 50 % weiß und 50 % schwarz ist. Der Übergang zwischen einerseits den Punkten und einem gegebenenfalls vorgesehenen zusätzlichen Markierung und andererseits dem Hintergrund ist möglichst scharf, es sollen keine weichen Übergänge vorliegen. Der Übergang soll der mathematischen Sprungfunktion entsprechen. Vorzugsweise ist der Hintergrund schwarz und sind die Punkte bzw. die zusätzliche Markierung weiß oder umgekehrt. Eine farbige Ausbildung des Hintergrunds und/oder der Punkte ist möglich.
  • Die Aufgabe wird weiterhin gelöst durch ein System zum Erfassen und Messen der Verschiebung und der Verdrehung eines sich relativ zu einem Bezugssystem bewegenden Bauteils, insbesondere zur Durchführung des Verfahrens nach einem der vorangegangenen Ansprüche und vorzugsweise zum Erfassen und Messen der Verschiebung und der Verdrehung eines Bauteils eines Kraftfahrzeugs, im dreidimensionalen Raum und bei sechs Freiheitsgraden mit:
    • - einem Marker, der einen starren Träger, ein Befestigungsmittel für die Befestigung am Bauteil und eine Oberseite aufweist, auf der mindestens drei Punkte auf einem Hintergrund angeordnet sind, die nicht auf einer Geraden liegen, und
    • - einem Messsystem, das eine Kamera und eine an dieser Kamera angeschlossene Auswerteeinheit aufweist, wobei die Kamera in dem Bezugssystem angeordnet und mit der Auswerteeinheit verbunden ist, und wobei die Auswerteeinheit einen Rechner, in dem ein Programm zur Bilderfassung und Auswertung abläuft, und einen Speicher aufweist, in dem die Geometrie der Oberseite und damit insbesondere der drei Punkte abgespeichert ist.
  • Im Gegensatz zu den bisher bekannten Verfahren, insbesondere den Lasersystemen, bei denen die Position eines dreidimensionalen Bauteils durch seine Profillinien erfasst wird, hat das erfindungsgemäße System den Vorteil, dass es nur eine Kamera verwendet, die auf einen speziellen, zweidimensionalen Marker gerichtet ist. Es soll nur ein Marker auf dem Bauteil bzw. Objekt erforderlich sein.
  • Die Kamera ist mit dem Referenzsystem verbunden. Das Referenzsystem ist in bekannter Weise ein Bezugssystem, gegenüber dem alle Messungen erfolgen. Dies ist so, wie im Stand der Technik. Der Marker ist mit dem sich bewegenden Bauteil verbunden und bewegt sich mit diesem. Vorzugsweise erfolgt die Bewegung innerhalb des Messbereichs, den die Kamera zulässt, bzw. wird der Messbereich der Kamera entsprechend vorgegeben.
  • Gegenüber den genannten US-Veröffentlichungen besteht der Vorteil darin, dass nicht eine Vielzahl von Markern benötigt wird. Es wird nur ein Marker benötigt, dieser hat eine spezielle Geometrie, die dem Erfassungssystem bekannt ist. Der Marker wird nicht als Punkt erfasst, wie im Stand der Technik, sondern als zweidimensionaler Gegenstand, auf dem die mindestens drei Punkte definiert sind, die man ihrerseits als Untermarker verstehen kann. Dadurch ist es möglich, die Position des Markers selbst zu erfassen, ohne dass weitere Marker notwendig wären. Damit kommt es auf das Objekt bzw. Bauteil, an dem der erfindungsgemäße Marker befestigt ist, nicht an. Der Marker muss lediglich fest mit diesem Bauteil verbunden sein, denn seine Position steht für die Position des Bauteils. Da die Position des erfindungsgemäßen Markers auf dem Bauteil bekannt ist, ist es auch einfacher als im Stand der Technik, die Lage des Bauteils selbst im Raum zu ermitteln, denn dieses ist fest mit dem einzigen Marker verbunden. Im Gegensatz zum Stand der Technik ist es nicht notwendig, dass der erfindungsgemäße Marker überhaupt mit einem Bauteil verbunden ist, da seine Position innerhalb der sechs Freiheitsgrade ermittelt wird, ohne Berücksichtigung des Bauteils. Während der Messung darf die Position der mindestens drei Punkte des Markers relativ zum Bauteil nicht verändert werden. Der Marker muss also ausreichend fest mit dem Bauteil verbunden sein, er darf während der Messung nicht seine Lage zum Bauteil verändern. Zudem soll der Marker durch die Bewegung des Bauteils möglichst nicht in Schwingungen versetzt werden. Dem kann durch eine entsprechende Ausgestaltung des Träger, zum Beispiel in Schichtbauweise, entgegengewirkt werden. Der Träger soll möglichst nicht zu erzwungenen Schwingungen und Eigenschwingungen neigen, vielmehr sollen diese gedämpft werden. Es ist vorteilhaft, den Träger möglichst großflächig mit dem Bauteil zu verbinden. Weiterhin darf durch das Anbringen am Bauteil die geometrische Lage und Ausrichtung der mindestens drei Punkte zueinander nicht verändert werden. Der Marker darf beispielsweise nicht durch das Anbringen verbogen werden. Vorteilhafterweise hat der Marker einen starren Träger, auf dem die mindestens drei Punkte angebracht sind, der starre Träger wird über ein geeignetes Befestigungsmittel am Bauteil befestigt. Dadurch ist sichergestellt, dass beim Befestigen und während der Messung keine Verformung der mindestens drei Punkte zueinander erfolgt.
  • Gegenüber den laserbasierten Profilometern haben das erfindungsgemäße Verfahren und das entsprechende System den Vorteil, dass das Erfassen und Messen auch von größeren Auslenkungen, sowohl für Translation, als auch für Rotation, erfasst werden kann, der Messbereich, auch Messfeld genannt, ist nur durch die Erkennbarkeit des Markers (Messfeld, Auflösung der Kamera) und ausreichende Reflexion des Markers begrenzt, in der Regel plusminus 45° für Rotation um die x-Achse sowie die y-Achse und plusminus 180° für die Rotation um die z-Achse, wenn ein rechtshändiges, orthogonales Koordinatensystem mit den drei Achsen x, y, und z zugrunde gelegt wird. Für viele Anwendungen ist das erfindungsgemäße, auf einer Kamera basierte System deutlich kostengünstiger als die Lösungen des Standes der Technik. Es kann mit einer konventionellen CCD- Kamera und konventioneller Technologie für Bilderkennung realisiert werden, die Bilderkennung ist auf die relevanten Merkmale des speziellen Markers abgestimmt und ausgerichtet.
  • Der spezielle Marker, auch Target genannt, ist so ausgelegt und ausgeführt, dass die jeweilige Position und Ausrichtung und damit die örtliche Veränderung des Markers durch Analyse von nur einem Bild der einzigen Kamera erfolgen kann. Es werden zumindest drei spezielle Elemente auf dem Marker in definierten, dem System bekannten Positionen vorgegeben und benötigt, um eine volle Beschreibung und ein volles Erfassen aller sechs Freiheitsgrade aus dem jeweiligen Abbild des Markers zu gewinnen. Entscheidend hierbei ist, dass das System den Marker exakt kennt, also die konkrete geometrische Ausbildung des Markers im System hinterlegt ist und verglichen wird mit dem aktuell erfassten Abbild des Markers.
  • Falls die Punkte auf dem Marker eine Drehsymmetrie aufweisen, was beispielsweise der Fall ist, wenn sie auf den Ecken eines gleichseitigen Dreiecks liegen und zudem alle drei Punkte kongruent sind, muss nicht, aber kann eine zusätzliche Markierung auf dem Marker angebracht werden, die die Ausrichtung vorgibt. Wenn eine Markierung auf dem Marker vorgesehen ist, ist sie auch in dem Messsystem eingespeichert. Wenn die Punkte auf dem Marker eine Drehsymmetrie aufweisen, ist es vorteilhaft, diese Drehsymmetrie im Messsystem zu speichern.
  • Um dem Messsystem, insbesondere dessen Kamera, das Erkennen der drei Punkte A, B und C zu erleichtern, besteht ein möglichst hoher Kontrast zwischen den drei Punkten sowie einer eventuell vorgesehenen zusätzlichen Markierung für das Erfassen der Ausrichtung und ihrer Umgebung, also dem Hintergrund. Aus diesem Grund werden nur die Farben schwarz und weiß für den Marker verwendet. Dies schließt allerdings andere Farbgebungen nicht aus. Weiterhin ist der Übergang von einem Punkt zu einem Hintergrund auf der Oberseite des Markers möglichst abrupt bzw. sprunghaft.
  • Es ist möglich, dass der Marker permanent mit dem Bauteil verbunden ist. Dann ist ein Befestigungsmittel nicht notwendig. Das Befestigungsmittel ermöglicht ein möglichst rückstandsfreies Lösen des Markers, nachdem die Messung abgeschlossen ist.
  • Bei der Messung sollen sich der Marker genauso wie das Bauteil mit diesem bewegen.
  • Im Folgenden werden zwei nicht einschränkend zu verstehenden Ausführungsbeispielen der Erfindung unter Bezugnahme auf die Zeichnung näher erläutert und beschrieben. In der Zeichnung zeigen:
    • 1 eine perspektivische Darstellung eines Bauteils in einer ersten Position, auf dem ein Marker befestigt ist, des Markers ohne Bauteil in einer zweiten Position und eines Messsystems,
    • 2 eine Draufsicht auf eine erste Ausbildung des Markers vom Typ A,
    • 3 eine Draufsicht auf eine zweite Ausbildung des Markers vom Typ A,
    • 4 eine Draufsicht auf eine dritte Ausbildung des Markers vom Typ A,
    • 5 eine Draufsicht auf eine vierte Ausbildung des Markers vom Typ A,
    • 6 eine geometrische Darstellung der relevanten Dimensionen,
    • 7 eine geometrische Darstellung unterschiedlicher Ansichten in Parallelprojektion des Markers,
    • 8 eine vereinfachte geometrische Darstellung des Strahlengangs,
    • 9 eine Draufsicht auf eine erste Ausbildung des Markers vom Typ B,
    • 10 eine Draufsicht auf eine zweite Ausbildung des Markers vom Typ B,
    • 11 eine Draufsicht auf eine dritte Ausbildung des Markers vom Typ B,
    • 12 eine Draufsicht auf eine vierte Ausbildung des Markers vom Typ B,
    • 13 eine geometrische Darstellung der relevanten Dimensionen ähnlich 6,
    • 14 eine geometrische Darstellung ähnlich 7, und
    • 15 eine geometrische Darstellung zur Erläuterung der Berechnung
  • 1 zeigt ein hier nur schematisch dargestelltes Bauteil 20 in einer ersten Position, auf dem ein Marker 22 durch aus dem Stand der Technik bekannte Befestigungsmittel, beispielsweise Heißkleben, möglichst flächig lösbar befestigt ist. Der Marker 22 hat einen quadratischen Träger 24 mit einer Oberseite 26. Der Träger 24 ist einerseits starr und andererseits möglichst schwingungsarm, vorzugsweise aus einem Schichtwerkstoff, beispielsweise Alu- Schaumstoff- Alu, gefertigt. Durch die Verbindung mit dem Bauteil 20 wird er nicht verformt. Während der Bewegungen des Bauteils 20 bewegt er sich starr mit diesem Bauteil 20 und hat keine Eigenschwingungen.
  • Weiterhin ist derselbe Marker 22 in einer zweiten Position dargestellt, dabei befindet er sich vor der ersten Position. Das Bauteil 20 ist nicht in der zweiten Position dargestellt.
  • Ein Messsystem 28, das hier in einem ortsfesten Bezugssystem angeordnet ist, hat eine Kamera 30 und eine Auswerteeinheit 32. Die Kamera 30 hat einen Sensor und eine optische Achse 34, sie ist auf einen Mittelpunkt 36, auch Auswertepunkt genannt, des Markers 22 gerichtet. Die Auswerteeinheit 32 hat Mittel zur Bilderkennung, in ihr sind die geometrischen Daten des konkret verwendeten Markers 22 abgespeichert. Hierzu gehören die drei Eckpunkte eines auf dem Marker 22 befindlichen Dreiecks, diese Eckpunkte sind die zu erfassenden Punkte A, B und C. Die 2 bis 5 zeigen konkrete, mögliche Ausführungsbeispiele. Die Schraffur bedeutet jeweils eine vollständige Schwärzung, alles nicht schraffierte ist weiß, ausgenommen die dicken schwarzen Striche in den 3 bis 5. Der Übergang zwischen schwarz und weiß ist jeweils abrupt. In den 2 bis 5 ist jeweils noch eine Markierung 38 für die Ausrichtung dargestellt, sie ist vorteilhaft. Auch ihre Position auf dem Marker 22 ist in der Auswerteeinheit 32 abgespeichert.
  • Marker 22 vom Typ A:
  • In dieser Ausführung sind die drei Punkte A, B und C als Eckpunkte eines gleichseitigen Dreiecks mit der Seitenlänge „I“ definiert. Diese Eckpunkte sind identisch, d.h. nach 120° Drehung um den Mittelpunkt P des Umkreises des Dreiecks erhält man wieder dasselbe Dreieck, somit Rotationssymmetrie um 120°. Für die Ausrichtung ist eine zusätzliche Markierung 38 vorgesehen, aber nicht notwendig. In den 2, 4 und 5 ist es eine kleine Kreisfläche, in 3 ist es ein kleiner Balken. Die 2 bis 5 zeigen auch Alternativen unterschiedlicher Ausbildung der Punkte A, B und C. In 2 sind sie durch die Eckpunkte des weißflächigen Dreiecks gegeben, in 3 durch kongruente schwarze Kreisflächen auf den Eckpunkten des Dreiecks, in 4 durch die Eckpunkte eines in schwarzer Umrandungslinie ausgeführten Dreiecks und in 5 durch weiße Stellen in einem schwarzen Kreisring. Der Hintergrund ist in 2 schwarz und in den 3 bis 5 jeweils weiß. Die Markierung 38 ist für 2 weiß, ansonsten jeweils schwarz. Auch sie hat einen möglichst guten Kontrast und einen abrupten Übergang zum Hintergrund auf der Oberseite 26.
  • Die in 6 dargestellten Abmessungen werden für die Berechnung verwendet. Die Wahl anderer Abmessungen ist möglich, dadurch werden in der Regel andere Algorithmen erforderlich.
  • Die 6, 7 und 8 dienen zur Erläuterung der nun folgenden Beschreibung der verwendeten Transformationen.
  • Vorgegeben sind folgende Abmessungen:
    Seitenlänge des gleichseitigen Dreiecks: I = a = b = c
    Fokuslänge (Brennweite) des Objektivs der Kamera 30: fObj
    Abstand der Kamera 30 vom Marker 22: D'
    aktive Sensorbreite (CCD chip der Kamera): ws
    aktive Sensorhöhe (CCD chip der Kamera): hs
  • Abmessungen des Markers 22:
    • h = Höhe des Dreiecks h = 3 4 l
      Figure DE102019201526A1_0001
    • r_cc = Radius des Umkreises des Dreiecks: r c c = 3 9 l
      Figure DE102019201526A1_0002
  • Gemessene Koordinaten: A0 (A0x|A0y), B0 (B0x|B0y), C0 (C0x|C0y), A0 ist die Koordinate, die der Basis des Dreiecks gegenüberliegt und durch die zusätzliche Markierung 38 definiert ist.
  • Für die verwendete Nomenklatur wird folgendes Beispiel gegeben: „A0y“ = ys-Koordinate von A0 in der Ebene des Bildsensors (Sensorkoordinatensystem).
  • Diese Werte repräsentieren die Position der drei in der Ebene des Sensors erfassten Punkte. Wurden die gemessenen Koordinaten zunächst in Bildpunkten („Pixeln“) des Sensorbildes erfasst, so können ihre tatsächlichen Positionen, die sie in der Ebene des Sensors der Kamera 30 haben, erhalten werden, indem die Höhe des erhaltenen Bildes und seine Breite in Bezug auf die aktive Sensorhöhe und Sensorbreite hs bzw. ws gesetzt werden. Es ist möglich, Korrekturfaktoren einzusetzen, um die Bildkrümmung und andere Linsenfehler des Objektivs der Kamera 30 zu korrigieren.
  • Die Seitenlängen des Dreiecks in der Ebene des Sensors betragen: a 0 = B 0 C 0 ¯ = ( C 0 x B 0 x ) 2 + ( C 0 y B 0 y ) 2
    Figure DE102019201526A1_0003
    b 0 = A 0 C 0 ¯ = ( C 0 x A 0 x ) 2 + ( C 0 y A 0 y ) 2
    Figure DE102019201526A1_0004
    c 0 = A 0 B 0 ¯ = ( B 0 x A 0 x ) 2 + ( B 0 y A 0 y ) 2
    Figure DE102019201526A1_0005
  • Es werden nun die Mittelpunkte dieser Dreiecksseiten ermittelt:
  • Mittelpunkte der Seiten des Dreiecks: M a 0 x = ( C 0 x + B 0 x ) 2 ; M a 0 y = ( C 0 y + B 0 y ) 2
    Figure DE102019201526A1_0006
    M b 0 x = ( C 0 x + A 0 x ) 2 ; M b 0 y = ( C 0 y + A 0 y ) 2
    Figure DE102019201526A1_0007
    M c 0 x = ( A 0 x + B 0 x ) 2 ; M c 0 y = ( A 0 y + B 0 y ) 2
    Figure DE102019201526A1_0008
  • Berechnen des Mittelpunktes P des Umkreises des Dreiecks:
  • Im nicht verformten Dreieck, also wenn die optische Achse 34 der Kamera 30 rechtwinklig auf die Fläche des Markers 22 trifft, ist P der Mittelpunkt eines Umkreises des Dreiecks, er ist bestimmt durch den Schnittpunkt zweier Seitenmittelsenkrechten, die zugleich Winkelhalbierende sind. Sie können auch als Geraden beschrieben werden, die jeweils einen Eckpunkt mit dem Mittelpunkt der gegenüberliegenden Seite verbindet:
  • P0 = Schnittpunkt der Geraden durch B0Mb0 und C0Mc0 : P 0 x = ( M c 0 x C 0 x ) ( M b 0 x B 0 y B 0 x M b 0 y ) ( M b 0 x B 0 x ) ( M c 0 x C 0 y C 0 x M c 0 y ) ( M c 0 y C 0 y ) ( M b 0 x B 0 x ) ( M b 0 y B 0 y ) ( M c 0 x C 0 x )
    Figure DE102019201526A1_0009
    P 0 y = ( B 0 y M b 0 y ) ( M c 0 x C 0 y C 0 y M c 0 y ) ( C b 0 y M c 0 y ) ( M b 0 x B 0 y B 0 x M b 0 y ) ( M c 0 y C 0 y ) ( M b 0 x B 0 x ) ( M b 0 y B 0 y ) ( M c 0 x C 0 x )
    Figure DE102019201526A1_0010
  • Dieser Punkt ist der Mittelpunkt 36 der Ellipse, die die Projektion des Umkreises des Dreiecks ist. Weitere Punkte der Ellipse können aufgrund der Rotationssymmetrie der Ellipse wie folgt gefunden werden: D 0 x = P 0 x ( A 0 x P 0 x ) ; D 0 y = P 0 y ( A 0 y P 0 y )
    Figure DE102019201526A1_0011
    E 0 x = P 0 x ( B 0 x P 0 x ) ; E 0 y = P 0 y ( B 0 y P 0 y )
    Figure DE102019201526A1_0012
    F 0 x = P 0 x ( C 0 x P 0 x ) ; F 0 y = P 0 y ( C 0 y P 0 y )
    Figure DE102019201526A1_0013
  • Die Parameter dieser Ellipse werden für die Ermittlung des Abstands des Markers 22 vom Sensor benötigt und werden wie folgt berechnet:
  • Algorithmus zur Ermittlung der translatorischen Verschiebung und der Verdrehung des Markers 22:
  • Berechnung der Ellipse, projiziertes Bild des Umkreises wie in 7:
  • Allgemein wird die Ellipse beschrieben durch folgende Formel: c a x 2 + c b x y + c c y 2 + c d x + c e y + c f = 0
    Figure DE102019201526A1_0014
  • Dabei kann einer der Koeffizienten c frei gewählt werden, beispielsweise ca=1, so das 5 Unbekannte verbleiben (z.B. cb ... cf). Sie können durch fünf lineare Gleichungen ermittelt werden, wobei jede dieser linearen Gleichungen die x- und y- Koordinaten eines der 5 Punkte auf dem Umkreis der Ellipse verwendet. Dieses System linearer Gleichungen kann über konventionelle Verfahren gelöst werden, vorausgesetzt, dass die drei Eckpunkte des Dreiecks erkannt werden und nicht auf einer Geraden liegen.
  • Mit den ermittelten Koeffizienten ca ... cf kann eine Achsentransformation verwendet werden, um die große Halbachse der Ellipse zu bestimmen. Hierfür wird die folgende Formel verwendet: ( x y ) ( c a c b 2 c b 2 c c ) ( x y ) + ( c d c e ) ( x y ) + c f = 0
    Figure DE102019201526A1_0015
    oder vereinfacht dargestellt: v T A v + u T v + c f = 0
    Figure DE102019201526A1_0016
  • Dies kann in die folgende Form umgewandelt werden: v ' T D v ' + u T T v ' + c f = 0
    Figure DE102019201526A1_0017
    mit:
    D = in die Diagonalform gebrachte Matrix A: det A λ = | ( c a λ ) c b 2 c b 2 ( c c λ ) | = ! 0 D = ( λ 1 0 0 λ 2 ) ; λ 1,2 : E i g e n w e r t e   v o n   A
    Figure DE102019201526A1_0018

    T = Transformationsmatrix (Rotation der Ellipse): T = ( t 11 t 12 t 21 t 22 )
    Figure DE102019201526A1_0019
    mit t 1 = ( t 11 t 21 ) und t 2 = ( t 12 t 22 ) :
    Figure DE102019201526A1_0020

    normalisierte Eigenvektoren zu den Eigenwerten λ1,2 so dass det T = 1 (Rotationsmatrix)
  • Die Berechnung der genannten Terme führt zu einer Beschreibung einer Ellipse gleicher Größe, aber rotiert in eine Position mit der großen Halbachse parallel zum Koordinatensystem: λ 1 x 2 + λ 2 y 2 + ( c d t 11 + c e t 21 ) x + ( c d t 12 + c e t 22 ) y + c f = 0
    Figure DE102019201526A1_0021
    dies wird umgewandelt in λ 1 ( x + p x 2 ) 2 + λ 2 ( y + p y 2 ) 2 + q = 0 ( )
    Figure DE102019201526A1_0022
    mit: p x = ( c d t 11 + c e t 21 ) λ 1 ; p y = ( c d t 12 + c e t 22 ) λ 2 ; q = λ 1 ( p x 2 ) 2 λ 2 ( p y 2 ) 2 + c f
    Figure DE102019201526A1_0023
  • Die Koordinaten des Mittelpunkts 36 der rotierten Ellipse sind: x c = p x 2
    Figure DE102019201526A1_0024
    und y c = p y 2
    Figure DE102019201526A1_0025
  • Setzt man y = yc und x = xc in (*), so führt dies zu den Schnittpunkten der durch die große und die kleine Achse bestimmten Geraden mit der Ellipse: x 1,2 = p x 2 ± q λ 1 ; y 1,2 = p y 2 ± q λ 2 ;
    Figure DE102019201526A1_0026
  • Demzufolge sind die Längen der Halbachsen: r 1 = q λ 1 ; r 2 = q λ 2
    Figure DE102019201526A1_0027
  • Dabei gilt der größere Wert für die halbe Hauptachse ra: r a = max ( r 1 ; r 2 )
    Figure DE102019201526A1_0028
  • Der so berechnete Wert wurde speziell für den Marker vom Typ A durchgeführt und wird später benutzt zur Bestimmung der Verschiebung.
  • Marker 22 vom Typ B:
  • Die 9 bis 12 zeigen Marker 22, die ähnlich ausgebildet sind wie die bereits beschriebenen Marker 22 nach den 2 bis 5, nun aber eine andere Geometrie der Punkte und gegebenenfalls der Markierung aufweisen. Es wird auf diese Beschreibung zurückverwiesen, es werden daher nur Unterschiede erklärt: Ein Unterschied liegt darin, dass die Punkte A, B, C nicht mehr auf den Eckpunkten eines gleichseitigen, sondern eines rechtwinkligen, gleichschenkligen Dreiecks liegen. Weiterhin sind die Punkte nun nicht mehr kongruent. Vielmehr ist in 9 der Punkt A durch eine deutlich größere Kreisfläche dargestellt als die beiden anderen Punkte B und C, damit ist eine Markierung nicht erforderlich, kann aber vorteilhaft sein, wie 11 zeigt.
  • Im Folgenden wird die Berechnung für den Sensor vom Typ B erläutert:
    • Sensoren vom Typ B ermöglichen einen deutlich einfacheren Algorithmus für die Berechnung der Ellipse des Umkreises, da sie spezielle Punkte der Ellipse definieren (konjugierte Durchmesser):
  • Für das zweite Ausführungsbeispiel sind die Punkte „A“, „B“ und „C“ die Eckpunkte eines rechtwinkligen, gleichschenkligen Dreiecks. Sie liegen damit auf drei Eckpunkten eines Quadrats. Der Punkt „A“ ist der Scheitelpunkt des rechten Winkels. „A“ kann beispielsweise durch eine besondere Geometrie dieses Punktes, eine unterschiedliche Größe, eine unterschiedliche Form, unterschiedliche Farbe oder durch eine zusätzliche Markierung vorgegeben werden und so in der Auswerteeinheit 32 erkannt werden. Die in 13 angegebenen Größen werden für die Berechnung verwendet. Andere Geometrien sind möglich, sie erfordern eventuell andere Algorithmen.
  • Algorithmus zur Berechnung der translatorischen Verschiebung und der Verdrehung im Raum des Markers 22 vom Typ B:
  • Die 8 und 14 zeigen die Variablen, die im Algorithmus für die Berechnung verwendet werden:
  • Vorgegeben sind folgende Abmessungen:
    Seitenlänge des gleichschenkligen Dreiecks: I = b = c
    Fokuslänge (Brennweite) des Objektivs der Kamera 30: fObj
    Abstand der Kamera 30 vom Marker 22: D'
    aktive Sensorbreite (CCD chip): ws
    aktive Sensorhöhe (CCD chip): hs
  • Abmessungen des Markers 22:
    • h = Höhe des Dreiecks
  • Parameter des Markers 22:
    • a = Länge der Basis des Dreiecks: a = l 2
      Figure DE102019201526A1_0029
    • h = Höhe des gleichseitigen Dreiecks des Markers 22 und rcc = Radius des Umkreises des Dreiecks: h = r c c = l 2 2
      Figure DE102019201526A1_0030
  • Gemessene Koordinaten (in der Ebene des Sensors): A0 (A0x|A0y), B0 (B0x|B0y), C0 (C0x|C0y),
    A0 ist der Scheitelpunkt des rechten Winkels.
  • Für die verwendete Nomenklatur wird folgendes Beispiel gegeben: „A0y“ = ys-Koordinate von A0 im Kamerabild (Sensorebene der Kamera 30).
  • Diese Werte repräsentieren die Position der drei in der Ebene des Sensors erfassten Punkte. Wurden die gemessenen Koordinaten zunächst in Bildpunkten („Pixeln“) des Sensorbildes erfasst, so können ihre tatsächlichen Positionen, die sie in der Ebene des Sensors der Kamera 30 haben, erhalten werden, indem die Höhe des erhaltenen Bildes und seine Breite in Bezug auf die aktive Sensorhöhe und Sensorbreite hs bzw. ws gesetzt werden. Es ist möglich, Korrekturfaktoren einzusetzen, um die Bildkrümmung und andere Linsenfehler des Objektivs der Kamera 30 zu korrigieren.
  • Erfassen von Punkt P, dem Mittelpunkt:
  • P0 ist der Mittelpunkt zwischen B0 und C0: P 0 x = ( C 0 x + B 0 x ) 2 ; P 0 y = ( C 0 y + B 0 y ) 2 ;
    Figure DE102019201526A1_0031
  • Seitenlängen des Dreiecks im Bild der Kamera 30 (Ebene des Sensors): a 0 = B 0 C 0 ¯ = ( C 0 x B 0 x ) 2 + ( C 0 y B 0 y ) 2
    Figure DE102019201526A1_0032
    b 0 = A 0 C 0 ¯ = ( C 0 x A 0 x ) 2 + ( C 0 y A 0 y ) 2
    Figure DE102019201526A1_0033
    c 0 = A 0 B 0 ¯ = ( B 0 x A 0 x ) 2 + ( B 0 y A 0 y ) 2
    Figure DE102019201526A1_0034
  • Der Umkreis des Dreiecks, der identisch ist mit dem Umkreis des mit einem kongruenten Dreieck ergänzten Rechtecks, erscheint als Ellipse mit dem Mittelpunkt P0 in der Sensorebene der Kamera 30, wobei eine Parallelprojektion vorausgesetzt ist. Der Punkt A ist Endpunkt des Halbmessers „h“ dieses Umkreises, der Punkt D der genau gegenüberliegende Punkt auf dem Umkreis und die Punkte B und C sind Endpunkte eines Durchmessers rechtwinklig zu h. Demzufolge bilden die projizierten Punkte Ao, B0, C0, D0 zwei konjugierte Durchmesser der Ellipse. Die Parameter dieser Ellipse werden für die Bestimmung der Entfernung des Markers 22 vom Sensor benötigt und werden basierend auf einer Konstruktion nach Rytz, wie in 15 gezeigt, wie folgt ermittelt:
    • • Kreis um P0 mit dem Radius rA (= 1/2 B0C0)
    • • Lotrechte zu B0 C0, Schnitt mit dem Kreis => Q
    • • Linie durch Q und A0 => g
    • • Mittelpunkt zwischen Q und A0 => R
    • • Kreis um das Zentrum R mit dem Radius rB ( = RP0)
    • • Schnitt dieses Kreises und g => S und T
    • • die Abstände QS und QT repräsentieren die Längen der Halbachsen der Ellipse: die längere (hier: QT) repräsentiert die halbe Hauptachse ra, die kürzere repräsentiert die halbe Nebenachse.
    • • Demzufolge stellen Linien durch P0S und P0T die Richtungen der Halbachsen der Ellipse dar: die Gerade durch P0 und denjenigen Punkt S oder T mit größerer Entfernung zu Q (hier: T) stellt die Richtung der halben Hauptachse dar; die Gerade durch P0 und den Punkt S oder T mit dem kürzeren Abstand zu Q (hier: S) stellt die Richtung der halben Nebenachse (rechtwinklig zur halben Hauptachse, Nachweis durch den sogenannten Thales-Kreis) dar.
  • Diese Berechnungen sind wesentlich einfacher als Berechnungen für den Marker 22 vom Typ A (gleichseitiges Dreieck), da keine Achsentransformation benötigt wird, um die Halbachsen zu bestimmen und somit entfällt der erhöhte Zeitaufwand für das Lösen eines Satzes linearer Gleichungen.
  • Unter Verwendung der Koordinaten in der Sensorebene (Ursprung in der oberen linken Ecke, +x nach rechts, +y nach unten), wird folgendes berechnet: P 0 x = B 0 x + C 0 x 2 ; P 0 y = B 0 y + C 0 y 2
    Figure DE102019201526A1_0035
    Q x = P 0 x ( B 0 y P 0 y ) ; Q y = P 0 y + ( B 0 x P 0 x ) ;
    Figure DE102019201526A1_0036
    (Dies ist eine Rotation um 90° im mathematisch positiven Sinne im gegebenen Koordinatensystem, im Bild somit in Drehrichtung des Uhrzeigersinns. R x = A 0 x + Q x 2 ; R y = A 0 y + Q y 2
    Figure DE102019201526A1_0037
    r B = ( R x P 0 x ) 2 + ( R y P 0 y ) 2
    Figure DE102019201526A1_0038
    S x = R x r B Q x A x ( Q x A x ) 2 + ( Q y A y ) 2 ; S y = R y r B Q y A y ( Q x A x ) 2 + ( Q y A y ) 2
    Figure DE102019201526A1_0039
    T x = R x + r B Q x A x ( Q x A x ) 2 + ( Q y A y ) 2 ; T y = R y + r B Q y A y ( Q x A x ) 2 + ( Q y A y ) 2
    Figure DE102019201526A1_0040
  • Die Halbachsen sind: r S = Q S ¯ = ( Q x S x ) 2 + ( Q y S y ) 2 ; r T = Q T ¯ = ( Q x T x ) 2 + ( Q y T y ) 2
    Figure DE102019201526A1_0041
  • Dabei ist die große Halbachse ra: r a = max ( r S ; r T )
    Figure DE102019201526A1_0042
  • Berechnung des Abstandes des Markers 22 (Typ A und B) vom Sensor:
    • Wenn ein Kreis auf eine Ebene projiziert wird, um eine Ellipse zu bilden, behält die große Halbachse die Länge des Radius des Kreises (für parallele Projektion) bei. Da die Ellipse durch Rotation des Umkreises des Dreiecks des Markers 22 gebildet wurde, repräsentiert die große Halbachse der Ellipse den Radius des Umkreises. Daher kann der Vergleich der realen Größe des Kreises mit der Länge der Halbachse verwendet werden, um den Abstand des Markers 22 zum Sensor (in Richtung der z-Koordinate) bzw. der Hauptebene des Objektivs zu bestimmen, da ein Verhältnis ≠ 1 durch die (nicht parallele) Projektion, nämlich durch ein entozentrisches Objektiv des Sensors verursacht wird.
  • Das Abbildungsverhältnis bei Verwendung einer dünnen Linse (siehe 8) ist definiert als: r a r c c = t ' t = m = D ' D = 1 D f o b j 1 D = ( 1 m + 1 ) f o b j
    Figure DE102019201526A1_0043
  • Die Position des Targets und eines fest damit verbundenen Koordinatensystems relativ zu dem Sensor- oder Bezugskoordinatensystem kann durch eine gedachte Verlagerung aus einer ursprünglich deckungsgleichen Lage beider Koordinatensysteme hin zu der betrachteten Position des Targets erzeugt werden. Diese Verlagerung kann zusammengesetzt werden aus drei Translationen (jeweils eine in Richtung der drei Achsen des Bezugssystems) sowie drei nacheinander ablaufende Rotationen um die Achsen des Targetkoordinatensystems in seiner jeweiligen, durch die vorhergehenden Verlagerungen erzeugten Lage, wobei die Reihenfolge der verschiedenen Rotationen beachtet werden muss (Eulerwinkel). Kennzeichnet man die Lagen des Targetkoordinatensystems nach den einzelnen gedachten Verlagerungen mit Hochstrichen, nämlich einem Strich nach den Translationen, zwei Strichen nach der ersten Rotation und drei Strichen nach der zweiten Rotation, dann ergeben sich wie in 14 gezeigt:
    • ψ: Rotation um die zt'-Achse: Ψ = tan 1 ( C 0 y B 0 y C 0 x B 0 x )
      Figure DE102019201526A1_0044
    • Θ: Rotation um die yt''-Achse: θ = cos 1 ( a 0 m a )
      Figure DE102019201526A1_0045
    • Φ: Rotation um die xt'''-Achse: β 0 = cos 1 ( a 0 2 + c 0 2 b 0 2 2 a 0 c 0 ) ; [ K o s i n u s s a t z ]
      Figure DE102019201526A1_0046

    s 0 = c 0 cos ( β 0 ) ; h 1 = s 0 a 0 2 sin ( θ )
    Figure DE102019201526A1_0047
    Φ = sin 1 ( h 1 m h )
    Figure DE102019201526A1_0048
  • Die Verschiebung des Mittelpunktes beträgt: x = P 0 x m ; y = P 0 y m ; z = D r e f D
    Figure DE102019201526A1_0049
    dabei ist Dref die Distanz des Sensors vom Nullpunkt des Bezugssystems.
  • Damit sind die Position des Markers 22 und seine Verschiebung und Verdrehung gegenüber dem Sensor beschrieben.
  • Mit dem System kann man nicht nur die Verschiebung und Verdrehung eines sich relativ zu einem Bezugssystem bewegenden Bauteils messen (auch wenn das ein bevorzugter Einsatzzweck ist), sondern allein schon mit einem einzigen Bild die Position bezüglich Verschiebung und Verdrehung eines Bauteils gegenüber einer Referenzposition (z.B. Target in der Mitte des Bildes, Targetoberfläche senkrecht zur optischen Achse der Kamera) ermitteln, auch wenn sich das Objekt gar nicht bewegt, sondern eben nur gegenüber der Referenzposition anders positioniert ist.
  • Die Berechnung einer Bewegung erfolgt vorzugsweise auch immer so, dass zunächst für jedes Bild die Position des Targets bezogen auf die Referenzposition berechnet wird und dann durch den Vergleich der Positionen (Differenz der Werte zweier Bilder) die Bewegung von einem Bild zum anderen beschrieben wird.
  • Der Punkt P bzw. der Mittelpunkt 36 ist der Messpunkt oder Auswertepunkt, also der Punkt des Targets (und damit auch des Bauteils), für den die Bewegung des Targets (und des Objekts) berechnet bzw. ausgewertet wird.
  • Der Punkt P bzw. der Mittelpunkt 36 ist vorzugsweise identisch mit dem Mittelpunkt des Umkreises um die drei Submarkerpunkte, nur beim Target Typ A auch der Mittelpunkt des von den drei Punkten geformten Dreiecks.
  • Das Verfahren zum Erfassen und Messen der Verschiebung und der Verdrehung eines sich relativ zu einem Bezugssystem bewegenden Bauteils 20 schlägt vor:
    1. a) Anbringen eines Markers 22 am Bauteil 20, wobei der Marker 22 auf einer Oberseite 26 mindestens drei Punkte A, B, C aufweist, die nicht auf einer Geraden liegen,
    2. b) zur Verfügungstellen eines Messsystems 28, das eine in dem Bezugssystem angeordnete Kamera 30 und eine Auswerteeinheit 32 aufweist, in der die Geometrie der Oberseite 26 und damit insbesondere der drei Punkte A, B, C abgespeichert ist,
    3. c) Ausrichten der Kamera 30 auf die drei Punkte A, B, C, insbesondere einen Mittelpunkt P der drei Punkte A, B, C,
    4. d) Erfassen eines ersten Bildes des Markers 22 und des Bauteils 20, die sich in einer ersten Position befinden, und Bestimmen der Lage der drei Punkte A, B, C im ersten Bild, wobei in der Bildebene des ersten Bildes die x- und y- Koordinaten der drei Punkte A, B, C und gegebenenfalls ihre Ausrichtung bestimmt werden,
    5. e) Berechnung einer ersten Position des Markers im dreidimensionalen Raum bezüglich Verschiebung und Verdrehung gegenüber einer Referenzposition zum Zeitpunkt der Erstellung des ersten Bildes,
    6. f) Erfassen eines zweiten Bildes des Markers 22 und des Bauteils 20, die sich in einer von der ersten Position unterschiedlichen zweiten Position befinden, und Bestimmen der Lage der drei Punkte A, B, C im zweiten Bild, wobei in der Bildebene des zweiten Bildes die x- und y- Koordinaten der drei Punkte A, B, C und gegebenenfalls ihre Ausrichtung bestimmt werden,
    7. g) Berechnung einer zweiten Position des Markers im dreidimensionalen Raum bezüglich Verschiebung und Verdrehung gegenüber einer Referenzposition zum Zeitpunkt der Erstellung des zweiten Bildes,
    8. h) Vergleich der x- und y- Koordinaten und der Ausrichtung der drei Punkte A, B, C in den beiden Bildern und Berechnen der Verschiebung und Ver-drehung des Bauteils 20 im dreidimensionalen Raum zwischen der ersten und der zweiten Position des Bauteils 20.
  • Bei der Berechnung der Verschiebung und/oder Verdrehung des Bauteils 20 erfolgt vorzugsweise ein Vergleich der x- und y- Koordinaten und der Ausrichtung der drei Punkte (A, B, C) in den beiden Bildern.
  • Bezugszeichenliste
  • 20
    Bauteil
    22
    Marker
    24
    Träger
    26
    Oberseite
    28
    Messsystem
    30
    Kamera
    32
    Auswerteeinheit
    34
    optische Ahse
    36
    Mittelpunkt
    38
    Markierung
    A, B, C
    Punkte
    P
    Mittelpunkt
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 8073201 B2 [0005]
    • US 2003/0063292 A1 [0006]
    • EP 2952953 A1 [0008]

Claims (14)

  1. Verfahren zum Erfassen und Messen der Verschiebung und der Verdrehung eines sich relativ zu einem Bezugssystem bewegenden Bauteils (20), insbesondere eines Bauteils eines Kraftfahrzeugs, im dreidimensionalen Raum und bei sechs Freiheitsgraden mit folgenden Schritten: a) Anbringen eines Markers (22) am Bauteil (20), wobei der Marker (22) auf einer Oberseite (26) mindestens drei Punkte (A, B, C) aufweist, die nicht auf einer Geraden liegen, b) zur Verfügungstellen eines Messsystems (28), das eine in dem Bezugssystem angeordnete Kamera (30), gegenüber der die Verschiebung und/oder Verdrehung des sich bewegenden Bauteils (20) erfasst wird, und eine an dieser Kamera (30) angeschlossene Auswerteeinheit (32) aufweist, in der die Geometrie der Oberseite (26) und damit insbesondere der drei Punkte (A, B, C) abgespeichert ist, c) Ausrichten der Kamera (30) auf die drei Punkte (A, B, C), d) Erfassen eines ersten Bildes des Markers (22) und des Bauteils (20), die sich in einer ersten Position befinden, und Bestimmen der Lage der drei Punkte (A, B, C) im ersten Bild, wobei in der Bildebene des ersten Bildes die x- und y- Koordinaten der drei Punkte (A, B, C) und gegebenenfalls ihre Ausrichtung bestimmt werden, e) Erfassen eines zweiten Bildes des Markers (22) und des Bauteils (20), die sich in einer von der ersten Position unterschiedlichen zweiten Position befinden, und Bestimmen der Lage der drei Punkte (A, B, C) im zweiten Bild, wobei in der Bildebene des zweiten Bildes die x- und y- Koordinaten der drei Punkte (A, B, C) und gegebenenfalls ihre Ausrichtung bestimmt werden, f) Berechnen der Verschiebung und/oder Verdrehung des Bauteils (20) im dreidimensionalen Raum zwischen der ersten und der zweiten Position des Bauteils (20).
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass - entweder die drei Punkte unterschiedlich ausgebildet sind, und dass aus dem Unterschied der Punkte die Ausrichtung der drei Punkte (A, B, C) ermittelt wird, - oder die drei Punkte (A, B, C) identisch ausgebildet sind und der Marker (22) auf seiner Oberseite (26) eine zusätzliche Markierung (38) aufweist, und dass die Ausrichtung der drei Punkte (A, B, C) durch Erfassen der zusätzlichen Markierung (38) ermittelt wird.
  3. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass die drei Punkte (A, B, C) auf den Ecken eines Dreiecks, vorzugsweise eines gleichschenkligen und dann insbesondere rechtwinkligen Dreiecks oder eines gleichseitigen Dreiecks, angeordnet sind.
  4. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass für jedes Bild aus den x- und y- Koordinaten der drei Punkte (A, B, C) ein Umkreis des von den drei Punkten (A, B, C) gebildeten Dreiecks berechnet wird, dass das Zentrum dieses Umkreises ermittelt wird, und dass vorzugsweise das Zentrum als Mittelpunkt (P) verwendet wird, auf den eine optische Achse (34) der Kamera (30) in einer Ausgangsstellung gerichtet ist.
  5. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass mindestens einer der folgenden Parameter, möglichst alle, erfasst und in der Auswerteeinheit (32) abgespeichert sind: Entfernung der Kamera (30) vom Marker (22), Brennweite des Objektivs der Kamera (30), aktive Breite und aktive Höhe des Sensors der Kamera (30), insbesondere CCD- Sensors.
  6. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass der Marker (22) einen starren Träger (24) und vorzugsweise ein an diesem angeordnetes Befestigungsmittel für die Befestigung am Bauteil (20) hat.
  7. System zum Erfassen und Messen der Verschiebung und der Verdrehung eines sich relativ zu einem Bezugssystem bewegenden Bauteils (20), insbesondere zur Durchführung des Verfahrens nach einem der vorangegangenen Ansprüche und vorzugsweise zum Erfassen und Messen der Verschiebung und der Verdrehung eines Bauteils (20) eines Kraftfahrzeugs, im dreidimensionalen Raum und bei sechs Freiheitsgraden mit: - einem Marker (22), der eine Oberseite (26) aufweist, auf der mindestens drei Punkte (A, B, C) auf einem Hintergrund angeordnet sind, die nicht auf einer Geraden liegen, und - einem Messsystem (28), das eine Kamera (30) und eine an dieser Kamera (30) angeschlossene Auswerteeinheit (32) aufweist, wobei die Kamera (30) in dem Bezugssystem angeordnet und mit der Auswerteeinheit (32) verbunden ist, und wobei die Auswerteeinheit (32) einen Rechner, in dem ein Programm zur Bilderfassung und Auswertung abläuft, und einen Speicher aufweist, in dem die Geometrie der Oberseite (26) und damit insbesondere der drei Punkte (A, B, C) abgespeichert ist.
  8. System nach Anspruch 6, dadurch gekennzeichnet, dass der Träger (24) schwingungsarm ausgebildet ist, insbesondere als Schichtmaterial realisiert ist.
  9. System nach Anspruch 6 oder 7, dadurch gekennzeichnet, dass mindestens einer der drei Punkte (A, B, C) als Kreisscheibe ausgebildet ist.
  10. System nach einem der Ansprüche 6-8, dadurch gekennzeichnet, dass die drei Punkte (A, B, C) auf den Ecken eines Dreiecks, vorzugsweise eines gleichschenkligen und dann insbesondere rechtwinkligen Dreiecks oder eines gleichseitigen Dreiecks, angeordnet sind.
  11. System nach einem der Ansprüche 6-9, dadurch gekennzeichnet, dass die Oberseite (26) des Trägers (24) eben ist.
  12. System nach einem der Ansprüche 6-10, dadurch gekennzeichnet, dass die Punkte (A, B, C) in einer ersten Farbe und ein Hintergrund der Oberseite (26) in einer zweiten Farbe ausgeführt ist, und dass ein möglichst hoher Kontrast zwischen der ersten Farbe und der zweiten Farbe vorliegt, vorzugsweise ist eine dieser Farben weiß und die andere ist schwarz.
  13. System nach einem der Ansprüche 6-11, dadurch gekennzeichnet, dass der Übergang von einem Punkt (A, B, C) zu dem Hintergrund der Oberseite (26) sprunghaft erfolgt, vorzugsweise, dass der Übergang ein farblicher Übergang ist.
  14. System nach einem der Ansprüche 6-13, dadurch gekennzeichnet, dass der Marker (22) einen starren Träger (24) und vorzugsweise ein an diesem angeordnetes Befestigungsmittel für die Befestigung am Bauteil (20) hat.
DE102019201526.3A 2019-02-06 2019-02-06 Verfahren und System zum Erfassen und Messen der Position eines Bauteils gegenüber einer Referenzposition sowie der Verschiebung und der Verdrehung eines sich relativ zu einem Bezugssystem bewegenden Bauteils Pending DE102019201526A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102019201526.3A DE102019201526A1 (de) 2019-02-06 2019-02-06 Verfahren und System zum Erfassen und Messen der Position eines Bauteils gegenüber einer Referenzposition sowie der Verschiebung und der Verdrehung eines sich relativ zu einem Bezugssystem bewegenden Bauteils
US16/783,636 US11754386B2 (en) 2019-02-06 2020-02-06 Method and system for capturing and measuring the position of a component with respect to a reference position and the translation and rotation of a component moving relative to a reference system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019201526.3A DE102019201526A1 (de) 2019-02-06 2019-02-06 Verfahren und System zum Erfassen und Messen der Position eines Bauteils gegenüber einer Referenzposition sowie der Verschiebung und der Verdrehung eines sich relativ zu einem Bezugssystem bewegenden Bauteils

Publications (1)

Publication Number Publication Date
DE102019201526A1 true DE102019201526A1 (de) 2020-08-06

Family

ID=71615843

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019201526.3A Pending DE102019201526A1 (de) 2019-02-06 2019-02-06 Verfahren und System zum Erfassen und Messen der Position eines Bauteils gegenüber einer Referenzposition sowie der Verschiebung und der Verdrehung eines sich relativ zu einem Bezugssystem bewegenden Bauteils

Country Status (2)

Country Link
US (1) US11754386B2 (de)
DE (1) DE102019201526A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114894090A (zh) * 2022-05-09 2022-08-12 南京工程学院 一种基于线激光的回转内腔尺寸检测方法

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11768281B2 (en) * 2020-02-28 2023-09-26 Continental Autonomous Mobility US, LLC Vehicle component with image sensor aimed at fiducial marker
CN112434595B (zh) * 2020-11-20 2024-07-19 小米科技(武汉)有限公司 行为识别方法及装置、电子设备、存储介质
CN112541400B (zh) 2020-11-20 2024-06-21 小米科技(武汉)有限公司 基于视线估计的行为识别方法及装置、电子设备、存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030063292A1 (en) 1998-10-23 2003-04-03 Hassan Mostafavi Single-camera tracking of an object
US8073201B2 (en) 2005-02-04 2011-12-06 Canon Kabushiki Kaisha Position/orientation measurement method and apparatus
EP2952953A1 (de) 2014-06-04 2015-12-09 MBDA Deutschland GmbH Verfahren zum ausrichten eines kamerasystems auf ein zielobjekt und kamerasystem

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5889505A (en) * 1996-04-04 1999-03-30 Yale University Vision-based six-degree-of-freedom computer input device
US20030210812A1 (en) * 2002-02-26 2003-11-13 Ali Khamene Apparatus and method for surgical navigation
US6978167B2 (en) * 2002-07-01 2005-12-20 Claron Technology Inc. Video pose tracking system and method
WO2007044301A2 (en) * 2005-10-04 2007-04-19 Intersense, Inc. Tracking objects with markers
US20100282983A1 (en) * 2007-07-13 2010-11-11 Wright J Nelson Systems and methods for positioning patients during tracking of targets in radiation therapy and other medical applications
US8086026B2 (en) * 2008-06-27 2011-12-27 Waldean Schulz Method and system for the determination of object positions in a volume
US11395706B2 (en) * 2012-06-21 2022-07-26 Globus Medical Inc. Surgical robot platform
US9336597B2 (en) * 2012-11-08 2016-05-10 Navigate Surgical Technologies, Inc. System and method for determining the three-dimensional location and orienation of identification markers
US9827054B2 (en) * 2014-03-14 2017-11-28 Synaptive Medical (Barbados) Inc. Intelligent positioning system and methods therefore
EP3001219B1 (de) * 2013-08-20 2019-10-02 CureFab Technologies GmbH Optische Verfolgung
EP3119340B1 (de) * 2014-03-17 2019-11-13 Intuitive Surgical Operations, Inc. Verfahren und vorrichtungen zur tischstellungsverfolgung mithilfe von bezugsmarkern
US10623649B2 (en) * 2014-07-31 2020-04-14 Hewlett-Packard Development Company, L.P. Camera alignment based on an image captured by the camera that contains a reference marker
US10922836B2 (en) * 2016-11-15 2021-02-16 Carl Zeiss Industrielle Messtechnik Gmbh Method and system for determining a 3D position of an object in space
US11308645B2 (en) * 2017-05-12 2022-04-19 The Board Of Trustees Of The Leland Stanford Junior University Apparatus and method for wide-range optical tracking during medical imaging
US11540767B2 (en) * 2017-07-03 2023-01-03 Globus Medical Inc. Intraoperative alignment assessment system and method
SG11202000652SA (en) * 2017-07-25 2020-02-27 Mbl Ltd Systems and methods for operations a robotic system and executing robotic interactions
AU2018321383A1 (en) * 2017-08-24 2020-04-02 Arthrex, Inc. Methods and systems for determining adjustment prescriptions of external fixation devices
DE102017220876B4 (de) * 2017-11-22 2020-12-24 Ford Global Technologies, Llc Verfahren und Vorrichtung zur Positions- und Lagebestimmung
US20190290365A1 (en) * 2018-03-26 2019-09-26 Guidemia Technologies Inc. Method and apparatus for performing image guided medical procedure
IT201900006498A1 (it) * 2019-05-02 2020-11-02 Giuseppe Rampulla Apparato per tracciare e registrare i movimenti della mandibola di una persona e relativo metodo

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030063292A1 (en) 1998-10-23 2003-04-03 Hassan Mostafavi Single-camera tracking of an object
US8073201B2 (en) 2005-02-04 2011-12-06 Canon Kabushiki Kaisha Position/orientation measurement method and apparatus
EP2952953A1 (de) 2014-06-04 2015-12-09 MBDA Deutschland GmbH Verfahren zum ausrichten eines kamerasystems auf ein zielobjekt und kamerasystem

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114894090A (zh) * 2022-05-09 2022-08-12 南京工程学院 一种基于线激光的回转内腔尺寸检测方法

Also Published As

Publication number Publication date
US11754386B2 (en) 2023-09-12
US20200249009A1 (en) 2020-08-06

Similar Documents

Publication Publication Date Title
DE102019201526A1 (de) Verfahren und System zum Erfassen und Messen der Position eines Bauteils gegenüber einer Referenzposition sowie der Verschiebung und der Verdrehung eines sich relativ zu einem Bezugssystem bewegenden Bauteils
EP3034995B1 (de) Verfahren zum bestimmen eines position- und orientierungsversatzes eines geodätischen vermessungsgeräts und ebensolches vermessungsgerät
AT506110B1 (de) Vorrichtung und verfahren zur erfassung von körpermassdaten und konturdaten
EP2489977B1 (de) Verfahren zur Bestimmung der 3-D-Koordinaten eines Objekts und zum Kalibrieren eines Industrieroboters
DE102006055758B4 (de) Verfahren zur Kalibrierung von Kameras und Projektoren
DE112014001268T5 (de) Kompensation eines Scanners mit strukturiertem Licht, der in sechs Freiheitsgraden verfolgt wird
DE112010004767T5 (de) Punktwolkedaten-Verarbeitungsvorrichtung, Punktwolkedaten-Verarbeitungsverfahren und Punktwolkedaten-Verarbeitungsprogramm
DE69937819T2 (de) Optische Bestimmung der relativen Positionen von Körpern in einem Raum
EP2574876B1 (de) Verfahren und Vorrichtung zum Bestimmen der 3D-Koordinaten eines Objekts
DE112018002048T5 (de) Hochgenaues kalibriersystem und kalibrierverfahren
DE102009032262A1 (de) Verfahren zur Bestimmung der 3D-Koordinaten eines Objekts
WO2007115621A2 (de) Verfahren und system zur formmessung einer spiegelnden oberfläche
EP1687656B1 (de) Verfahren zur richtungsbestimmung zu einem zu vermessenden objekt
DE102017212371A1 (de) Bestimmung einer Marke in einem Datensatz mit mittels zumindest eines Laserscanners erfassten dreidimensionalen Oberflächen-Koordinaten einer Szene
EP3642560A1 (de) System, verfahren und marker zur positionsbestimmung eines beweglichen objektes im raum
EP3628995A1 (de) Kalibriervorlage und kalibrierverfahren zum geometrischen kalibrieren einer vielzahl von kameras eines kamera-arrays
DE102017126495B4 (de) Kalibrierung eines stationären Kamerasystems zur Positionserfassung eines mobilen Roboters
EP1098268A2 (de) Verfahren zur dreidimensionalen optischen Vermessung von Objektoberflächen
EP3719539A1 (de) Vorrichtung und verfahren zum dreidimensionalen erfassen wenigstens eines objekts
DE102019110729A1 (de) Verfahren zur Ausrichtung mindestens eines Kalibrierkörpers und Vorrichtung zum dreidimensionalen optischen Vermessen von Objekten
WO2009018894A1 (de) Verfahren und vorrichtung zum bestimmen von geometriedaten eines messobjekts
DE102019220247B4 (de) Verfahren und Anordnung zum optischen Kalibrieren von Drehachsen für Koordinatenmessungen
DE102021204804A1 (de) Targetkörper zum Ermitteln einer Position und/oder einer Ausrichtung eines Objekts
DE102021130148A1 (de) Fehlerkompensation für ein dreidimensionales verfolgungssystem
EP1251329B1 (de) Verfahren zur Arbeitspunktstabilisierung bei berührungsloser 3D-Positionserkennung eines Objektes mittels Digitalkameras

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: MARKOWITZ, MARKUS, DR.-ING., DE