DE19846145A1 - Verfahren und Anordung zur 3D-Aufnahme - Google Patents
Verfahren und Anordung zur 3D-AufnahmeInfo
- Publication number
- DE19846145A1 DE19846145A1 DE1998146145 DE19846145A DE19846145A1 DE 19846145 A1 DE19846145 A1 DE 19846145A1 DE 1998146145 DE1998146145 DE 1998146145 DE 19846145 A DE19846145 A DE 19846145A DE 19846145 A1 DE19846145 A1 DE 19846145A1
- Authority
- DE
- Germany
- Prior art keywords
- lens
- phase
- space
- array
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
- G01B11/254—Projection of a pattern, viewing through a pattern, e.g. moiré
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Beschrieben wird ein Verfahren und eine Anordnung zur 3-D-Aufnahme mit einer Lichtquelle und einem Sender-Array und einem Beleuchtungsobjektiv zur Abbildung des Sender-Arrays und einem Empfänger-Array und einem Aufnahmeobjektiv zur Abbildung eines Objektes oder einer Szene auf das Empfänger-Array und einem Bewegungssystem. DOLLAR A Die Erfindung zeichnet sich dadurch aus, daß die Komponenten des Bewegungssystems so angeordnet sind, daß bei der Aufnahme eines Objektes oder einer Szene mit dem Empfänger-Array für das Sender-Array eine Gesamtbewegungsrichtung parallel zu einer Geraden g¶A¶ realisiert ist und so sich die Elemente des Sender-Arrays auf Geraden parallel zur Geraden g¶A¶ bewegen und die Gerade g¶A¶ den Brennpunkt des Beleuchtungsobjektivs im Raum des Sender-Arrays schneidet und den Anstieg mit dem Betrag aus dem Quotienten Brennweite des Beleuchtungsobjektivs und Abstand des Brennpunktes des Abbildungsobjektivs im Raum des Objektes von der Achse des Beleuchtungsobjektivs aufweist, wobei dieser Anstieg der Geraden g¶A¶ auf eine achssenkrechte Gerade zur Achse des Beleuchtungsobjektivs bezogen ist.
Description
Das technische Anwendungsgebiet besteht in der Bestimmung der 3D-Form oder
3D-Gestalt von Körpern oder Objekten im Raum oder sogar kompletten Szenen mit
mindestens einem Bildaufnehmer in einem optischen Aufnahmesystem. Die dazu
notwendige Anordnung wird im weiteren als 3D-Aufnahme-Anordnung und das
Verfahren wird als 3D-Aufnahme-Verfahren bezeichnet.
Die Anwendung dieser 3D-Aufnahme-Anordnung und dieses Verfahrens erfolgt
erstens im Sinne der 3D-Meßtechnik. Als Ergebnis der Berechnung wird aus optisch
gewonnenen Signalen die 3D-Punktwolke eines Objektes oder einer Szene mit Be
zug zu einem Nullpunkt der 3D-Aufnahme-Anordnung ermittelt. Die errechnete
Punktwolke kann beispielsweise in einem CAD-System weiterverarbeitet werden.
Das zweite Anwendungsgebiet stellt das Gewinnen von 3D-Bildern von Objekten
oder Szenen für 3D-Wiedergabe-Geräte und 3D-Wiedergabe-Verfahren dar. Dies
betrifft vor allem den Multimedia- und Fernsehbereich.
Die 3D-Form von Oberflächen wird häufig mit Streifen-Triangulationsverfahren ver
messen. Dabei wird in der Regel das Objekt oder die Szene unter einem großen
Einfallswinkel beleuchtet, beispielsweise zwischen 30° und 60°. Dies führt jedoch
häufig zu störenden Abschattungen des Objekts oder von Details in der Szene.
Es sind vielfältige 3D-Meßanordnungen mit kohärentem Licht bekannt. Der Einfluß
des Speckle-Phänomens begrenzt jedoch die Auflösung. Dies wurde in der Arbeit
"Automatisierung der optischen Qualitätsprüfung" von H. J. Tiziani in Technisches
Messen, 55. Jahrgang, Heft 12/1988, S. 481-491 auf Seite 488 dargestellt.
Interferenzstreifen-Felder, die durch die Überlagerung kohärenter Planwellen er
zeugt werden, weisen ebenfalls Speckle-Effekte auf, s. Technisches Messen, 62.
Jahrgang, Heft 9/1995, S. 328-330. Diese Speckle-Effekte begrenzen die sinnvolle
Höhenauflösung häufig auf weniger als 1/50 der effektiven Wellenlänge.
Bei der Aufnahme von Personen verbietet sich aus Sicherheitsgründen die Anwen
dung gerichteter Laserstrahlung.
In der deutschen Patentschrift DE 44 13 758 C2, veröffentlicht am 17.9.98, zeigen
die Fig. 4-7 eine Möglichkeit der Gewinnung von Interferenzstreifen für die Ge
staltmessung mittels eines Zweistrahl-Interferometers mit Dachkantreflektoren durch
Lateral-Shear von zwei kohärenten Lichtbündeln. Die Eliminierung der Lateral-Shear
führt zu einem Interferenzstreifen-Feld mit wenigen Streifen. Jedoch muß hierbei ein
Strahlteilersystem für die Eliminierung der Lateral-Shear eingesetzt werden. Dies
führt zu einer recht großvolumigen Anordnung bei hohen Anforderungen an die
Qualität der verwendeten Objektive.
Bei der herkömmlichen optischen 3D-Messung stellen diskontinuierliche Oberflä
chen oft ein Problem dar. Beispielsweise können größere Absätze oder Stufen in
der Oberfläche des Objektes zu einer Verletzung des Sampling-Theorems führen.
Abhilfe schafft hier das Gray-Code-Verfahren, bei dem zunächst eine Folge von
Binär-Bildern aufprojiziert wird und anschließend - besonders bei höheren Genauig
keitsforderungen - Sinusgitter auf die Objektoberfläche abgebildet werden und die
bekannte Phasenschiebemethode zur Anwendung kommt. Ein Beispiel stellt das
Modulare optische 3D-Meßsystem opto TOP der Fa. Breuckmann GmbH in D-88709
Meersburg dar. Weiterhin ist das COMET-500-System der Fa. Steinbichler Opto
technik GmbH in D-83115 Neubeuern zu nennen.
Die Firma ABW in D-72636 Frickenhausen bietet programmierbare Linienprojekto
ren mit bis zu 1280 Linien für das absolut messende Moire-Verfahren an. Projekto
ren auf LCD-Basis arbeiten noch relativ langsam und der zu beobachtende Streifen
kontrast auf dem Objekt ist schlechter als bei Projektoren mit Gitterstrukturen auf
Glasplatten. Die Firma Gottfried Frankowski Meßtechnik in D-14513 Teltow bietet
die Digitale Lichtprojektion auf der Basis von Mikrospiegeln, Digital Light Devices,
auch als DMD bekannt, an. Zur Zeit können Gitterbilder mit einer Folgefrequenz von
etwa 10 Hz erzeugt und eingelesen werden. Diese Frequenz ist jedoch für die
Hochgeschwindigkeits-Bildaufnahme noch nicht ausreichend.
Um eine hohe Schärfentiefe bei der Vermessung von tiefen Objekten zu erreichen,
wird bei allen genannten Verfahren in der Regel mehr oder weniger stark abgeblen
det, also meistens mit kleinen Objektivöffnungen, beispielsweise mit einer relativen
Lichtstärke von 1 : 8, gearbeitet. Dies erfordert starke Lichtquellen, beispielsweise in
Form von Blitzlampen oder starken Halogenlampen, oder es ist nur die Ausleuch
tung vergleichsweise kleiner Felder möglich, beispielsweise 200 mm × 200 mm bis
500 mm × 500 mm.
Auf dem 2. ABW-Workshop 3-D BV/TAE vom 25.-26.1.1996 wurde von R. Lampal
zer, G. Häusler und Schielzeth auf den Vorteil einer großen Beleuchtungsapertur zur
Verringerung des Speckle-Rauschens durch die Gewinnung räumlicher Inkohärenz
hingewiesen.
Der Stand der Technik bei der Gewinnung von analogen 3D-Bildern basiert in der
Regel auf dem Einsatz von zwei Kameras wie beim zweiäugigen Sehen. Dies wird
nicht weiter betrachtet, da es hierbei um die Gewinnung von 3D-Daten in digitaler
Form geht.
In der Vergangenheit kam es durch die Verwendung von zwei Kameras zu Proble
men mit der lateralen Genauigkeit bei der Generierung der 3D-Punktwolke. Neue
Entwicklungen, beispielsweise von der Firma gom in D-38106 in Braunschweig, führ
ten zu einer Serie von Sensoren auf der Basis der Projektion von unterschiedlichen
Streifenmustern und der Erfassung mit zwei Kameras aus unterschiedlichen Blick
winkeln. Von Nachteil sind jedoch die teilweise erheblichen Abmessungen des Meß
systems. Deshalb ist bei der Forderung nach Miniaturisierung in der hochgenauen
3D-Meßtechnik die Ein-Kamera-Technik und die Ein-Projektor-Technik offenbar
grundsätzlich von Vorteil.
Ein neues Verfahren mit drei Kameras mit parallel angeordneten optischen Achsen
und einem geeigneten Basisabstand löst das Problem der Erfassung der 3D-Szene
durch die Auswertung stereoskopischer Bilder mittels Hochleistungsrechner,
s. VDI-Nachrichten Nr. 21 vom 22. Mai 1998, Seite 15, "Reise in die strahlende Rui
ne". Diese so gewonnenen 3D-Informationen werden zum Steuern eines Roboters,
des Roboter "Pioneer", in der Tschernobyl-Ruine und zur 3D-Erfassung der bauli
chen Gegebenheiten und des Umfeldes angewendet. Nur mit Hochleistungs-
Rechentechnik ist eine echtzeitnahe 3D-Bildrekonstruktion möglich. Das Bauvolu
men dieser Anordnung ist durch die drei Kameras vergleichsweise groß.
Im Tagungsband "Optische Formerfassung" GMA-Bericht 30, DGZfP-VDI/VDE-
GMA Fachtagung 28.129. April 1997, Langen, Bundesrepublik Deutschland, S.
199-209, wird von den Autoren, R. Schwarte, H. Heinol, z. Xu, J. Olk und W. Tai da
rauf hingewiesen, daß für die schnelle Formerfassung im ca. 20 cm- bis 50 m-
Bereich kein präzises, flexibles und kostengünstiges Verfahren zur Verfügung steht.
Diese Auffassung gilt besonders für den Bereich von 20 cm bis 2 m, da hier auch
die Laufzeitverfahren nur eine Tiefen-Meßgenauigkeit von 2 mm bis 20 mm aufwei
sen. Die in o. g. genannter Veröffentlichung dargestellte technische Lösung auf der
Basis eines Photomischdetektors PMD wird als gegenwärtig noch nicht geeignet an
gesehen, im genannten Nahbereich eine hohe Tiefen-Genauigkeit zu realisieren.
Auch wird der technische Aufwand z. Z. noch als recht hoch eingeschätzt.
Im o. g. Tagungsband "Optische Formerfassung" wird auf den Seiten 211-222, von
den Autoren W. Schreiber, V. Kirchner und G. Notni das Konzept für ein selbstein
messendes, optisches 3D-Meßsystem auf der Basis strukturierter Beleuchtung dar
gestellt. Es gestattet, ausgehend von der Erfahrungen in der Photogrammetrie, die
gleichzeitige Bestimmung von Systemparametern und Koordinaten aus den Meß
werten. Es wird eine außerordentlich hohe Meßgenauigkeit für die Objektkoordina
ten mit einem relativen Fehler von bis zu 10-5 erreicht. Dazu muß jedoch eine mehr
malige Meßwertaufnahme erfolgen, wobei Gray-Code-Sequenzen und Streifen mit
sinusähnlichem Profil in Verbindung mit Phasenschiebechniken eingesetzt werden.
Dies bedeutet einen erheblichen Zeitaufwand für die Durchführung der Messung
aufgrund des notwendigen Einsatzes mehrerer Gitter in einer Meßfolge. Auch muß
das Objekt, aufeinanderfolgend von mehreren Projektoren, in unterschiedlichen
Positionen oder vom gleichen Projektor aus in verschiedenen Richtungen beleuchtet
werden. Auch dies ermöglicht keine hochdynamische Messung oder eine echtzeit
nahe 3D-Erfassung von Objekten.
Die Grundzüge dieses neuen und sehr vorteilhaften optischen Verfahrens sind unter
dem Titel "Optische Dreikoordinatenmessung mit strukturierter Beleuchtung" in
Technisches Messen, 62. Jahrgang, Heft 9/1995, S. 321-329 von W. Schreiber,
J. Gerber und R. Kowarschik dargestellt. Der Referenzpunkt für das Koordinatensy
stem liegt dabei im Bereich des Objektes.
In Bild 2 dieser letztgenannten Veröffentlichung wird eine Anordnung mit parallelen
Achsen für das Beleuchtungs- und das Abbildungsobjektiv und einer zweiseitig zen
tralperspektivischen Abbildung dargestellt.
Jedoch läßt sich abgeschätzten, daß sich hierbei aufgrund des angegebenen Appa
rates und des mathematischen Modells die Umsetzung der Auswerte-Algorithmen in
straight forward-Algorithmen sehr schwierig gestaltet, so daß eine Echtzeit-
Auswertung mittels spezieller Hochgeschwindigkeits-Prozessoren auf diesem Weg
kaum möglich ist.
Da die Kamera und der Projektor räumlich getrennt sind, ist die Realisierung eines
kompaktes 3D-Meßmoduls nicht möglich.
Die Daimler-Benz Aerospace stellte 1997 die 2. Generation einer Laserkamera auf
der Basis der Laufzeitmessung des Lichtes dar. Die Meßgenauigkeit liegt nur bei et
wa 2π des Meßbereiches und wird damit für meßtechnische Applikationen im Nah
bereich als ungeeignet angesehen. Die Gewinnung der Farbinformation von der
Szene gilt hierbei als praktisch ausgeschlossen.
In der Erfindungsbeschreibung P 197 49 974.0 "Verfahren und Apparat zur Erzeu
gung einer 3D-Punktwolke für die Topometrie oder die 3D-Vision für Multimedia
Applikationen" der Autoren K. Körner und L. Nyársik wird eine Lösung für die
Hochgeschwindigkeits-Bildaufnahme angegeben. Jedoch wird nicht im Einzelnen
dargestellt, welche speziellen Anordnungsmerkmale für eine 3D-Aufnahme-
Anordnung und welche Verfahrensschritte für ein 3D-Aufnahme-Verfahren einzuhal
ten sind.
In der Arbeit "General approach for the description of optical 3D-measuring system"
der Autoren P. Andrä, W. Jüptner, W. Kebbel und W. Osten in SPIE Vol. 3174, S.
207-215 wird eine allgemeine Beschreibung optischer Methoden für die
3D-Koordinatenmessung gegeben. Die Ableitung von geeigneten Algorithmen für
die Hochgeschwindigkeitsauswertung von Bildserien für die 3D-Messung ist hierbei
nicht gegeben, stellte aber auch nicht das Ziel dieser Arbeit dar.
Eine 3D-Echtzeitkamera wurde im Poster P 28 der 99. Tagung der Deutschen Ge
sellschaft für angewandte Optik vom 2.6 bis 6.6.1998 in Bad Nenndorf von G. Bohn,
L. Cloutot, G. Häusler, M. Hernandez, C. Horneber, R. Lampalzer, S. Seeger unter
Einsatz eines ferroelektrischen Displays vorgestellt. Dieses ferroelektrische Display
ist in 0,1 ms umschaltbar und wird in Verbindung mit einer astigmatischen Abbildung
zur Generierung von sinusförmigen Streifen fester Ortsfrequenz verwendet. Die
Meßzeit des Prototypen beträgt zur Zeit 320 ms. Eine absolute Kodierung des Rau
mes mittels strukturiertem Licht ist damit bisher jedoch nicht möglich. Die erreichba
re Genauigkeit ist gegenwärtig auf etwa 1/2000 des Meßbereiches begrenzt.
Die Erfindung löst die Aufgabe der flächenhaften Prüfung der 3D-Gestalt techni
scher und natürlicher Oberflächen von Objekten im Raum und Szenen mit einem
absoluten Bezug zur 3D-Aufnahme-Anordnung. Die Gestalt von Objekten im Raum
und Szenen kann mit hoher Meßgenauigkeit in der Tiefe und mit hoher Geschwin
digkeit gemessen werden.
Weiterhin wird die benötigte Lichtleistung für die Ausleuchtung der Szene zum Teil
sehr stark reduziert, bzw. es kann die Bildaufnahmefrequenz bei hoher Lichtleistung
erhöht werden. Durch das Auswerteverfahren wird eine Auflösung auf bis zu 1/2000
der effektiven Wellenlänge in der Tiefe erreichbar. Dies ist aber nicht in jedem Fall
sinnvoll und möglich.
Technisch wird die Prüfung der Oberflächengestalt von Werkstücken des Maschi
nenbaus, des Fahrzeugbaus und auch der Luft- und Raumfahrt weiter verbessert.
Damit ist die Applikation in der automatisierten Produktion, in der Robotik, im Bau
wesen, in der Medizin, beispielsweise bei der geometrischen Vermessung von Men
schen, biologischen Objekten und auch im künstlerischen Bereich bei Plastiken oder
Stuckwerken gegeben.
Weiterhin wird die Aufgabe der Hohlraum- und der Innenraum-Inspektion gelöst. La
byrinthe in unterschiedlicher Größe und auch verstrahlte oder kontaminierte Innen
räume, die dem Menschen aufgrund von ernsthaften gesundheitlichen Gefahren
oder aufgrund der geringen Abmessungen nicht zugänglich sind, können durch Ro
boter begangen werden, die mit einer oder mehreren 3D-Aufnahme-Anordnungen
ausgerüstet sind. Dabei kann es sich um rollende, schreitende, saugende, schwim
mende, fliegende, kriechende und krabbelnde Roboter handeln. Auch ist der Unter
wassereinsatz für die Schiffswrack-Inspektion mit der 3D-Aufnahme-Anordnung
grundsätzlich möglich.
Auch die elektronische Unterstützung von sehbehinderten Menschen zur Orientie
rung im Raum ist mit einer miniaturisierten 3D-Aufnahme-Anordnung möglich. Bei
Recyclingprozessen ist eine Möglichkeit der automatisierten Demontage von Altge
räten, alten Karosserien sowie die Trennung von Abfallprodukten auch in einer ge
fährlichen Umgebung gegeben.
Das unterschiedliche Reflexionsvermögen von technischen Oberflächen, welches
beispielsweise durch eine ausgeprägte Textur verursacht wird, kann kompensiert
werden.
Die Erfindung ermöglicht die schnelle Erfassung und Prüfung der 3D-Gestalt von
Körpern und Szenen mit großer Tiefenausdehnung, vorzugsweise mit Abmessungen
im Bereich oberhalb eines Millimeters. Durch die Beleuchtung des Objektes unter ei
nem vergleichsweise geringen Triangulationswinkel, beispielsweise um 10° oder
kleiner, können auch glatte Oberflächen mit einem geringen Streuvermögen ohne
Präparierung der Oberfläche - wie in der Praxis heute oft noch üblich - aufgenom
men werden.
Außerdem können nichttechnische Objekte in ihrer räumlichen Struktur erfaßt wer
den, wobei der Raum, in welchem sich die Objekte befinden, in unterschiedlichen
Tiefen zeitlich nacheinander strukturiert beleuchtet wird. Bei entsprechend hoher Dy
namik der für die 3D-Aufnahme eingesetzten Komponenten können auch sich bewe
gende Objekte und Szenen, einschließlich Personen und Tiere, aufgenommen wer
den. Die Echtzeitfähigkeit des Verfahrens ist grundsätzlich gegeben. Dabei sind
grundsätzlich mehrere 3D-Aufnahme-Anordnungen einsetzbar, und es kann die Far
be der Objektpunkte bei Verwendung von farbtüchtigen Bildaufnehmern verarbeitet
werden.
Die bei der Erfassung räumlicher Strukturen störenden Lichtschatten aufgrund eines
relativ großen Triangulationswinkels von 30° bis beispielsweise 60° werden weitge
hend vermieden.
Eine weitere Verbesserung stellt die deutliche Erhöhung der Auswertegeschwindig
keit bei der 3D-Erfassung dar. Es besteht die reale technische Möglichkeit, die
3D-Punktwolke des Objektes oder der Szene im Video-Takt zur Verfügung zu
stellen.
Der in seiner 3D-Form zu erfassende Körper oder die gesamte Szene stehen vor
zugsweise senkrecht zur optischen Achse des Aufnahmeobjektivs. Das gestattet,
aufgrund der optimalen Abbildungsbedingungen eine hohe laterale Auflösung und
den Einsatz tomographischer oder tiefenscannender Verfahren. Die 3D-Punktwolke
besitzt einen absoluten geometrischen Bezug zu einem Nullpunkt der
3D-Aufnahme-Anordnung.
Die Anwendung der Erfindung ermöglicht die nahezu vollständige Ausnutzung der
hohen Leistungsfähigkeit optischer Abbildungsysteme für die Prüfung der
3D-Oberflächengestalt.
Die Realisierung einer hohen Beleuchtungsapertur sichert ein geringes Speckle-
Rauschen in den Pixeln der Kamera.
Andererseits können komplette Szenen mit bewegten Objekten echtzeitnah als
3D-Szenen aufgenommen werden. Die Grenze für das erfaßbare Volumen stellt die
verfügbare Lichtenergie, die Lichtstärke der verwendeten Objektive sowie die photo
metrische Empfindlichkeit der verwendeten Bildempfänger dar. Der in der Tiefe er
faßbare Raum kann durchaus bis zu 20 m betragen. Die Begrenzung erfolgt letztlich
durch das Signal-Rausch-Verhältnis im Lichtempfänger bzw. Bildempfänger.
Es werden die Grundzüge des Verfahrens und der Anordnung beschrieben. Mittels
einer transmissiven oder reflektierenden, gerasterte Struktur mit mehreren Maxima
und Minima der Transmission oder Reflexion und einer Lichtquelle wird eine struktu
rierte, leuchtende Fläche mit lokalen Extrema der Leuchtdichte erzeugt. Diese gera
sterte Struktur wird im weiteren als Sender-Array bezeichnet. Dem Sender-Array ist
mindestens ein möglichst hochgeöffnetes Beleuchtungsobjektiv mit einer positiven
Brennweite zur Abbildung dieses Sender-Arrays nachgeordnet. So entsteht durch die
Abbildung des Sender-Arrays im Raum des Objektes auf dessen Oberfläche eine
strukturierte Beleuchtung.
Grundsätzlich kann das Sender-Array auch selbstleuchtend sein und lokale Extrema
der Leuchtdichte aufweisen.
Zu dem erfinderischem Zweck ist bei der Abbildung des Sender-Arrays in die Tiefe
des Raumes des Objektes eine möglichst geringe Ausdehnung des Schärfeberei
ches realisiert, so daß die räumlich strukturierte Beleuchtung sich mehr in einem
scheibenförmigen Volumen befindet. Zum Beleuchtungsobjektiv ist mindestens ein
Aufnahmeobjektiv zur Abbildung des Objektes oder der Szenen angeordnet.
Beleuchtungs- und Aufnahmeobjektiv sind vorzugsweise von gleicher Bauart und
weisen somit auch die gleiche Brennweite auf. Auch fallen die Brennebenen der bei
den Objektive im Raum des Objektes vorzugsweise zusammen und die beiden
Objektive sind vorzugsweise in geringem Abstand voneinander angeordnet mit vor
zugsweise parallelen Achsen. Gegebenfalls können die Linsen sogar in einem ge
meinsamen Gehäuse untergebracht sein.
Die Objektive weisen vorteilhafterweise ein großes Bildfeld auf. Die Korrektur in der
Tiefe sollte in einem großen Tiefenbereich gut sein. Durch die Koinzidenz der
Brennebenen im Raum des Objektes können die Objektive stets auf die gleiche
Objekt- und Bildebene eingestellt werden und bilden dann durch den geringen Ab
stand der Objektivachsen in einem Bereich, vorzugsweise mit einem Abstand deut
lich unterhalb der einhundertfachen Brennweite des Beleuchtungsobjektivs - typisch
ist das dreifache bis sechsfache - zumindest einen identischen Teil des Objektfeldes
im Raum des Objektes, in der Regel verkleinernd, in den Raum der Arrays ab. In
diesem Raum bestehen getrennte Bildfelder, jedoch in einer vorzugsweise gemein
samen Ebene, die vorzugsweise senkrecht auf der optischen Achse steht. Die
Schärfeflächen der beiden Objektive im Raum des Objektes fallen vorzugsweise in
einem möglichst großen Bereich zusammen.
Das Abbildungsobjektiv weist im Raum der Arrays einen vorzugsweise telezentri
schen Strahlengang im strengen Sinne auf, d. h. die Austrittspupille liegt sehr weit
vom Objektiv entfernt, beispielsweise um 100 m. Das Beleuchtungsobjektiv weist im
Raum der Arrays vorzugsweise einen ebenfalls gut korrigierten telezentrischen
Strahlengang auf. Es ist jedoch auch grundsätzlich möglich, daß dieses Beleuch
tungsobjektiv im Raum der Arrays einen parallelen Strahlengang mit einer dezen
trierten Eintrittspupille aufweist.
In der Bildebene des Aufnahmeobjektivs ist ein weiteres Array, das Empfänger-
Array angeordnet. Auch dieses Array befindet sich vorzugsweise in einem telezentri
schen Strahlengang. Dieses Empfänger-Array kann ein gerasterter Bildempfänger,
beispielsweise eine Empfänger-Matrix oder aber auch ein mikrooptisches Array sein.
Das mikrooptische Array in der Bildebene des Beleuchtungsobjektivs ist vorzugswei
se ein Mikrolinsen-Array aus diffraktiven oder refraktiven Elementen.
Die Telezentrie des Abbildungsobjektiv im Raum der Arrays sichert, daß beim Bewe
gen des Empfänger-Arrays parallel zur Achse des Abbildungsobjektivs, also in der
üblichen Notation in z-Richtung - hier die zA-Richtung, die Abbildungsstrahlen eine
feste Position zu den Elementen des Empfänger-Arrays beibehalten, also die Abbil
dungsstrahlen nicht lateral auswandern. Im Raum des Objektes weisen das
Beleuchtungs- und das Abbildungsobjektiv dagegen einen vorzugsweise zentralper
spektivischen Strahlengang auf, um einen großen Raumbereich erfassen zu
können.
Im Fall der Verwendung eines Mikrolinsen-Arrays im Abbildungsstrahlengang als
Empfänger-Array sind dem Mikrolinsen-Array weitere Komponenten, wie ein Bild
empfänger, nachgeordnet.
Durch das gemeinsame Bewegen des Sender-Arrays und des Empfänger-Arrays
mittels eines Bewegungs-Systems, parallel zur optischen Achsen des Beleuchtungs
objektivs, also in der zA-Richtung, werden nach und nach alle Bereiche des Objektes
oder der Szene in der Tiefe in der jeweiligen Schärfefläche beleuchtet und abgebil
det. Dabei ist das Bewegungssystem vorzugsweise als translatorisch arbeitendes
Bewegungssystem ausgeführt. Es entsteht eine strukturierte Beleuchtung in jeweils
genau der Ebene des Objektes oder der Szene durch die Abbildung des Sender-
Arrays, welche durch das Aufnahmeobjektiv scharf auf das Empfänger-Array abge
bildet wird. Durch die Anpassung der Leuchtdichte der Lichtquelle an die jeweilige
Entfernung der Schärfefläche von der 3D-Aufnahme-Anordnung wird die bekannte
Abnahme der Beleuchtungsstärke auf der Objektoberfläche in Abhängigkeit von de
ren Entfernung ausgeglichen.
Dabei wird das folgende Bewegungsregime für das Sender-Array und das
Empfänger-Array realisiert: Die Beträge der Bewegung der beiden Arrays parallel
zur optischen Achse des Beleuchtungs- und des Abbildungsobjektives, die zA-Rich
tung, sind bei einem Beleuchtungs- und Aufnahmeobjektiv mit gleicher Brennweite
gleich.
Das Sender-Array führt mittels einer Linearführung zusätzlich und vorzugsweise zeit
gleich zur Bewegung parallel zur optischen Achse des Beleuchtungsobjektivs eine
laterale Bewegung aus, also senkrecht zur optischen Achse des
Beleuchtungsobjektivs.
Bei einem elektronisch steuerbaren Array erfolgt die laterale Verschiebung der Ele
mente gleicher Leuchtdichte, bzw. die Verschiebung der Orte der lokalen Extrema
der Leuchtdichte vorzugsweise zeitgleich zu der Bewegung parallel zur optischen
Achse des Beleuchtungsobjektivs durch eine elektronische Steuerung der Transmis
sion, der Reflexion - oder der Leuchtdichte bei einem selbstleuchtenden Array - je
weils in den Elementen des Arrays. Auf dem elektronisch steuerbaren Gitter werden
also die lokalen Extrema der Leuchtdichte durch lokale Extrema der Transmission,
der Reflexion oder durch eine direkte Steuerung der Leuchtdichte bei einem selbst
leuchtenden Array erzeugt.
Für die Gitterelemente oder die Elemente gleicher Leuchtdichte bzw. die Orte der
lokalen Extrema der Leuchtdichte des Sender-Arrays bzw. auch der Orte gleicher
Phase der Leuchtdichtverteilung wird so eine lineare Bewegung erzeugt, die parallel
zu einer Geraden gA ausgerichtet ist. Diese Gerade gA ist so definiert, daß diese
stets den Brennpunkt des Beleuchtungsobjektivs im Raum der Arrays schneidet und
den Anstieg, definiert als Quotient aus Brennweite des Beleuchtungsobjektivs im
Raum der Arrays und Abstand des Brennpunktes des Abbildungsobjektivs im Raum
des Objektes von der Achse des Beleuchtungsobjektivs, aufweist, wobei dieser An
stieg der Geraden gA auf eine achssenkrechte Gerade zur Achse des Beleuchtungs
objektivs bezogen ist, die beispielsweise in dessen Brennebene im Raum der Arrays
liegt.
Im Fall der parallelen Lage der beiden Achsen von Beleuchtungs- und Abbildungs
objektiv entspricht der Abstand der beiden Achsen von Beleuchtungs- und Abbil
dungsobjektiv selbstverständlich dem Abstand des Brennpunktes des Abbildungsob
jektivs im Raum des Objektes von der Achse des Beleuchtungsobjektivs.
Die Gerade gA schneidet - bei einer gegebenen Anordnung mit zwei parallelen Ach
sen von Beleuchtungs- und Abbildungsobjektiv und zusammenfallenden Brenn- und
Hauptebenen der beiden Objektive - stets sowohl den Brennpunkt des Beleuch
tungsobjektivs auf der Seite des Sender-Arrays als auch auf der gleichen Seite des
Arrays den Hauptpunkt des Abbildungsobjektivs. Punkte entlang dieser Geraden
werden entsprechend der bekannten Scheimpflugbedingung in diesem Fall auf eine
zur Objektivachse des Beleuchtungsobjektivs parallelen Gerade gO abgebildet.
Die Bilder der zur Geraden gA parallelen Geraden, welche die Orte der Elemente
des Sender-Arrays enthalten, bilden im Raum des Objektes mit der Geraden gO ein
Geradenbüschel, wobei der Schnittpunkt aller Geraden dieses Büschels bei der be
schriebenen Anordnung stets im Brennpunkt des Abbildungsobjektivs im Raum des
Objektes liegen soll. Gleichzeitig schneiden alle Abbildungsstrahlen des Abbildungs
objektivs bei Telezentrie im Raum der Arrays ebenfalls den Brennpunkt des Abbil
dungsobjektiv im Raum des Objektes und bilden so ein Strahlenbüschel. Die Gera
den des Geradenbüschels und die Strahlen des Strahlenbüschels koinzidieren. So
detektieren, bei einer achssenkrechten Objektoberfläche im Raum der Arrays und
einer Bewegung des Sender-Arrays in Richtung der Geraden gA die zu den jeweili
gen Abbildungsstrahlen gehörenden Bildpunkte auf dem Empfänger-Array jeweils
den gleichen Betrag der Phasenverschiebung. Diese Phasenverschiebung ent
spricht der Verschiebung der Elemente des Sender-Arrays oder der Verschiebung
der Leuchtdichteverteilung auf dem Sender-Array. Ein paralleles Verschieben dieser
Objektoberfläche führt zum gleichen Betrag der Phasenverschiebung in den Signa
len, die in allen Bildpunkten detektiert werden können. Dies bedeutet, daß die
Tiefenempfindlichkeit der beschriebenen 3D-Aufnahme-Anordnung in einer achs
senkrechten Ebene im Raum des Objektes eine Konstante ist, also keine laterale
Abhängigkeit aufweist. Die Tiefenempfindlichkeit kann durch die effektive Wellenlän
ge der 3D-Aufnahme-Anordnung beschrieben werden. Die effektive Wellenlänge
wird hier als der Betrag der Verschiebung Δz2π eines Objektpunktes auf einem Abbil
dungsstrahl definiert, bei dem sich die Phase genau um 2π im selben Abbildungs
strahl verändert hat, mit ZOB als der zur Achse des Beleuchtungsobjektivs parallelen
Koordinate im Raum des Objektes.
Auf der Grundlage der in einer achssenkrechten Ebene konstanten Tiefenempfind
lichkeit wird die Weiterverarbeitung von errechneten Phasenwerten zur
3D-Punktwolke stark vereinfacht. In diesem Fall können die Berechnungen beson
ders schnell erfolgen. Es können straight formrard-Algorithmen zur Anwendung kom
men. Dies stellt einen großen Vorteil der beschriebenen 3D-Aufnahme-Anordnung
dar.
Eine Anordnung mit zwei starr angeordneten Objektiven ist technisch mit großer Ge
nauigkeit bezüglich der Parallelität der Achsen und der Lage der Brennebenen reali
sierbar und auch vergleichsweise wirtschaftlich herstellbar und wird deshalb
favorisiert.
Die 3D-Aufnahme-Anordnung kann jedoch auch wie folgt aufgebaut sein: Dem Be
leuchtungsobjektiv ist ein Sender-Array zum Zweck der Abbildung zugeordnet, wel
ches schiefwinklig zur Achse des Beleuchtungsobjektiv bewegbar ist. Die geradlinige
Bewegungsrichtung des Arrays definiert die Lage einer Geraden gA und ist zur Lage
der Achse des Beleuchtungsobjektivs konstruktiv unveränderlich gemacht. Die An
ordnung ist so aufgebaut, daß die Gerade gA möglichst genau den Brennpunkt im
Raum des Arrays sowie die Hauptebene des Beleuchtungsobjektivs in einer endli
chen Entfernung von dessen optischer Achse schneidet, nämlich dort, wo die Achse
des Abbildungsobjektivs liegen soll. Die reale oder gedankliche Abbildung der Gera
den gA durch das Beleuchtungsobjektiv in den Raum des Objektes erzeugt die zur
Achse des Beleuchtungsobjektivs parallele Gerade gO. Diese Geraden gO durchstößt
die Brennebene des Beleuchtungsobjektivs im Raum des Objektes. Der objektseiti
ge Brennpunkt des Abbildungsobjektivs ist in den Durchstoßpunkt der Geraden gO
durch die Brennebene des Beleuchtungsobjektivs möglichst genau einjustiert, wobei
die Achse des Abbildungsobjektivs vorzugsweise parallel zur Achse des Beleuch
tungsobjektivs ausgerichtet ist, so daß die Achse des Abbildungsobjektivs mit der
Lage der Geraden gO zusammenfällt. Die Gerade gA weist so, mehr oder weniger gut
angenähert, den Anstieg mit dem Betrag aus dem Quotienten Brennweite des Be
leuchtungsobjektivs und Abstand des Brennpunktes des Abbildungsobjektivs im
Raum des Objektes von der Achse des Beleuchtungsobjektivs auf, wobei dieser An
stieg auf eine achssenkrechte Gerade zur Achse des Beleuchtungsobjektivs bezo
gen ist.
Das Bewegungsregime für die 3D-Aufnahme-Anordnung ist zum einen durch ein Sy
stem mit zwei Linearführungen realisierbar, deren Achsen vorzugsweise senkrecht
zueinander ausgerichtet sind. Die bewegten Komponenten dieser Linearführungen,
auch als Schlitten bezeichnet, sind unabhängig voneinander in den Linear
bewegungen steuerbar. Eine Miniaturisierung dieser Komponenten ist möglich. Es
können lineare Direktantriebe verwendet werden, beispielsweise elektrodynamische
Tauchspulsysteme oder Linearmotore. Die Bewegungsrichtung der bewegten Kom
ponente der ersten Linearführung ist parallel zur Richtung der optischen Achse, der
zA-Koordinate, die der Bewegungskomponente der zweiten Linearführung in einer
dazu achssenkrechten Richtung, der xA-Richtung. Diese beiden Linearführungen er
zeugen so die Bewegung der Elemente des Sender-Arrays parallel zur Geraden gA.
Dabei ist das Empfänger-Array der ersten Linearführung zugeordnet, die in Richtung
der optischen Achse arbeitet. Der Schlitten der ersten Linearführung trägt also das
Empfänger-Array und vorzugsweise die zweite Linearführung und der Schlitten die
ser zweiten Linearführung das Sender-Array.
Andererseits kann auch eine einzige Linearführung mit einem Schlitten, der gleich
zeitig auf diesem Schlitten das Sender-Array und das Empfänger-Array trägt, einge
setzt werden. Die Bewegungsrichtung dieses Schlittens ist parallel zur Geraden gA -
also nicht achssenkrecht, sondern schiefwinklig zu den Objektivachsen. Im letztge
nannten Fall gibt es jedoch, entsprechend der Schlittenbewegung, auf dem
Empfänger-Array eine unerwünschte Verschiebung des Bildes zu den Pixeln des
Empfänger-Arrays. Diese Verschiebung kann im Bildauswerte-Algorithmus pixelwei
se zurückgerechnet werden. Eine hohe Rechengeschwindigkeit ist dann erreichbar,
wenn die Schlittenbewegung und die Aufnahme von Bildern synchronisiert sind und
Bilder in Abhängigkeit von der Schlittenposition nur dann aufgenommen werden,
wenn die aufgetretene Verschiebung des Bildes auf dem Empfänger-Arrays jeweils
mindestens ein ganzes Pixel oder ein davon ganzzahliges Vielfaches beträgt. Die
Ablage der Bilddaten im Datensatz erfolgt stets unter Berücksichtigung der aufgetre
tenen Bildverschiebung, so daß im Ergebnis eine Kompensation der Verschiebung
des Bildes mit Hilfe numerischer Methoden erfolgt ist. So wird beispielsweise ein be
stimmter realer Abbildungsstrahl im Objektraum durch die Zuordnung der abgeleg
ten Daten im Bilddaten-Satz verfolgt, der aus mehreren Schichten, beziehungsweise
Datenfeldern besteht. Jede Schicht entspricht dabei einem aufgenommenen Bild.
So bleibt ein realer Abbildungsstrahl, der von einem bestimmten Element des
Sender-Arrays ausgeht, im gesamten Bewegungsvorgang der beiden Arrays stets
einem Element mit gleichen Indizes, also gleicher Position, in jeder Schicht oder je
dem Datenfeld des gesamten Bilddatensatzes zugeordnet.
Jedoch verringert sich bei dem Verfahren mit nur einer Linearführung die effektiv er
faßte Objektbreite durch die laterale Verschiebung des Empfänger-Arrays, so daß
ein längeres Empfänger-Array benötigt wird, um ein Bild im Standardformat aufneh
men zu können. Die zusätzlich benötigte Länge des Empfänger-Arrays ist allein von
der Verschiebungslänge abhängig, die sich aus der Anzahl der aufgenommenen Bil
der pro Bewegungsvorgang des Schlittens, auch als Scan bezeichnet, ergibt.
Bei einem Bewegungs-System mit zwei Linearführungen wird wie folgt vorgegangen:
Die laterale und lineare Bewegung des Sender-Arrays erfolgt mittels des Schlittens der zweiten Linearführung und beginnt vorzugsweise an einem hochstabilen Null punkt. Das Sender-Array kann ein Liniengitter darstellen, dessen Translation durch ein hochgenaues Längenmeßsystem erfaßt werden kann. Vorzugsweise wird die Gitterbewegung jedoch hochgenau mittels eines zweiten Liniengitters phasenmäßig erfaßt, so daß die auf den Nullpunkt bezogene absolute Gitterphase auch in Bruch teilen von 2π bekannt ist. Hochauflösende Interpolationstechniken sind aus der in krementalen Längenmeßtechnik bekannt. Damit kann die Gitterphase selbst die Re ferenz für das Abtasten der von der Objektoberfläche aus dem Objektraum aufge nommenen optischen Signale darstellen. So kann die Phase dieser Signale hochge nau bestimmt werden. Das ist sehr wesentlich, da in der Phase der optischen Signa le und deren Ort der Entstehung in Verbindung mit den Geometrie-Parametern der Anordnung die Information über die jeweilige Objektposition enthalten ist.
Die laterale und lineare Bewegung des Sender-Arrays erfolgt mittels des Schlittens der zweiten Linearführung und beginnt vorzugsweise an einem hochstabilen Null punkt. Das Sender-Array kann ein Liniengitter darstellen, dessen Translation durch ein hochgenaues Längenmeßsystem erfaßt werden kann. Vorzugsweise wird die Gitterbewegung jedoch hochgenau mittels eines zweiten Liniengitters phasenmäßig erfaßt, so daß die auf den Nullpunkt bezogene absolute Gitterphase auch in Bruch teilen von 2π bekannt ist. Hochauflösende Interpolationstechniken sind aus der in krementalen Längenmeßtechnik bekannt. Damit kann die Gitterphase selbst die Re ferenz für das Abtasten der von der Objektoberfläche aus dem Objektraum aufge nommenen optischen Signale darstellen. So kann die Phase dieser Signale hochge nau bestimmt werden. Das ist sehr wesentlich, da in der Phase der optischen Signa le und deren Ort der Entstehung in Verbindung mit den Geometrie-Parametern der Anordnung die Information über die jeweilige Objektposition enthalten ist.
Die Fläche des Empfänger-Arrays befindet sich bei Objektiven gleicher Bauart vor
zugsweise in der gleichen Ebene wie die Fläche des Sender-Arrays. Außerdem füh
ren das Sender-Array, hier das Liniengitter, durch das Bewegungssystem oder bei
einem elektronisch steuerbaren Array die lokalen Extrema der Leuchtdichte zusätz
lich zur Bewegung in der Tiefe eine laterale Bewegung aus, so daß als resultierende
Bewegung des Liniengitters oder der lokalen Extrema der Leuchtdichte eine lineare
Bewegung parallel zu der bereits genannten Geraden gA erfolgt. Durch diese Bewe
gung ändert sich die Phase eines Signals, welches im Bildpunkt eines Objektpunk
tes beobachtet werden kann.
Andererseits wird durch dieses Bewegungsregime, die Geometrie der Anordnung
und die Telezentrie der Objektive im Raum der Arrays erreicht, daß ein Beleuch
tungsstrahl eines sendenden Elementes einer bestimmten Phase und ein Abbil
dungsstrahl, die sich in einer beliebigen Schärfefläche schneiden, sich in allen
Schärfeflächen schneiden. So ist auch gegeben, daß beim Bewegen der beiden Ar
rays die Bilder der sendenden Elemente gleicher Phase und die der empfangenden
Elemente der beiden Arrays bei einer idealen Anordnung im gesamten Objektraum
stets zusammenfallen. Dabei sind Objektive mit geringer Verzeichnung und sehr ge
ringen Fehlern und eine möglichst geringe Brennweitendifferenz der beiden Objekti
ve und eine möglichst präzise Justierung grundsätzlich von Vorteil und reduzieren
den numerischen Korrekturaufwand erheblich. Die Abweichungen vom Idealzustand
können jedoch nur innerhalb gewisser Grenzen toleriert werden.
Durch die Bewegung des Liniengitters parallel zur Geraden gA und die "feste Kopp
lung der Schärfeflächen" der beiden Objektive im Raum des Objektes zu einer ge
meinsamen Schärfefläche erfolgt das "Mitführen der Phase im Abbildungsstrahl".
Dies bedeutet, die Phase bleibt in jedem Abbildungsstrahl konstant, der von einem
in der gemeinsamen Schärfefläche mitbewegten Punkt der Objektoberfläche in das
Abbildungsobjektiv gelangt, auch wenn sich die Lage dieser Schärfefläche in der
Tiefe des Raumes der Arrays ändert. Ein gedachter, im Abbildungsstrahl in der
Schärfefläche stetig mitlaufender Objektpunkt würde demzufolge beim Bewegen des
Liniengitters keine Phasenänderung im detektierbaren Signal erfahren, da beispiels
weise immer der gleiche Ausschnitt des Streifens im zum Abbildungsstrahl zugehöri
gen Bildpunkt detektiert wird.
Dagegen ist im Bildpunkt eines feststehenden Objektpunktes beim Bewegen des Li
niengitters stets ein periodisches Signal zu beobachten. In diesem periodischen Si
gnal selbst und durch seine Lage in Bezug auf die Phase des Liniengitters ist die In
formation über die aktuelle zOB-Position dieses Objektpunktes im Raum des Objek
tes eindeutig enthalten.
Das Ziel besteht darin, durch das Variieren der Lage der Schärfeflächen in der Tiefe
bis zu jedem Objektpunkt des Objektes und einen kleinen Betrag darüber hinaus,
um das Signal auch im Umfeld des Objektpunktes erfassen zu können, die Objekt
phase jeder zu einem Objektpunkt zugehörigen achssenkrechten Ebene zu bestim
men. Dies wird durch die Detektion eines modulierten periodischen Signals mit
einem Modulationsmaximum in jedem abgebildeten Objektpunkt, also im zugehöri
gen Bildpunkt, erreicht. Das periodische Signal entsteht beim Durchgang der beiden
koinzidierenden Schärfeflächen durch die Ebene des jeweiligen Objektpunktes und
das Modulationsmaximum entspricht der Lage der koinzidierenden Schärfeflächen.
Eine gewisse Abweichung von der Koinzidenz der Schärfeflächen führt zu einer
effektiven Schärfefläche und ist innerhalb gewisser Grenzen tolerierbar. Es tritt eine
Verringerung des Modulationsmaximums im detektierten Signal auf.
Es ist möglich, die Kopplung der Schärfeflächen der beiden Objektive im Raum des
Objektes so auszuführen, daß sich ein bestimmter Phasenwert in Bezug auf das
Modulationsmaximum im beobachteten Signal durch das laterale Feinjustieren des
Sender-Arrays, bzw. des Liniengitters, ergibt.
Das periodische Signal wird in den Bildpunkten vorzugsweise in Schritten konstanter
Phasenänderung abgetastet. Schritte konstanter Phasenänderung entstehen im Ob
jektraum durch konstante Schritte eines bewegten Gitters, welches ein Liniengitter
mit konstanter Gitterperiode darstellt, im Raum der Arrays. Unter Raum der Arrays
wird immer der Raum verstanden, wo sich das Empfänger-Array und das Sender-
Array, hier das Liniengitter, befinden.
Es wird davon ausgegangen, daß die zOB-Position als Abstand von der Brennebene
des Beleuchtungsobjektivs im Raum des Objekts jeder achssenkrechten Ebene im
Objektraum durch eine lateral invariante, absolute Objektphase ϕObj beschrieben
werden kann, so daß es achssenkrechte Ebenen konstanter Phase im Raum des
Objektes gibt.
Die lateral invariante, absolute Objektphase ϕObj in einem Punkt des Objektes ist nur
von der Position zObj desselben und der Geometrie der optischen Anordnung abhän
gig und besitzt deshalb bei idealen Abbildungsverhältnissen und Justierungen
grundsätzlich keine laterale Abhängigkeit. Im weiteren wird in der Regel von der Ob
jektphase ϕObj gesprochen. Die Geometrie der optischen Anordnung ist durch die
Brennweite fB des Beleuchtungsobjektivs, den Abstand d der beiden zueinander pa
rallelen Objektivachsen und die Gitterkonstante p des Sender-Arrays, hier ein Li
niengitter, beschrieben. Die Gerade gO, das Bild der Geraden gA, fällt mit der Achse
des Abbildungsobjektivs zusammen, so daß die Größe d auch den Abstand der Ge
raden gO von der Achse des Beleuchtungsobjektivs beschreibt.
Es wird von folgendem Geometrie-Modell ausgegangen: Die lateral invariante, abso
lute Objektphase ϕObj für eine achssenkrechte Ebene mit dem Abstand zOB ent
spricht immer der Anzahl der Streifenordnungen zuzüglich der beiden Streifenbruch
teile, die auf der Strecke zwischen einem Punkt dieser Ebene auf der optischen
Achse des Abbildungsobjektivs und einem Punkt dieser Ebene auf der Geraden gO
liegen.
Im Unendlichen ist deshalb die Objektphase wegen der unendlichen Streifenbreite
null und in der Brennebene des Objektraumes nähert sich die Objektphase aufgrund
des Streifenabstandes null dem Unendlichen an. Die Objektphase ϕObj weist bei der
gewählten Notation in der Regel negative Werte auf. Für (-)zOB = fB wird die Objekt
phase ϕObj = ϕfB und es gilt
mit d als dem Abstand der Geraden gO von der Achse des Beleuchtungsobjektivs,
beziehungsweise hier auch dem Abstand der parallelen Achsen der beiden Objekti
ve voneinander und mit p als der Gitterkonstanten des Liniengitters, welches als
Sender-Array verwendet wird.
Mit einer ebenen und achssenkrechten Referenzplatte kann im Raum des Objektes
die Objektphase als die Anzahl der Streifenordnungen zwischen der Geraden gO und
der Achse des Beleuchtungsobjektivs, beziehungsweise hier zwischen den beiden
optischen Achsen, durch Auszählen von Streifen oder genauer mittels bekannter
Phasenschiebetechnik ermittelt werden. Das Problem stellt hier zunächst die Kennt
nis der genauen Lage der beiden optischen Achsen in der Anordnung dar. Die hoch
genaue Bestimmung der Streifenanzahl zwischen den optischen Achsen kann beim
parallelen Verschieben der Referenzplatte in mehreren Schritten - sowohl als Ju
stierkriterium für die Kontrolle der Abweichung von der Parallelität der optischen
Achsen der beiden Objektive als auch der achssenkrechten Lage der Referenzplatte
-genutzt werden. Bei einer eingemessenen Anordnung mit bekannter Lage der opti
schen Achsen bzgl. des Sender- und Empfänger-Arrays kann die Referenzphase so
auf experimentellem Weg bestimmt werden.
Um entlang eines Abbildungsstrahls die zOB-Koordinate eines Objektpunktes zObj zu
erhalten, ist in jedem Objektpunkt die lateral invariante, absolute Objektphase cpobj
zu bestimmen, die im weiteren als Objektphase bezeichnet wird. Ein Abbildungs
strahl soll hier im Modell jeweils genau auf ein Pixel der lateral feststehenden Emp
fängerfläche treffen.
Die Objektphase ϕObj eines Objektpunktes kann nicht direkt, sondern nur in Bezug
auf eine Referenzfläche bestimmt werden. Die absolute, lateral invariante Phase der
Referenzfläche, die Referenzphase ϕR, wird aus einem als bekannt angenomme
nen, vorzeichenbehafteten Abstand zOB = zOR der Referenzfläche mit
errechnet, wobei d den Abstand der Geraden gO von der Achse des Beleuchtungs
objektivs, beziehungsweise hier den Abstand der parallelen Achsen der beiden Ob
jektive voneinander, fB die Brennweite des Beleuchtungsobjektivs und p die Gitter
konstante des Sender-Arrays darstellen. Da zOR in die negative Achsrichtung gezählt
wird, ergibt sich auch ein negativer Wert für die Referenzphase ϕR. Der Abstand
zOR der Referenzfläche wird möglichst genau experimentell ermittelt. In der Regel
treffen alle zur Erfassung des Objektes oder der Szene genutzten Abbildungsstrah
len auch auf die Referenzplatte.
Der Grundgedanke besteht darin, in jedem Abbildungsstrahl aus der Auswertung
des im zugehörigen Bildpunkt eines Referenzpunktes der Referenzplatte über der
Phase des Gitters ϕGitter zu beobachtenden modulierten, periodischen Signals und
des in einem Bildpunkt eines Objektpunkt über der Phase des Gitters zu beobach
tenden modulierten, periodischen Signals die absolute Phasendifferenz ΔϕGitter die
ser beiden Signallagen aus der Phase des Gitters zu bestimmen. Dabei wird davon
ausgegangen, daß die periodischen Signale eine Modulation mit einem Modulations
maximum aufweisen. Die Breite dieser Modulationskurve über der Phase des Gitters
ϕGitter oder dem zugeordneten Verschiebeweg des Gitters ist abhängig vom Achsab
stand d der beiden Objektivachsen, den Brennweiten der beiden Objektive und der
relativen Öffnung der beiden Objektive, beschrieben jeweils durch die Blendenzahl k
der beiden Objektive, und den Eigenschaften der Oberfläche hinsichtlich der
Lichtstreuung.
Die Bestimmung der absoluten Phasendifferenz ΔϕGitter kann so erfolgen, daß der in
einem Objektpunkt über der Phase des Gitters zu beobachtende Signalverlauf über
der Phase, die aus dem Verschiebeweg des Gitters abgeleitet ist, um genau den
Phasenbetrag soweit verschoben wird, daß sich dieser Signalverlauf mit dem im zu
gehörigen Referenzpunkt der Referenzplatte zu beobachtenden Signalverlauf mög
lichst genau deckt, d. h. die Korrelation dieser beiden Signalverläufe möglichst hoch
ist. Dieser so ermittelte Phasenbetrag entspricht dann der absoluten Phasendiffe
renz ΔϕGitter als die Differenz der jeweils zu den beiden Signalverläufen zugehörigen
absoluten Phase des Gitters ϕGitter.
Dazu wird erstens aus einer Abtastung des Signals über der Phase im Bildpunkt ei
nes Referenzpunktes der relative Referenzphasenwert ϕRR mod 2π bestimmt. Zwei
tens wird aus einer Abtastung des Signals über der Phase im Bildpunkt eines jeden
Objektpunktes der relative Objektphasenwert ϕRObj mod 2π bestimmt. Der relative
Referenzphasenwert ϕRR und der relative Objektphasenwert ϕRObj werden dabei je
weils der absoluten Phase des Gitters ϕGitter zugeordnet und unter Beachtung des je
weiligen Vorzeichens von dieser subtrahiert. So entstehen die absoluten Phasen
werte der Gitterphase ϕGitterR für einen Referenzpunkt und ϕGitterObj für einen Objekt
punkt. Mit der Differenz
ΔϕGitter = ϕGitterObj-ϕGitterR (3)
wird die absolute Phasendifferenz ΔϕGitter bestimmt, die einen positiven Wert auf
weist, wenn der erfaßte Objektpunkt weiter von der Brennebene als der zugehörige
Referenzpunkt entfernt ist. Durch die vorzeichenbehaftete Addition der absoluten
Phasendifferenz ΔϕGitter zur experimentell oder konstruktiv abgeleiteten Referenzpha
se ϕR wird die absolute Objektphase ϕObj dann mit
(-)ϕObj = (-)ϕR + ΔϕGitter (4)
bestimmt. Da das Vorzeichen der Phase der Referenzfläche ϕR negativ ist und die
Phasendifferenz ΔϕGitter im Betrag stets kleiner ist als Phase der Referenzfläche ϕR,
ergibt sich für die absolute Objektphase ϕObj ein negativer Wert. Die Koordinate ei
nes Objektpunktes zOB = zObj kann dann mit der Gleichung
bestimmt werden, die für eine negative absolute Objektphase ebenfalls einen nega
tiven Wert liefert. Dabei stellen d den Abstand der Geraden gO von der Achse des
Beleuchtungsobjektivs, beziehungsweise hier den Abstand der parallelen Achsen
der beiden Objektive voneinander, fB die Brennweite des Beleuchtungsobjektivs,
ϕObj die absolute, lateral invariante Objektphase und p die Gitterkonstante des Linien
gitters dar.
Als Nullebene der 3D-Aufnahme-Anordnung wird die achssenkrechte Ebene für
zOB = 0, die Brennebene des Beleuchtungsobjektiv im Raum des Objektes, gewählt.
Demzufolge stellt der Brennpunkt FOB des Beleuchtungsobjektivs im Raum des Ob
jektes den Nullpunkt der 3D-Aufnahme-Anordnung dar.
Der möglichst genauen Bestimmung der absoluten Phasendifferenz ΔϕGitter in der
Phase des Gitters ΔϕGitter kommt für das Verfahren eine besonders große Bedeutung
zu.
Eine weitere Möglichkeit besteht darin, nicht die relativen Phasenwerte im
Referenzpunkt-Signal und im Objektpunkt-Signal, sondern die Lage der Orte glei
cher Phase im Referenzpunkt-Signal und im Objektpunkt-Signal in Bezug auf die
Phase des Gitters ϕGitter zu bestimmen, beispielsweise anhand der Orte gleicher
Phasenlagen.
Grundsätzlich kann auch über ein Längenmeßsystem, welches die Gitterbewegung
hochaufgelöst mißt, die Ortsdifferenz der Lagen des Referenzpunkt-Signals und des
Objektpunkt-Signals bestimmt werden. Aus der bekannten Gitterkonstante p des
Sender-Arrays kann aus der gemessenen Ortsdifferenz die zugehörige Phasendiffe
renz ΔϕGitter in bekannter Weise errechnet werden. Dies ist anzuwenden, wenn nur
eine einzige Linearführung mit einem Nullpunktgeber verwendet wird, da die pha
senmäßige Abtastung des Gitters aufgrund des Bewegens desselben mit einer dann
auch auftretenden Bewegungskomponente in Richtung der optischen Achse mit ei
nem Gegengitter technisch besonders schwierig ist.
Mit der vorzugsweise hochebenen Referenzplatte muß das 3D-Aufnahmesystem in
mindestens einer achssenkrechten Positionen eingemessen werden. Aus dem ex
perimentell bestimmten Wert zORexp für die Lage der Referenzplattewird der Wert
der Referenzphase ϕR mittels der angegebenen Gleichung (2) errechnet. Die ge
messene Verschiebung in zOB-Richtung wird mit dem der durch die
3D-Aufnahme-Anordnung ermittelten zOR-Wert verglichen. So kann die
3D-Aufnahme-Anordnung kontrolliert werden. Bei Abweichungen von der hochge
nau gemessenen Verschiebung von der rechnerisch bestimmten liegt für eine in sich
gut einjustierte 3D-Aufnahme-Anordnung ein falscher Wert für die Referenzphase
ϕR vor. Numerisch wird die Referenzphase verändert bis sich eine möglichst gute
Übereinstimmung mit den experimentell bestimmten Verschiebewerten ergibt.
Zusammengefaßt gilt: Für die Bestimmung der Objektphase ϕObj im Objektraum wird
vorteilhafterweise folgende Bedingung im Gesamt-Abbildungssystem realisiert, die
sich aus der parallelen Bewegung des Liniengitters - oder ganz allgemein formuliert
aus der parallelen Bewegung der Maxima und Minima der Leuchtdichte auf dem
Sender-Array - zur Geraden gA ergibt: Beim Durchlaufen der beiden koinzidierenden
Schärfeflächen von Beleuchtungs- und Abbildungsobjektiv durch die Tiefe des Rau
mes des Objektes bleibt die beobachtete Phase im Schnittpunkt eines Strahls des
Abbildungsobjektivs mit der gemeinsamen Schärfefläche durch die zusätzliche late
rale Bewegung des Gitters stets konstant, so daß ein gedachter, in einem Strahl des
Abbildungsobjektivs in der gemeinsamen Schärfefläche mitlaufender Objektpunkt in
der gesamten Tiefe keine Phasenänderung erfährt. Dies wird als "Mitführung der
Phase" bezeichnet. Dabei kann die zusätzliche laterale Bewegung des Gitters durch
eine zweite Linearführung erfolgen oder sich aus der Schrägstellung einer gemein
samen Linearführung für Sender- und Empfänger-Array ergeben. Andererseits kann
diese Bedingung auch durch ein elektronisch gesteuertes Gitter, beispielsweise ein
Liniengitter, realisiert werden, indem zusätzlich zum kontinuierlichen Bewegen des
Gitters in zA-Richtung, die Phasenlage des Gitters ebenfalls kontinuierlich verändert
wird, indem die Lage der Orte der lokalen Extrema der Leuchtdichte, auf dem elek
tronisch steuerbaren Gitter verändert wird.
Dazu ist folgendes zu bemerken: Optisch konjugierte Punkte weisen im Raum der
Arrays und im Raum des Objektes betragsmäßig die gleiche absolute Phase auf.
Diese absolute Phase kann jeweils als laterale Koordinate verstanden werden. Die
absolute Phase leitet sich aus der Beleuchtungssituation ab und kann im Raum der
Arrays aus der χAB-Position im Gitterelement GAB bestimmt werden, welches sich im
Aufnahmeprozeß auf einer Geraden gA bewegt und bei dieser Bewegung genau den
array-seitigen Brennpunkt FAB schneidet. Aus diesem Zusammenhang ergibt sich die
absolute Phase im Raum der Arrays mit
mit χAB1 als der lateralen Koordinate des Durchstoßpunktes der Geraden gA durch
das Gitterelement GAB und p als Gitterkonstante des Liniengitters. Im optisch konju
gierten Punkt GOB ergibt sich die gleiche absolute Phase wie im Punkt GAB, jedoch
mit umgekehrtem Vorzeichen.
Es ist grundsätzlich möglich, das Beleuchtungsobjektiv mit einem zentralperspektivi
schen Strahlengang im Raum des Objektes auszuführen, dagegen das Abbildungs
objektiv aber als ein Objektiv mit einem telezentrischem Strahlengang im Raum des
Objektes zu gestalten. In diesem Fall braucht im Telezentriebereich des Abbildungs
objektivs das Empfänger-Array nicht bewegt zu werden. Diese Möglichkeit ist für
kleinere Objekte unter 100 mm Durchmesser gegebenenfalls vorteilhaft, wo auch
die vergleichsweise geringe Lichtstärke des telezentrischen Abbildungsobjektivs
noch ohne größeren technischen Aufwand auszugleichen ist. Jedoch ergibt sich bei
der Auswertung ein wesentlich höherer Rechenaufwand, da die Tiefenempfindlich
keit, beschrieben durch die effektive Wellenlänge, in den jeweils achssenkrechten
Ebenen lateral nicht konstant ist, da die Abbildungsstrahlen kein Strahlenbüschel
bilden, welches mit dem Geradenbüschel um die Gerade gO koinzidiert, sondern ein
Parallelbündel. Deshalb wird dieser Fall hier auch nicht weiter betrachtet.
Weiterhin muß das Empfänger-Array kein Bildempfänger sein, sondern kann nach
dem Stand der Technik als Mikrolinsen-Array ausgeführt sein, um eine hohe Tiefen
auflösung auf der Basis einer hohen Streifendichte erreichen zu können. Das
Mikrolinsen-Array befindet sich im Raum der Arrays in einer zum Sender-Array op
tisch konjugierten Ebene. Wie bekannt, ist dem Mikrolinsen-Array ein weiteres Ob
jektiv nachgeordnet. Dieses Objektiv ist auf der dem Mikrolinsen-Array zugeordneten
Seite möglichst gut telezentrisch ausgeführt. Auf der zweiten Seite des
Objektivs befindet sich der Bildaufnehmer.
Auch kann in der Ebene des Empfänger-Arrays ein elektronisch steuerbares, vor
zugsweise transmissives Array angeordnet sein. Dabei wird wie folgt vorgegangen:
Es erfolgt eine erste Gewinnung einer 3D-Punktwolke mit einer beispielsweise mitt leren Transmission in den Array-Elementen. Anschließend wird die Aussteuerung in den Elementen des Bildempfänger kontrolliert und die Transmission elementeweise so eingestellt, daß sich eine gute Aussteuerung in den Bildelementen eines nach geordneten Bildempfängers ergibt. Das elektronisch steuerbare, transmissive Array kann vorzugsweise dem Mikrolinsen-Array zugeordnet sein. Es ist aber auch mög lich, daß es dem Bildaufnehmer zugeordnet ist. Auch kann es dem Sender-Array zu geordnet sein. Letztlich muß die Zuordnung nur zu einer optisch konjugierten Ebene des Empfänger-Arrays erfolgen.
Es erfolgt eine erste Gewinnung einer 3D-Punktwolke mit einer beispielsweise mitt leren Transmission in den Array-Elementen. Anschließend wird die Aussteuerung in den Elementen des Bildempfänger kontrolliert und die Transmission elementeweise so eingestellt, daß sich eine gute Aussteuerung in den Bildelementen eines nach geordneten Bildempfängers ergibt. Das elektronisch steuerbare, transmissive Array kann vorzugsweise dem Mikrolinsen-Array zugeordnet sein. Es ist aber auch mög lich, daß es dem Bildaufnehmer zugeordnet ist. Auch kann es dem Sender-Array zu geordnet sein. Letztlich muß die Zuordnung nur zu einer optisch konjugierten Ebene des Empfänger-Arrays erfolgen.
Zur Bestimmung der Phasenlage der periodischen Signale in den Bildpunkten des
Empfänger-Arrays kommen im einfachsten Fall die bekannten Phasenschiebe-
Algorithmen mit 3 bis 5 Intensitätswerten zur Anwendung. Dabei wird die Intensität
in den Bildpunkten des Empfänger-Arrays entsprechend der Phasenlage des
Sender-Arrays abgetastet. Möglich ist hier eine Abtastung in diskreten
90°-Phasenschritten. Mit den ausgelesenen Intensitätswerten kann beispielsweise
auch die Modulation über der Phase in 90°-Schritten mit den bekannten Elementar
gleichungen bestimmt werden. Die Auswertung der Phasenlage kann in jeweils
180°-Schritten der Phase des Sender-Arrays, hier des Liniengitters, erfolgen.
Besser für die Genauigkeit der Phasenbestimmung und damit für die Tiefenmeßge
nauigkeit sind jedoch Algorithmen, die über eine größere Anzahl von Intensitätswer
ten, beispielsweise 8, 16 oder 32, die Phase im Signal wie auch den Ort des Mo
dulationsmaximums bestimmen. Das gesamte Know-how der Signalverarbeitung,
wie es in der Elektrotechnik bereits bekannt ist, kann hier angewendet werden. Bei
spiele für die erfolgreiche Applikation derartiger Signalauswertungen sind aus der
Weißlicht-Interferenzmikroskopie bekannt. Im allgemeinen werden diese
Signalauswertungs-Methoden bei kurzkohärenten Methoden angewendet.
Da die Periodenlänge, die Gitterkonstante, des Sender-Arrays vorzugsweise kon
stant ist, ist die Phasenänderungsgeschwindigkeit bei einer konstanten Bewegung
des Sender-Arrays, ebenfalls konstant. Dies ermöglicht auch das Anwenden der
Sub-Nyquist-Abtastung, da hier aufgrund der Kenntnis der Signalfrequenz das be
kannte Abtast-Theorem ohne Nachteile verletzt werden kann. Dies reduziert die An
zahl der aufzunehmenden Bilder ganz erheblich, so daß grundsätzlich eine höhere
Geschwindigkeit der Bewegung des Gitters realisiert werden kann und so eine
Hochgeschwindigkeits-Auswertung realisierbar wird. Filteroperationen sind in der
bekannten Art mit den Phasen-Auswerte-Methoden zu kombinieren, bzw. bereits vor
der Phasenauswertung durchzuführen. Dieser Sachverhalt wird hier nicht weiter ver
tieft, obwohl von der optimalen Gestaltung der Algorithmen die Leistungsfähigkeit
des gesamten Auswerte-Verfahrens abhängt. Die Ausführung der Rechenoperatio
nen kann dabei mittels spezieller Hochgeschwindigkeits-Prozessoren erfolgen.
Es ist vorteilhaft, wenn das Sender-Array, hier das Liniengitter, zusätzlich eine Null
punktmarke aufweist und die laterale Gitterbewegung mit einem Gegengitter pha
senmäßig erfaßt wird. Durch das Positionieren der Referenzplatte im Objektraum in
einer bekannten zOB-Position zOB = zOR wird die absolute Phase des Nullpunktes be
stimmt. Auch werden die Referenz-Phasen mod 2π als relative Referenzphasen ϕRR
durch die Auswertung des Signalverlaufs in den Abbildungsstrahlen im Bereich der
scharfen Abbildung der Referenzplatte ermittelt und gespeichert. Bei einem unbe
kannten Objekt wird durch den Signalverlauf im Schärfebereich des Objektpunktes
die zugehörige Phase des Gitters ϕGitter an der Stelle im Signalverlauf im Bereich
des Maximums der Modulation ermittelt, die der zugehörigen Referenz-
Anfangsphase im Bereich des Maximums der Modulation entspricht.
Dann kann die Objektphase für jede Ebene in der Entfernung zOB mittels der Phase,
die aus der Gitterverschiebung abgeleitet wird, bestimmt werden. Die hochstabile
Nullpunktmarke kann als Startpunkt für die laterale Bewegung des Gitters dabei so
einjustiert werden, daß der Start der Bildaufnahme kurz vor dem Erreichen der
scharfen Abbildung der Referenzplatte durch die koordinierte Bewegung von Gitter
und Bildempfänger beginnt. Auch nach dem Entfernen der Referenzplatte bleibt die
Lage der Referenzplatte beim Einmessen jeweils als "die Referenzfläche des
3D-Aufnahmesystems" bis zum neuen Einmessen bestehen.
In der vorangegangenen Darstellung wurde davon ausgegangen, daß das
Beleuchtungsobjektiv und das Abbildungsobjektiv stets fest angeordnet sind und in
sich starre Objektive darstellen, also keine eigene Fokussierung aufweisen, bzw. die
gegebenenfalls vorhandene, objektiveigene Fokussierung nicht benutzt wird. Die
Brennebenen der Objektive stehen demzufolge fest im Raum. Das Fokussieren im
Sinne des Veränderns der Lage der Schärfeflächen im Raum des Objektes erfolgte
in der bisherigen Darstellung jeweils über das Bewegen des Sender- und
Empfänger-Arrays in einer Komponente parallel zur optischen Achse der Objektive.
Im Fall des Veränderns der Lage der Schärfeflächen im Raum des Objektes über
die Fokussierung des Objektivs, beispielsweise durch eine interne Fokussierung, wie
es dem Stand bei modernen Fotoobjektiven entspricht, muß die Fokussierung
elektronisch steuerbar sein, d. h. die Objektive müssen auch eine motorische
Fokussierung gestatten. Auch beim Verschieben des gesamten Objektivs zum
Zweck der Fokussierung muß eine motorische Verschiebung gewährleistet sein. Aus
Gründen der bei der erfinderischen Lösung erforderlichen hohen Dynamik der
bewegten Komponenten wird die Möglichkeit des Verschiebens des gesamten
Objektivs hier nicht weiter betrachtet.
Da moderne Objektive mit interner Fokussiermöglichkeit durch das Verschieben von
massearmen, optischen Komponenten im allgemeinen eine recht schnelle
Fokussierung ermöglichen, wird dagegen dieser Fall betrachtet, obwohl zur Zeit
noch keine lichtstarken Objektive mit einem bildseitig telezentrischen Strahlengang
und einer motorischen Fokussiermöglichkeit bekannt geworden sind und auch eine
Ausnahme darstellen würden. Deshalb wurde in der bisherigen Darstellung die
Möglichkeit des Veränderns der Lage der Schärfeflächen im Raum des Objektes
über das Bewegen des Sender- und Empfänger-Arrays eindeutig favorisiert.
Grundsätzlich kommt es aber bei der erfindungsgemäßen 3D-Aufnahme-Anordnung
und dem 3D-Aufnahme-Verfahren jedoch nur darauf an, eine definierte
Relativbewegung zwischen den Brennebenen der Objektive und den jeweils
zugehörigen Arrays oder den Orten der Extrema der Leuchtdichte auf diesen zu
erreichen. Im Fall einer cos2-ähnlichen Leuchtdichteverteilung auf dem Sender-Array
soll die Phasenlage dieser Leuchtdichteverteilung die definierte Relativbewegung
erfahren. Zum Erreichen der Relativbewegung können auch die Brennebenen im
Raum bewegt werden, beispielsweise durch eine interne Fokussierung des
Objektivs.
Ziel ist letztlich die Detektierung eines modulierten cos2-ähnlichen Signals mit einem
Modulationsmaximum in den Bildpunkten des Empfänger-Arrays. Die Annäherung
an die cos2-Charakteristik wird bekannterweise in der Regel durch die optische Mo
dulationsübertragungfunktion des Objektivs in der jeweiligen Abbildungssituation
unterstützt.
Es muß realisiert werden, daß die Bewegung des Punktes des Sender-Arrays,
welcher in der Brennebenenlage des Sender-Arrays mit dem Brennpunkt des
Beleuchtungsobjektivs koinzidiert, auf einer Geraden gA erfolgt. Andere Punkte, bzw.
Elemente des Sender-Arrays bewegen sich auf parallelen Geraden zur Geraden gA.
Diese Gerade gA ist ja so definiert, daß diese stets den Brennpunkt des Beleuch
tungsobjektivs im Raum der Arrays schneidet und den Anstieg, definiert als Quotient
aus Brennweite des Beleuchtungsobjektivs im Raum der Arrays und Abstand des
Brennpunktes vom Abbildungsobjektiv, aufweist, wobei dieser Anstieg der Geraden
gA auf eine achssenkrechte Gerade zur Achse des Beleuchtungsobjektivs bezogen
ist. Demzufolge bewegt sich die Gerade gA gemeinsam mit der Brennebene des Be
leuchtungsobjektivs. Da sich beim internen Fokussieren der Brennpunkt stets auf
der Achse des Beleuchtungsobjektivs bewegt, ist zur Realisierung der Bewegung
der Elemente des Sender-Arrays auf einer Geraden gA, noch eine zusätzliche Bewe
gung des Sender-Arrays senkrecht zur optischen Achse erforderlich. Bei einem elek
tronisch steuerbaren Gitter wird eine Veränderung der Orte der lokalen Extrema der
Leuchtdichte erzeugt. Dies kann auch als eine Bewegung senkrecht zur optischen
Achse verstanden werden.
Es ist sehr wesentlich für die Genauigkeit des Meßverfahrens, daß die beschriebene
Bewegung oder Verschiebung der Brennebene des Beleuchtungsobjektivs sehr ge
nau erfolgt, so daß die Bewegung auf der Geraden gA nur mit möglichst kleinen La
geabweichungen erfolgt. Dies kann mittels eines hochauflösenden, internen Weg
meßsystems für die zwecks interner Fokussierung bewegten optischen Komponen
ten im Beleuchtungsobjektiv unterstützt werden. An die Führungsgenauigkeit der mi
niaturisierten Linearführung der bewegten Komponenten im Objektiv sind ebenfalls
hohe Anforderungen zu stellen, da deren Querabweichungen ebenfalls schädlich
sind.
Die interne Fokussierung des Abbildungsobjektivs mit einer miniaturisierten
Linearführung sollte so erfolgen, daß die Schärfefläche des Abbildungsobjektivs mit
der durch das Beleuchtungsobjektiv vorgegebenen Schärfefläche im Raum des
Objektes möglichst gut koinzidiert. Möglich ist auch hier die Verwendung eines hoch
auflösenden, internen Wegmeßsystems für die zwecks interner Fokussierung im Ab
bildungsobjektiv bewegten optischen Komponenten. Auch ist eine starre Kopplung
der bewegten Komponenten der beiden Objektive grundsätzlich möglich.
Um die Anforderungen an die Genauigkeit der internen Fokussierung des Abbil
dungsobjektivs zu verringern, kann das Abbildungsobjektiv etwas stärker
abgeblendet werden, da sich dann der Schärfentiefebereich vergrößert. Im
Extremfall ist auch eine so starke Abblendung des Abbildungsobjektivs denkbar, daß
dann bei einem Objekt mit begrenzter Tiefenausdehnung sowohl auf dessen interne
Fokussierung als auch auf eine Bewegung des Empfänger-Arrays - also auf eine
Fokussierung im Abbildungsstrahlengang überhaupt - verzichtet werden kann. Es ist
dadurch jedoch eine unerwünschte Verbreiterung der Modulationskurve im Signal
gegeben, welches in den Bildpunkten des Empfänger-Arrays detektiert wird,
wodurch eine Verringerung des Tiefenauflösungsvermögens bei der 3D-Aufnahme
zu erwarten ist.
So wird erfindungsgemäß auch eine Anordnung vorgeschlagen, die mit einem
elektronisch steuerbaren Gitter als Sender-Array arbeitet, welches eine
Verschiebung der Orte der lokalen Extrema der Leuchtdichte auf dem
Empfänger-Array, beziehungsweise bei einer cos2-ähnlichen Leuchtdichteverteilung
auf dem Sender-Array eine Verschiebung der Phasenlage, erzeugt, und das
zugehörige Beleuchtungsobjektiv gleichzeitig eine interne Fokussierung aufweist.
Dadurch bewegen sich die Orte der Extrema oder die Orte gleicher Phase der
Leuchtdichteverteilung auf dem Sender-Array auch bei der internen Fokussierung
auf einer sich im Raum bewegenden Geraden gA.
Grundsätzlich ist es möglich, daß die beiden Achsen von Beleuchtungsobjektiv und
Abbildungsobjektiv zueinander geneigt sind. Jedoch ist es in diesem Fall von
großem Vorteil, wenn der Brennpunkt des Abbildungsobjektivs im Raum des
Objektes in der Brennebene des Beleuchtungsobjektivs liegt. Die Lage dieses
Brennpunktes definiert den Ort der Geraden gO, die als Bild der Geraden gA definiti
onsgemäß diesen Brennpunkt enthalten und parallel zur Achse des Beleuchtungs
objektivs liegen muß. Dies führt dazu, daß die Tiefenempfindlichkeit der
3D-Aufnahme-Anordnung in einer zur Achse des Beleuchtungsobjektivs senkrech
ten Ebene im Raum des Objektes eine Konstante ist, also die Tiefenempfindlichkeit
keine laterale Abhängigkeit in der Ebene aufweist.
Bei einer gegebenen Anordnung von Beleuchtungs- und Abbildungsobjektiv muß die
Richtung der Bewegung der Elemente des Sender-Arrays parallel zur Geraden gA
liegen. Wie bereits dargestellt, ist die Gerade gA dabei so definiert, daß deren Bild
im Raum des Objektes, die Gerade gO, den Brennpunkt des Abbildungsobjektivs im
Raum des Objektes bei gleichzeitig paralleler Lage zur Achse des Beleuchtungsob
jektivs schneidet. Die Anordnung mit zueinander geneigten optischen Achsen der
Objektive bringt Vorteile, wenn sich Bereiche des Objektes in besonders geringer
Entfernung vom Beleuchtungsobjektiv befinden und diese vom Abbildungsobjektiv
bei einer parallelen Anordnung der Objektive nicht mehr aufgenommen werden kön
nen. Hierbei ist es von Vorteil, wenn das Abbildungsobjektiv so aus der parallelen
Lage herausgedreht ist oder motorisch und rechnergesteuert herausgedreht wird,
daß es die Bereiche des Objektes in besonders geringer Entfernung erfassen kann.
Dabei ist zu beachten, daß die Schärfeflächen nur noch teilweise koinzidieren und
das gemeinsame Bewegen von Sender- und Empfänger-Array im Sinne einer star
ren Kopplung nicht mehr uneingeschränkt möglich ist. Auch vergrößert sich bei der
Berechnung der 3D-Punktwolke der numerische Aufwand aufgrund der Berücksichti
gung der komplizierteren Abbildungsverhältnisse. Dennoch kann diese Variante bei
speziellen Objekten durchaus von Vorteil sein, auch wenn der technische Aufwand
erheblich ist. Weiterhin ist es möglich, daß das Empfänger-Array zusätzlich rechner
gesteuert drehbar angeordnet ist, um die Scheimpflugbedingung zu erfüllen, wo
durch die Koinzidenz der Schärfeflächen im Raum des Objektes erreichbar ist. Es ist
auch möglich, daß die beiden Objektive unterschiedliche Brennweiten aufweisen
können, wobei das Abbildungsobjektiv wesentlich kurzbrennweitiger gestaltet ist,
wenn sich nur der Brennpunkt des Abbildungsobjektivs in der Brennebene des Be
leuchtungsobjektivs im Raum des Objektes befindet.
Es ist weiterhin von Vorteil für das Einmessen und Kontrollieren der
3D-Aufnahme-Anordnung, daß eine transparente Platte als permanent verbleibende
Referenzplatte achssenkrecht in der Nahdistanz im Objektraum zur Selbsteinmes
sung zugeordnet ist, wobei auf mindestens einer der beiden Flächen eine schwach
lichtstreuende Mikrostruktur aufgebracht ist. Dann kann beliebig oft die Einmessung
kontrolliert und gegebenenfalls korrigiert werden, beispielsweise beim Auftreten von
Temperaturänderungen. Auch ist es möglich, die Anordnung zu kapseln und ther
misch durch eine Temperaturregelung zu stabilisieren, um ein temperaturbedingtes
Driften der Phasenlagen zu verhindern. Auch ist zum Einmessen die Verwendung
einer Anordnung mit zwei parallel angeordneten transparenten Platten mit Luftspalt
im Raum des Objektes möglich, wobei der Luftspalt konstant und bekannt ist.
Grundsätzlich können die mit einer Referenzplatte gemessenen relativen
Phasenwerte ϕRR in einer Referenzphasen-Matrix abgelegt werden und zur
Berechnung der Objektkoordinaten genutzt werden, auch wenn die Referenzplatte
bereits wieder entfernt ist.
Es ist auch möglich, Verzeichnungen der Objektive, und Justierfehler der Anordnung
als Phasenbeträge über die Raumkoordinaten zu ermitteln und zu speichern und bei
Bedarf zur Korrektur zu verwenden.
Die beschriebene Vorgehensweise gestattet grundsätzlich die zeitoptimale
Auswertung auf der Basis von straight formrard-Algorithmen. Diese Algorithmen
können in speziellen Hochgeschwindigkeits-Prozessoren implementiert werden, wo
durch eine Echtzeitauswertung von bewegten Objekten und Personen möglich wird.
Für ein optimales Signal-Rausch-Verhältnis in den Signalen kann die Helligkeit der
Lichtquelle in Abhängigkeit von der Position des Sender-Arrays gesteuert werden.
Für die Anpassung an das lateral unterschiedliche Reflexionsvermögen in den ein
zelnen Objektpunkten kann dagegen in einem elektronisch steuerbaren Sender-
Array die Lichtintensität pixelweise objektorientiert angepaßt werden. Dabei kann
das elektronisch steuerbare Sender-Array lateral bewegt werden, um die Phase zu
ändern, aber auch lateral feststehen und elektronisch durch Verschieben der Gitter
linien eine Phasenänderung erzeugen, beispielsweise mit konstanter
Phasengeschwindigkeit.
Weiterhin kann die Lichtstärke der Objektive verändert werden. Es kann abgeblen
det werden, um den Schärfentiefebereich beispielsweise bei schnellen
Orientierungsmessungen vergrößern zu können. Dies verringert die Anzahl der not
wendigen Bilder, verringert aber auch die Tiefenmeßgenauigkeit. Um dagegen den
Schärfentiefebereich verkleinern zu können, werden eine oder zwei Apodisations
blenden angeordnet, eine in der Austrittspupille des Beleuchtungsobjektivs und eine
in der Eintrittspupille des Abbildungsobjektivs also jeweils im Raum des Objektes.
Diese Blenden sind so gestaltet, daß die achsnahen Strahlen geschwächt oder aus
geblendet werden, um eine stärkere Wirkung der Randstrahlen zu erreichen. Es
sind die aus der Spektroskopie bekannten Apodisationsfunktionen, beispielsweise
Rechteck, Dreieck- oder Gaußfunktion einsetzbar.
Andererseits kann in bestimmten Fällen, beispielsweise für die besonders schnelle
3D-Aufnahme, auch ein Bewegungssystem mit einem rotatorischen Antrieb zur kon
tinuierlichen, rotatorischen Bewegung eines Sender-Arrays, vorzugsweise in der Art
eines Radialgitters mit mindestens einer Referenzmarke, angeordnet sein, wobei ein
Ausschnitt des Radialgitters das Feld des Beleuchtungsobjektivs vollständig ausfüllt.
Dem Radialgitter ist ein Gegengitter zur phasenmäßigen Abtastung zugeordnet, wel
ches die Gegenstruktur zur Abtastung enthält, sowie die Beleuchtung, ein Optikmo
dul und die Auswerte-Elektronik mit Rechnerschnittstelle. Auch auf dem Gegengitter
befindet sich außerdem noch eine Referenzmarke für das Gewinnen mindestens ei
nes hochgenauen Nullpunkt-Signals.
Weiterhin weist dieses Bewegungssystem eine Linearführung auf, die den rotatori
schen Antrieb zur vorzugsweise kontinuierlichen rotatorischen Bewegung des
Sender-Arrays und das Empfänger-Array trägt. Die Bewegungsrichtung der Linear
führung liegt parallel zur optischen Achse des Abbildungsobjektivs in zA-Richtung.
Durch die Kopplung des Radialgitters mit einem rotatorischen Antrieb wird erreicht,
daß das Sender-Array einen kontinuierlichen Lauf erfährt, der durch die phasenmä
ßige Abtastung hochgenau geregelt werden kann. Als nicht ganz optimal erweist
sich bei dieser Lösung, daß wegen der Struktur des Radialgitters eine gewisse Va
riation der Gitterkonstante entlang der Koordinate χA auftritt. Für Radialgitter mit ei
nem vergleichsweise großen Durchmesser zum Feld des Abbildungsobjektivs ist
diese Tatsache in Verbindung mit numerischen Korrekturmethoden akzeptierbar.
Dies wird hier im Einzelnen jedoch nicht weiter dargestellt.
Es ist grundsätzlich möglich, für das Beleuchtungs- und das Abbildungsobjektiv
Zoom-Objektive einzusetzen, die jeweils mit der gleichen Brennweiteneinstellung
arbeiten.
Um vom Sender-Array weit geöffnete Strahlenbündel ausgehen zu lassen, kann das
Sender-Array mit einem speziellen Mikrolinsen-Array gekoppelt sein, beispielsweise
kann dieses Mikrolinsen-Array dem Sender-Array in Lichtrichtung vorgeordnet sein.
Es ist auch möglich, das Sender-Array selbst als Zylinderlinsen-Array hoher Apertur
auszuführen.
Der Vorgang der Aufnahme von mehreren Bildern mit bewegten Arrays wird auch
als Tiefen-Scannen bezeichnet.
Die Kontrolle der Parallelität der optischen Achsen der beiden Objektive kann mit
Hilfe des Vergleichs der Phasenlagen zwischen der Phase des am Sender-Array ab
genommenen Signals und der Phase, die im Signal in einem Bildpunkt auf der opti
schen Achse des Abbildungsobjektivs detektiert werden kann, erfolgen, wenn eine
Referenzplatte dabei in der Tiefe verschoben wird und der Verschiebeweg dabei ge
messen wird.
Es ist mit einem elektronisch gesteuerten Sender-Array möglich, die durch Telezen
triefehler des Beleuchtungsobjektivs beim Tiefen-Scannen auftretenden Phasenfeh
ler durch Dehnen oder Stauchen des elektronisch gesteuerten Sender-Arrays
auszugleichen.
Für das Einmessen und Kontrollieren der Tiefenempfindlichkeit der Anordnung kann
eine Stiftplatte verwendet werden. Die Stifte sind sehr präzise und fest an einer Trä
gerplatte in einem bekannten Raster befestigt und weisen bezogen auf die Träger
platte zwei unterschiedliche, aber bekannte Stiftlängen auf. Die Abstände der Stifte
sind so groß gewählt, daß in einem bestimmten Entfernungsbereich der Platte von
der Anordnung auf den Stirnflächen der Stifte keine Abschattung auftritt. So werden
zwei Ebenen mit einem sehr genau bekannten Abstand dargestellt. Dieser Abstand
kann mit einer hochgenauen Koordinaten-Meßmaschine vermessen werden. In ver
schiedenen Abständen der Platte von der Anordnung kann so die Tiefenempfindlich
keit dieser Anordnung, aber auch die Verzeichnungen der Objektive bestimmt
werden.
Außerdem kann in dieser Art eine Platte mit nur einer einzigen Stiftlänge hergestellt
werden. Auch ist die Verwendung einer Mehrebenenplatte mit verschiedenen Stift
längen möglich und kann zur Einmessung der Anordnung mit Vorteil verwendet
werden.
Mit einer Doppel-Sphären-Stift-Platte, bei der die planen oder sphärischen Stirnflä
chen dünner Stifte zwei konzentrische Sphären darstellen, kann die Formmeßge
nauigkeit der 3D-Aufnahme-Anordnung in verschieden Abständen getestet werden.
Auch die Verwendung einer Ein-Sphären-Stift-Platte kann mit Vorteil genutzt wer
den. Diese ist bei der Verwendung der Anordnung in einer Koordinaten-
Meßeinrichtung sinnvoll, um die lateralen Koordinaten der 3D-Aufnahme-Anordnung
bestimmen zu können. Auch eine fest in einer Koordinaten-Meßeinrichtung angeord
nete Planplatte kann für das Einmessen der 3D-Aufnahme-Anordnung sehr vorteil
haft sein.
Um sehr große Objekte teilweise oder rundum vermessen zu können, wird aus einer
größeren Zahl von 3D-Aufnahme-Anordnungen ein Schirm beispielsweise ver
gleichbar mit einem Himmel in einem Planetarium, aufgebaut. Die 3D-Aufnahme-
Anordnungen stellen dann 3D-Meßmodule dar, die in großer Anzahl als
3D-Video-Sensoren eingesetzt werden können. Auch ist es möglich, daß dieser
Schirm näherungsweise die Grobform des zu vermessenden Objektes, beispielswei
se die Form einer kompletten Automobilkarosserie, aufweist. Die erfaßten Objekt
räume der 3D-Aufnahme-Anordnungen überdecken sich teilweise. Das Einmessen
kann durch mehrere Referenzkörper, auch Planplatten, gegebenenfalls mit Marken
erfolgen, die gleichzeitig von zwei 3D-Aufnahme-Anordnungen im Überdeckungsbe
reich erfaßt werden.
Auch ist es möglich, daß mehrere 3D-Aufnahme-Anordnungen nebeneinander so
positioniert sind, daß sich ein Objekt oder eine Szene vollständig oder in einem gro
ßen Bereich erfassen läßt, wobei sich die erfaßten Bereiche im Raum des Objektes
der unmittelbar nebeneinander positionierten 3D-Aufnahme-Anordnungen teilweise
überdecken. Jedoch, es findet keine Überdeckung mit der übernächsten
3D-Aufnahme-Anordnung statt. Die jeweils nebeneinander positionierten
3D-Aufnahme-Anordnungen beleuchten und bilden das Objekt mit einer jeweils an
dersfarbigen Lichtquelle ab. Dann beleuchten beispielsweise die
3D-Aufnahme-Anordnungen mit einer geradzahligen Positionsnummer das Objekt
mit rotem Licht und die 3D-Aufnahme-Anordnungen mit einer ungeradzahligen Posi
tionsnummer das Objekt mit grünem Licht. Im Abbildungsstrahlengang der
3D-Aufnahme-Anordnungen befinden sich entsprechend schmalbandige Filter, die
nur das Licht der eigenen Lichtquelle passieren lassen. Denkbar sind auch mehrere
Lichtfarben, wodurch mehr als zwei 3D-Aufnahme-Anordnungen den gleichen Teil
des Objektes erfassen können.
Weiterhin können mehrere Beleuchtungsobjektive einem Abbildungsobjektiv zuge
ordnet sein, beispielsweise zwei. Dabei kann jedem Beleuchtungsobjektiv eine an
dersfarbige Lichtquelle zugeordnet sein, beispielsweise dem ersten eine rote und
dem zweiten eine grüne. Dem Abbildungsobjektiv ist ein mechanisch oder elektro
nisch schaltbares Filter zugeordnet, um jeweils nur Licht einer einzigen Lichtquelle
auf den Bildempfänger gelangen zu lassen.
Andererseits kann auch eine farbtüchtige Kamera angeordnet sein, um gleichzeitig
das strukturierte Licht aus den beiden Beleuchtungsobjektiven getrennt zu verarbei
ten. So können verschiedene Beleuchtungsrichtungen im Raum des Objektes reali
siert werden, um beispielsweise direkte Reflexe von einem speziellen Objektdetail
wenigstens bei einer Aufnahme nicht auftreten zu lassen. Auch werden die Schatten
der jeweils anderen Aufnahme ausgeleuchtet und so können auch diese Objektteile
sichtbar gemacht werden.
Möglich ist Trennung der Bilder von verschiedenen Beleuchtungsobjektiven auch
mittels drehbarer Polarisatoren und der Verwendung von polarisiertem Licht.
Für die Farb-Aufnahmetechnik mit farbsensitiven Bildaufnehmern ist dagegen fol
gendes möglich: Beleuchtet wird mit weißem Licht. Mehrere
3D-Aufnahme-Anordnungen sind so positioniert, daß sich ein Objekt oder eine Sze
ne vollständig oder in einem großen Bereich erfassen läßt, wobei sich die erfaßten
Bereich oder Winkel-Bereiche im Raum des Objektes der unmittelbar nebeneinan
der positionierten 3D-Aufnahme-Anordnungen teilweise überdecken. Jedoch, es fin
det keine Überdeckung der mit der übernächsten 3D-Aufnahme-Anordnung statt.
Die jeweils nebeneinander positionierten 3D-Aufnahme-Anordnungen beleuchten
und bilden das Objekt zu jeweils unterschiedlichen Zeiten ab. Zu diesem Zweck sind
alle 3D-Aufnahme-Anordnungen von einer Leitstelle aus synchronisiert, so daß das
Aufnehmen von Bildern auch synchron erfolgt. Dann erfassen beispielsweise die
3D-Aufnahme-Anordnungen mit einer geradzahligen Positionsnummer das Objekt
im Hinlauf der bewegten Arrays und die 3D-Aufnahme-Anordnungen mit einer unge
radzahligen Positionsnummer das Objekt im Rücklauf der bewegten Arrays und die
Objekte sind nur beleuchtet, wenn jeweils die Aufnahme von Bildern erfolgt.
Bei Verwendung einer farbtüchtigen Kamera als Bildaufnehmer sind vorzugsweise
die jeweils zusammengehörenden farblich sensitiven Elemente, auch als RGB-
Sensoren bekannt, linienförmig und in Richtung der Streifen des Liniengitters, also
auf Linien gleicher Phase, angeordnet. Dadurch wird erreicht, daß es keine farblich
bedingten Phasenlagen in den Signalen gibt. Dagegen kann die Phase zwischen
den RGB-Sensoren objektbedingt durchaus verschieden sein.
Weiterhin ist es auch möglich, daß ein Roboterarm eine einzige 3D-Aufnahme-
Anordnung über das Objekt führt und die Daten nacheinander eingelesen werden.
Durch Überdeckung der erfaßten Bereiche der Objektoberfläche erfolgt ein "Weiter
hangeln" über die Objektoberfläche, welches grundsätzlich ohne das Vorhandensein
von Bezugsmarken auf der Objektoberfläche möglich ist.
Es ist machbar, daß das Abbildungsobjektiv fest angeordnet ist und mindestens ein
Beleuchtungsobjektiv gemeinsam mit dem Sender-Array und der kompletten Be
leuchtungsanordnung um das Abbildungsobjektiv drehbar oder schwenkbar an
geordnet ist, wobei vorteilhafterweise die Drehachse des Beleuchtungsobjektivs die
optische Achse des Abbildungsobjektivs darstellen kann. Damit ist eine Beleuchtung
des Objektes aus verschiedenen Richtungen möglich, um Schatten zu eliminieren.
Die Drehbewegung wird rechnergesteuert.
Vorteilhaft ist es, wenn zu Beginn eines 3D-Aufnahmeverfahrens in einem Bildauf
nahmevorgang ein erster Datensatz gewonnen und gespeichert wird und die errech
neten Objektpunkte eliminiert werden, die eine Abweichung vom Modulationsmaxi
mum aufweisen. Anschließend kann das Sender-Array um einen Bruchteil der Git
terperiode verschoben werden und mindestens ein zweiter Datensatz aufgenommen
und gespeichert wird, wobei die errechneten Werte ebenfalls eliminiert werden, die
sich nicht in unmittelbarer Lage des Modulationsmaximums befinden. Aufgrund der
durch die Gitterverschiebung im Bruchteil der Gitterperiode erfolgten Phasen
änderung sind die errechneten Objektpunkte der ersten Messung mit denen der
zweiten Messung nicht identisch, so daß eine vollständige Erfassung der Mehrzahl
der Objektpunkte erreicht wird.
Vorzugsweise entspricht die oben beschriebe Verschiebung des Sender-Arrays dem
Betrag der viertel Gitterperiode.
Auch ist es möglich, daß sich vor der 3D-Aufnahme-Anordnung ein schwenkbarer
Planspiegel befindet, der in den Strahlengang geschwenkt werden kann und so eine
fest angeordnete Referenzplatte vermißt und nach erfolgter Vermessung der Plan
spiegel zurückgeschwenkt wird.
Weiterhin ist für eine Hochleistungs-3D-Aufnahme-Anordnung, ein Netzwerk aus
Sender- und Empfänger-Arrays mit den bereits beschriebenen zugehörigen Kompo
nenten aufgebaut. Es ist von Vorteil, wenn beispielsweise neun Empfänger-Arrays in
einer 3 × 3-Matrix angeordnet und im Feld der 3 × 3-Matrix vier Sender-Arrays in ei
ner 2 × 2-Matrix angeordnet werden, wobei sich die Sender-Arrays auf den Diagona
len der 3 × 3-Matrix befinden. Damit ist ein Empfänger-Array als Zentral-Empfänger
angeordnet. Weiterhin sind die Sender-Arrays als Liniengitter ausgebildet und die Li
nien sind vorzugsweise parallel zu den Außenlinien der 3 × 3-Matrix-Anordnung.
Den Sender- und Empfänger-Arrays sind die Beleuchtungs- und Abbildungsobjekti
ve in paralleler Achslage zugeordnet und die Hauptebenen der Objektive liegen nä
herungsweise in einer gemeinsamen Ebene. Für das Bewegen der Empfänger- und
Sender-Arrays in Richtung der optischen Achse ist vorzugsweise eine zentrale erste
Linearführung zugeordnet. Für das Bewegen der Sender-Arrays in lateraler Richtung
der optischen Achse kann eine ebenfalls zentrale, zweite Linearführung angeordnet
sein, die eine Bewegung parallel zu den Außenkanten der 3 × 3-Matrix ausführt.
Auch kann grundsätzlich jedem Array ein eigenes Linearführungssystem zugeordnet
werden.
Es sind ebenfalls Anordnungen auf der Basis von Dreiecken möglich, wobei sich im
Flächenzentrum der Dreiecke die Sender und auf den Eckpunkten die Empfänger-
Arrays befinden. Auch hier ergibt sich eine empfängerzentrierte Anordnung mit ins
gesamt sieben Empfänger-Arrays und sechs Sender-Arrays.
Grundsätzlich sind auch senderzentrierte 3D-Aufnahme-Anordnungen möglich. In
allen Fällen werden die Bewegungen und Bildaufnahmen von einem Leitsystem
koordiniert und durch zugeordnete Prozessoren verarbeitet. Das gewonnene
Bilddaten-Massiv wird schließlich in eine 3D-Punktwolke umgerechnet, wobei die
Redundanz im System zur Verbesserung durch Mittelwertbildung genutzt werden
kann.
Die Anzahl der verwendeten Sender- und Empfänger-Arrays ist nur durch die techni
schen Möglichkeiten und die damit verbundenen Kosten begrenzt. So können ver
gleichsweise große Netzwerke mit sehr vielen kleinen 3D-Aufnahme-Anordnungen
aufgebaut werden, die jeweils eine hohe Tiefenauflösung in einem vergleichsweise
kleinen Objektfeld besitzen und so das Objekt senkrecht, in der Art eines Nadelkis
sens, detektieren, wobei es praktisch keine Lücken bei der Erfassung der Objekto
berfläche gibt. Eine derartiges Netzwerk kann in einer
3D-Koordinaten-Meßmaschine für die Inspektion filigraner, reliefartiger Strukturen,
die auch Durchbrüche aufweisen können, mit Vorteil eingesetzt werden.
Den Netzwerken aus Sender- und Empfänger-Arrays können neuronale Netze zur
Auswertung der optischen Primärdaten zugeordnet sein.
In der Fig. 1 werden die Anordnung und das Verfahren dargestellt. Es wird zwi
schen dem Raum der Arrays und dem Raum des Objektes unterschieden. Es wird
die folgende Notation verwendet, die von der üblichen abweicht, aber bei dieser opti
schen Schaltung sich als vorteilhaft für die Beschreibung erwiesen hat: Die Größen
und Punkte des Raumes der Arrays werden an erster Stelle mit A indiziert und die
Größen und Punkte des Raumes des Objektes mit O. An zweiter Stelle im Index
wird das zugehörige Objektiv gekennzeichnet und zwar im Falle der Zugehörigkeit
zum Beleuchtungsobjektiv mit B und im Falle der Zugehörigkeit zum Abbildungsob
jektiv mit A.
im Raum der Arrays befinden sich ein Liniengitter mit der Gitterkonstante p und eine
vorgeordnete Beleuchtung. Das Liniengitter ist dem Beleuchtungsobjektiv mit einem
streng telezentrischen Strahlengang im Raum der Arrays achssenkrecht und extra
fokal zugeordnet. Das Beleuchtungsobjektiv bildet das Liniengitter in den Raum des
Objektes ab, wodurch eine strukturierte Beleuchtung des Objektes entsteht. Zur Ver
einfachung sind die beiden Hauptebenen des Beleuchtungsobjektivs HAB und HOB in
der Zeichnung zusammengelegt. Bei realen Objektiven dieser Klasse liegen die bei
den Hauptebenen weit auseinander.
Im Raum der Arrays ist eine Empfänger-Matrix dem Abbildungsobjektivs mit einem
ebenfalls streng telezentrischen Strahlengang im Raum der Arrays achssenkrecht
und extrafokal zugeordnet. Das Abbildungsobjektiv bildet das Objekt in den Raum
der Arrays ab. Ein einzelner Abbildungsstrahl ist dargestellt. Zur Vereinfachung sind
die beiden Hauptebenen des Abbildungsobjektivs HAA und HOA ebenfalls in der
Zeichnung zusammengelegt.
Das Beleuchtungs- und das Abbildungsobjektiv sind mit ihren optischen Achsen zu
einander parallel mit dem Achsenabstand d angeordnet. Das Beleuchtungs- und das
Abbildungsobjektiv weisen die array-seitigen Brennpunkte FAB und FAA und im Raum
des Objektes die Brennpunkte FOB und FOA auf.
Die hier nicht dargestellte erste Linearführung des Bewegungssystems ist mit der
Empfänger-Matrix starr verbunden und trägt eine zweite hier ebenfalls nicht darge
stellte kleinere Linearführung, die wiederum das Liniengitter trägt. Dieses Liniengitter
ist deutlich länger ausgeführt als es dem vom Beleuchtungsobjektiv erfaßten Bildfeld
entspricht, um im gesamten Bewegungsvorgang stets das gesamte Bildfeld zu
überdecken.
Die erste Linearführung ist mit einem hochgenauen Längen-Meßsystem verbunden,
welches einen hochstabilen Nullpunkt aufweist. Die Bewegungsachse der ersten Li
nearführung ist parallel zu den Objektivachsen und die Meßachse des Längen-
Meßsystems liegt dabei parallel zu den beiden Objektivachsen. Die Bewegungsrich
tung der zweiten Linearführung liegt senkrecht zu den Objektivachsen.
Dem Liniengitter auf der zweiten Linearführung ist ein mit der ersten Linearführung
fest verbundenes Gegengitter mit einer kompletten Beleuchtungs- und Empfänger-
Optik in der Art eines inkrementalen Längenmeßsystems zugeordnet. Die vorhan
dene Auswerte-Elektronik weist eine elektronische Schnittstelle zum Rechner auf,
um die berechnete Verschiebung des Liniengitters als Phaseninformation in Echtzeit
im Rechner zur Vertilgung zu haben. Gleichzeitig ist auf 16199 00070 552 001000280000000200012000285911608800040 0002019846145 00004 16080dem Liniengitter im Teil au
ßerhalb des genutzten Bildfeldes eine erste Referenzstruktur aufgebracht, die von
einer zweiten Referenzstruktur, die ebenfalls auf dem Gegengitter aufgebracht ist,
optisch abgetastet wird. Auch dabei ist die Beleuchtungs- und Empfänger-Optik bei
geordnet und eine Auswerte-Elektronik vorhanden. Die zweite Auswerte-Elektronik
weist ebenfalls eine elektronische Schnittstelle zum Rechner auf, um das Durchfah
ren des Nullpunktes des Liniengitters in Echtzeit im Rechner zur Verfügung zu
haben.
Beide Linearführungen des Bewegungssystems starten aus der Nullposition heraus.
Die Bewegungsrichtung der ersten Linearführung ist parallel zur optischen Achse
des Abbildungsobjektivs ausgerichtet. Die Bewegung erfolgt zu den Brennpunkten.
Der kleineren zweiten Linearführung, die das Liniengitter trägt, ist ein Positions-
Regelsystem zugeordnet, um eine Bewegung des Liniengitters mit einer möglichst
konstanten Phasengeschwindigkeit realisieren zu können. Die Bewegungsrichtung
der zweiten Linearführung ist senkrecht zur optischen Achse des Beleuchtungsob
jektiv und erfolgt nach dem Start in Richtung des Beleuchtungsobjektivs.
Aus der aktuellen, absoluten Istphase des Liniengitters ϕGitter, die von einem Null
punkt abgeleitet ist, werden die Sollwerte für die Position der ersten Linearführung
errechnet. Dies erfolgt so, daß sich die Orte gleicher Phase oder Helligkeit auf dem
Liniengitter parallel zu einer Geraden gA bewegen. Diese Gerade gA ist so definiert,
daß sie den Brennpunkt FAB des Beleuchtungsobjektivs und außerdem den Haupt
punkt HAA des Abbildungsobjektivs schneidet. Durch dieses Bewegungsregime wer
den die achssenkrechten Ebenen des Raumes der Objekte von der Schärfefläche
nacheinander "durchfahren", indem sich in jeder dieser Ebenen bei Vorhandensein
einer Objektoberfläche ein vom Beleuchtungsobjektiv scharf abgebildetes Streifen
muster beobachten läßt, welches durch das Abbildungsobjektiv auf die Empfänger-
Matrix abgebildet wird. Durch das so realisierte Bewegen der Orte gleicher Phase
oder Helligkeit auf dem Liniengitter parallel zu einer Geraden gA wird das sogenann
te "Mitführen der Phase in der Schärfefläche erreicht. Dies führt dazu, daß jedes
hinreichend kleine Objektdetail, im Raum des Objektes, wenn es von der Schärfeflä
che "erfaßt" wird, ein moduliertes periodisches Signal im zugehörigen Pixel ij auf der
Empfänger-Matrix erzeugt, in welchem die Information über die absolute Phase des
Objektpunktes ϕObj_ij enthalten ist. Diese absolute Phase entspricht beispielsweise
für den Objektpunkt AO2 in Fig. 1 der gedachten Anzahl der Streifen n, einschließ
lich der Streifenbruchteile Δn, zwischen den beiden Objektiv-Achsen, also n + Δn.
Diese Streifen sind im Fall einer ebenen, achssenkrecht angeordneten Platte direkt
zu beobachten. Dennoch kann im allgemeinen die so zu beobachtende absolute
Objektphase aufgrund der nicht genau bekannten Zuordnung der beiden optischen
Achsen zu den Pixeln der Empfänger-Matrix nicht bestimmt werden.
Anhand der Fig. 1 läßt sich zeigen, daß in der Position AO1BO1 die Anzahl der Strei
fen n + 1 + Δn, die zwischen den beiden Objektivachsen zu beobachten ist, genau der
Anzahl n + 1 + Δn der Gitterperioden des Liniengitters im Raum der Arrays entspricht,
die sich beim Zählen von der Achse des Beleuchtungsobjektivs in χAB-Richtung
ergibt.
Weiterhin definiert der Punkt GAB genau den Ort auf dem Gitterelement des Linien
gitters, welcher beim Bewegen auf der Geraden gA im Teilbereich des Gitterinkre
ments den Brennpunkt FAB des Beleuchtungsobjektivs schneidet. Demzufolge
entspricht, die absolute, lateral invariante Objektphase ϕObj der achssenkrechten
Ebene dem Abstand .
Bei Kenntnis des zugehörigen Punktes GAB auf dem Gitter und des Wertes χAB1 so
wie der Gitterkonstanten p läßt sich grundsätzlich die absolute, lateral invariante Ob
jektphase ϕObj der achssenkrechten Ebene im Raum des Objektes mit
errechnen. Im Fall der Übereinstimmung der realen Lage der Objektivachse des Ab
bildungsobjektivs mit der Geraden gO, die ja definitionsgemäß parallel zur Objektiv
achse des Beleuchtungsobjektivs liegt, gelten die dargestellten Zusammenhänge
nach Gleichung (7).
Bevor die Messung, d. h. die Gewinnung der Punktwolke eines unbekannten Objek
tes erfolgen kann, muß das System mit Hilfe einer Referenzplatte in einer achssenk
rechten Position erfolgen. Dies erfolgt mit Vorteil in der Nahdistanz der
3D Aufnahme-Anordnung, kann aber auch in jeder anderen Entfernung im Erfas
sungsbereich der 3D-Aufnahme-Anordnung erfolgen. Die in den Pixel der
Empfänger-Matrix sich dabei ergebenden Signalverläufe werden gespeichert. Aus
diesen Signalverläufen wird mit Hilfe eines phasenauswertenden Algorithmus, die re
lative Referenzphase ϕRR_ij im Pixel ij des Empfänger-Arrays im Bereich des Modula
tionsmaximums berechnet, welches ein Signal von der Referenzplatte erhält. Die so
bestimmten relativen Referenzphasen mod 2π werden der absoluten Phase ϕGitter
des Liniengitters zugeordnet, s. Fig. 2, und unter Beachtung des jeweiligen Vorzei
chens von dieser subtrahiert und in einem Feld als Phasenwerte ϕGitterR_ij in der Re
gel längerfristig gespeichert. Die relativen Objektphasen der Objektpunkte ϕRObj_ij
mod 2π werden jeweils von der absoluten Phase ϕGitter des Liniengitters unter Beach
tung des jeweiligen Vorzeichens von dieser subtrahiert, wodurch die Phasenwerte
ϕGitterObj_ij als Feld entstehen. Aus diesen Feldern werden punktweise die Phasendif
ferenzen ΔϕGitter_ij gebildet.
Zuvor wurde aus der möglichst gut bekannten Entfernung zOR der Referenzplatte
von der Brennebene die absolute, lateral invariante Phase ϕR der Referenzfläche
mit der hier noch einmal dargestellten Gleichung (2)
bestimmt, wobei diese Bestimmung iterativ zur Annäherung an den wahren Wert
mehrfach erfolgen kann. Es stellen d den Achsenabstand der beiden Objektive, fB
die Brennweite des Beleuchtungsobjektivs und p die Gitterkonstante des Liniengit
ters dar.
Mit der Beziehung entsprechend Gleichung (3), wobei ΔϕGitter_ij sich für den Objekt
punkt ij aus der Gleichung (2) ergibt,
(-)ϕObj_ij = (-)ϕR + ΔϕGitter_ij (8)
wird für den Objektpunkt ij die absolute Objektphase (-)ϕObj_ij aus Gleichung (8) ge
wonnen. Aus der Beziehung
kann die zOB-Koordinate des Objektpunktes zObj_ij im Objektraum berechnet werden,
wobei der Objektpunkt mit dem Pixel ij der Empfänger-Matrix optisch konjugiert ist.
Durch achsparallele Verschiebungen ΔzOB von Planplatten, wobei die Verschiebun
gen mit einem Präzisions-Längenmeßsystem gemessenen werden, können Fehler
abgeschätzt werden, indem die errechneten Verschiebungen mit den gemessenen
verglichen werden.
Die Nachjustierung der 3D-Aufnahme-Anordnung erfolgt iterativ. Die Restabwei
chungen werden in ein numerisches Modell eingegeben, welches hier nicht darge
stellt ist, und können zur Korrektur benutzt werden.
Aus der Einrechnung des zu jedem Objektpunkt mit der Koordinate zObj_ij gehören
den aktuellen Abbildungsmaßstabes werden die kartesischen Koordinaten für jeden
Objektpunkt ermittelt. Dabei kann ein neues Koordinatensystem mit dem Brenn
punkt des Abbildungsobjektiv als Nullpunkt für die lateralen Koordinaten in x- und
y-Richtung verwendet werden. Damit stehen die 3D-Koordinaten des Objektes in di
gitaler Form zur Verfügung. Diese Punktwolke wird je nach Aufgabenstellung für
meßtechnische Applikationen oder Aufgaben mit einer 3D-Wiedergabe verwendet.
Bei der Verschiebung eines Objektpunktes, der sich in der AO1BO1-Position in Fig. 1
befindet, in die AO2BO2 Position entlang des gezeichneten Abbildungsstrahls erfährt
das im Bildpunkt dieses Objektpunktes detektierte Signal eine Änderung in der Pha
senlage von 2π. Die Änderung in der zOB-Koordinate entspricht dem Δz2π-Wert, also
der Tiefenänderung, die einer Phasenänderung von 2π entspricht. Dieser Δz2π-Wert
wird auch als effektive Wellenlänge bezeichnet.
Fig. 2 zeigt beispielsweise die Signalverläufe in einem Bildpunkt der Empfänger-
Matrix in Bezug zum Signalverlauf, der am Gitter mit Hilfe eines Gegengitters beim
Bewegen des Gitters detektiert werden kann. Dargestellt werden der Signalverlauf
im Bildpunkt eines Objektpunktes und der Signalverlauf im Bildpunkt eines Refe
renzpunktes. Hierbei befindet sich die Referenzplatte näher am Brennpunkt FOB als
die Objektoberfläche. Am Abtastpunkt im Bereich des Modulationsmaximums des
Signals im Bildpunkt eines Referenzpunktes wird die relative Phase ϕRR errechnet
und am Abtastpunkt im Bereich des Modulationsmaximums des Signals im Bild
punkt eines Objektpunktes die relative Phase ϕRObj. Mittels der Gleichung (3) wird
die absolute Phasendifferenz ΔϕGitter errechnet und mittels dieser mit Gleichung (4)
die absolute Objektphase ϕObj, aus der mit der Gleichung (5) die zOB-Koordinate ei
nes jeden Objektpunktes, nämlich zObj bestimmt wird.
Fig. 3 zeigt eine 3D-Aufnahme-Anordnung vorteilhafterweise mit nur einer Linear
führung, beispielsweise für eine 3D-Aufnahme-Anordnung für Multimedia-
Applikationen. Der Schlitten der Linearführung trägt ein Liniengitter zur strukturierten
Beleuchtung des Objektes. Die Beleuchtung erfolgt durch eine Öffnung in der Basis
der Führung. Weiterhin trägt der Schlitten die beweglichen Teile für ein Meßsystem
für den Verschiebeweg s, wobei dem Meßsystem auch ein Nullpunktgeber zugeord
net ist. Außerdem ist eine Auswerteelektronik mit Schnittstelle zum hier nicht darge
stellten Auswerterechner vorhanden.
Der Schlitten wird von einem Linear-Motor angetrieben und die Führung weist ein
miniaturisiertes Präzisionslager auf. Anstelle des Präzisionslagers ist auch ein
Hochpräzisions-Parallelfedersystem mit hochelastischen Federn aus kristallinem Si
lizium einsetzbar. Als Empfänger-Matrix kann auch eine farbtüchtige Kamera einge
setzt werden, wobei die farbsensitiven Pixel jeweils auf einer Linie quer zu den Li
nien des Liniengitters angeordnet sind.
Nach dem Start des Schlittens in (-)s-Richtung wird der Nullpunkt durchfahren und
das Gitter durch das Beleuchtungsobjektiv nacheinander in unterschiedliche Tiefen
des Objektraumes scharf abgebildet. Auf der Objektoberfläche entsteht beim Bewe
gen des Gitters das scharfe Bild desselben, welches vom Abbildungsobjektiv auf die
Empfänger-Matrix scharf abgebildet wird, da diese sich in der gleichen Ebene wie
das Liniengitter befindet. Durch die Bewegung des Schlittens der Führung gibt es ei
ne laterale Bewegung der Empfänger-Matrix, wobei das Bild des Objektes feststeht.
Um diese laterale Bewegung zu kompensieren, um eine feste Zuordnung der Punk
te des Objektes, also der Abbildungsstrahlen, zu den Pixeln der Empfänger-Matrix
beizubehalten, werden die gewonnenen Bildinformationen pixelweise im Bilddaten-
Massiv verschoben. Damit wird erreicht, daß ein realer Abbildungsstrahl jeweils ei
nem lateral feststehenden Bildpunkt unabhängig von der Bewegung der Empfänger-
Matrix fest zugeordnet bleibt.
Aus der bekannten Gitterkonstanten p des Liniengitters wird aus dem gemessenen
Verschiebeweg s mittels der aus der Neigung des Schlittens abgeleiteten Kompo
nente sx die Istphase des Liniengitters ϕGitter mit
bestimmt. Aus der punktweisen Auswertung eines Feldes von absoluten Phasendif
ferenzen zwischen den Phasenlagen der Signale aus der Messung einer Referenz
platte und den Signalen aus der Messung am Objekt werden die Koordinaten des
Objektes zObj punktweise in der bereits beschriebenen Art ermittelt. Außerdem wer
den auch die lateralen Koordinaten der Objektpunkte bestimmt.
ϕGitter
- absolute Istphase des Liniengitters
ϕGitter_R
ϕGitter_R
- absolute Istphase des Liniengitters für einen Referenzpunkt
ϕGitter_Obj
ϕGitter_Obj
- absolute Istphase des Liniengitters für einen Objektpunkt
ΔϕGitter
ΔϕGitter
- absolute Phasendifferenz
zwischen der absoluten Istphase des Liniengitters für
einen Referenzpunkt und der absoluten lstphase des
Liniengitters für einen Objektpunkt
ϕAabs
ϕAabs
- absolute Phase im Raum der Arrays im Durchstoßpunkt der
Geraden gA
durch das Liniengitter
ϕObj
ϕObj
- absolute, lateral invariante Objektphase
ϕfB
ϕfB
- absolute, lateral invariante Objektphase in der Brennebene des
Beleuchtungsobjektivs
ϕR
ϕR
- absolute, lateral invariante Phase der Referenzfläche
ϕRR_ij
ϕRR_ij
- relative Referenzphase eines Punktes der Referenzfläche im
Bereich des Modulationsmaximums, optisch konjugiert
mit dem Pixel ij des Empfänger-Arrays
ϕRObj_ij
ϕRObj_ij
- relative Objektphase eines Objektpunktes im Bereich
des Modulationsmaximums, optisch konjugiert mit dem Pixel ij
des Empfänger-Arrays
ϕObj_ij
ϕObj_ij
- absolute Phase eines Objektpunktes, der mit dem Pixel ij
optisch konjugiert ist
d - Abstand des Brennpunktes des Abbildungsobjektivs im Raum des Objektes von der Achse des Beleuchtungsobjektivs, auch Abstand der Geraden gO
d - Abstand des Brennpunktes des Abbildungsobjektivs im Raum des Objektes von der Achse des Beleuchtungsobjektivs, auch Abstand der Geraden gO
von der Achse des
Beleuchtungsobjektivs,
auch Abstand der Achsen von Beleuchtungs- und Abbildungs
objektiv bei paralleler Lage derselben zueinander
fA
fA
- Brennweite des Abbildungsobjektivs
fB
fB
- Brennweite des Beleuchtungsobjektivs
p - Gitterkonstante des Liniengitters
χ - kartesische Koordinate
χA
p - Gitterkonstante des Liniengitters
χ - kartesische Koordinate
χA
- Koordinate des Raum der Arrays
χAB1
χAB1
- laterale Koordinate des Durchstoßpunktes der Geraden gA
durch das Gitterelementes GAB
im Raum der Arrays
χOB
χOB
- Koordinate des Raum der Arrays, dem Beleuchtungsobjektiv
zugeordnet
z - kartesische Koordinate
zA
z - kartesische Koordinate
zA
- Koordinate des Raum der Arrays
zOB
zOB
- Koordinate des Raumes des Objektes, dem
Beleuchtungsobjektiv zugeordnet, auch Abstand einer achs
senkrechten Ebene im Objektraum im Raum des Objekts von
der Brennebene des Beleuchtungsobjektivs
zObj
zObj
- Koordinate eines Objektpunktes im Objektraum
zObj_ij
zObj_ij
- Koordinate eines Objektpunktes im Objektraum, der mit dem
Pixel ij der Empfänger-Matrix optisch konjugiert ist
zOR
zOR
- Abstand der Referenzfläche im Raum des Objekts von
der Brennebene des Beleuchtungsobjektivs
zORexp
zORexp
- experimentell ermittelter Abstand der Referenzfläche im Raum
des Objektes von der Brennebene des Beleuchtungsobjektivs
Δz2π
Δz2π
- Betrag der Verschiebung eines Objektpunktes auf einem
Abbildungsstrahl, bei der sich die absolute Phase genau um 2π
im selben Abbildungsstrahl verändert hat
Claims (16)
1. 3D-Aufnahme-Anordnung zur 3D-Aufnahme von Objekten und Szenen mit min
destens einer Lichtquelle, mindestens einem Sender-Array, wobei diese gemeinsam
eine strukturierte, leuchtende Fläche bilden, mindestens einem Beleuchtungsobjek
tiv mit einer positiven Brennweite zur Abbildung des Sender-Arrays, wobei diese
Baugruppen die Beleuchtungseinrichtung bilden, einem weiteren Objekt oder einer
Szene, mindestens einem Aufnahmeobjektiv zur Abbildung des Objektes oder der
Szene, wobei die Schärfefläche des Beleuchtungsobjektivs mit der Schärfefläche
des Abbildungsobjektivs im Raum des Objektes zumindest teilweise zusammenfällt,
und mindestens einem Empfänger-Array und außerdem mindestens einem
Bewegungs-System, welches wenigstens einer Komponente der Baugruppen der
Beleuchtungseinrichtung zugeordnet ist,
gekennzeichnet dadurch, daß die Komponenten des Bewegungs-Systems so an
geordnet sind, daß im Raum der Arrays mit dem Brennpunkt des Beleuchtungsob
jektivs als Bezugspunkt für das Sender-Array eine Gesamtbewegungsrichtung paral
lel zu einer Geraden gA im Raum der Arrays realisiert ist, so daß die Elemente des
Sender-Arrays sich auf parallelen Geraden zur Geraden gA bewegen und diese Ge
rade gA den Brennpunkt des Beleuchtungsobjektivs im Raum der Arrays schneidet
und den Anstieg mit dem Betrag aus dem Quotienten Brennweite des Beleuchtungs
objektivs und Abstand des Brennpunktes des Abbildungsobjektiv im Raum des Ob
jektes von der Achse des Beleuchtungsobjektivs aufweist, wobei dieser Anstieg der
Geraden gA auf eine achssenkrechte Gerade zur Achse des Beleuchtungsobjektivs
bezogen ist.
2. 3D-Aufnahme-Abordnung nach 1, gekennzeichnet dadurch, daß sowohl das
Beleuchtungsobjektiv im Raum des Empfänger-Arrays als auch das Aufnahmeobjek
tiv im Raum des Sender-Arrays jeweils einen telezentrischen Strahlengang
aufweisen.
3. 3D-Aufnahme-Anordnung nach 1 und 2, gekennzeichnet dadurch, daß die
Objektive mit ihren Achsen parallel zueinander in einem Achsabstand deutlich unter
halb der einhundertfachen Brennweite des Beleuchtungsobjektivs, typischerweise
das drei- bis sechsfache der Brennweite, angeordnet sind und das Abbildungsobjek
tiv so angeordnet ist, daß dessen Brennpunkt im Raum des Objektes in der Brenne
bene des Beleuchtungsobjektivs liegt.
4. 3D-Aufnahme-Anordnung nach 1 bis 3, gekennzeichnet dadurch, daß das
Bewegungs-System aus zwei einzelnen Linearführungen aufgebaut ist und die erste
Linearführung dem Empfänger-Array zugeordnet ist und die Bewegungsrichtung die
ser Linearführung parallel zur optischen Achse des Abbildungsobjektivs justiert ist
und die zweite Linearführung der ersten Linearführung und dem Sender-Array zuge
ordnet ist und die Bewegungsrichtung der zweiten Linearführung senkrecht zur opti
schen Achse des Beleuchtungsobjektivs justiert ist und beide Linearführungen als
Resultat linearer Einzelbewegungen das Sender-Array parallel zur Geraden gA
bewegen.
5. 3D-Aufnahme-Anordnung nach 1 bis 3, gekennzeichnet dadurch, daß das
Bewegungs-System aus drei einzelnen Linearführungen aufgebaut ist und die erste
Linearführung beweglichen Komponenten des Beleuchtungsobjektivs zur Innenfo
kussierung und die zweite Linearführung beweglichen Komponenten des Abbil
dungsobjektivs zur Innenfokussierung und die dritte dem Sender-Array zur Bewe
gung senkrecht zur optischen Achse des Beleuchfungsobjektiv zugeordnet ist.
6. 3D-Aufnahme Anordnung nach 1 bis 3, gekennzeichnet dadurch, daß das
Bewegungs-System aus einer Linearführung aufgebaut ist und diese dem
Empfänger-Array zugeordnet ist und die Bewegungsrichtung dieser Linearführung
parallel zur optischen Achse des Abbildungsobjektivs justiert ist und ein rotatorischer
Antrieb der Linearführung zugeordnet ist und das Sender-Array wiederum dem rota
torischen Antrieb zugeordnet ist und als Resultat der Einzelbewegungen ein Teil
stück des Sender-Arrays in einem Zeitintervall näherungsweise parallel zur Geraden
gA bewegt wird.
7. 3D-Aufnahme-Anordnung nach 1 bis 6, gekennzeichnet dadurch, daß das
Sender-Array als Liniengitter ausgeführt ist und diesem ein Gegengitter zur Erfas
sung der Phasenlage beim Bewegen des Liniengitters zugeordnet ist.
8. 3D-Aufnahme-Anordnung nach 1, 2 und 5, gekennzeichnet dadurch, daß das
Empfänger-Array beim Tiefenscannen zur Erfüllung der Scheimpflugbedingung
drehbar angeordnet ist.
9. 3D-Aufnahme-Anordnung nach 1, 2, 5 und 8, gekennzeichnet dadurch, daß
das Abbildungsobjektiv um seinen Brennpunkt im Raum des Objektes drehbar an
geordnet ist.
10. 3D-Aufnahme-Anordnung nach 9 und 2, gekennzeichnet dadurch, daß eine
transparente Platte der 3D-Aufnahme-Anordnung als permanent verbleibende Refe
renzplatte achssenkrecht in der Nahdistanz im Objektraum zur Selbsteinmessung
zugeordnet ist, wobei auf mindestens einer der beiden Flächen der Platte eine
schwach lichtstreuende Mikrostruktur aufgebracht ist.
11. 3D-Aufnahme-Verfahren zur 3D-Aufnahme von Objekten und Szenen mit einer
strukturierten, leuchtenden Fläche nach Anordnung nach Punkt 1 bis 10, gekenn
zeichnet dadurch,
daß die Orte der lokalen Extrema der Leuchtdichte der strukturierten, leuchtenden
Fläche im Raum der Arrays eine geradlinige Bewegung parallel zu einer Geraden gA
erfahren, wobei die Gerade gA den Brennpunkt des Beleuchtungsobjektivs im Raum
der Arrays schneidet und den Anstieg mit dem Betrag aus dem Quotienten Brenn
weite des Beleuchtungsobjektivs und Abstand des Brennpunktes des Abbildungsob
jektiv im Raum des Objektes von der Achse des Beleuchtungsobjektivs aufweist,
wobei dieser Anstieg der Geraden gA auf eine achssenkrechte Gerade zur Achse
des Beleuchtungsobjektivs bezogen ist und diese strukturierte, leuchtende Fläche in
den Raum des Objektes abgebildet wird.
12. Verfahren nach 11, gekennzeichnet dadurch, daß eine absolute Phasendiffe
renz ΔϕGitter in einem Bildpunkt, welcher zu einem Objektpunkt gehört, aus jeweils
zwei Signalverläufen nämlich dem im genannten Objektpunkt selbst und dem im zu
gehörigen Referenzpunkt im jeweils gleichen Abbildungsstrahl unter Auswertung der
Modulation im Signal bestimmt wird, wobei die errechnete absolute Phasendifferenz
jeweils vorzeichenrichtig zur absoluten Referenzphase ϕR addiert wird, die sich aus
der mindestens einmal experimentell bestimmten Position der Referenzplatte zOR im
Raum des Objektes und bezogen auf das Beleuchtungsobjektiv und den Geometrie
daten der optischen Anordnung wie gemeinsame Objektivbrennweite und Abstand
der Objektivachsen errechnet, wodurch sich im Ergebnis dieser Rechenoperation ei
ne absolute Objektphase für jeden erfaßten Objektpunkt ergibt.
13. Verfahren nach 11 und 12, gekennzeichnet dadurch, daß die absolute Phasen
differenz aus der Phase des Sender-Arrays so abgeleitet wird, daß die - aus dem
beim Bewegen des Sender-Arrays und Empfänger-Arrays in jedem Bildpunkt des
Empfänger-Arrays entstehenden Signalverläufe eines Referenzpunktes und eines
Objektpunktes - jeweils in der 2π-Umgebung des Modulationsmaximums errechne
ten mod 2π-Phasenlagen vorzeichenrichtig zur ständig gemessenen absoluten Pha
se des bewegten Sender-Arrays zugeordnet werden.
14. Verfahren nach 11 und 12, gekennzeichnet dadurch, daß die absolute Phasen
differenz aus der Phase des Sender Arrays so bestimmt wird, daß die - aus dem
beim Bewegen des Sender-Arrays und Empfänger-Arrays in einem Bildpunkt des
Empfänger-Arrays entstehenden Signalverlauf eines Referenzpunktes und eines
Objektpunktes - genau am Modulationsmaximums errechneten
2π-Phasenlagen vorzeichenrichtig zur ständig gemessenen absoluten Phase des
beweglichen Sender-Arrays zugeordnet werden.
15. Verfahren nach 11 bis 14, gekennzeichnet dadurch, daß die Sollposition der er
sten Linearführung sich stets aus der Lage der lokalen Extrema der Leuchtdichte
der strukturierten, leuchtenden Fläche im Raum der Arrays ableitet.
16. Verfahren nach 11, gekennzeichnet dadurch, daß beim gemeinsamen Bewe
gen von Sender- und Empfänger-Array, welche starr miteinander verbunden sind,
die mittels Empfänger-Array gewonnenen Bildinformationen nach der Aufnahme ei
nes jeden einzelnen Bildes um mindestens ein Pixel im Bilddaten-Satz verschoben
werden.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE1998146145 DE19846145A1 (de) | 1998-10-01 | 1998-10-01 | Verfahren und Anordung zur 3D-Aufnahme |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE1998146145 DE19846145A1 (de) | 1998-10-01 | 1998-10-01 | Verfahren und Anordung zur 3D-Aufnahme |
Publications (1)
Publication Number | Publication Date |
---|---|
DE19846145A1 true DE19846145A1 (de) | 2000-04-20 |
Family
ID=7883668
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE1998146145 Ceased DE19846145A1 (de) | 1998-10-01 | 1998-10-01 | Verfahren und Anordung zur 3D-Aufnahme |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE19846145A1 (de) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2005001774A3 (en) * | 2003-06-18 | 2005-02-24 | Dimensional Photonics | Methods and apparatus for reducing error in interferometric imaging measurements |
DE10344051A1 (de) * | 2003-09-23 | 2005-04-14 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung und Verfahren zur Vermessung von Entfernung und/oder räumlichen Koordinaten eines Gegenstandes |
DE102005002190B4 (de) * | 2005-01-17 | 2007-04-12 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Scanner und Verfahren zum Betreiben eines Scanners |
WO2009000341A1 (de) * | 2007-06-22 | 2008-12-31 | Automation W+R Gmbh | Verfahren und anordnung zur optischen überprüfung von einseitig offenen tunnelartigen hohlräumen in werkstücken, insbesondere von kühlkanälen in bremsscheiben. |
WO2009024757A1 (en) | 2007-08-17 | 2009-02-26 | Renishaw Plc | Phase analysis measurement apparatus and method |
US9329030B2 (en) | 2009-09-11 | 2016-05-03 | Renishaw Plc | Non-contact object inspection |
DE102014226729A1 (de) * | 2014-12-19 | 2016-06-23 | Sac Sirius Advanced Cybernetics Gmbh | Verfahren zur optischen Formerfassung und/oder Formprüfung eines Gegenstands und Beleuchtungseinrichtung |
CN107655423A (zh) * | 2017-11-27 | 2018-02-02 | 中山路得斯空调有限公司 | 一种车辆轮廓测量装置及方法 |
WO2018206233A1 (de) | 2017-05-08 | 2018-11-15 | Universität Stuttgart | Verfahren und anordnung zur robusten, tiefenscannenden/fokussierenden streifen-triangulation mit mehreren wavelets |
DE102017004429B4 (de) | 2017-05-08 | 2019-05-09 | Universität Stuttgart | Verfahren und Anordnung zur robusten, tiefenscannenden/fokussierenden Streifen-Triangulation |
CN113866997A (zh) * | 2021-09-17 | 2021-12-31 | 深圳技术大学 | 显示系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4007500A1 (de) * | 1990-03-09 | 1991-09-12 | Zeiss Carl Fa | Verfahren und vorrichtung zur beruehrungslosen vermessung von objektoberflaechen |
DE4301538A1 (de) * | 1992-03-17 | 1994-07-28 | Peter Dr Ing Brueckner | Verfahren und Anordnung zur berührungslosen dreidimensionalen Messung, insbesondere zur Messung von Gebißmodellen |
-
1998
- 1998-10-01 DE DE1998146145 patent/DE19846145A1/de not_active Ceased
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4007500A1 (de) * | 1990-03-09 | 1991-09-12 | Zeiss Carl Fa | Verfahren und vorrichtung zur beruehrungslosen vermessung von objektoberflaechen |
DE4301538A1 (de) * | 1992-03-17 | 1994-07-28 | Peter Dr Ing Brueckner | Verfahren und Anordnung zur berührungslosen dreidimensionalen Messung, insbesondere zur Messung von Gebißmodellen |
Non-Patent Citations (1)
Title |
---|
SCHILLING, A., WIEGEL, E.: "Optische Koordinatenmessung, schnell, präzise und sicher", In: Feinwerktechnik & Messtechnik 97 (1989) 8-9, S. 380-383 * |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2005001774A3 (en) * | 2003-06-18 | 2005-02-24 | Dimensional Photonics | Methods and apparatus for reducing error in interferometric imaging measurements |
DE10344051A1 (de) * | 2003-09-23 | 2005-04-14 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung und Verfahren zur Vermessung von Entfernung und/oder räumlichen Koordinaten eines Gegenstandes |
DE10344051B4 (de) * | 2003-09-23 | 2008-05-15 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung und Verfahren zur Vermessung von Entfernungen und/oder räumlichen Koordinaten eines Gegenstandes |
DE102005002190B4 (de) * | 2005-01-17 | 2007-04-12 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Scanner und Verfahren zum Betreiben eines Scanners |
US7469834B2 (en) | 2005-01-17 | 2008-12-30 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Scanner and method for operating a scanner |
WO2009000341A1 (de) * | 2007-06-22 | 2008-12-31 | Automation W+R Gmbh | Verfahren und anordnung zur optischen überprüfung von einseitig offenen tunnelartigen hohlräumen in werkstücken, insbesondere von kühlkanälen in bremsscheiben. |
US8923603B2 (en) | 2007-08-17 | 2014-12-30 | Renishaw Plc | Non-contact measurement apparatus and method |
JP2010537182A (ja) * | 2007-08-17 | 2010-12-02 | レニショウ パブリック リミテッド カンパニー | 位相解析測定を行う装置および方法 |
US8605983B2 (en) | 2007-08-17 | 2013-12-10 | Renishaw Plc | Non-contact probe |
US8792707B2 (en) | 2007-08-17 | 2014-07-29 | Renishaw Plc | Phase analysis measurement apparatus and method |
WO2009024757A1 (en) | 2007-08-17 | 2009-02-26 | Renishaw Plc | Phase analysis measurement apparatus and method |
USRE46012E1 (en) | 2007-08-17 | 2016-05-24 | Renishaw Plc | Non-contact probe |
US9329030B2 (en) | 2009-09-11 | 2016-05-03 | Renishaw Plc | Non-contact object inspection |
DE102014226729A1 (de) * | 2014-12-19 | 2016-06-23 | Sac Sirius Advanced Cybernetics Gmbh | Verfahren zur optischen Formerfassung und/oder Formprüfung eines Gegenstands und Beleuchtungseinrichtung |
WO2018206233A1 (de) | 2017-05-08 | 2018-11-15 | Universität Stuttgart | Verfahren und anordnung zur robusten, tiefenscannenden/fokussierenden streifen-triangulation mit mehreren wavelets |
DE102017004428B4 (de) | 2017-05-08 | 2018-11-29 | Universität Stuttgart | Verfahren und Anordnung zur robusten, tiefenscannenden fokussierenden Streifen-Triangulation mit mehreren Wavelets |
DE102017004429B4 (de) | 2017-05-08 | 2019-05-09 | Universität Stuttgart | Verfahren und Anordnung zur robusten, tiefenscannenden/fokussierenden Streifen-Triangulation |
US10866088B2 (en) | 2017-05-08 | 2020-12-15 | Universität Stuttgart | Method and arrangement for robust, depth-scanning/focusing strip triangulation by means of a plurality of wavelets |
CN107655423A (zh) * | 2017-11-27 | 2018-02-02 | 中山路得斯空调有限公司 | 一种车辆轮廓测量装置及方法 |
CN113866997A (zh) * | 2021-09-17 | 2021-12-31 | 深圳技术大学 | 显示系统 |
CN113866997B (zh) * | 2021-09-17 | 2023-10-24 | 深圳技术大学 | 显示系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP0534284B1 (de) | Verfahren und Vorrichtung zur Bestimmung der Absolut-Koordinaten eines Objektes | |
EP1497613B1 (de) | Verfahren und vorrichtung zur bestimmung der räumlichen koordinaten eines gegenstandes | |
DE19727281C1 (de) | Verfahren und Vorrichtung zur geometrischen Kalibrierung von CCD-Kameras | |
DE102016118562A1 (de) | Dreidimensionales bildgerät, das eine dichroitische kamera umfasst | |
DE102011114674B4 (de) | Verfahren und Vorrichtung zum Bestimmen der 3D-Koordinaten eines Objekts | |
EP2400261A1 (de) | Optisches Messverfahren und Messsystem zum Bestimmen von 3D-Koordinaten auf einer Messobjekt-Oberfläche | |
WO2008046663A2 (de) | Vorrichtung und verfahren zum berührungs losen erfassen einer dreidimensionalen kontur | |
DE102008002725B4 (de) | Verfahren und Vorrichtung zur 3D-Rekonstruktion | |
EP2791619B1 (de) | Verfahren und vorrichtung zur 3d-messung von tiefenlimitierten objekten | |
DE102006042311B4 (de) | Dreidimensionale Vermessung von Objekten in einem erweiterten Winkelbereich | |
DE19919584A1 (de) | Verfahren und Anordnung zur 3D-Aufnahme | |
DE102012002161A1 (de) | Verfahren und Vorrichtung zur 3D-Messung von Objekten | |
DE19846145A1 (de) | Verfahren und Anordung zur 3D-Aufnahme | |
DE4142676A1 (de) | Verfahren und vorrichtung zur vermessung von objekten, insbesondere zahnraedern, mittels projizierter streifenmuster | |
DE102014016087B4 (de) | Dreidimensionale optische Erfassung von Objektoberflächen | |
EP4046133A1 (de) | Verfahren und vorrichtung zum bestimmen einer kontur einer fassungsnut | |
DE19749974C2 (de) | Verfahren und Apparat zur Erzeugung einer 3D-Punktwolke | |
DE102012001307A1 (de) | Verfahren und Vorrichtung zur 3D-Messung von Objekten, insbesondere unter hinderlichen Lichtverhältnissen | |
DE2247217A1 (de) | Hologrammetrisches messverfahren und geraet zur durchfuehrung | |
DE102005044912B4 (de) | Verfahren und Vorrichtung zur dreidimensionalen optischen Vermessung von spiegelnden Oberflächen | |
EP0867689B1 (de) | Mikrofotogrammatische Messeinrichtung | |
DE19748062C2 (de) | Verfahren und Einrichtung zur dreidimensionalen optischen Vermessung von Objekten | |
DE4428055A1 (de) | Anordnung und Verfahren zur optoelektronischen photogrammetrischen Bild- und Meßdatengewinnung | |
DE4428054C1 (de) | Anordnung und Verfahren zur stereoskopischen optoelektronischen Bildgewinnung | |
WO2014114663A1 (de) | Optische vorrichtung und verfahren zum bestimmen räumlicher koordinaten von oberflächen makroskopischer objekte durch triangulation zweier zeilenkameras |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
8122 | Nonbinding interest in granting licenses declared | ||
8127 | New person/name/address of the applicant |
Owner name: UNIVERSITAET STUTTGART, 70174 STUTTGART, DE |
|
8181 | Inventor (new situation) |
Free format text: KOERNER, KLAUS, DR., 15566 SCHOENEICHE, DE |
|
8131 | Rejection |