Nothing Special   »   [go: up one dir, main page]

DE102010029091B4 - Formmessgerät und -verfahren - Google Patents

Formmessgerät und -verfahren Download PDF

Info

Publication number
DE102010029091B4
DE102010029091B4 DE102010029091.2A DE102010029091A DE102010029091B4 DE 102010029091 B4 DE102010029091 B4 DE 102010029091B4 DE 102010029091 A DE102010029091 A DE 102010029091A DE 102010029091 B4 DE102010029091 B4 DE 102010029091B4
Authority
DE
Germany
Prior art keywords
height
pattern
respect
brightness
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102010029091.2A
Other languages
English (en)
Other versions
DE102010029091A1 (de
Inventor
Joong-Ki Jeong
Min-Young Kim
Seung-Jun Lee
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koh Young Technology Inc
Original Assignee
Koh Young Technology Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020090044423A external-priority patent/KR101088497B1/ko
Priority claimed from KR1020100007025A external-priority patent/KR101158324B1/ko
Application filed by Koh Young Technology Inc filed Critical Koh Young Technology Inc
Publication of DE102010029091A1 publication Critical patent/DE102010029091A1/de
Application granted granted Critical
Publication of DE102010029091B4 publication Critical patent/DE102010029091B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2531Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object using several gratings, projected with variable angle of incidence on the object, and one detection device
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2513Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/254Projection of a pattern, viewing through a pattern, e.g. moiré
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/95Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
    • G01N21/956Inspecting patterns on the surface of objects
    • G01N2021/95638Inspecting patterns on the surface of objects for PCB's

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Ein Verfahren zur Messung einer dreidimensionalen Form, umfassend: Strahlen von Gittermusterlicht aus mehreren Richtungen (i) auf ein Messobjekt (A), während jedes Gittermusterlicht N Male geändert wird und das von dem Messobjekt reflektierte Gittermusterlicht (Iin) zur Gewinnung von N Musterbildern des Messobjektes bezüglich jeder Richtung detektiert wird; Berechnen einer Phase (Pi(x, y)) und einer Helligkeit (Ai(x, y)) bezüglich jeder Richtung entsprechend jedem Ort (i(x, y)) in einem X-Y-Koordinatensystem aus den Musterbildern, um eine Höhe (Hi(x, y)) für jede der Richtungen i zu bestimmen, wobei die Helligkeit (Ai(x, y)) die mittlere Intensität aller N Änderungen des Gittermusterbildes bezüglich einer der Richtungen i an dem jeweiligen Ort ist; Berechnen eines Höhengewichts (Wi(x, y)) bezüglich jeder Richtung i durch Verwendung einer Gewichtsfunktion (W = f(A, V, λ, SNR)), die die Helligkeit (Ai(x, y)), eine Sichtbarkeit (Vi(x, y)), ein Signal-Rausch-Verhältnis (SNR) oder einen Gitterabstand (λ) in den Musterbildern als Parameter verwendet, wobei das Höhengewicht (Wi(x, y)) die Zuverlässigkeit der Bestimmung der jeweiligen Höhe (Hi(x, y)) beschreibt; und Berechnen einer gewichteten Höhe (Wi(x, y)·Hi(x, y)) bezüglich jeder Richtung durch Verwendung der auf der Phase (Pi(x, y)) basierenden Höhe Hi(x, y) bezüglich jeder Richtung und des Höhengewichts (Wi(x, y)) und Mitteln der gewichteten Höhen, um die Höhe (h(x, y) = Σ[Wi(x, y)·Hi(x, y)]/ΣWi(x, y)) an jedem Ort zu bestimmen.

Description

  • HINTERGRUND DER ERFINDUNG
  • GEBIET DER ERFINDUNG
  • Ausführungsbeispiele der vorliegenden Erfindung betreffen ein Formmessgerät und ein Formmessverfahren. Insbesondere betreffen Ausführungsbeispiele der vorliegenden Erfindung ein Formmessgerät und ein Formmessverfahren, die in der Lage sind, die Messgenauigkeit zu verbessern.
  • DISKUSSION DES HINTERGRUNDS
  • Elektronische Geräte wurden entwickelt, so dass sie relativ leichteres Gewicht und kleinere Größe aufweisen. Daher erhöht sich die Möglichkeit von Defekten in diesen elektronischen Geräten, und Gerätschaft zur Untersuchung der Defekte befindet sich in der Entwicklung und Verbesserung.
  • In letzter Zeit ist das Verfahren zum Untersuchen einer dreidimensionalen Form in verschiedenen technischen Gebieten effektiv geworden. In dem Verfahren zum Untersuchen einer dreidimensionalen Form wurde ein Koordinatenmessgerät (CMM), das dreidimensionale Form durch ein Kontaktverfahren detektiert, verwendet. Ein Nichtkontaktverfahren zum Untersuchen einer dreidimensionalen Form durch Verwendung von optischen Theorien befindet sich in der Entwicklung.
  • Meadows und Takasaki haben 1970 das Schatten-Moiré-Verfahren entwickelt, das das repräsentative Nichtkontaktverfahren zum Untersuchen einer dreidimensionalen Form ist. Das Schatten-Moiré-Verfahren weist jedoch das Problem auf, dass ein Gitter zur Messung größer als ein Messobjekt sein sollte. Um obiges Problem zu lösen, entwickelte Yoshino das Projektions-Moiré-Verfahren. Zusätzlich wandte Kujawinska das Phasenverschiebungsverfahren, das für die Analyse optischer Kohärenz angewendet wird, auf das Moiré-Verfahren zur Untersuchung dreidimensionaler Form an, so dass die Messauflösung verbessert ist und die Beschränkung von Moiré-Muster aufgehoben ist.
  • Diese Verfahren zum Messen dreidimensionaler Form können für die Untersuchung einer gedruckten Leiterplatte verwendet werden, und Versuche zur Verbesserung der Genauigkeit werden durchgeführt.
  • In der US 5,085,502 A sind ein Verfahren und eine Vorrichtung zur digitalen Moire-Profilometrie offenbart. Gemäß diesem Verfahren wird ein Profil eines dreidimensionalen Objekts durch Verwendung einer Vielzahl von Kamera- und Projektoranordnungen, die unterschiedliche Bereiche des Objekts abdecken, vorgesehen. Dabei wird ein im Raum befindliches Volumen, welches durch jede Kamera und Projektoranordnung abgedeckt wird derart geeicht, dass ein dreidimensionales Volumen vorgesehen wird, in dem das zu testende Objekt angeordnet wird. Die Messungen der das Profil des zu testenden Objekts definierenden Abstände durch ein Querschnitt desselben werden erhalten durch die Kombination der Information, erhalten aus jedem der verschiedenen Aspekte, die durch jede Kamera/Projektoranordnung abgedeckt werden.
  • Aus der DE 198 52 149 A1 geht eine Vorrichtung zur Bestimmung der räumlichen Koordinaten von Gegenständen hervor. Diese Vorrichtung umfasst eine Projektionsvorrichtung zur Bestrahlung der Gegenstände aus mindestens zwei vorbestimmten Richtungen jeweils mit mindestens zwei Lichtmustern oder mit einem Lichtmuster, dessen Intensitätstransmission der Summe der Intensitätstransmissionen zweier gekreuzter Liniengitter entspricht. Weiterhin umfasst die Vorrichtung eine Sensorvorrichtung zur punktweisen Aufzeichnung der auf die Gegenstände gestrahlten Lichtmuster als Intensitätsmesswerte, die im Schnittbild mit der Objektoberfläche linear voneinander unabhängige Phasenmesswerte liefern und mit einer Auswerteeinrichtung, die für jeden der aufgezeichneten Punkte mindestens vier Phasenmesswerte und aus diesen mindestens alle räumlichen Koordinaten der Punkte bestimmt. Der zu vermessende Gegenstand ist auf einem Drehtisch angeordnet, wobei mit dem Drehtisch eine Stützanordnung mit Tragelementen in unterschiedlichen Winkeln Stellung in Bezug auf den Drehtisch verbunden ist, wobei diese mit dem Drehtisch um deren Drehachse drehbar ist. An einer Stützanordnung sind an unterschiedlichen beliebigen Positionen bezüglich des Gegenstands mindestens zwei jedoch so viele räumlich zweidimensional auflösende Empfänger angeordnet, wie sie für die Erfassung der zu messenden Bereiche des Gegenstands erforderlich sind. Neben dem Drehtisch ist mindestens eine Projektorvorrichtung angeordnet.
  • In der US 2006/0192925 A1 ist ein Multi-Projektorsystem offenbart, das zwei Projektoren, eine Kamera und einen Computer umfasst. Im Betrieb projizieren die Projektoren jeweils ein Bild auf eine Szene und die Kamera nimmt das von der Szene reflektierte Licht auf. Die Szene ist vorzugsweise eine ebene Oberfläche, kann jedoch auch aus jeder Art von Objekten und Oberflächen bestehen.
  • In der DE 196 34 254 A1 ist ein optisch-numerisches Verfahren zur Ermittlung der gesamten Oberfläche eines dreidimensionalen Objekts offenbart. Zur Durchführung dieses Verfahrens ist eine Vorrichtung vorgesehen, die aus jeweils einem Projektor, vorzugsweise einem LCD-Projektor, zur Projizierung eines binären Streifenmusters auf eine Objektoberfläche und seine Umgebung und zwei CCD-Kameras, die mit Auswerteeinrichtungen verbunden sind, besteht. Bei einem entsprechenden Verfahren werden neben der Bestimmung der Raumkoordinaten von Oberflächenpunkten des zu vermessenden Objekts in den lokalen Koordinatensystemen mehrere Ansichten des Objekts die Raumkoordinaten mehrere auf oder um das vermessene Objekt aufgebrachte Passpunkte sowohl in dem den jeweiligen Ansichten zugeordneten lokalen Koordinatensystem als auch in einem übergeordneten globalen Koordinatensystem bestimmt und Transformationsparameter zwischen den Raumkoordinaten der Passpunkte des lokalen und des globalen Koordinatensystems ermittelt, welche zur Transformation der vorliegenden lokalen Raumkoordinaten der Oberflächenpunkte des zu vermessenden Objekts in das globale Koordinatensystem genutzt werden.
  • Aus der DE 196 37 682 A1 geht ein Verfahren zur Bestimmung der räumlichen Koordinaten von Gegenständen und/oder deren zeitliche Änderung sowie eine Vorrichtung zur Anwendung dieses Verfahrens hervor. Hierbei ist vorgesehen, einen zu vermessenden Gegenstand mit Projektionsvorrichtungen aufeinanderfolgend auf mindestens zwei vorbestimmten Richtungen entweder nacheinander mit mindestens zwei unabhängigen Lichtmustern oder mit einem Lichtmuster zu belichten, wobei die Lichtintensität aus Summe zweier unabhängiger Lichtmuster beschrieben werden kann. Aus den mit einem Sensor erzeugten Aufnahmen dieser mindestens vier Lichtpunkte werden vier Phasenmesswerte für jeden Messpunkt ermittelt, d. h. pro Messpunkt steht mindestens ein überzähliger Phasenmesswert zur Verfügung, mit dem zusätzlich die Geometrieparameter der Messvorrichtung mit Hilfe ansonsten bekannter mathematischer Verfahren bestimmt werden. Ein derartiges Messsystem soll selbstkalibrierend sein.
  • In der DE 197 47 061 A1 sind ein Verfahren und eine Einrichtung zur flächenhaften dreidimensionalen optischen Vermessung von Objekten beschrieben. Hierbei ist vorgesehen, dass durch Projektion zweier gekreuzter Liniengittersequenzen bei der Triangulation projektorseitig nicht mehr zwischen Lichtschnittebene, sondern zwischen eindeutig identifizierbaren Projektionsstrahlen unterschieden wird. Die so erzeugten Projektionsstrahlen gehen von ortsfesten Punkten des Projektionsgitters aus, so dass sie sich, unabhängig von den optischen Fehlern von Projektionsgitter und Projektorobjektiv, exakt geradlinig innerhalb des Projektionskegels ausbreiten. Auf diese Weise sollen kurze Objektivbrennweiten verwendbar sein, die bei gleichem Gesichtsfeld einen erheblich geringeren Messabstand ermöglichen.
  • Aus der US 2003/0007680 A1 gehen eine Vorrichtung und ein Verfahren zur Verarbeitung von dreidimensionalen Informationen hervor. Diese Vorrichtung umfasst einen Sensorkopf, der eine rechte und eine linke Abtastlinse aufweist. Weiterhin umfasst diese Vorrichtung eine Zuverlässigkeitsbestimmungseinrichtung, die den Zuverlässigkeitslevel der berechneten Abstandsinformation auf Basis der Ausgabe einer Okklusionsbestimmungseinrichtung berechnet. Die Abstandsinformationen werden auf Basis von trigonometrischen Messungen auf Basis des Verhältnisses zwischen korrespondierenden Punkten berechnet.
  • In der DE 10 2007 004 122 A1 ist ein Verfahren für das Messen einer dreidimensionalen Form offenbart. Dieses Verfahren wird mittels einer Vorrichtung ausgeführt die zur Messung der dreidimensionalen Form eine zentrale Steuereinheit, eine Modulsteuereinheit, eine Bildaufnahmeeinheit, mindestens einen Musterprojektor, eine zweite Beleuchtungsquelle, einen Koordinatentisch, eine Tischbewegungsvorrichtung und eine Kamera aufweist.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Ein Ausführungsbeispiel der vorliegenden Erfindung offenbart ein Verfahren zur Messung einer dreidimensionalen Form, umfassend: Strahlen von Gittermusterlicht aus mehreren Richtungen auf ein Messobjekt, während jedes Gittermusterlicht N Male geändert wird und das von dem Messobjekt reflektierte Gittermusterlicht (Iin) zur Gewinnung von N Musterbildern des Messobjektes bezüglich jeder Richtung detektiert wird; Berechnen einer Phase (Pi(x, y)) und einer Helligkeit (Ai(x, y)) bezüglich jeder Richtung entsprechend jedem Ort (i(x, y)) in einem X-Y-Koordinatensystem aus den Musterbildern; um eine Höhe (Hi(x, y)) zu bestimmen; Berechnen eines Höhengewichts (Wi(x, y)) bezüglich jeder Richtung durch Verwendung einer Gewichtsfunktion (W = f(A, V, λ)), die die Helligkeit (Ai(x, y)) als Parameter verwendet; und Berechnen einer gewichteten Höhe (Wi(x, y)·Hi(x, y)) bezüglich jeder Richtung durch Verwendung der auf der Phase (Pi(x, y)) basierenden Höhe Hi(x, y) bezüglich jeder Richtung und des Höhengewichts (Wi(x, y)) und Mitteln der gewichteten Höhen, um die Höhe (h = Σ[Wi(x, y)·Hi(x, y)]/ΣWi(x, y)) an jedem Ort zu bestimmen.
  • Die Helligkeit kann einer durchschnittlichen Helligkeit entsprechen, die durch Mitteln der detektierten Gittermusterlichte gewonnen wird.
  • Die Gewichtsfunktion kann ferner mindestens eines einer Sichtbarkeit und eines SNR (Signal-Rausch-Verhältnisses) bezüglich jeder Richtung, die aus den Musterbildern bezüglich jeder Richtung extrahiert werden, als Parameter einsetzen.
  • Die Gewichtsfunktion kann ferner einen Messbereich (λ), der einem Gitterabstand jedes Gittermusterlichts, der aus den Musterbildern bezüglich jeder Richtung extrahiert wird, entspricht, als Parameter einsetzen. Der Messbereich kann gemäß den Gittermusterlichten mindestens zwei Werte aufweisen.
  • Die Gewichtsfunktion kann das Höhengewicht verringern, wenn die durchschnittliche Helligkeit von einem vorbestimmten Wert aus zunimmt oder abnimmt. Der vorbestimmte Wert kann ein mittlerer Wert der durchschnittlichen Helligkeit sein.
  • Die Gewichtsfunktion kann das Höhengewicht erhöhen, wenn sich die Sichtbarkeit oder das SNR erhöht.
  • Die Gewichtsfunktion kann das Höhengewicht verringern, wenn sich der Messbereich vergrößert.
  • Das Extrahieren des Höhengewichts bezüglich jeder Richtung kann Unterteilen der Musterbilder in einen Schattenbereich, einen Sättigungsbereich und einen Nicht-Sättigungsbereich beinhalten. Der Schattenbereich entspricht einem Bereich, in dem die durchschnittliche Helligkeit unter einer minimalen Helligkeit liegt und die Sichtbarkeit oder das SNR unter einem minimalen Referenzwert liegt, der Sättigungsbereich entspricht einem Bereich, in dem die durchschnittliche Helligkeit über einer maximalen Helligkeit liegt und die Sichtbarkeit oder das SNR unter dem minimalen Referenzwert liegt und der Nicht-Sättigungsbereich entspricht einem restlichen Bereich außer dem Schattenbereich und dem Sättigungsbereich. Die Gewichtsfunktion kann als '0' betrachtet werden, um das Höhengewicht in dem Schattenbereich und dem Sättigungsbereich zu gewinnen. Die dem Nicht-Sättigungsbereich entsprechende Gewichtsfunktion kann das Höhengewicht verringern, wenn die durchschnittliche Helligkeit von einem mittleren Wert der durchschnittlichen Helligkeit aus zunimmt oder abnimmt, kann das Höhengewicht erhöhen, wenn die Sichtbarkeit oder das SNR zunimmt, und kann das Höhengewicht erhöhen, wenn sich der Messbereich vergrößert.
  • Die Summe der Höhengewichte kann gleich 1 sein {ΣWi(x, y) = 1}.
  • Noch ein weiteres Ausführungsbeispiel der vorliegenden Erfindung offenbart ein Verfahren zur Messung einer dreidimensionalen Form. Das Verfahren beinhaltet Leuchten von Gittermusterlichten in einer Vielzahl von Richtungen auf ein Messobjekt, während jedes der Gittermusterlichte N Mal geändert wird und die von dem Messobjekt reflektierten Gittermusterlichte detektiert werden, zur Gewinnung von N Musterbildern des Messobjektes bezüglich jeder Richtung, Extrahieren einer Phase {Pi(x, y)} und einer Sichtbarkeit {Vi(x, y)} bezüglich jeder Richtung entsprechend jedem Ort {i(x, y)} in einem X-Y-Koordinatensystem aus den Musterbildern, Extrahieren eines Höhengewichts {Wi(x, y)} bezüglich jeder Richtung durch Verwendung einer Gewichtsfunktion, die die Sichtbarkeit als Parameter einsetzt, und Berechnen einer Gewichtshöhe {Wi(x, y)·Hi(x, y)} bezüglich jeder Richtung durch Multiplizieren einer auf der Phase basierenden Höhe mit dem Höhengewicht und Summieren von Gewichtshöhen, um eine Höhe {ΣWi(x, y)·Hi(x, y)/ΣWi(x, y)} an jedem Ort zu bestimmen.
  • Gemäß der vorliegenden Erfindung kann ein zweidimensionales Formbild durch Verwendung gemessener dreidimensionaler Daten gewonnen werden, so dass zusätzliche Daten für das zweidimensionale Formbild nicht erforderlich sein mögen.
  • Wenn das zweidimensionale Formbild und das dreidimensionale Formbild, die beide gemessen werden, zusammen verwendet werden, können ferner Defekte der PCB effektiv untersucht werden.
  • Ferner kann die Untersuchungsgenauigkeit verbessert werden, wenn Luminanz zusätzlicher zweidimensionaler Bilder verwendet wird.
  • Zusätzlich werden durchschnittliche Helligkeit, Sichtbarkeit oder SNR und Messbereich aus den in jeder Richtung fotografierten Musterbildern extrahiert, und Höhengewicht wird gemäß dem extrahierten Ergebnis bestimmt, um dadurch eine Höhe an jedem Ort des Messobjektes in Gesamtbereichen einschließlich eines Schattenbereichs und eines Sättigungsbereichs genauer zu messen.
  • Es versteht sich, dass sowohl die vorangehende allgemeine Beschreibung als auch die folgende detaillierte Beschreibung exemplarisch und erläuternd sind und dazu intendiert sind, weitere Erklärung der beanspruchten Erfindung bereitzustellen.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • Die beiliegenden Zeichnungen, die beigefügt sind, um ein weiteres Verständnis der Erfindung bereitzustellen, und in dieser Spezifikation inkorporiert sind und einen Teil derselben bilden, illustrieren Ausführungen der Erfindung und dienen zusammen mit der Beschreibung dazu, die Prinzipien der Erfindung zu erklären.
  • 1 ist eine schematische Seitenansicht, die ein Formmessgerät gemäß einem Ausführungsbeispiel der vorliegenden Erfindung illustriert.
  • 2 ist eine schematische Draufsicht, die ein Formmessgerät gemäß einem weiteren Ausführungsbeispiel der vorliegenden Erfindung illustriert.
  • 3 ist eine Draufsicht, die ein Objektsubstrat in 1 illustriert.
  • 4 ist ein Diagramm, das das Formmessgerät beim Messen eines dreidimensionalen Bildes zeigt.
  • 5 stellt Graphen dar, die ein Prinzip zum Messen eines zweidimensionalen Bildes zeigen.
  • 6 ist eine schematische Ansicht, die ein Messgerät für dreidimensionale Formen illustriert, das ein Verfahren zur Messung einer dreidimensionalen Form gemäß einem Ausführungsbeispiel der vorliegenden Erfindung verwendet.
  • 7 ist eine Draufsicht, die ein Gittermusterbild durch ein auf ein Messobjekt in 6 geleuchtetes Gittermusterlicht illustriert.
  • 8 ist eine Draufsicht, die ein Bild illustriert, das in der Kamera gemessen wird, wenn das Gittermusterlicht von einer rechten Seite auf das Messobjekt geleuchtet wird.
  • 9 ist eine Draufsicht, die ein Bild illustriert, das in der Kamera gemessen wird, wenn das Gittermusterlicht von einer linken Seite auf das Messobjekt geleuchtet wird.
  • 10 ist ein Graph, der eine Beziehung zwischen durchschnittlicher Helligkeit und Gewicht der in der Kamera gemessenen Musterbilder zeigt.
  • 11 ist ein Graph, der eine Beziehung zwischen Sichtbarkeit oder SNR und Gewicht der in der Kamera gemessenen Musterbilder zeigt.
  • 12 ist ein Graph, der eine Beziehung zwischen Messbereich und Gewicht der in der Kamera gemessenen Musterbilder zeigt.
  • DETAILLIERTE BESCHREIBUNG DER ILLUSTRIERTEN AUSFÜHRUNGEN
  • Die vorliegende Erfindung wird nachstehend vollständiger mit Bezug auf die beiliegenden Zeichnungen beschrieben, in denen Ausführungsbeispiele der vorliegenden Erfindung gezeigt sind. Die vorliegende Erfindung kann jedoch in vielen verschiedenen Formen ausgeführt werden und sollte nicht als auf die hier dargelegten Ausführungsbeispiele beschränkt interpretiert werden. Diese Ausführungsbeispiele werden vielmehr bereitgestellt, damit diese Offenbarung gründlich und vollständig ist, und werden dem Fachmann den Umfang der vorliegenden Erfindung vollständig vermitteln. In den Zeichnungen können die Größen und relativen Größen von Schichten und Bereichen der Klarheit halber übertrieben sein.
  • Es versteht sich, dass, wenn ein Element oder eine Schicht als „auf oder „verbunden mit” einem anderen Element oder einer anderen Schicht bezeichnet wird, es oder sie direkt auf oder verbunden mit dem anderen Element oder der anderen Schicht sein kann oder auch dazwischenliegende Elemente oder Schichten vorhanden sein können. Im Gegensatz dazu sind keine dazwischenliegenden Elemente oder Schichten vorhanden, wenn ein Element als „direkt auf oder „direkt verbunden mit” einem anderen Element oder einer anderen Schicht bezeichnet wird. Ähnliche Zahlen beziehen sich durchweg auf ähnliche Elemente. Wie hierin verwendet beinhaltet der Ausdruck „und/oder” sämtliche Kombinationen eines oder mehrerer der assoziierten aufgezählten Elemente.
  • Es versteht sich, dass, obwohl die Begriffe erste, zweite, dritte usw. hierin verwendet sein können, um verschiedene Elemente, Bauteile, Bereiche, Schichten und/oder Abschnitte zu beschreiben, diese Elemente, Bauteile, Bereiche, Schichten und/oder Abschnitte nicht durch diese Begriffe beschränkt sein sollen. Diese Begriffe werden lediglich verwendet, um ein Element, Bauteil, Bereich, Schicht oder Abschnitt von einem anderen Bereich, Schicht oder Abschnitt zu unterscheiden. Somit könnte ein nachstehend erörtertes erstes Element, Bauteil, Bereich, Schicht oder Abschnitt als ein zweites Element, Bauteil, Bereich, Schicht oder Abschnitt bezeichnet werden, ohne von den Lehren der vorliegenden Erfindung abzuweichen.
  • Räumlich relative Begriffe, wie zum Beispiel „unterhalb”, „unter”, „untere”, „über”, „obere” und dergleichen können hierin zur einfacheren Beschreibung verwendet werden, um die in den Figuren illustrierte Beziehung eines Elementes oder Merkmals zu (einem) anderen Element(en) oder Merkmal(en) zu beschreiben. Es versteht sich, dass die räumlich relativen Begriffe verschiedene Ausrichtungen der Vorrichtung bei Verwendung oder Betrieb zusätzlich zu der in den Figuren abgebildeten Ausrichtung umfassen sollen. Wenn zum Beispiel die Vorrichtung in den Figuren umgedreht wird, wären Elemente, die als „unter” anderen Elementen oder Merkmalen beschrieben sind, nun „über” den anderen Elementen oder Merkmalen orientiert. Somit kann der beispielhafte Begriff „unter” sowohl die Ausrichtung „über” als auch „unter” umfassen. Die Vorrichtung kann anders ausgerichtet sein (um 90 Grad gedreht oder mit anderen Ausrichtungen), und die hierin verwendeten räumlich relativen Deskriptoren können entsprechend interpretiert werden.
  • Die hierin verwendete Terminologie dient ausschließlich dem Zweck des Beschreibens bestimmter Ausführungsbeispiele und soll nicht die vorliegende Erfindung einschränken. Wie hierin verwendet sollen die Singularformen „ein/eine” und „der/die/das” ebenfalls die Pluralformen beinhalten, es sei denn, der Kontext bringt deutlich das Gegenteil zum Ausdruck. Es versteht sich ferner, dass die Begriffe „umfasst” und/oder „umfassend”, wenn sie in dieser Spezifikation verwendet werden, das Vorhandensein ausgewiesener Merkmale, Ganzzahlen, Schritte, Operationen, Elemente und/oder Bauteile angeben, aber nicht das Vorhandensein oder Hinzufügen eines oder mehrerer weiterer Merkmale, Ganzzahlen, Schritte, Operationen, Elemente, Bauteile und/oder Gruppen derselben ausschließen.
  • Ausführungsbeispiele der Erfindung werden hierin unter Bezug auf Querschnittsdarstellungen beschrieben, die schematische Darstellungen von idealisierten Ausführungsbeispielen (und Zwischenstrukturen) der vorliegenden Erfindung sind. Somit sind Abweichungen von den Formen der Darstellungen als Ergebnis zum Beispiel von Herstellungstechniken und/oder -toleranzen zu erwarten. Daher sollten Ausführungsbeispiele der vorliegenden Erfindung nicht als auf die hierin dargestellten bestimmten Formen von Bereichen beschränkt interpretiert werden, sondern sollen Abweichungen in Formen beinhalten, die zum Beispiel aus der Herstellung resultieren. Zum Beispiel weist ein als Rechteck illustrierter implantierter Bereich üblicherweise abgerundete oder gekrümmte Umrisse auf und/oder ein Gradient von Implantatkonzentration an seinen Kanten anstatt einer binären Veränderung von implantiertem zu nicht implantiertem Bereich. Ebenso kann ein durch Implantierung ausgebildeter verdeckter Bereich etwas Implantierung in dem Bereich zwischen dem verdeckten Bereich und der Oberfläche, durch die die Implantierung stattfindet, zur Folge haben. Daher sind die in den Figuren illustrierten Bereiche von schematischer Natur, und ihre Formen sollen nicht die eigentliche Form eines Bereichs einer Vorrichtung illustrieren, und sie sollen nicht den Umfang der vorliegenden Erfindung limitieren.
  • Sofern nicht anders definiert, haben alle hierin verwendeten Begriffe (einschließlich technischer und wissenschaftlicher Begriffe) dieselbe Bedeutung wie sie ein Durchschnittsfachmann des Gebietes, zu dem diese Erfindung gehört, üblicherweise verstehen würde. Es versteht sich ferner, dass Begriffe wie die in üblicherweise verwendeten Wörterbüchern definierten mit einer Bedeutung interpretiert werden sollten, die mit ihrer Bedeutung in dem Kontext des relevanten Gebiets konsistent ist, und nicht in einem idealisierten oder überformalen Sinn interpretiert werden sollen, sofern hierin nicht ausdrücklich so definiert.
  • Im Folgenden werden Ausführungsbeispiele der vorliegenden Erfindung unter Bezug auf die beiliegenden Zeichnungen im Detail beschrieben.
  • 1 ist eine schematische Seitenansicht, die ein Formmessgerät gemäß einem Ausführungsbeispiel der vorliegenden Erfindung illustriert.
  • Unter Bezug auf 1 beinhaltet ein Formmessgerät 1100 gemäß einem Ausführungsbeispiel der vorliegenden Erfindung ein Arbeitsgestell 1130, einen Musterprojektionsteil 1110, einen Bilderfassungsteil 1150 sowie einen Steuerteil 1140. Zusätzlich kann das Formmessgerät 1100 ferner eine erste ergänzende Lichtquelle 1160 und eine zweite ergänzende Lichtquelle 1170 beinhalten.
  • Das Arbeitsgestell 1130 stützt ein Objektsubstrat 1120, auf dem ein Messobjekt A angeordnet ist. Ferner transportiert das Arbeitsgestell 1130 das Messobjekt A entlang mindestens einer einer x-Achsenrichtung und einer y-Achsenrichtung. Wenn das Arbeitsgestell 1130 von dem Steuerteil 1140 gesteuert wird, so dass es das Objektsubstrat 1120 an einen geeigneten Ort transportiert, können die erste ergänzende Lichtquelle 1160 und die zweite ergänzende Lichtquelle 1170 ein Licht in Richtung des Messobjektes A des Objektsubstrats 1120 strahlen, um Gesamtmessbereiche des Objektsubstrats 1120 durch Verwendung von zum Beispiel einer Identifizierungsmarkierung des Objektsubstrats 1120 aufzustellen.
  • Der Musterprojektionsteil 1110 projiziert ein Gitterbild in Richtung des Messobjektes A. Das Formmessgerät 1100 kann eine Vielzahl der Musterprojektionsteile 1110 beinhalten, die derart angeordnet sind, dass die Vielzahl von Musterprojektionsteilen 1110 Gitterbilder mit einem bestimmten Winkel bezüglich einer Normalen des Objektsubstrats 1120 in Richtung des Objektsubstrats 1120 projizieren. Ferner kann die Vielzahl von Musterprojektionsteilen 1110 bezüglich der Normalen symmetrisch angeordnet sein. Jeder der Musterprojektionsteile 1110 beinhaltet eine Lichtquelle 1111, ein Gitterteil 1112 sowie ein Projektionslinsenteil 1113. Zum Beispiel können zwei der Musterprojektionsteile 1110 bezüglich des Messobjektes A symmetrisch angeordnet sein.
  • Die Lichtquelle 1111 strahlt Licht in Richtung des Messobjektes A aus.
  • Das Gitterteil 1112 erzeugt ein Gitterbild durch Verwendung des von der Lichtquelle 1111 generierten Lichts. Das Gitterteil 1112 beinhaltet einen Licht blockierenden Bereich (nicht gezeigt) sowie einen Licht transmittierenden Bereich (nicht gezeigt). Der Licht blockierende Bereich blockiert einen Teil des von der Lichtquelle 1111 generierten Lichts, und der Licht transmittierende Bereich transmittiert einen anderen Teil des Lichts. Das Gitterteil 1112 kann in verschiedenen Typen ausgebildet sein. Zum Beispiel kann das Gitterteil 1112 durch eine Glasplatte, auf der ein Gitter mit einem Licht blockierenden Bereich und einem Licht transmittierenden Bereich strukturiert ist, ausgebildet sein. Wahlweise kann eine Flüssigkristallanzeigetafel als das Gitterteil 1112 verwendet werden.
  • Wenn die Glasplatte, auf der das Gitter mit dem Licht blockierenden Bereich und dem Licht transmittierenden Bereich, als das Gitterteil 1112 verwendet wird, beinhaltet das Formmessgerät 1100 ferner einen Aktuator (nicht gezeigt), um das Gitterteil 1112 minuziös zu transportieren. Wenn eine Flüssigkristallanzeigetafel als das Gitterteil 1112 verwendet wird, kann ein Gittermuster von der Flüssigkristallanzeigetafel angezeigt werden, so dass das Formmessgerät 1100 den Aktuator nicht benötigt.
  • Das Projektionslinsenteil 1113 erzeugt ein Gitterbild des Gitterteils 1112 auf dem Messobjekt A des Objektsubstrats 1120. Das Projektionslinsenteil 1113 kann zum Beispiel eine Vielzahl von Linsen beinhalten, das Gitterteil 1112 zur Fokussierung des auf dem Messobjekt A auf dem Objektsubstrat 1120 anzuzeigenden Gitterbildes.
  • Der Bilderfassungsteil 1150 empfängt das von dem Messobjekt A des Objektsubstrats 1120 reflektierte Gitterbild. Der Bilderfassungsteil 1150 beinhaltet zum Beispiel eine Kamera 1151 sowie ein Erfassungslinsenteil 1152. Das von dem Messobjekt A reflektierte Gitterbild durchläuft das Erfassungslinsenteil 1152, um von der Kamera 1151 erfasst zu werden.
  • Der Steuerteil 1140 steuert das Arbeitsgestell 1130, den Musterprojektionsteil 1110 und den Bilderfassungsteil 1150, berechnet einen Zuverlässigkeitsindex des von dem Bilderfassungsteil 1150 erfassten Gitterbildes sowie Phasen des Messobjektes A und verarbeitet das von dem Bilderfassungsteil 1150 erfasste Gitterbild, um eine zweidimensionale Form und eine dreidimensionale Form zu messen. Der Prozess zum Messen der zweidimensionalen Form und der dreidimensionalen Form, der von dem Steuerteil 1140 durchgeführt wird, wird später im Detail beschrieben.
  • Der Steuerteil 1140 untersucht das Messobjekt durch Verwendung der Phase und des Zuverlässigkeitsindex. Im Einzelnen kann die Phase zum Messen der dreidimensionalen Form des Messobjektes A verwendet werden, und der Zuverlässigkeitsindex kann zum Bestimmen von gut oder schlecht im Hinblick auf das Messobjekt verwendet werden. Zum Beispiel kann mindestens eines einer Signalintensität, einer Sichtbarkeit und eines SNR (Signal-Rausch-Verhältnisses) für den Zuverlässigkeitsindex verwendet werden. Die λ-Signalintensität kann unter Bezug auf Ausdruck 14 und Ausdruck 15 erklärt werden, die γ-Sichtbarkeit kann unter Bezug auf Ausdruck 16 oder Ausdruck 17 erklärt werden, und die SNR bedeutet ein Verhältnis von oder Differenz zwischen einer periodischen Funktion, die während des N-Bucket-Algorithmus-Prozesses des Filterns von Bildern, die von dem Bilderfassungsteil 1150 erfasst werden, generiert wird, und einem reellen Signal. Im Einzelnen ist das SNR (Sichtbarkeit·D in Ausdruck 1)/temporales Rauschen.
  • Wenn der Zuverlässigkeitsindex außerhalb eines Einstellungswertes liegt, bestimmt der Steuerteil 1140 das Messobjekt A als ein schlechtes.
  • Zum Beispiel bestimmt der Steuerteil 1140, dass das Messobjekt schlecht ist, wenn die Differenz zwischen der durch Ausdruck 16 oder Ausdruck 17 gewonnenen Sichtbarkeit γ eines bestimmten Bereichs des Formbildes und der Sichtbarkeit γ eines peripheren Bereichs außerhalb des Bereiches des Einstellungswertes liegt.
  • Ferner kann eine der ersten ergänzenden Lichtquelle 1160 und der zweiten ergänzenden Lichtquelle 1170 zum Messen der zweidimensionalen Form verwendet werden. Im Einzelnen strahlt eine der ersten ergänzenden Lichtquelle 1160 und der zweiten ergänzenden Lichtquelle 1170 Licht in Richtung des Messobjekts A des Objektsubstrats 1120 aus, und reflektiertes Licht wird von der Kamera 1151 des Bilderfassungsteils 1150 erfasst, um ein zweidimensionales Formbild zu generieren.
  • Auch wenn die Differenz des Zuverlässigkeitsindex innerhalb des Einstellungswertes liegt, kann der Steuerteil 1140 bestimmen, dass das Messobjekt A schlecht ist, wenn die Luminanzdifferenz zwischen dem bestimmten Bereich des zweidimensionalen Formbildes und dem peripheren Bereich des zweidimensionalen Formbildes außerhalb eines weiteren Einstellungswertes liegt. Ferner kann der Steuerteil 1140 bestimmen, dass das Messobjekt A schlecht ist, wenn die Luminanz eines bestimmten Bereichs des Messobjektes A außerhalb eines weiteren Einstellungswertes liegt.
  • Zum Beispiel bestimmt der Steuerteil 1140, auch wenn die Differenz zwischen der durch Ausdruck 16 oder Ausdruck 17 gewonnenen Sichtbarkeit γ eines bestimmten Bereichs und der Sichtbarkeit γ eines peripheren Bereichs innerhalb des Einstellungswertes liegt, dass das Messobjekt A schlecht ist, wenn die Luminanzdifferenz oder Intensitätsdifferenz zwischen dem bestimmten Bereich und dem peripheren Bereich des durch die erste ergänzende Lichtquelle 1160 oder die zweite ergänzende Lichtquelle 1170 gewonnenen zweidimensionalen Bildes außerhalb eines weiteren Einstellungswertes liegt.
  • Der Steuerteil 1140 untersucht die zweidimensionale Form und die dreidimensionale Form eines Bereichs des Interesses (ROI) in Sichtfeldern (FOV) in Folge.
  • 2 ist eine schematische Draufsicht, die ein Formmessgerät gemäß einem weiteren Ausführungsbeispiel der vorliegenden Erfindung illustriert. Das Formmessgerät gemäß der vorliegenden Ausführung ist im Wesentlichen dasselbe außer dem Musterprojektionsteil des Formmessgeräts 1100 in 1. Daher werden dieselben Bezugszahlen für dieselben Elemente verwendet, und jegliche weitere Beschreibung wird weggelassen.
  • Unter Bezug auf 2 beinhaltet das Formmessgerät gemäß der vorliegenden Ausführung eine Vielzahl von Musterprojektionsteilen 1110, deren jeder ein Gitterteil 1112 aufweist. Die Vielzahl von Musterprojektionsteilen 1110 ist an Spitzen eines Polygons angeordnet. In 2 sind vier Musterprojektionsteile 1110 an Spitzen eines Quadrats angeordnet. Die Vielzahl von Musterprojektionsteilen 1110 kann jedoch an Spitzen von Hexagon, Oktagon usw. angeordnet sein.
  • Wenn das Gitterbild nur an einer Seite erfasst wird, kann eine exakte dreidimensionale Form gewonnen werden, da das Messobjekt A ein Vorsprung ist, so dass das Gitterbild an der anderen Seite ankommen kann. Daher kann das Gitterbild an beiden einander gegenüberliegenden Seiten erfasst werden, um die exakte dreidimensionale Form zu gewinnen.
  • Zum Beispiel kann, wenn das Messobjekt A eine rechteckige Form aufweist, der Steuerteil 1140 zwei einander gegenüber angeordnete Musterprojektionsteile 1110 einschalten. Wenn die Form des Messobjektes A, die von dem Steuerteil 1140 erfasst wird, komplex ist, kann der Steuerteil 1140 mehr als zwei Musterprojektionsteile 1110 einschalten.
  • 3 ist eine Draufsicht, die ein Objektsubstrat in 1 illustriert. Unter Bezug auf 3 beinhaltet das Objektsubstrat 1120, wie beispielsweise eine gedruckte Leiterplatte (PCB), zum Beispiel einen Padbereich 1121 (oder Auffächerungsbereich) sowie einen Gerätemontierbereich 1122.
  • Der Padbereich 1121 ist ein Bereich, in dem ein Pad zum elektrischen Verbinden ausgebildet ist, und der Gerätemontierbereich 1122 ist ein Bereich, auf dem ein Gerät montiert wird.
  • Ein Gerät wird durch Lotpaste auf dem Gerätemontierbereich 1122 montiert. Wenn die Form oder die Menge der Lotpaste nicht richtig gesteuert wird, kann das Gerät mit anderen Geräten elektrisch verbunden werden und so Funktionsstörungen verursachen. Daher wird die Form und die Höhe der Lotpaste gemessen, um eine dreidimensionale Form der Lotpaste zu gewinnen, um zu überprüfen, dass die Form oder die Menge der Lotpaste richtig gesteuert ist.
  • Ferner sollte der Padbereich 1121 überprüft werden, um elektrischen Kurzschluss mit anderen Padbereichen zu verhindern. In diesem Fall kann die durch Ausdruck 14 oder Ausdruck 15 gewonnene zweidimensionale Form verwendet werden, um elektrischen Kurzschluss zwischen den Padbereichen zu überprüfen.
  • Zusätzlich sollte der Padbereich 1121 eine flache Oberfläche aufweisen. Wenn der Padbereich 1121 zerkratzt ist, kann der Padbereich eine schlechte Verbindung mit einem Gerät verursachen. Daher ist die Oberflächenuntersuchung des Padbereichs 1121 sehr wichtig.
  • Für die Oberflächenuntersuchung wird der Zuverlässigkeitsindex des Padbereichs 1121 untersucht. Wenn der Zuverlässigkeitsindex eines bestimmten Bereichs außerhalb des Einstellungswertes liegt, wird der Padbereich 1121 als schlecht bestimmt. Auch wenn der Zuverlässigkeitsindex des bestimmten Bereichs innerhalb des Einstellungswertes liegt, eine Luminanzdifferenz eines bestimmten Bereichs und eines peripheren Bereichs in einem durch Verwendung einer der ersten ergänzenden Lichtquelle 1160 und der zweiten ergänzenden Lichtquelle 1170 in 1 gewonnenen zweidimensionalen Bild außerhalb eines weiteren Einstellungswertes liegt, wird der Pad als schlecht bestimmt, da der Pad einen Kratzer aufweist.
  • Der Padbereich 1121 ist eine flache Metalloberfläche, so dass die Menge an von dem Padbereich 1121 reflektiertem und von der Kamera 1151 des Bilderfassungsteils 1150 in 1 erfasstem Licht gesättigt sein kann. Daher kann ein verschobener Phasenwert gemessen werden. Der Zuverlässigkeitsindex kann jedoch gemessen werden. Daher kann der Padbereich 1121 durch Verwendung des Zuverlässigkeitsindex untersucht werden, auch wenn die Menge an von dem Padbereich 1121 reflektiertem Licht gesättigt ist. Ferner kann der Zuverlässigkeitsindex jedes Musterprojektionsteils 1110 als Gewichtswert für die von jedem Musterprojektionsteil 1110 gemessene Höhe verwendet werden.
  • Im Obigen sind die Formmessgeräte gemäß den vorliegenden Ausführungen erklärt. Das Formmessverfahren gemäß der vorliegenden Ausführung ist im Wesentlichen dasselbe wie das des Formmessgeräts. Das heißt gemäß einem Formmessverfahren der vorliegenden Erfindung werden von einem Messobjekt reflektierte Gitterbilder gewonnen, während ein Gitter mehrere Male verschoben wird. Dann wird der Zuverlässigkeitsindex des Gitterbildes gewonnen. Wenn der Zuverlässigkeitsindex innerhalb des Einstellungswertes liegt, wird das Messobjekt als gut bestimmt, und wenn der Zuverlässigkeitsindex außerhalb des Einstellungswertes liegt, wird das Messobjekt als schlecht bestimmt. Ferner kann ein zweidimensionales Formbild des Messobjektes gewonnen werden, und auch wenn der Zuverlässigkeitsindex des Pads innerhalb des Einstellungswertes liegt, kann das Pad als schlecht bestimmt werden, wenn eine Luminanzdifferenz zwischen einem bestimmten Bereich und einem peripheren Bereich des zweidimensionalen Formbildes außerhalb eines bestimmten Wertes liegt.
  • 4 ist ein Diagramm, das das Formmessgerät beim Messen eines dreidimensionalen Bildes zeigt.
  • Das Gitterbild wird auf das Objektsubstrat 1120 in 1 gestrahlt. Dann wird die Intensität I von von dem Objektsubstrat 1120 reflektierten und von dem Bilderfassungsbereich 1150 erfassten Bildern als folgender Ausdruck 1, der der Moiré-Gleichung entspricht, ausgedrückt.
  • Ausdruck 1
    • I = D[1 + γcos( 2πh / Δ)]
    • wobei I von dem Bilderfassungsteil 1150 erfasste Intensität ist, D Signalintensität (oder eine Funktion von DC-Lichtintensität (oder Lichtquellenintensität) und Reflexionsvermögen) ist, γ Sichtbarkeit (eine Funktion von Reflexionsvermögen und Gitterperiode) ist, λ Moiré-Äquivalenzperiode (eine Funktion von Vergrößerung, der Gitterperiode und Strahlungswinkel θ) ist.
  • In Ausdruck 1 ist Intensität I eine Funktion von Höhe h, so dass Höhe h durch Verwendung von Intensität I gewonnen werden kann.
  • Wenn die Gitterphase verschoben wird und das reflektierte Bild von dem Bilderfassungsteil 1150 in 1 erfasst wird, kann Ausdruck 1 als Ausdruck 2 ausgedrückt werden.
  • Ausdruck 2
    • Ik = D[1 + γcos( 2πh / Δ) + δk)]
  • Wobei δk Phasenverschiebung ist und 2πh/λ einer Phase θ entspricht, die dem Messobjekt entspricht.
  • Um Höhe h durch Verwendung von Ausdruck 2 zu gewinnen, sind mindestens drei Phasenverschiebungen erforderlich.
  • Zum Beispiel kann die Höhe h wie folgt gewonnen werden, wenn drei Phasenverschiebungen angewendet werden (3-Bucket-Algorithmus). In Ausdruck 2 wird null Radiant als δ1 angewendet, um I1 zu gewinnen, und dann wird Ausdruck 2 als folgender Ausdruck 3 ausgedrückt.
  • Ausdruck 3
    • I1 = D[1 + γcos( 2πh / Δ)]
  • In Ausdruck 2 wird 2π/3 Radiant als δ2 angewendet, um I2 zu gewinnen, und dann wird Ausdruck 2 als folgender Ausdruck 4 ausgedrückt.
  • Ausdruck 4
    Figure DE102010029091B4_0002
  • In Ausdruck 2 wird 4π/3 Radiant als δ3 angewendet, um I3 zu gewinnen, und dann wird Ausdruck 2 als folgender Ausdruck 5 ausgedrückt.
  • Ausdruck 5
    Figure DE102010029091B4_0003
  • Durch Verwendung von Ausdruck 3, Ausdruck 4 und Ausdruck 5 wird folgender Ausdruck 6 gewonnen.
  • Ausdruck 6
    Figure DE102010029091B4_0004
  • Durch Verwendung von Ausdruck 6 kann die Höhe h als folgender Ausdruck 7 gewonnen werden.
  • Ausdruck 7
    Figure DE102010029091B4_0005
  • Zum Beispiel kann die Höhe h wie folgt gewonnen werden, wenn vier Phasenverschiebungen angewendet werden (4-Bucket-Algorithmus). In Ausdruck 2 wird null Radiant als δ1 angewendet, um I1 zu gewinnen, und dann wird Ausdruck 2 als folgender Ausdruck 8 ausgedrückt.
  • Ausdruck 8
    Figure DE102010029091B4_0006
  • In Ausdruck 2 wird π/2 Radiant als δ2 angewendet, um I2 zu gewinnen, und dann wird Ausdruck 2 als folgender Ausdruck 9 ausgedrückt.
  • Ausdruck 9
    Figure DE102010029091B4_0007
  • In Ausdruck 2 wird π Radiant als δ3 angewendet, um I3 zu gewinnen, und dann wird Ausdruck 2 als folgender Ausdruck 10 ausgedrückt.
  • Ausdruck 10
    • I3 = D[1 + γcos( 2πh / Δ + π)] = D[1 – γcos( 2πh / Δ]
  • In Ausdruck 2 wird 3π/2 Radiant als δ4 angewendet, um I4 zu gewinnen, und dann wird Ausdruck 2 als folgender Ausdruck 11 ausgedrückt.
  • Ausdruck 11
    Figure DE102010029091B4_0008
  • Durch Verwendung von Ausdruck 8, Ausdruck 9, Ausdruck 10 und Ausdruck 11 wird folgender Ausdruck 12 gewonnen.
  • Ausdruck 12
    Figure DE102010029091B4_0009
  • Durch Verwendung von Ausdruck 12 kann die Höhe h als folgender Ausdruck 13 gewonnen werden.
  • Ausdruck 13
    Figure DE102010029091B4_0010
  • Wenn das Gitterbild auf das Messobjekt gestrahlt wird und das reflektierte Bild erfasst wird, während das Gitter verschoben wird, kann eine dreidimensionale Form des Messobjektes durch Verwendung von Ausdruck 7 oder Ausdruck 13 gewonnen werden.
  • 5 stellt Graphen dar, die ein Prinzip zum Messen eines zweidimensionalen Bildes zeigen. Das arithmetische Mittel Iave von I1, I2, I3 und I4 kann als folgender Ausdruck 14 gewonnen werden.
  • Ausdruck 14
    Figure DE102010029091B4_0011
  • Wie in Ausdruck 14 gezeigt, kann der Effekt des Gitters ausgeglichen werden, wenn er gemittelt wird, so dass ein zweidimensionales Formbild gewonnen werden kann.
  • Im Fall des 3-Bucket-Algorithmus kann das arithmetische Mittel Iave von I1, I2 und I3 in Ausdrücken 3, 4 beziehungsweise 5 als folgender Ausdruck 15 ausgedrückt werden.
  • Ausdruck 15
    Figure DE102010029091B4_0012
  • Andererseits kann die Sichtbarkeit γ in Ausdruck 2 durch Verwendung von Ausdruck 3, 4, 5, und 15 im Fall des 3-Bucket-Algorithmus als folgender Ausdruck 16 ausgedrückt werden.
  • Ausdruck 16
    Figure DE102010029091B4_0013
  • Die Sichtbarkeit γ in Ausdruck 2 kann durch Verwendung von Ausdruck 8, 9, 10, 11 und 14 im Fall des 4-Bucket-Algorithmus als folgender Ausdruck 17 ausgedrückt werden.
  • Ausdruck 17
    Figure DE102010029091B4_0014
  • Gemäß der vorliegenden Erfindung kann ein zweidimensionales Formbild durch Verwendung gemessener dreidimensionaler Daten gewonnen werden, so dass zusätzliche Daten für das zweidimensionale Formbild nicht erforderlich sein mögen.
  • Wenn das zweidimensionale Formbild und das dreidimensionale Formbild, die beide gemessen werden, zusammen verwendet werden, können ferner Defekte der PCB effektiv untersucht werden.
  • 6 ist eine schematische Ansicht, die ein Messgerät für dreidimensionale Formen illustriert, das ein Verfahren zur Messung einer dreidimensionalen Form gemäß einem Ausführungsbeispiel der vorliegenden Erfindung verwendet.
  • Unter Bezug auf 6 kann ein Messgerät für dreidimensionale Formen, das ein Verfahren zum Messen einer dreidimensionalen Form gemäß einem Ausführungsbeispiel der vorliegenden Erfindung verwendet, einen Messgestellteil 100, einen Bildfotografierteil 200, erste und zweite Beleuchtungsteile 300 und 400, einen Bildgewinnungsteil 500, einen Modulsteuerteil 600 sowie einen zentralen Steuerteil 700 beinhalten.
  • Der Messgestellteil 100 kann ein ein Messobjekt 10 unterstützendes Gestell 110 sowie eine das Gestell 110 umsetzende Gestellumsetzeinheit 120 beinhalten. In einem Ausführungsbeispiel kann ein Messort in dem Messobjekt 10 in Entsprechung dazu verändert werden, wie sich das Messobjekt 10 durch das Gestell 110 bezüglich des Bildfotografierteils 200 und der ersten und zweiten Beleuchtungsteile 300 und 400 bewegt.
  • Der Bildfotografierteil 200 ist über dem Gestell 110 angeordnet, um von dem Messobjekt 10 reflektiertes Licht zu erhalten und ein Bild des Messobjektes 10 zu messen. Das heißt der Bildfotografierteil 200 erhält das Licht, das aus den ersten und zweiten Beleuchtungsteilen 300 und 400 austritt und von dem Messobjekt 10 reflektiert wird, und fotografiert ein ebenes Bild des Messobjektes 10.
  • Der Bildfotografierteil 200 kann eine Kamera 210, eine Bildgebungslinse 220, ein Filter 230 sowie eine Lampe 240 beinhalten. Die Kamera 210 empfängt das von dem Messobjekt 10 reflektierte Licht und fotografiert das ebene Bild des Messobjektes 10. Die Kamera 210 kann zum Beispiel eine einer CCD-Kamera und einer CMOS-Kamera beinhalten. Die Bildgebungslinse 220 ist unter der Kamera 210 angeordnet, um das von dem Messobjekt 10 reflektierte Licht auf der Kamera 210 abzubilden. Das Filter 230 ist unter der Bildgebungslinse 220 angeordnet, um das von dem Messobjekt 10 reflektierte Licht zu filtern und das gefilterte Licht der Bildgebungslinse 220 bereitzustellen. Das Filter 230 kann zum Beispiel eines eines Frequenzfilters, eines Farbfilters und eines Lichtintensitätssteuerfilters beinhalten. Die Lampe 240 kann unter dem Filter 230 in einer Kreisform angeordnet sein, um dem Messobjekt 10 das Licht bereitzustellen, um ein bestimmtes Bild, wie zum Beispiel eine zweidimensionale Form des Messobjektes 10, zu fotografieren.
  • Der erste Beleuchtungsteil 300 kann zum Beispiel an einer rechten Seite des Bildfotografierteils 200 angeordnet sein, um bezüglich des das Messobjekt 10 unterstützenden Gestells 110 geneigt zu sein. Der erste Beleuchtungsteil 300 kann eine erste Lichtquelleneinheit 310, eine erste Gittereinheit 320, eine erste Gitterumsetzeinheit 330 sowie einen ersten Kondensor 340 beinhalten. Die erste Lichtquelleneinheit 310 kann eine Lichtquelle sowie mindestens eine Linse beinhalten, um Licht zu generieren, und die erste Gittereinheit 320 ist unter der ersten Lichtquelleneinheit 310 angeordnet, um das von der ersten Lichtquelleneinheit 310 generierte Licht in ein erstes Gittermusterlicht mit einem Gittermuster zu verändern. Die erste Gitterumsetzeinheit 330 ist mit der ersten Gittereinheit 320 verbunden, um die erste Gittereinheit 320 umzusetzen, und kann zum Beispiel eine einer piezoelektrischen Umsetzeinheit und einer feinen linearen Umsetzeinheit beinhalten. Der erste Kondensor 340 ist unter der ersten Gittereinheit 320 angeordnet, um das erste Gittermusterlicht, das aus der ersten Gittereinheit 320 austritt, auf dem Messobjekt 10 zu kondensieren
  • Zum Beispiel kann der zweite Beleuchtungsteil 400 an einer linken Seite des Bildfotografierteils 200 angeordnet sein, um bezüglich des das Messobjekt 10 unterstützenden Gestells 110 geneigt zu sein. Der zweite Beleuchtungsteil 400 kann eine zweite Lichtquelleneinheit 410, eine zweite Gittereinheit 420, eine zweite Gitterumsetzeinheit 430 sowie einen zweiten Kondensor 440 beinhalten. Der zweite Beleuchtungsteil 400 gleicht im Wesentlichen dem oben beschriebenen ersten Beleuchtungsteil 300, und daher wird jede weitere Beschreibung weggelassen.
  • Wenn die erste Gitterumsetzeinheit 330 die erste Gittereinheit 320 sequenziell N mal bewegt und in dem ersten Beleuchtungsteil 300 N erste Gittermusterlichte auf das Messobjekt 10 geleuchtet werden, kann der Bildfotografierteil 200 sequenziell die N ersten von dem Messobjekt 10 reflektierten Gittermusterlichte empfangen und N erste Musterbilder fotografieren. Wenn die zweite Gitterumsetzeinheit 430 die zweite Gittereinheit 420 sequenziell N mal bewegt und in dem zweiten Beleuchtungsteil 400 N erste Gittermusterlichte auf das Messobjekt 10 geleuchtet werden, kann des Weiteren der Bildfotografierteil 200 sequenziell die N zweiten von dem Messobjekt 10 reflektierten Gittermusterlichte empfangen und N zweite Musterbilder fotografieren. Das 'N' ist eine natürliche Zahl und kann zum Beispiel vier betragen.
  • In einem Ausführungsbeispiel sind die ersten und zweiten Beleuchtungsteile 300 und 400 als ein Beleuchtungsgerät, das die ersten und zweiten Gittermusterlichte generiert, beschrieben. Wahlweise kann der Beleuchtungsteil größer oder gleich drei sein. Mit anderen Worten kann das Gittermusterlicht in verschiedenen Richtungen auf das Messobjekt 10 geleuchtet werden, und verschiedene Musterbilder können fotografiert werden. Wenn zum Beispiel drei Beleuchtungsteile in einer gleichseitigen Dreiecksform angeordnet sind, wobei der Bildfotografierteil 200 den Mittelpunkt der gleichseitigen Dreiecksform bildet, können drei Gittermusterlichte in verschiedenen Richtungen auf das Messobjekt 10 geleuchtet werden. Wenn zum Beispiel vier Beleuchtungsteile in einer Quadratform angeordnet sind, wobei der Bildfotografierteil 200 den Mittelpunkt der Quadratform bildet, können vier Gittermusterlichte in verschiedenen Richtungen auf das Messobjekt 10 geleuchtet werden.
  • Der Bildgewinnungsteil 500 ist elektrisch mit der Kamera 210 des Bildfotografierteils 200 verbunden, um die Musterbilder von der Kamera 210 aufzunehmen und die aufgenommenen Musterbilder zu speichern. Zum Beispiel kann der Bildgewinnungsteil 500 ein Bildsystem beinhalten, das die in der Kamera 210 fotografierten N ersten Musterbilder und N zweiten Musterbilder empfängt und die Bilder speichert.
  • Der Modulsteuerteil 600 ist elektrisch mit dem Messgestellteil 100, dem Bildfotografierteil 200, dem ersten Beleuchtungsteil 300 und dem zweiten Beleuchtungsteil 400 verbunden, um den Messgestellteil 100, den Bildfotografierteil 200, den ersten Beleuchtungsteil 300 und den zweiten Beleuchtungsteil 400 zu steuern. Der Modulsteuerteil 600 kann zum Beispiel eine Beleuchtungssteuereinheit, eine Gittersteuereinheit und eine Gestellsteuereinheit beinhalten. Die Beleuchtungssteuereinheit steuert die ersten und zweiten Lichtquelleneinheiten 310 und 410, so dass sie Licht generieren, und die Gittersteuereinheit steuert die ersten und zweiten Gitterumsetzeinheiten 330 und 430, so dass sie die ersten und zweiten Gittereinheiten 320 und 420 bewegen. Die Gestellsteuereinheit steuert die Gestellumsetzeinheit 120, so dass sie das Gestell 110 in einer Auf-und-ab-Bewegung und einer Links-und-rechts-Bewegung bewegt.
  • Der zentrale Steuerteil 700 ist elektrisch mit dem Bildgewinnungsteil 500 und dem Modulsteuerteil 600 verbunden, um den Bildgewinnungsteil 500 und den Modulsteuerteil 600 zu steuern. Insbesondere empfängt der zentrale Steuerteil 700 die N ersten Musterbilder und die N zweiten Musterbilder von dem Bildsystem des Bildgewinnungsteils 500, um die Bilder zu verarbeiten, so dass die dreidimensionale Form des Messobjektes gemessen werden kann. Zusätzlich kann der zentrale Steuerteil 700 eine Beleuchtungssteuereinheit, eine Gittersteuereinheit und eine Gestellsteuereinheit des Modulsteuerteils 600 steuern. Somit kann der zentrale Steuerteil eine Bildverarbeitungsplatine, eine Steuerplatine und eine Schnittstellenplatine beinhalten.
  • Nachstehend wird ein Verfahren zur Messung des auf einer gedruckten Leiterplatte ausgebildeten Messobjekts 10 durch Verwendung des oben beschriebenen Messgeräts für dreidimensionale Formen im Detail beschrieben. Es wird durch Einsatz eines Lots als Beispiel des Messobjektes 10 beschrieben.
  • 7 ist eine Draufsicht, die ein Gittermusterbild durch ein auf ein Messobjekt in 6 geleuchtetes Gittermusterlicht illustriert.
  • Unter Bezug auf 6 und 7 wird ein Gittermusterbild auf dem Messobjekt 10 ausgebildet, wenn das Gittermusterlicht von einem der Vielzahl von Beleuchtungsteilen auf das Messobjekt 10 geleuchtet wird. Das Gittermusterbild beinhaltet eine Vielzahl von Gittermustern, und in der vorliegenden Ausführung ist ein Intervall zwischen den Gittermustern, d. h. ein Gitterabstand, als ein Messbereich λ definiert.
  • Der Messbereich λ kann unabhängig von Arten der Gittermusterlichte derselbe sein, kann aber alternativ entsprechend Arten der Gittermusterlichte voneinander verschieden sein. Der Messbereich λ kann entsprechend Arten der Gittermusterlichte mindestens zwei Werte aufweisen. Zum Beispiel kann das von dem ersten Beleuchtungsteil 300 generierte Gittermusterbild durch das erste Gittermusterlicht Gittermuster eines ersten Messbereichs aufweisen, und das von dem zweiten Beleuchtungsteil 400 generierte Gittermusterbild durch das zweite Gittermusterlicht kann Gittermuster eines von dem ersten Messbereich verschiedenen zweiten Messbereichs aufweisen.
  • 8 ist eine Draufsicht, die ein Bild illustriert, das in der Kamera gemessen wird, wenn das Gittermusterlicht von einer rechten Seite auf das Messobjekt geleuchtet wird. 9 ist eine Draufsicht, die ein Bild illustriert, das in der Kamera gemessen wird, wenn das Gittermusterlicht von einer linken Seite auf das Messobjekt geleuchtet wird. In den Bildern von 8 und 9 ist nur eine relative Menge bezüglich Helligkeit (Luminanz) gezeigt, und das Gittermuster ist weggelassen.
  • Unter Bezug auf 6, 8 und 9 kann ein in der Kamera 210 fotografiertes Bild einen Schattenbereich, der relativ dunkel ist, sowie einen Sättigungsbereich, der relativ hell ist, beinhalten, wenn das Gittermusterlicht von einem der Vielzahl der Beleuchtungsteile auf das Messobjekt 10 geleuchtet wird.
  • Zum Beispiel wird üblicherweise, wenn das Gittermusterlicht von der rechten Seite auf das Messobjekt 10 geleuchtet wird, der Sättigungsbereich an einem rechten Teil des Messobjektes 10 ausgebildet, und der Schattenbereich wird an einem linken Teil des Messobjektes 10 ausgebildet, wie in 8 gezeigt. Im Gegensatz dazu wird üblicherweise, wenn das Gittermusterlicht von der linken Seite auf das Messobjekt 10 geleuchtet wird, der Sättigungsbereich an einem linken Teil des Messobjektes 10 ausgebildet, und der Schattenbereich wird an einem rechten Teil des Messobjektes 10 ausgebildet, wie in 9 gezeigt.
  • Nachstehend wird unter erneutem Bezug auf 6 bis 8 ein Verfahren zur Messung einer dreidimensionalen Form gemäß der vorliegenden Ausführung auf der Grundlage der oben beschriebenen Erklärung beschrieben.
  • Zuerst werden die in einer Vielzahl von Richtungen generierten Gittermusterlichte sequenziell auf das auf dem Gestell 110 angeordnete Messobjekt 10 geleuchtet, und die von dem Messobjekt 10 reflektierten Gittermusterlichte werden sequenziell in der Kamera 210 detektiert, um eine Vielzahl von Musterbildern zu gewinnen.
  • Insbesondere wird jedes der Gittermusterlichte zur Seite bewegt und N Male, zum Beispiel drei Male oder vier Male, auf das Messobjekt 10 geleuchtet, um N Musterbilder des Messobjektes 10 für jede der Richtungen zu gewinnen. Zum Beispiel können, wie in 6 gezeigt, N erste Musterbilder und N zweite Musterbilder gewonnen werden, wenn die von den ersten und zweiten Beleuchtungsteilen 300 und 400 generierten ersten und zweiten Gittermusterlichte auf das Messobjekt 10 geleuchtet werden.
  • Dann werden N Helligkeitsgrade {Ii 1, Ii 2, ..., Ii N} an jedem Ort {i(x, y)} in einem X-Y Koordinatensystem und der Messbereich λ wie in 7 gezeigt aus N Musterbildern bezüglich jeder Richtung extrahiert. Danach werden Phase {Pi(x, y)}, Helligkeit {Ai(x, y)} und Sichtbarkeit {Vi(x, y)} bezüglich jeder Richtung aus den N Helligkeitsgraden {Ii 1, Ii 2, ..., Ii N} berechnet. Die Phase {Pi(x, y)}, die Helligkeit {Ai(x, y)} und die Sichtbarkeit {Vi(x, y)} bezüglich jeder Richtung können unter Verwendung eines N-Bucket-Algorithmus berechnet werden. Zusätzlich kann die Helligkeit {Ai(x, y)} eine durchschnittliche Helligkeit sein, die durch Mitteln der detektierten Gittermusterlichte gewonnen wird. Daher wird nachstehend die Helligkeit {Ai(x, y)} „durchschnittliche Helligkeit {Ai(x, y)}” genannt.
  • Zum Beispiel werden, wenn N 3 ist, bezüglich jeder Richtung drei Helligkeitsgrade {Ii 1, Ii 2, Ii 3) aus drei Musterbildern extrahiert, und Phase {Pi(x, y)}, durchschnittliche Helligkeit {Ai(x, y)} und Sichtbarkeit {Vi(x, y)} können mit einem Drei-Bucket-Algorithmus wie in den folgenden Gleichungen gezeigt berechnet werden. In den folgenden Gleichungen bezeichnet Bi(x, y) eine Amplitude eines Bildsignals (Helligkeitssignals) in drei Musterbildern bezüglich jeder Richtung. Ii 1, entspricht ”a + bcos(θ)”, Ii 2 entspricht ”a + bcos(φ + 2π/3)”, und Ii 3 entspricht ”a + bcos(φ + 4π/3)”.
  • Figure DE102010029091B4_0015
  • Im Gegensatz dazu werden, wenn zum Beispiel N 4 ist, bezüglich jeder Richtung vier Helligkeitsgrade {Ii 1, Ii 2, Ii 3, Ii 4} aus vier Musterbildern extrahiert, und Phase {Pi(x, y)}, durchschnittliche Helligkeit {Ai(x, y)} und Sichtbarkeit {Vi(x, y)} können mit einem Vier-Bucket-Algorithmus wie in den folgenden Gleichungen gezeigt berechnet werden. In den folgenden Gleichungen bezeichnet Bi(x, y) eine Amplitude eines Bildsignals (Helligkeitssignals) in vier Musterbildern bezüglich jeder Richtung. Ii 1 entspricht ”a + bcos(θ)”, Ii 2 entspricht ”a + bcos(φ + π/2)”, und Ii 3 entspricht ”a + bcos(φ + π)” und Ii 4 entspricht ”a + bcos(φ + 3π/2)”.
    Figure DE102010029091B4_0016
    Figure DE102010029091B4_0017
  • In einem Ausführungsbeispiel kann ein Signal-Rausch-Verhältnis (SNR) berechnet werden und an Stelle der Sichtbarkeit {Vi(x, y)} oder zusammen mit der Sichtbarkeit {Vi(x, y)} verwendet werden. Das SNR kennzeichnet ein Verhältnis eines Bildsignals S zu einem Rauschsignal N (S/N) in N Musterbildern bezüglich jeder Richtung.
  • Danach wird Höhe {Hi(x, y)} bezüglich jeder Richtung mit folgender Gleichung aus der Phase {Pi(x, y)} bezüglich jeder Richtung berechnet. In folgender Gleichung ist ki(x, y) eine Phase-zu-Höhe-Konvertierungsskala, die ein Konvertierungsverhältnis zwischen einer Phase und einer Höhe kennzeichnet. Hi(x, y) = ki(x, y)·Pi(x, y)
  • Höhengewicht {Wi(x, y)} bezüglich jeder Richtung wird durch Verwendung mindestens eines der durchschnittlichen Helligkeit {Ai(x, y)}, der Sichtbarkeit {Vi(x, y)} und des Messbereichs λ berechnet. Das Höhengewicht {Wi(x, y)} bezüglich jeder Richtung kann wie folgt mit einer Gewichtsfunktion {f(Ai, Vi, λ)} gewonnen werden, die als Parameter zum Beispiel die durchschnittliche Helligkeit {Ai(x, y)}, die Sichtbarkeit {Vi(x, y)} und den Messbereich (λ) aufweist. Die Summe der Höhengewichte in allen Richtungen kann 1 sein {ΣWi(x, y) = 1}. Wi(x, y) = f(Ai, V, λ)
  • Dann wird die Höhe {Hi(x, y)} bezüglich jeder Richtung mit dem Höhengewicht {Wi(x, y)} bezüglich jeder Richtung multipliziert, um die Gewichtshöhe {Wi(x, y)·Hi(x, y)} bezüglich jeder Richtung zu berechnen. Danach werden die Gewichtshöhen in allen Richtungen aufsummiert und durch die Summe der Höhengewichte {ΣWi(x, y)} geteilt, um die Höhe {ΣWi(x, y)·Hi(x, y)/ΣWi(x, y)} an jedem Ort zu berechnen.
  • Dann kann die dreidimensionale Form des Messobjektes 10 durch Kombinieren der wie oben berechneten Höhen gemäß Orten genau gemessen werden.
  • Nachstehend werden Beziehungen zwischen dem Höhengewicht {Wi(x, y)} bezüglich jeder Richtung und Merkmalen der Gewichtsfunktion {f(Ai,Vi, λ)}, d. h. der durchschnittlichen Helligkeit {Ai(x, y)}, der Sichtbarkeit {Vi(x, y)} oder dem SNR und dem Messbereich λ im Detail beschrieben.
  • 10 ist ein Graph, der eine Beziehung zwischen durchschnittlicher Helligkeit und Gewicht der in der Kamera gemessenen Musterbilder zeigt.
  • Unter Bezug auf 10 kann zuerst, wenn die durchschnittliche Helligkeit {Ai(x, y)} von einem vorbestimmten Wert aus, der im Vorhinein festgelegt ist, zunimmt oder abnimmt, die Gewichtsfunktion {f(Ai, Vi, λ)} dazu führen, dass das Höhengewicht {Wi(x, y)} abnimmt. Mit anderen Worten weist das Höhengewicht {Wi(x, y)} relativ den höchsten Wert auf, wenn die durchschnittliche Helligkeit {Ai(x, y)} den vorbestimmten Wert annimmt, und wenn sich die durchschnittliche Helligkeit {Ai(x, y)} von dem vorbestimmten Wert entfernt, kann das Höhengewicht {Wi(x, y)} abnehmen. Der vorbestimmte Wert kann festgelegt werden, wenn eine dreidimensionale Bedingung durch Verwendung eines Probesteins bestimmt wird, oder kann beliebig von einem Anwender festgelegt werden. Der vorbestimmte Wert kann jedoch vorzugsweise ein Durchschnittswert sein, d. h. ein mittlerer Wert der durchschnittlichen Helligkeit {Ai(x, y)}.
  • 11 ist ein Graph, der eine Beziehung zwischen Sichtbarkeit oder SNR und Gewicht der in der Kamera gemessenen Musterbilder zeigt.
  • Unter Bezug auf 11 kann danach, wenn die Sichtbarkeit {Vi(x, y)} oder das SNR zunimmt, die Gewichtsfunktion {f(Ai, Vi, λ)} dazu führen, dass das Höhengewicht zunimmt. Mit anderen Worten kann, wenn die Sichtbarkeit {Vi(x, y)} oder das SNR langsam zunimmt, das Höhengewicht {Wi(x, y)} ebenfalls langsam zunehmen.
  • 12 ist ein Graph, der eine Beziehung zwischen Messbereich und Gewicht der in der Kamera gemessenen Musterbilder zeigt.
  • Unter Bezug auf 12 kann, wenn sich der Messbereich λ vergrößert, die Gewichtsfunktion {f(Ai, Vi, λ)} dazu führen, dass das Höhengewicht {Wi(x, y)} abnimmt. Mit anderen Worten kann das Höhengewicht {Wi(x, y)} langsam abnehmen, wenn sich der Messbereich λ langsam vergrößert.
  • Unter erneutem Bezug auf 7, 10 und 11 sind die N Musterbilder bezüglich jeder Richtung in einen Schattenbereich, einen Sättigungsbereich und einen Nicht-Sättigungsbereich unterteilt, und entsprechend jedem Bereich kann ein unterschiedliches Höhengewicht {Wi(x, y)} vergeben werden. In dem Schattenbereich liegt die durchschnittliche Helligkeit {Ai(x, y)} unter einer minimalen Helligkeit A1, und die Sichtbarkeit {Vi(x, y)} oder das SNR liegt unter einem minimalen Referenzwert Vmin. In dem Sättigungsbereich liegt die durchschnittliche Helligkeit {Ai(x, y)} über einer maximalen Helligkeit A2, und die Sichtbarkeit oder das SNR liegt unter dem minimalen Referenzwert Vmin. Der Nicht-Sättigungsbereich entspricht einem restlichen Bereich außer dem Schattenbereich und dem Sättigungsbereich.
  • Zuerst wird in dem Schattenbereich und dem Sättigungsbereich die Gewichtsfunktion {f(Ai, Vi, λ)} als '0' betrachtet, um das Höhengewicht {Wi(x, y)} zu gewinnen. Mit anderen Worten wird in dem Schattenbereich und dem Sättigungsbereich das Höhengewicht {Wi(x, y)} als '0' bestimmt.
  • Dann kann in dem Nicht-Sättigungsbereich, wie in 10 bis 12 gezeigt, die Gewichtsfunktion {f(Ai, Vi, λ)} das Höhengewicht {Wi(x, y)} verringern, wenn die durchschnittliche Helligkeit {Ai(x, y)} von dem mittleren Wert aus zunimmt oder abnimmt, das Höhengewicht {Wi(x, y)} erhöhen, wenn die Sichtbarkeit {Vi(x, y)} oder das SNR zunimmt, und das Höhengewicht {Wi(x, y)} verringern, wenn sich der Messbereich λ vergrößert.
  • Im Gegensatz dazu kann in dem Nicht-Sättigungsbereich die Gewichtsfunktion {f(Ai, Vi, λ)} als dieselbe betrachtet werden, um das Höhengewicht {Wi(x, y)} zu gewinnen. Zum Beispiel, wenn Höhengewichte bezüglich vier Richtungen in dem Nicht-Sättigungsbereich für erste, zweite, dritte und vierte Höhengewichte W1, W2, W3 und W4 genannt werden, kann jede der ersten, zweiten, dritten und vierten Höhengewichte W1, W2, W3 und W4 als '1/4' bestimmt werden.
  • Gemäß der vorliegenden Ausführung werden die durchschnittliche Helligkeit {Ai(x, y)}, die Sichtbarkeit {Vi(x, y)} oder das SNR sowie der Messbereich λ aus den in jeder Richtung fotografierten N Musterbildern extrahiert, und das Höhengewicht {Wi(x, y)} wird gemäß dem Extraktionsergebnis bestimmt, wodurch die Höhe gemäß jedem Ort des Messobjektes 10 in allen Bereichen genau gemessen wird.
  • Insbesondere werden die N Musterbilder bezüglich jeder Richtung in den Schattenbereich, den Sättigungsbereich und den Nicht-Sättigungsbereich unterteilt, und gemäß jedem Bereich wird verschiedenes Höhengewicht {Wi(x, y)} vergeben, um dadurch eine Zuverlässigkeitsminderung für die Höhe in dem Schattenbereich und dem Sättigungsbereich zu verhindern. Mit anderen Worten wird das Höhengewicht {Wi(x, y)} als ein relativ geringer Wert gegeben, zum Beispiel '0' in dem Schattenbereich und dem Sättigungsbereich, das Höhengewicht {Wi(x, y)} wird in dem Nicht-Sättigungsbereich als ein relativ hoher Wert gegeben, wodurch die nachteilige Auswirkung kompensiert wird, die von dem Schattenbereich und dem Sättigungsbereich verursacht wird, um eine dreidimensionale Form des Messobjekts genauer zu messen.
  • Es wird dem Fachmann ersichtlich sein, dass verschiedene Modifikationen und Variationen an der vorliegenden Erfindung vorgenommen werden können, ohne von dem Geist oder dem Umfang der Erfindung abzuweichen. Daher ist es beabsichtigt, dass die vorliegende Erfindung die Modifikationen und Variationen dieser Erfindung abdeckt, unter der Voraussetzung, dass sie in den Umfang der angefügten Patentansprüche und deren Entsprechungen fallen.

Claims (9)

  1. Ein Verfahren zur Messung einer dreidimensionalen Form, umfassend: Strahlen von Gittermusterlicht aus mehreren Richtungen (i) auf ein Messobjekt (A), während jedes Gittermusterlicht N Male geändert wird und das von dem Messobjekt reflektierte Gittermusterlicht (Iin) zur Gewinnung von N Musterbildern des Messobjektes bezüglich jeder Richtung detektiert wird; Berechnen einer Phase (Pi(x, y)) und einer Helligkeit (Ai(x, y)) bezüglich jeder Richtung entsprechend jedem Ort (i(x, y)) in einem X-Y-Koordinatensystem aus den Musterbildern, um eine Höhe (Hi(x, y)) für jede der Richtungen i zu bestimmen, wobei die Helligkeit (Ai(x, y)) die mittlere Intensität aller N Änderungen des Gittermusterbildes bezüglich einer der Richtungen i an dem jeweiligen Ort ist; Berechnen eines Höhengewichts (Wi(x, y)) bezüglich jeder Richtung i durch Verwendung einer Gewichtsfunktion (W = f(A, V, λ, SNR)), die die Helligkeit (Ai(x, y)), eine Sichtbarkeit (Vi(x, y)), ein Signal-Rausch-Verhältnis (SNR) oder einen Gitterabstand (λ) in den Musterbildern als Parameter verwendet, wobei das Höhengewicht (Wi(x, y)) die Zuverlässigkeit der Bestimmung der jeweiligen Höhe (Hi(x, y)) beschreibt; und Berechnen einer gewichteten Höhe (Wi(x, y)·Hi(x, y)) bezüglich jeder Richtung durch Verwendung der auf der Phase (Pi(x, y)) basierenden Höhe Hi(x, y) bezüglich jeder Richtung und des Höhengewichts (Wi(x, y)) und Mitteln der gewichteten Höhen, um die Höhe (h(x, y) = Σ[Wi(x, y)·Hi(x, y)]/ΣWi(x, y)) an jedem Ort zu bestimmen.
  2. Verfahren nach Anspruch 1, wobei der Wert des Höhengewichts (Wi(x, y)) sich verringert, wenn die Helligkeit Ai(x, y) von einem vorbestimmten Wert aus zunimmt oder abnimmt.
  3. Verfahren nach Anspruch 2, wobei der vorbestimmte Wert ein mittlerer Wert der Helligkeit Ai(x, y) eines der N Musterbilder ist.
  4. Verfahren nach einem der Ansprüche 1 bis 3, wobei sich der Wert des Höhengewichts (Wi(x, y)) erhöht, wenn sich die Sichtbarkeit (Vi(x, y)) oder das Signal-Rausch-Verhältnis SNR erhöht.
  5. Verfahren nach einem der Ansprüche 1 bis 4, wobei sich der Wert des Höhengewichts (Wi(x, y)) verringert, wenn sich der Gitterabstand des Musterbildes (λ) vergrößert.
  6. Verfahren nach einem der Ansprüche 1 bis 5, wobei das Berechnen des Höhengewichts (Wi(x, y)) bezüglich jeder Richtung i, Unterteilen der Musterbilder in einen Schattenbereich, einen Sättigungsbereich und einen Nicht-Sättigungsbereich umfasst und wobei der Schattenbereich einem Bereich entspricht, in dem die Helligkeit (Ai(x, y)) unter einer minimalen Helligkeit liegt und die Sichtbarkeit (Vi(x, y)) oder das SNR unter einem minimalen Referenzwert liegt, der Sättigungsbereich einem Bereich entspricht, in dem die Helligkeit (Ai(x, y)) über einer maximalen Helligkeit liegt und die Sichtbarkeit (Vi(x, y)) oder das SNR unter dem minimalen Referenzwert liegt, und der Nicht-Sättigungsbereich einem restlichen Bereich außer dem Schattenbereich und dem Sättigungsbereich entspricht.
  7. Verfahren nach Anspruch 6, wobei der Wert des Höhengewichts im Schattenbereich und im Sättigungsbereich 0 ist.
  8. Verfahren nach einem der Ansprüche 1 bis 7, wobei die Summe der Höhengewichte (Wi(x, y)) gleich 1 ist (ΣWi(x, y) = 1).
  9. Formmessgerät, umfassend: ein ein Messobjekt A stützendes Arbeitsgestell (1130); mehrere Musterprojektionsteile (1110), umfassend jeweils eine Lichtquelle (1170), einen Gitterteil (1112), der von der Lichtquelle (1170) generiertes Licht transmittiert und blockiert, um Gitterlicht zu generieren, sowie einen Projektionslinsenteil (1113), der das Gitterlicht auf das Messobjekt A des Objektsubstrats (1120) strahlt; einen Bilderfassungsteil (1150), der das von dem Messobjekt A des Objektsubstrats (1120) reflektierte Gitterlicht erfasst; und einen Steuerteil (1140), der das Arbeitsgestell (1130), den Musterprojektionsteil (1110) sowie den Bilderfassungsteil (1150) gemäß einem Verfahren nach einem der Ansprüche 1 bis 8 steuert.
DE102010029091.2A 2009-05-21 2010-05-18 Formmessgerät und -verfahren Active DE102010029091B4 (de)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
KR10-2009-0044423 2009-05-21
KR1020090044423A KR101088497B1 (ko) 2009-05-21 2009-05-21 3차원 형상 측정방법
KR10-2010-0007025 2010-01-26
KR10-2009-0007025 2010-01-26
KR1020100007025A KR101158324B1 (ko) 2010-01-26 2010-01-26 형상 검사장치

Publications (2)

Publication Number Publication Date
DE102010029091A1 DE102010029091A1 (de) 2011-01-13
DE102010029091B4 true DE102010029091B4 (de) 2015-08-20

Family

ID=43102692

Family Applications (2)

Application Number Title Priority Date Filing Date
DE102010064593.1A Ceased DE102010064593A1 (de) 2009-05-21 2010-05-18 Formmessgerät und -verfahren
DE102010029091.2A Active DE102010029091B4 (de) 2009-05-21 2010-05-18 Formmessgerät und -verfahren

Family Applications Before (1)

Application Number Title Priority Date Filing Date
DE102010064593.1A Ceased DE102010064593A1 (de) 2009-05-21 2010-05-18 Formmessgerät und -verfahren

Country Status (5)

Country Link
US (3) US9275292B2 (de)
JP (1) JP5202575B2 (de)
CN (2) CN104034280B (de)
DE (2) DE102010064593A1 (de)
TW (1) TWI440821B (de)

Families Citing this family (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101174676B1 (ko) 2010-11-19 2012-08-17 주식회사 고영테크놀러지 표면형상 측정방법 및 측정장치
KR101547218B1 (ko) * 2010-11-19 2015-08-25 주식회사 고영테크놀러지 기판 검사방법
CN102305601B (zh) * 2011-05-18 2012-10-10 天津大学 光学自由曲面三维形貌高精度非接触测量方法及装置
CN102914543A (zh) * 2011-08-03 2013-02-06 浙江中茂科技有限公司 一种三维立体影像的物件检测装置
JP5709009B2 (ja) * 2011-11-17 2015-04-30 Ckd株式会社 三次元計測装置
JP5918984B2 (ja) * 2011-12-06 2016-05-18 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、およびプログラム
JP5900037B2 (ja) * 2012-03-08 2016-04-06 オムロン株式会社 画像処理装置およびその制御方法
CN102628811B (zh) * 2012-03-30 2015-04-22 中国科学院长春光学精密机械与物理研究所 光栅刻线缺陷检验装置
TWI546518B (zh) * 2012-04-20 2016-08-21 德律科技股份有限公司 三維量測系統與三維量測方法
JP5948496B2 (ja) 2012-05-22 2016-07-06 コー・ヤング・テクノロジー・インコーポレーテッド 3次元形状測定装置の高さ測定方法
US8937657B2 (en) * 2012-07-15 2015-01-20 Erik Klass Portable three-dimensional metrology with data displayed on the measured surface
JP6009288B2 (ja) * 2012-09-11 2016-10-19 株式会社キーエンス 計測顕微鏡装置及び計測顕微鏡装置操作プログラム並びにコンピュータで読み取り可能な記録媒体
US10165197B2 (en) * 2012-11-12 2018-12-25 Astral Images Corporation System and method for processing an image carried by an optical substrate and computer readable medium made using same
JP2014106094A (ja) * 2012-11-27 2014-06-09 Keyence Corp 形状測定装置
CN105308627B (zh) * 2012-11-29 2018-10-30 Csir公司 一种标定相机的方法及其系统
KR101590831B1 (ko) * 2013-04-02 2016-02-03 주식회사 고영테크놀러지 기판의 이물질 검사방법
CN103322944B (zh) * 2013-06-14 2016-06-29 上海大学 同轴照明镜像莫尔测量装置及方法
JP5843241B2 (ja) * 2013-11-26 2016-01-13 レーザーテック株式会社 検査装置、及び検査方法
TWI489101B (zh) * 2013-12-02 2015-06-21 Ind Tech Res Inst 結合三維及二維形貌之量測方法及裝置
US10417472B2 (en) 2014-01-10 2019-09-17 Koh Young Technology Inc. Device and method for measuring three-dimensional shape
JP6287360B2 (ja) * 2014-03-06 2018-03-07 オムロン株式会社 検査装置
JP6486010B2 (ja) * 2014-03-11 2019-03-20 国立大学法人 和歌山大学 形状計測装置および形状計測方法
JP6350657B2 (ja) * 2014-06-13 2018-07-04 株式会社ニコン 形状測定装置、構造物製造システム、形状測定方法、構造物製造方法、形状測定プログラム、及び記録媒体
JP6303867B2 (ja) * 2014-06-27 2018-04-04 オムロン株式会社 基板検査装置及びその制御方法
JP6451142B2 (ja) * 2014-08-20 2019-01-16 オムロン株式会社 品質管理装置および品質管理装置の制御方法
CN104634277B (zh) * 2015-02-12 2018-05-15 上海图漾信息科技有限公司 拍摄设备和方法、三维测量系统、深度计算方法和设备
JP6478713B2 (ja) * 2015-03-04 2019-03-06 キヤノン株式会社 計測装置および計測方法
JP6126640B2 (ja) * 2015-05-11 2017-05-10 Ckd株式会社 三次元計測装置及び三次元計測方法
JP6109255B2 (ja) * 2015-07-14 2017-04-05 Ckd株式会社 三次元計測装置
JP6027204B1 (ja) * 2015-10-05 2016-11-16 Ckd株式会社 三次元計測装置
CN105588518B (zh) * 2015-12-14 2018-09-11 深圳先进技术研究院 基于双角度多频率条纹投影的三维形貌获取方法及装置
CN105547190B (zh) * 2015-12-14 2018-08-14 深圳先进技术研究院 基于双角度单频率条纹投影的三维形貌测量方法及装置
KR102079181B1 (ko) * 2016-03-04 2020-02-19 주식회사 고영테크놀러지 패턴광 조사 장치 및 방법
CN106705855B (zh) * 2017-03-10 2018-12-14 东南大学 一种基于自适应光栅投影的高动态性能三维测量方法
DE102017004428B4 (de) * 2017-05-08 2018-11-29 Universität Stuttgart Verfahren und Anordnung zur robusten, tiefenscannenden fokussierenden Streifen-Triangulation mit mehreren Wavelets
CN107121079B (zh) * 2017-06-14 2019-11-22 华中科技大学 一种基于单目视觉的曲面高度信息测量装置及方法
US10529082B2 (en) * 2017-06-20 2020-01-07 Mitutoyo Corporation Three-dimensional geometry measurement apparatus and three-dimensional geometry measurement method
KR102138622B1 (ko) * 2017-11-28 2020-07-28 주식회사 고영테크놀러지 기판 검사 장치 및 기판 검사 방법
EP3489619A1 (de) 2017-11-28 2019-05-29 Koh Young Technology Inc. Vorrichtung und verfahren zur inspektion eines substrats
CN111465818B (zh) * 2017-12-12 2022-04-12 索尼公司 图像处理设备、图像处理方法、程序和信息处理系统
JP6954142B2 (ja) * 2018-01-17 2021-10-27 オムロン株式会社 画像検査装置および照明装置
JP6979885B2 (ja) * 2018-01-17 2021-12-15 株式会社ミツトヨ 3d形状のオートトレース方法及び測定機
WO2019164382A1 (ko) * 2018-02-26 2019-08-29 주식회사 고영테크놀러지 부품의 실장 상태를 검사하기 위한 방법, 인쇄 회로 기판 검사 장치 및 컴퓨터 판독 가능한 기록매체
JP2020071060A (ja) * 2018-10-29 2020-05-07 株式会社ミツトヨ 形状測定装置
JP2020095519A (ja) * 2018-12-13 2020-06-18 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 形状推定装置、形状推定方法、プログラム、及び記録媒体
US11187070B2 (en) 2019-01-31 2021-11-30 Halliburton Energy Services, Inc. Downhole depth extraction using structured illumination
JP7247031B2 (ja) * 2019-06-27 2023-03-28 株式会社キーエンス 検査装置
CN114096800A (zh) 2019-06-28 2022-02-25 株式会社高迎科技 用于确定对象体的三维形象的装置及方法
JP7393737B2 (ja) * 2020-02-27 2023-12-07 オムロン株式会社 画像検査装置及び画像検査方法
CN114076576B (zh) * 2020-08-21 2023-11-21 深圳市万普拉斯科技有限公司 光发射器、摄像模组、电子设备及图像三维信息采集方法
CN112414945B (zh) * 2021-01-25 2021-04-06 深圳宜美智科技股份有限公司 基于图像检测的钻孔缺陷检测方法及钻孔缺陷检测设备
US20220252893A1 (en) * 2021-02-09 2022-08-11 Himax Technologies Limited Light projection apparatus
CN113358063B (zh) * 2021-06-04 2022-03-18 华中科技大学 一种基于相位加权融合的面结构光三维测量方法及系统

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5085502A (en) * 1987-04-30 1992-02-04 Eastman Kodak Company Method and apparatus for digital morie profilometry calibrated for accurate conversion of phase information into distance measurements in a plurality of directions
DE19634254A1 (de) * 1995-09-04 1997-03-06 Volkswagen Ag Optisch-numerisches Verfahren zur Ermittlung der gesamten Oberfläche eines dreidimensionalen Objekts
DE19637682A1 (de) * 1996-09-05 1998-03-12 Fraunhofer Ges Forschung Verfahren zur Bestimmung der räumlichen Koordinaten von Gegenständen und/oder deren zeitlicher Änderung und Vorrichtung zur Anwendung dieses Verfahrens
DE19747061A1 (de) * 1997-10-24 1999-05-12 Bernward Maehner Verfahren und Einrichtung zur flächenhaften, dreidimensionalen, optischen Vermessung von Objekten
DE19852149A1 (de) * 1998-11-04 2000-05-25 Fraunhofer Ges Forschung Vorrichtung zur Bestimmung der räumlichen Koordinaten von Gegenständen
US20030007680A1 (en) * 1996-07-01 2003-01-09 Katsumi Iijima Three-dimensional information processing apparatus and method
US20060192925A1 (en) * 2005-02-28 2006-08-31 Chang Nelson L A Multi-projector geometric calibration
DE102007004122A1 (de) * 2006-01-26 2007-08-09 Koh Young Technology Inc. Verfahren für das Messen einer dreidimensionalen Form

Family Cites Families (86)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60173403A (ja) * 1984-02-10 1985-09-06 Nippon Telegr & Teleph Corp <Ntt> ステレオ画像の対応付け処理方法
CA1285661C (en) * 1988-08-19 1991-07-02 Randy Tsang Automatic visual measurement of surface mount device placement
JP2544671B2 (ja) * 1990-01-19 1996-10-16 シャープ株式会社 画像情報処理装置
DE4007502A1 (de) * 1990-03-09 1991-09-12 Zeiss Carl Fa Verfahren und vorrichtung zur beruehrungslosen vermessung von objektoberflaechen
CN2086427U (zh) * 1990-06-20 1991-10-09 林家义 非接触三维坐标快速测定记录装置
CN1020503C (zh) * 1990-09-13 1993-05-05 清华大学 一种无参考平面的测量三维形状的光学方法及装置
JP3194499B2 (ja) * 1992-10-22 2001-07-30 株式会社日立国際電気 外観形状検査方法及び装置
JPH07332956A (ja) * 1994-06-06 1995-12-22 Yamatake Honeywell Co Ltd 表面形状測定装置
JPH08152310A (ja) * 1994-11-30 1996-06-11 Kubota Corp 三次元形状入力装置の座標演算基準データの生成方法
JP3525964B2 (ja) * 1995-07-05 2004-05-10 株式会社エフ・エフ・シー 物体の三次元形状計測方法
US6316736B1 (en) * 1998-06-08 2001-11-13 Visteon Global Technologies, Inc. Anti-bridging solder ball collection zones
US6177905B1 (en) * 1998-12-08 2001-01-23 Avaya Technology Corp. Location-triggered reminder for mobile user devices
AU3994799A (en) * 1999-05-14 2000-12-05 3Dmetrics, Incorporated Color structured light 3d-imaging system
JP3507367B2 (ja) * 1999-07-30 2004-03-15 キヤノン株式会社 画像読み取り装置、方法及びコンピュータ読み取り可能な記憶媒体
JP2001311613A (ja) * 2000-02-24 2001-11-09 Satoru Toyooka スペックル干渉の画像解析における位相アンラッピング方法
CA2301822A1 (fr) * 2000-03-24 2001-09-24 9071 9410 Quebec Inc. Projection simultanee de plusieurs patrons avec acquisition simultanee pour l'inspection d'objets en trois dimensions
US6680675B1 (en) * 2000-06-21 2004-01-20 Fujitsu Limited Interactive to-do list item notification system including GPS interface
US6957076B2 (en) * 2000-11-22 2005-10-18 Denso Corporation Location specific reminders for wireless mobiles
US20020067308A1 (en) * 2000-12-06 2002-06-06 Xerox Corporation Location/time-based reminder for personal electronic devices
JP3925611B2 (ja) * 2001-03-22 2007-06-06 セイコーエプソン株式会社 情報提供システム、情報提供装置、プログラム、情報記憶媒体およびユーザーインタフェースの設定方法
US7139722B2 (en) * 2001-06-27 2006-11-21 Bellsouth Intellectual Property Corporation Location and time sensitive wireless calendaring
US7302686B2 (en) * 2001-07-04 2007-11-27 Sony Corporation Task management system
US6604059B2 (en) * 2001-07-10 2003-08-05 Koninklijke Philips Electronics N.V. Predictive calendar
JP3722052B2 (ja) * 2001-11-27 2005-11-30 松下電工株式会社 半導体チップ実装用パッド部の評価方法及びその装置
JP3878033B2 (ja) * 2002-02-28 2007-02-07 シーケーディ株式会社 三次元計測装置
CN100338434C (zh) * 2003-02-06 2007-09-19 株式会社高永科技 三维图像测量装置
KR100615576B1 (ko) * 2003-02-06 2006-08-25 주식회사 고영테크놀러지 3차원형상 측정장치
JP4077754B2 (ja) * 2003-04-04 2008-04-23 オリンパス株式会社 3次元形状測定装置
JP2004309402A (ja) * 2003-04-10 2004-11-04 Mitsutoyo Corp 干渉測定装置及び位相シフト縞解析装置
WO2004109229A2 (en) * 2003-06-11 2004-12-16 Solvision 3d and 2d measurement system and method with increased sensitivity and dynamic range
US20050015772A1 (en) * 2003-07-16 2005-01-20 Saare John E. Method and system for device specific application optimization via a portal server
JP4480488B2 (ja) * 2003-08-28 2010-06-16 富士通株式会社 計測装置、コンピュータ数値制御装置及びプログラム
US7230717B2 (en) * 2003-08-28 2007-06-12 4D Technology Corporation Pixelated phase-mask interferometer
US20050108074A1 (en) * 2003-11-14 2005-05-19 Bloechl Peter E. Method and system for prioritization of task items
US7447630B2 (en) * 2003-11-26 2008-11-04 Microsoft Corporation Method and apparatus for multi-sensory speech enhancement
US20050114140A1 (en) * 2003-11-26 2005-05-26 Brackett Charles C. Method and apparatus for contextual voice cues
KR100462292B1 (ko) * 2004-02-26 2004-12-17 엔에이치엔(주) 중요도 정보를 반영한 검색 결과 리스트 제공 방법 및 그시스템
US7084758B1 (en) * 2004-03-19 2006-08-01 Advanced Micro Devices, Inc. Location-based reminders
JP2006023178A (ja) * 2004-07-07 2006-01-26 Olympus Corp 3次元計測方法及び装置
US7853574B2 (en) * 2004-08-26 2010-12-14 International Business Machines Corporation Method of generating a context-inferenced search query and of sorting a result of the query
US20060061488A1 (en) * 2004-09-17 2006-03-23 Dunton Randy R Location based task reminder
US7603381B2 (en) * 2004-09-30 2009-10-13 Microsoft Corporation Contextual action publishing
US7522289B2 (en) * 2004-10-13 2009-04-21 Solvision, Inc. System and method for height profile measurement of reflecting objects
US7885844B1 (en) * 2004-11-16 2011-02-08 Amazon Technologies, Inc. Automatically generating task recommendations for human task performers
CN1609859A (zh) * 2004-11-26 2005-04-27 孙斌 搜索结果聚类的方法
US8069422B2 (en) * 2005-01-10 2011-11-29 Samsung Electronics, Co., Ltd. Contextual task recommendation system and method for determining user's context and suggesting tasks
US7925525B2 (en) * 2005-03-25 2011-04-12 Microsoft Corporation Smart reminders
JP4611782B2 (ja) * 2005-03-28 2011-01-12 シチズンホールディングス株式会社 3次元形状測定方法及び測定装置
US8024195B2 (en) * 2005-06-27 2011-09-20 Sensory, Inc. Systems and methods of performing speech recognition using historical information
US20070027732A1 (en) * 2005-07-28 2007-02-01 Accu-Spatial, Llc Context-sensitive, location-dependent information delivery at a construction site
JP4908094B2 (ja) * 2005-09-30 2012-04-04 株式会社リコー 情報処理システム、情報処理方法及び情報処理プログラム
US7577522B2 (en) * 2005-12-05 2009-08-18 Outland Research, Llc Spatially associated personal reminder system and method
US7898651B2 (en) * 2005-10-24 2011-03-01 General Electric Company Methods and apparatus for inspecting an object
US20070102478A1 (en) * 2005-11-10 2007-05-10 Speedline Technologies, Inc. Optimal imaging system and method for a stencil printer
KR100612932B1 (ko) * 2005-12-14 2006-08-14 주식회사 고영테크놀러지 3차원 형상 측정장치 및 방법
JP4796834B2 (ja) * 2005-12-20 2011-10-19 株式会社トプコン 距離測定方法及び距離測定装置
JP2007183864A (ja) * 2006-01-10 2007-07-19 Fujitsu Ltd ファイル検索方法及びそのシステム
KR100672818B1 (ko) * 2006-01-26 2007-01-22 주식회사 고영테크놀러지 3차원형상 측정방법
US7818291B2 (en) * 2006-02-03 2010-10-19 The General Electric Company Data object access system and method using dedicated task object
US8595041B2 (en) * 2006-02-07 2013-11-26 Sap Ag Task responsibility system
KR100722245B1 (ko) * 2006-03-23 2007-05-29 주식회사 고영테크놀러지 3차원형상 측정장치
JP2008002995A (ja) * 2006-06-23 2008-01-10 Konica Minolta Sensing Inc 三次元形状測定装置
US7528713B2 (en) * 2006-09-28 2009-05-05 Ektimisi Semiotics Holdings, Llc Apparatus and method for providing a task reminder based on travel history
US7649454B2 (en) * 2006-09-28 2010-01-19 Ektimisi Semiotics Holdings, Llc System and method for providing a task reminder based on historical travel information
US7930197B2 (en) * 2006-09-28 2011-04-19 Microsoft Corporation Personal data mining
US20080082390A1 (en) * 2006-10-02 2008-04-03 International Business Machines Corporation Methods for Generating Auxiliary Data Operations for a Role Based Personalized Business User Workplace
JP5123522B2 (ja) * 2006-12-25 2013-01-23 パナソニック株式会社 3次元計測方法及びそれを用いた3次元形状計測装置
KR100903346B1 (ko) 2006-12-28 2009-06-22 (주) 인텍플러스 광학식 입체 형상 검사 방법
JP5252820B2 (ja) * 2007-03-27 2013-07-31 パナソニック株式会社 3次元計測方法及びそれを用いた3次元形状計測装置
US20080313335A1 (en) * 2007-06-15 2008-12-18 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Communicator establishing aspects with context identifying
US8019606B2 (en) * 2007-06-29 2011-09-13 Microsoft Corporation Identification and selection of a software application via speech
WO2009029910A2 (en) * 2007-08-31 2009-03-05 Proxpro, Inc. Situation-aware personal information management for a mobile device
US20090112677A1 (en) * 2007-10-24 2009-04-30 Rhett Randolph L Method for automatically developing suggested optimal work schedules from unsorted group and individual task lists
US8064068B2 (en) * 2008-01-25 2011-11-22 Cyberoptics Corporation Multi-source sensor for three-dimensional imaging using phased structured light
US20090239552A1 (en) * 2008-03-24 2009-09-24 Yahoo! Inc. Location-based opportunistic recommendations
US8666824B2 (en) * 2008-04-23 2014-03-04 Dell Products L.P. Digital media content location and purchasing system
US8423288B2 (en) * 2009-11-30 2013-04-16 Apple Inc. Dynamic alerts for calendar events
US8166019B1 (en) * 2008-07-21 2012-04-24 Sprint Communications Company L.P. Providing suggested actions in response to textual communications
US9200913B2 (en) * 2008-10-07 2015-12-01 Telecommunication Systems, Inc. User interface for predictive traffic
JP5257311B2 (ja) * 2008-12-05 2013-08-07 ソニー株式会社 情報処理装置、および情報処理方法
US20100268069A1 (en) * 2009-04-16 2010-10-21 Rongguang Liang Dental surface imaging using polarized fringe projection
US8321527B2 (en) * 2009-09-10 2012-11-27 Tribal Brands System and method for tracking user location and associated activity and responsively providing mobile device updates
US20110161309A1 (en) * 2009-12-29 2011-06-30 Lx1 Technology Limited Method Of Sorting The Result Set Of A Search Engine
US9413869B2 (en) * 2010-02-10 2016-08-09 Qualcomm Incorporated Mobile device having plurality of input modes
US8375320B2 (en) * 2010-06-22 2013-02-12 Microsoft Corporation Context-based task generation
EP2702473A1 (de) * 2011-04-25 2014-03-05 Veveo, Inc. System und verfahren für einen intelligenten personalisierten zeitplanungsassistenten

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5085502A (en) * 1987-04-30 1992-02-04 Eastman Kodak Company Method and apparatus for digital morie profilometry calibrated for accurate conversion of phase information into distance measurements in a plurality of directions
DE19634254A1 (de) * 1995-09-04 1997-03-06 Volkswagen Ag Optisch-numerisches Verfahren zur Ermittlung der gesamten Oberfläche eines dreidimensionalen Objekts
US20030007680A1 (en) * 1996-07-01 2003-01-09 Katsumi Iijima Three-dimensional information processing apparatus and method
DE19637682A1 (de) * 1996-09-05 1998-03-12 Fraunhofer Ges Forschung Verfahren zur Bestimmung der räumlichen Koordinaten von Gegenständen und/oder deren zeitlicher Änderung und Vorrichtung zur Anwendung dieses Verfahrens
DE19747061A1 (de) * 1997-10-24 1999-05-12 Bernward Maehner Verfahren und Einrichtung zur flächenhaften, dreidimensionalen, optischen Vermessung von Objekten
DE19852149A1 (de) * 1998-11-04 2000-05-25 Fraunhofer Ges Forschung Vorrichtung zur Bestimmung der räumlichen Koordinaten von Gegenständen
US20060192925A1 (en) * 2005-02-28 2006-08-31 Chang Nelson L A Multi-projector geometric calibration
DE102007004122A1 (de) * 2006-01-26 2007-08-09 Koh Young Technology Inc. Verfahren für das Messen einer dreidimensionalen Form

Also Published As

Publication number Publication date
US20160153772A1 (en) 2016-06-02
US20100295941A1 (en) 2010-11-25
CN104034280A (zh) 2014-09-10
US9275292B2 (en) 2016-03-01
DE102010064593A1 (de) 2015-07-30
CN104034280B (zh) 2017-09-08
TWI440821B (zh) 2014-06-11
CN101893428A (zh) 2010-11-24
US20130222578A1 (en) 2013-08-29
TW201105924A (en) 2011-02-16
CN101893428B (zh) 2014-07-16
US9739605B2 (en) 2017-08-22
US9791266B2 (en) 2017-10-17
JP2010271316A (ja) 2010-12-02
DE102010029091A1 (de) 2011-01-13
JP5202575B2 (ja) 2013-06-05

Similar Documents

Publication Publication Date Title
DE102010029091B4 (de) Formmessgerät und -verfahren
DE102010030859B4 (de) Verfahren zum Untersuchen eines auf einem Substrat montierten Messobjektes
DE102012217240B4 (de) Vorrichtung zum Messen einer dreidimensionalen Form
DE69926659T2 (de) Verfahren und vorrichtung für die optische Inspektion von Objekten auf einem Substrat
DE102010003376B4 (de) Untersuchungsverfahren
DE102011086467B4 (de) Verfahren zum untersuchen eines substrates
DE69738493T2 (de) Vorrichtung und Verfahren zum Oberflächenkonturmessen
DE112013002321B4 (de) Bildverarbeitungsvorrichtung, Verfahren zum Steuern derselben, Programm und Prüfsystem
EP3186952B1 (de) Bildaufnahmevorrichtung und verfahren zur bildaufnahme
DE112011104658B4 (de) Verfahren zum Prüfen eines Substrats
EP2095068B1 (de) Vorrichtung und verfahren zur steigerung der mess-genauigkeit digitaler 3d-geometriemessysteme
DE202016008925U1 (de) Dreidimensionale Formmessvorrichtung
DE60015966T2 (de) Messung der lagen oder koplanarität von kontaktelementen eines elektronischen bauteils mit flacher beleuchtung und zwei kameras
DE102015113051B4 (de) Messvorrichtung, Leiterplattenprüfvorrichtung und Verfahren zu deren Steuerung
DE102015116047A1 (de) Prüfvorrichtung und Steuerverfahren für eine Prüfvorrichtung
DE102011086417B4 (de) Verfahren zum Erkennen eines Brückenverbindungsfehlers
DE202016008950U1 (de) Dreidimensionale Formmessvorrichtung
DE102014002084A1 (de) Verfahren und Vorrichtung zur Messung der Ablenkung von Lichtstrahlen durch eine Objektstruktur oder ein Medium
DE102016216842B4 (de) Verfahren und Vorrichtung zum Betreiben eines Spektrometers
WO2015169345A1 (de) Verfahren und vorrichtung zum kalibrieren einer abbildungsoptik für messtechnische anwendungen
DE102008009680A1 (de) Dreidimensionale Vermessung von Objekten mittels eines modular aufgebauten Triangulationssensors
DE102013216196A1 (de) Erfassen der 3D Struktur eines auf einen Bauelementeträger aufgebrachten Depots aus Lotpaste
DE102011078052B4 (de) Erfassung der Oberflächenstruktur einer Objekt-Oberfläche
DE112020002836T5 (de) Vorrichtung zur dreidimensionalen messung und verfahren zur dreidimensionalen messung
DE3401527A1 (de) Verfahren zur automatischen bestimmung der haerte durch vermessen eines pruefeindrucks

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
R016 Response to examination communication
R082 Change of representative

Representative=s name: V. FUENER EBBINGHAUS FINCK HANO, DE

Representative=s name: PATRONUS IP PATENT- & RECHTSANWAELTE BERNHARD , DE

R016 Response to examination communication
R018 Grant decision by examination section/examining division
R006 Appeal filed
R130 Divisional application to

Ref document number: 102010064593

Country of ref document: DE

R007 Decision rectified on appeal
R018 Grant decision by examination section/examining division
R130 Divisional application to

Ref document number: 102010064593

Country of ref document: DE

Effective date: 20150402

R082 Change of representative

Representative=s name: V. FUENER EBBINGHAUS FINCK HANO, DE

R020 Patent grant now final