Nothing Special   »   [go: up one dir, main page]

WO2020115121A1 - Optisches positionsbestimmungs- und identifikationssystem - Google Patents

Optisches positionsbestimmungs- und identifikationssystem Download PDF

Info

Publication number
WO2020115121A1
WO2020115121A1 PCT/EP2019/083653 EP2019083653W WO2020115121A1 WO 2020115121 A1 WO2020115121 A1 WO 2020115121A1 EP 2019083653 W EP2019083653 W EP 2019083653W WO 2020115121 A1 WO2020115121 A1 WO 2020115121A1
Authority
WO
WIPO (PCT)
Prior art keywords
objects
acquisition unit
image acquisition
texture
database
Prior art date
Application number
PCT/EP2019/083653
Other languages
English (en)
French (fr)
Inventor
Pawel Piotrowski
Tsen Miin Tran
Original Assignee
Lufthansa Technik Ag
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lufthansa Technik Ag filed Critical Lufthansa Technik Ag
Priority to US17/299,837 priority Critical patent/US12039754B2/en
Priority to EP19816634.0A priority patent/EP3891653A1/de
Publication of WO2020115121A1 publication Critical patent/WO2020115121A1/de

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/245Aligning, centring, orientation detection or correction of the image by locating a pattern; Special marks for positioning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/80Recognising image objects characterised by unique random patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • G06T2207/30208Marker matrix
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30268Vehicle interior

Definitions

  • the invention relates to an optical position determination and identification system, in particular for use on board commercial aircraft.
  • Augmented reality applications for passengers on board are also conceivable, in which an image shown on a mobile terminal is supplemented with computer-generated additional information or virtual objects. In order for this additional information to be visually correctly fitted, it is necessary to determine the exact position and orientation of the mobile device.
  • An additional optical position determination on board an aircraft is not currently possible, at least not reliably.
  • Objects inside the aircraft cabin for example a passenger seat, can basically be recognized via so-called edge-based model tracking, in which object edges are determined in a camera image and compared with computer models of the objects in question, and the relative position of the camera relative to it recorded object can be determined, but due to the large number of uniform objects within an aircraft cabin - such as, for example, passenger seats - an actual position determination within the cabin or unambiguous assignment of objects in question is, however, not reliably possible.
  • the object of the present invention is to provide an optical position determination and identification system which no longer has the disadvantages known from the prior art, or only does so to a limited extent.
  • the invention relates to an optical position determination and identification system in environments with a large number of identical objects comprising a mobile image acquisition unit and texture elements which can be attached to the objects, each texture element having a pattern which each has pseudo-random deviations from a predetermined basic pattern - ter, which cannot be seen freely at a distance of 1 m, and the image capture unit is designed to uniquely identify the texture elements on the basis of their pseudo-random deviations.
  • the invention has recognized that for position determination and identification in environments with a large number of uniform objects, simple, unambiguous identification of the individual objects is advantageous and in particular elementary for optical position determination based on the optically detected objects.
  • the objects have to be provided with well-known optically readable labels such as bar or QR codes in areas that are easy to see (possibly several times) for problem-free identification, which is regularly detrimental to the design and ambience in the aircraft cabin is, texture elements are provided according to the invention for identification purposes.
  • Each texture element has a pattern.
  • the pattern can preferably be a multiple repeating pattern, with which the texture elements can be of any size.
  • they are particularly well suited as a means of surface design for the objects and can be regularly inserted into the design of the aircraft cabin without being perceived by passengers as disturbing, as would be the case, for example, with immediately visible QR codes re.
  • the picture elements can have almost any complexity and can range from non-repeating patterns to photographic picture elements. Even such texture elements are not perceived as disruptive by passengers, for example as QR codes.
  • the patterns of the texture elements each have a clearly identifiable pseudo-random deviation from a predetermined basic pattern, which cannot be seen with a free eye at a distance of 1 m.
  • "Free-eyed” refers to a viewing of the texture elements by the human eye, in which no optical aids are used.
  • the texture elements By relying on a free-eyed non-recognizability of the pseudo-random deviations of the pattern of the texture elements at a distance of 1 m between texture elements and viewer , the texture elements appear to be basically identical to any casual observer, but the deviations in the patterns are so sufficient that they differ from optical image acquisition units, such as cameras, which have a sufficiently high resolution and, in particular, that of the human eye to be able to recognize the pseudo-random deviations.
  • a corresponding pseudo-random deviation from a basic pattern is a planned and clearly identifiable change in the basic pattern.
  • the deviations from the basic pattern must be sufficiently clear that they can be detected and ascertained by the image acquisition unit.
  • the deviations must also be determinable, for example, in the resolution available in the captured images from the image acquisition unit, whereby, of course, a maximum distance between the texture element and the image acquisition unit can be specified up to which the deviations from the basic pattern should be possible .
  • the deviations from the basic pattern according to the invention can be so small that they do not immediately occur when a passenger looks at the pattern of a texture element in the usual free-eyed manner, even when comparing neighboring texture elements stand out, but - if at all - can only be recognized by one person if you take a closer look. Due to the high complexity of the pattern, the subjective resolving power of human vision can be reduced, which means that the deviations from the basic pattern may be larger and thus easier for the image acquisition unit to identify.
  • the basic pattern consists of a random arrangement of geometric figures or graphics, such as company logos, in different colors and sizes.
  • texture elements are based on the same basic pattern. However, it is also possible that part of it is based on a basic pattern, while another part is based on another basic pattern.
  • texture elements provided for different types of objects can be based on different basic patterns. For example, texture elements for passenger seats can be designed differently than texture elements for wall panels.
  • the image capture unit is designed to analyze the patterns of the texture elements on an image captured by the image capture unit and to use the pseudo-random deviations clearly identify.
  • the basic pattern on which the analyzed pattern of the texture element is based can be stored in the image acquisition unit, so that the deviations are determined by comparing the recorded pattern with the basic pattern.
  • the image acquisition unit can be designed to derive a unique identification from the pattern itself. This is possible, for example, by determining characteristic averages from the recorded sample, such as the average distance between the individual sample components or the average size of the individual sample components, and then determining the deviations from these average values, which then result the unique identification it gives.
  • an effective identification of the pattern of a texture element by the image acquisition unit may already be sufficient Position determination guaranteed. For example, it can already be deduced from the identification described that the image acquisition unit must be in (immediate) proximity to the texturing element and thus to the object equipped with it.
  • a database connected to the image acquisition unit is preferably provided with the assignment of the texture elements to individual objects to which the texture elements are attached, the image acquisition unit preferably being designed to edge-model model the objects clearly identified via the texture elements and the database relative position of the image acquisition unit against to determine over the identified objects.
  • the exact relative position of the image acquisition unit relative to the object can be determined by edge-based model tracking using a computer model corresponding to the object. This is particularly advantageous for augmented reality applications.
  • the image acquisition unit can be designed to determine the absolute position of the image acquisition unit in the coordinate system of the position data stored in the database.
  • the above-described determination of the relative position of the image acquisition unit relative to an identified object can also determine the absolute position of the image acquisition unit if the position of the object is known. As a rule, it will have to be based on the coordinate system in which the position data of the objects are stored in the database.
  • the texture elements can be designed in almost any way.
  • the texture elements are adhesive films, covers and / or object covers, each of which has a pattern as described. It is also possible that at least some of the texture elements, preferably by printing and / or embroidery, are formed in one piece with one object each. In this case, the printed or embroidered surface of the object can be seen as a texture element.
  • the database described above is stored centrally and the image acquisition unit has access to the database via a wireless connection.
  • Providing a central database allows simultaneous access to the database by several image acquisition units.
  • the image acquisition unit In order to avoid constant data exchange via the wireless connection, it is also possible for the image acquisition unit to maintain an image of the centrally stored database and to update the image only when there are changes in the database.
  • the image captured by the image capture unit it is possible for the image captured by the image capture unit to be sent wirelessly to the central database if the image capture unit does not have sufficient computing capacities.
  • the identification of the texture elements and possibly further steps can then be carried out before the result is then transmitted back to the image acquisition unit.
  • the basic pattern has a chaotic character.
  • Chaotic character means that when you look at the basic pattern, no, or at least no, apparently functional regularity can be seen in the arrangement of the individual sample components. With a corresponding pattern, pseudo-random deviations are even less noticeable.
  • the system according to the invention is particularly suitable for position determination and / or object identification on board aircraft.
  • the invention also relates to an arrangement of a commercial aircraft with a multiplicity of objects arranged in the passenger cabin and an optical positioning and identification system according to the invention according to one of the preceding claims, the objects each being provided with at least one texture element.
  • the objects can preferably be aircraft seats and / or wall panels.
  • the position determination and identification system includes a database
  • this is preferably stored on a server on board the commercial aircraft. This offers the advantage that the data in the database, for example for a position determination, are also available when the aircraft is in the air and there is no adequate data connection to a server located on the ground.
  • the system can also be used to monitor the condition of the cabin of an aircraft using cameras.
  • a corresponding component can have, for example, two different texture elements, of which only one or at least one is not visible in an operating state.
  • the status of the constituent in question can be inferred from the identified texture elements. It is possible, for example, for an autonomous drone, which preferably navigates independently on the basis of the position which can be determined according to the invention, to inspect the state of the components of the cabin of an aircraft accordingly.
  • Figure 1 an embodiment of an inventive
  • FIG. 2 Examples of the repeatedly repeating pattern of the texture elements from FIG. 1.
  • An arrangement 1 according to the invention is shown in FIG. It is in the passenger cabin 2 of a commercial aircraft ei ne plurality of passenger seats 4 - also referred to as objects 4 - arranged.
  • a head cover 6 is provided on each of the passenger seats 4, which is provided with a pattern 7 that is repeated many times.
  • the head covers 6 represent texture elements 8 according to the invention, the patterns 7 of the individual texture elements 8 each representing pseudo-random deviations from a basic pattern ter 9.
  • FIG. 2 an exemplary basic pattern 9 (FIG. 2a) and two pseudo-random deviations therefrom (FIGS. 2b and 2c) are shown.
  • the basic pattern 9 is shown enlarged, while on the right-hand side this basic pattern 9 is repeated many times as a flat texture, as is basically shown as a pattern 7 on the texture elements 8.
  • FIG. 2b shows a first pseudo-random deviation 10 from the basic pattern 9 according to FIG. 2a, again both in an enlarged form (left) and as a flat texture.
  • a sample component - the circle marked with reference numeral 11 - is slightly shifted upwards compared to the basic sample 9.
  • the sample component provided with reference numeral 12 - in addition to the sample component 11 shifted upwards analogously to the first pseudo-random deviation 10, the sample component provided with reference numeral 12 - likewise a circle - is slightly shifted to the right.
  • the deviations 10 in the individual patterns 7 are hardly visible.
  • a viewer on board the airliner in the passenger cabin 2 will not notice the difference in the patterns 7 of the individual texture elements 8 regularly.
  • the deviations in the individual patterns 7 are so sufficient, however, that they are captured by an image acquisition unit 12 (cf. FIG. 1) and can be used for unambiguous identification.
  • the image acquisition unit 12 shown in FIG. 1 is a so-called tablet PC, on one side of which a large-area, touch-sensitive screen 13 is seen, while on the other side a digital camera module (not shown) is arranged.
  • the image captured by the digital camera module is processed by the image capture unit 12 before it is displayed on the screen 13 in a form supplemented by additional information.
  • the image capture unit 12 is designed, at least for those texture elements 8 that are sufficiently close to the digital camera module that the deviations contained therein from the basic pattern 9 are actually depicted in the captured image and when the digital camera module is resolved, the respective deviation and thus to clearly identify the texture element 8 itself.
  • Known image processing methods can be used for this purpose, which can, if necessary, fall back on the basic pattern 9 stored in a database 14 located on a server located on board the aircraft.
  • the image acquisition unit 12 and the server with the database 14 are wirelessly connected to one another.
  • the database 14 there is also an assignment of texture elements 8 to the respective objects 4, in this case the individual aircraft seats 4, and in addition to the direct assignment also information about the position of the individual objects 4 within the aircraft cabin 2 and computer models of the individual objects 4 are stored in the database 14.
  • the latter can also be clearly identified by the direct assignment of the identified texture elements 8 to the individual objects 4.
  • the relative position of the image acquisition unit 12 relative to the identified object 4 can be determined via edge-based model tracking. Since the position of the identified object 4 inside the aircraft cabin 2 is also known, the absolute position of the image capturing unit 12 in the aircraft cabin 2 can be determined.
  • the image taken by the digital camera module is supplemented by additional information before it is displayed on the screen 13.
  • additional information is shown.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

Die Erfindung betrifft ein optisches Positionsbestimmungs- und Identifikationssystem in Umgebungen mit einer Vielzahl von baugleichen Objekten (4) umfassend eine mobile Bilderfassungseinheit (12) und an den Objekten (4) anbringbare Texturelemente (8), wobei jedes Texturelement (8) ein sich mehrfach wiederholendes Muster (7) aufweist, welches jeweils pseudo-zufällige Abweichungen (10) von einem vorgegebenen Grundmuster (9) umfasst, und wobei die Bilderfassungseinheit (12) dazu ausgebildet ist, die Texturelemente (8) anhand ihrer pseudo-zufälligen Abweichungen (10) eindeutig zu identifizieren. Das erfindungsgemäße optische Positionsbestimmungs- und Identifikationssystem ist insbesondere für den Einsatz an Bord von Verkehrsflugzeugen geeignet.

Description

Optisches Positionsbestimmungs - und
Identifikations System
Die Erfindung betrifft ein optisches Positionsbestimmungs- und Identifikationssystem, insbesondere für den Einsatz an Bord von Verkehrsflugzeugen.
Für verschiedene Anwendungen ist es wünschenswert, die relati ve Position an Bord eines Flugzeuges bestimmen und/oder in der Umgebung zu dieser Position befindliche Objekte, wie bspw. Flugzeugsitze, eindeutig identifizieren zu können. So ist es bspw. für die Erfassung von Schäden an eben diesen Objekten erforderlich, die Objekte eindeutig zu identifizieren. Für sonstige Schäden in der Flugzeugkabine (bspw. am Fußboden) ist eine möglichst genaue Erfassung des Ortes der Beschädigung er forderlich, um Reparaturmaßnahmen im Vorwege möglichst genau planen zu können, damit die für die eigentliche Reparatur er forderliche Zeit möglichst gering gehalten werden kann.
Auch sind Augmented-Reality-Anwendungen (AR-Anwendungen) für Passagiere an Bord denkbar, bei denen ein auf einem mobilen Endgerät gezeigte Bilder mit computergenerierten Zusatzinfor mationen oder virtuellen Objekten ergänzt werden. Damit diese Zusatzinformationen visuell korrekt eingepasst werden können, ist eine genaue Positrons- und Ausrichtungsbestimmung des mo bilen Endgerätes erforderlich.
Zur eindeutigen Identifizierung von Objekten ist es bekannt, diese mit einem computerlesbaren Etikett umfassend einen ein deutigen Identifizierungscode auszustatten. Auch, um die An forderungen an Lesegeräte zum Auslesen der Identifizierungsco des gering zu halten, wird häufig auf Barcodes und/oder QR-Co- des zurückgegriffen, die optisch ausgelesen werden können. Um die optische Gestaltung der Flugzeugkabine nicht zu stören, sind die computerlesbaren Etiketten jedoch regelmäßig an eher verdeckten Stellen der Objekte angeordnet, was ihr auslesen schwierig machen kann.
Eine darüber hinausgehende optische Positionsbestimmung an Bord eines Flugzeuges ist derzeit nicht, zumindest nicht zu verlässig möglich. Zwar können Objekte innerhalb der Flugzeug kabine, bspw. ein Passagiersitz, über sog. kantenbasiertes Mo delltracking, bei dem in einem Kamerabild Objektkanten ermit telt und mit Computermodellen der in Frage kommenden Objekte verglichen werden, grundsätzlich erkannt und auch die relative Position der Kamera gegenüber dem aufgenommenen Objekt ermit telt werden, aufgrund der Vielzahl gleichförmiger Objekte in nerhalb einer Flugzeugkabine - wie bspw. Passagiersitze - ist eine tatsächliche Positionsbestimmung innerhalb der Kabine bzw. eindeutige Zuordnung von in Frage kommenden Objekten je doch nicht zuverlässig möglich.
Aufgabe der vorliegenden Erfindung ist es, ein optisches Posi- tionsbestimmungs- und Identifikationssystem zu schaffen, wel ches die aus dem Stand der Technik bekannten Nachteile nicht mehr oder nur noch in vermindertem Umfang aufweist.
Gelöst wird diese Aufgabe durch ein optisches Positionsbestim- mungs- und Identifikationssystem gemäß dem Hauptanspruch . Vor teilhafte Weiterbildungen sind Gegenstand der abhängigen An sprüche .
Demnach betrifft die Erfindung ein optisches Positionsbestim- mungs- und Identifikationssystem in Umgebungen mit einer Viel zahl von baugleichen Objekten umfassend eine mobile Bilderfas sungseinheit und an den Objekten anbringbare Texturelemente, wobei jedes Texturelement ein Muster aufweist, welches jeweils pseudo-zufällige Abweichungen von einem vorgegebenen Grundmus- ter umfasst, die freiäugig in einem Abstand von 1 m nicht zu erkennen sind, und wobei die Bilderfassungseinheit dazu ausge bildet ist, die Texturelemente anhand ihrer pseudo-zufälligen Abweichungen eindeutig zu identifizieren.
Die Erfindung hat erkannt, dass zur Positionsbestimmung und Identifikation in Umgebungen mit einer Vielzahl gleichförmiger Objekte eine einfach durchzuführende eindeutige Identifikation der einzelnen Objekte vorteilhaft und insbesondere für eine optische Positionsbestimmung anhand der optisch erfassten Ob jekte elementar ist. Um dabei zu vermeiden, dass die Objekte mit bekannten optisch auslesbaren Etiketten wie Bar- oder QR- Codes in für eine problemlose Identifikation erforderlich gut einsehbaren Bereichen (ggf. auch mehrfach) versehen werden müssen, was regelmäßig abträglich für das Design und Ambiente in der Flugzeugkabine ist, sind zu Identifikationszwecken er findungsgemäß Texturelemente vorgesehen.
Jedes Texturelement weist ein Muster auf. Bei dem Muster kann es sich bevorzugt um ein sich mehrfach wiederholenden Muster handeln, womit die Texturelemente beliebig groß ausgestaltet werden können. In der Folge sind sie besondere gut als Mittel der Oberflächengestaltung für die Objekte geeignet und lassen sich regelmäßig gut in das Design der Flugzeugkabine einfügen, ohne dass sie von Passagieren als störend empfunden werden, wie es bspw. bei unmittelbar sichtbaren QR-Codes der Fall wä re. Gleiches gilt für den Fall, wenn die Texturelemente ein zelne Bildelemente aufweisen, die sich nicht wiederholen. Die Bildelemente können nahezu beliebige Komplexität aufweisen und von sich nicht-wiederholenden Mustern bis zu fotografischen Bildelementen reichen. Auch solche Texturelemente werden - an ders als bspw. QR-Codes - von Passagieren regelmäßig nicht als störend empfunden. Um dennoch eine Identifizierung zu ermöglichen, weisen die Muster der Texturelemente jeweils eine eindeutig identifizier bare pseudo-zufällige Abweichung von einem vorgegebenen Grund muster auf, die freiäugig in einem Abstand von 1 m nicht zu erkennen sind. „Freiäugig" bezeichnet eine Betrachtung der Texturelemente durch das menschliche Auge, bei dem keine opti schen Hilfsmittel verwendet werden. Indem auf eine freiäugige Nicht-Erkennbarkeit der pseudo-zufälligen Abweichungen der Muster der Texturelemente in einem Abstand von 1 m zwischen Texturelementen und Betrachter abgestellt wird, erscheinen die Texturelemente beliebigen beiläufigen Betrachtern grundsätz lich identisch. Die Abweichungen der Muster sind aber so aus reichend, dass sie von optischen Bilderfassungseinheit, wie bspw. Kameras, die über eine ausreichend hohes und insbesonde re das des menschlichen Auges übertreffendes Auflösungsvermö gen verfügen, um die pseudo-zufälligen Abweichungen erkennen zu können.
Bei einer entsprechenden pseudo-zufällige Abweichung von einem Grundmuster handelt es sich um eine planvolle und eindeutig identifizierbare Veränderung des Grundmusters. Die Abweichun gen vom Grundmuster müssen dabei - wie erläutert - derart aus reichend deutlich sein, dass sie durch die Bilderfassungsein heit erfasst und festgestellt werden können. Insbesondere müs sen die Abweichungen also bspw. auch bei der von der Bilder fassungseinheit verfügbaren Auflösung in den aufgenommenen Bildern ermittelbar sein, wobei selbstverständlich ein Maxi malabstand zwischen Texturelement und Bilderfassungseinheit vorgegeben sein kann, bis zu dem die Ermittlung der Abweichun gen vom Grundmuster möglich sein soll. In der Regel können die Abweichungen vom Grundmuster erfindungsgemäß derart gering ausfallen, dass sie beim gewöhnlichen freiäugigen Betrachten des Musters eines Texturelementes auch im Vergleich benachbar ter Texturelemente durch einen Passagier nicht unmittelbar auffallen, sondern - wenn überhaupt - nur bei näherer Betrach tung von einer Person erkannt werden können. Durch eine hohe Komplexität des Musters kann das subjektive Auflösungsvermögen des menschlichen Sehens reduziert werden, wodurch die Abwei chungen vom Grundmuster ggf. größer und somit einfacher für die Bilderfassungseinheit identifizierbar sein können.
Es kann bspw. vorgesehen sein, dass das Grundmuster aus einer zufällig wirkenden Anordnung von geometrischen Figuren oder Grafiken, wie bspw. Firmenlogos, in verschiedenen Farben und Größen besteht. Durch planvolles Verändern der Position oder Größe einzelner Musterbestandteile in dem Grundmuster und so mit der Schaffung pseudo-zufälliger Abweichungen lassen sich eindeutig identifizierbare Muster für die Texturelemente schaffen, die zwar von der Bilderfassungseinheit erfasst wer den können, freiäugig aber praktisch nicht erkannt werden kön nen. Bei geeigneter Auflösung und/oder Farbtiefe der Bilder fassungseinheit können auch Linienstärken oder Farbtöne zur Schaffung von Abweichungen gegenüber dem Grundmuster verändert werden .
Es ist möglich, dass sämtliche Muster der Texturelemente auf demselben Grundmuster basieren. Es ist aber auch möglich, dass ein Teil davon auf einem Grundmuster beruht, während einem an deren Teil ein anderes Grundmuster zugrunde liegt. Insbesonde re können für unterschiedliche Arten von Objekten vorgesehene Texturelemente auf unterschiedlichen Grundmustern basieren. So können bspw. Texturelemente für Passagiersitze anders ausge staltet sein als Texturelemente für Wandpaneele.
Die erfindungsgemäße Bilderfassungseinheit ist dazu ausgebil det, die Muster der Texturelemente auf einem von der Bilder fassungseinheit aufgenommenen Bildes zu analysieren und anhand der dabei festgestellten pseudo-zufälligen Abweichungen ein- deutig zu identifizieren. Dazu kann in der Bilderfassungsein heit das Grundmuster, welches dem analysierten Muster des Tex turelementes zugrunde liegt, hinterlegt sein, sodass die Ab weichungen durch Abgleich des aufgenommenen Musters mit dem Grundmuster ermittelt werden. Alternativ kann die Bilderfas sungseinheit dazu ausgebildet sein, aus dem Muster selbst eine eindeutige Identifikation abzuleiten. Dies ist bspw. möglich, indem aus dem aufgenommenen Muster charakteristische Mittel werte, wie bspw. der durchschnittliche Abstand zwischen den einzelnen Musterbestandteilen oder die durchschnittliche Größe der einzelnen Musterbestandteile, ermittelt werden und an schließend die Abweichungen von diesen Mittelwerten bestimmt wird, aus denen sich dann die eindeutige Identifizierung er gibt .
Insbesondere wenn der maximale Abstand zwischen einem Textur element und der Bilderfassungseinheit, bis zu dem eine eindeu tige Identifizierung des Musters des Texturelementes möglich ist, gering gewählt ist, ist durch eine tatsächliche Identifi kation des Musters eines Texturelementes durch die Bilderfas sungseinheit ggf. bereits eine ausreichende Positionsbestim mung gewährleistet. So kann sich nämlich bereits aus der be schriebenen Identifikation bereits ableiten lassen, dass sich die Bilderfassungseinheit in (unmittelbarer) Nähe zu dem Tex turelement und somit dem damit ausgestatteten Objekt befinden muss .
Vorzugsweise ist eine mit der Bilderfassungseinheit verbundene Datenbank mit der Zuordnung der Texturelemente zu einzelnen Objekten, an denen die Texturelemente angebracht sind, vorge sehen, wobei die Bilderfassungseinheit vorzugsweise dazu aus gebildet ist, durch kantenbasiertes Modelltracking der über die Texturelemente und die Datenbank eindeutig identifizierten Objekte die relative Position der Bilderfassungseinheit gegen- über den identifizierten Objekten zu ermitteln. Durch eine entsprechende Ermittlung des Objektes, welches mit dem identi fizierten Texturelement versehen ist, kann durch ein kantenba siertes Modelltracking anhand eines dem Objekt entsprechenden Computermodells die genaue relative Position der Bilderfas sungseinheit gegenüber dem Objekt ermittelt werden. Dies ist insbesondere für die Augmented-Reality-Anwendungen vorteil haft .
Sind in der Datenbank darüber hinaus Positionsdaten der ein zelnen Objekte hinterlegt, kann die Bilderfassungseinheit zur Ermittlung der absoluten Position der Bilderfassungseinheit im Koordinatensystem der in der Datenbank hinterlegten Positions daten ausgebildet sein. Durch die zuvor beschriebene Ermitt lung der relativen Position der Bilderfassungseinheit gegen über einem identifizierten Objekt kann bei Kenntnis der Posi tion des Objektes auch die absolute Position der Bilderfas sungseinheit ermittelt werden. Dabei wird in der Regel auf dasjenige Koordinatensystem abzustellen sein, in dem die Posi tionsdaten der Objekte in der Datenbank hinterlegt sind.
Die Texturelemente können nahezu beliebig ausgestaltet sein.
So ist es möglich, dass wenigstens ein Teil der Texturelemente Klebefolien, Bezüge und/oder Objektabdeckungen sind, die je weils ein Muster, wie beschrieben, aufweisen. Es ist auch mög lich, dass wenigstens ein Teil der Texturelemente, vorzugswei se durch Aufdrucken und/oder Aufsticken, einstückig mit je weils einem Objekt ausgebildet ist. In diesem Fall ist die be druckte bzw. bestickte Fläche des Objektes als Texturelement anzusehen .
Es ist bevorzugt, wenn die zuvor beschriebene Datenbank zen tral abgelegt ist und die Bilderfassungseinheit über eine Drahtlosverbindung Zugriff auf die Datenbank hat. Durch das Vorsehen einer zentralen Datenbank ist der gleichzeitige Zu griff mehrerer Bilderfassungseinheiten auf die Datenbank mög lich. Um einen ständigen Datenaustausch über die Drahtlosver bindung zu vermeiden, ist es auch möglich, dass die Bilderfas sungseinheit ein Abbild der zentral abgelegten Datenbank pflegt und das Abbild nur bei Veränderungen in der Datenbank aktualisiert. Alternativ ist es möglich, dass - sofern die Bilderfassungseinheit über keine ausreichenden Rechenkapazitä ten verfügt - das von der Bilderfassungseinheit erfasste Bild drahtlos an die zentrale Datenbank gesendet wird. Seitens der zentralen Datenbank kann dann die Identifizierung der Textur elemente und evtl, weitere Schritte durchgeführt werden, bevor das Ergebnis dann an die Bilderfassungseinheit zurückübermit telt wird.
Es ist bevorzugt, wenn das Grundmuster chaotischen Charakter hat. „Chaotischer Charakter" bedeutet, dass bei Betrachten des Grundmusters keine, oder zumindest keine scheinbar funktionale Regelmäßigkeit in der Anordnung der einzelnen Musterbestand teile erkennbar ist. Bei einem entsprechenden Muster fallen pseudo-zufällige Abweichungen noch deutlich weniger auf.
Das erfindungsgemäße System eignet sich insbesondere für die Positionsbestimmung und/oder Obj ektidentifikation an Bord von Flugzeugen .
Demzufolge betrifft die Erfindung auch eine Anordnung aus ei nem Verkehrsflugzeug mit einer Vielzahl von in der Passagier kabine angeordneten Objekten und einem erfindungsgemäßen opti schen Positionsbestimmungs- und Identifikationssystem gemäß einem der vorhergehenden Ansprüche, wobei die Objekte jeweils mit wenigstens einem Texturelement versehen ist. Bei den Objekten kann es sich bevorzugt um Flugzeugsitze und/oder Wandpaneele handeln.
Umfasst das Positionsbestimmungs- und Identifikationssystem eine Datenbank, ist diese vorzugsweise auf einem Server an Bord des Verkehrsflugzeugs abgelegt. Dies bietet den Vorteil, dass die Daten der Datenbank bspw. für eine Positionsbestim mung auch dann verfügbar sind, wenn sich das Flugzeug in der Luft befindet und keine ausreichende Datenverbindung zu einem am Boden befindlichen Server besteht.
Das System lässt sich auch für die Überwachung des Zustandes der Kabine eines Flugzeugs mittels Kameras nutzen. Anstelle von Sensoren, welche einzelne Bestandteile der Kabine überwa chen, bspw. ob ein bestimmter Tisch hochgeklappt ist, kann ein entsprechender Bestandteil bspw. zwei unterschiedliche Textur elemente aufweisen, von denen in jeweils einem Betriebszustand nur eines oder wenigstens eines nicht einsehbar ist. Indem er findungsgemäß nur einsehbare Texturelemente identifiziert wer den können, kann über die identifizierten Texturelemente auf die Status des fraglichen Bestandteils geschlossen werden. Es ist bspw. möglich, dass eine autarke Drohne, die vorzugsweise anhand der erfindungsgemäß ermittelbaren Position selbständig navigiert, entsprechend den Zustand der Bestandteile der Kabi ne eines Flugzeugs inspiziert.
Die Erfindung wird nun anhand einer vorteilhaften Ausführungs form unter Bezugnahme auf die beigefügten Zeichnungen bei spielhaft beschrieben. Es zeigen:
Figur 1: ein Ausführungsbeispiel einer erfindungsgemäßen
Anordnung; und
Figur 2: Beispiele der sich mehrfach wiederholenden Muster der Texturelemente aus Figur 1. In Figur 1 ist eine erfindungsgemäße Anordnung 1 dargestellt. Dabei ist in der Passagierkabine 2 eines Verkehrsflugzeugs ei ne Vielzahl von Passagiersitzen 4 - auch als Objekte 4 be zeichnet - angeordnet. An jedem der Passagiersitze 4 ist im oberen Bereich der Rückenlehne 5 ein Kopfbezug 6 vorgesehen, der mit einem sich vielfach wiederholenden Muster 7 versehen ist. Die Kopfbezüge 6 stellen dabei erfindungsgemäße Textur elemente 8 dar, wobei die Muster 7 der einzelnen Texturelemen te 8 jeweils pseudo-zufällige Abweichungen von einem Grundmus ter 9 darstellen.
Dies wird anhand Figur 2 näher erläutert, indem ein beispiel haftes Grundmuster 9 (Figur 2a) sowie zwei pseudo-zufällige Abweichungen davon (Figuren 2b und 2c) dargestellt sind.
Auf der linken Seite der Figur 2a ist das Grundmuster 9 ver größert dargestellt, während auf der rechten Seite dieses Grundmuster 9 vielfach wiederholt als flächige Textur, wie sie sich grundsätzlich als Muster 7 auf den Texturelementen 8 wie derfindet, dargestellt ist.
In Figur 2b ist eine erste pseudo-zufällige Abweichung 10 von dem Grundmuster 9 gemäß Figur 2a dargestellt, erneut sowohl in vergrößerter Form (links) als auch als flächige Textur. In diesem Beispiel ist ein Musterbestandteil - der mit Bezugszif fer 11 markierte Kreis - gegenüber dem Grundmuster 9 leicht nach oben verschoben.
Bei der zweiten pseudo-zufällige Abweichung 10 gemäß Figur 2c ist neben dem analog zur ersten pseudo-zufällige Abweichung 10 nach oben verschobenem Musterbestandteil 11 der mit Bezugszif fer 12 versehene Musterbestandteil - ebenfalls ein Kreis - leicht nach rechts verschoben. Wie insbesondere anhand der Texturdarstellungen der Figuren 2a-c ersichtlich, sind die Abweichungen 10 in den einzelnen Mustern 7 kaum ersichtlich. In der Folge wird einem sich an Bord des Verkehrsflugzeuges in der Passagierkabine 2 befindli chen Betrachters der Unterschied in den Mustern 7 der einzel nen Texturelemente 8 regelmäßig nicht auffallen. Die Abwei chungen in den einzelnen Mustern 7 sind aber so ausreichend, dass sie von eine Bilderfassungseinheit 12 (vgl. Figur 1) er fasst und zur eindeutigen Identifizierung herangezogen werden können .
Bei der in Figur 1 dargestellten Bilderfassungseinheit 12 han delt es sich um einen sog. Tablet-PC, auf dessen einer Seite ein großflächiger, berührungsempfindlicher Bildschirm 13 vor gesehen ist, während auf der anderen Seite ein Digitalkamera modul (nicht dargestellt) angeordnet ist. Das von dem Digital kameramodul erfasste Bild wird durch die Bilderfassungseinheit 12 verarbeitet, bevor es auf dem Bildschirm 13 in durch Zu- satzinformationen ergänzter Form dargestellt wird.
Die Bilderfassungseinheit 12 ist dazu ausgebildet, zumindest für diejenigen Texturelemente 8, die ausreichend nah an dem Digitalkameramodul sind, dass die dort enthaltenen Abweichun gen von dem Grundmuster 9 in dem aufgenommenen Bild und bei der Auflösung des Digitalkameramoduls tatsächlich abgebildet sind, die jeweilige Abweichung und somit das Texturelement 8 selbst eindeutig zu identifizieren. Hierzu können bekannte Bildverarbeitungsverfahren eingesetzt werden, die bei Bedarf auf das in einer auf einem an Bord des Flugzeuges befindlichen Server befindliche Datenbank 14 hinterlegte Grundmuster 9 zu rückgreifen können. Die Bilderfassungseinheit 12 und der Ser ver mit der Datenbank 14 sind dazu drahtlos miteinander ver- bunden . In der Datenbank 14 ist weiterhin eine Zuordnung von Textur elemente 8 zu den jeweiligen Objekten 4, in diesem Fall den einzelnen Flugzeugsitzen 4, enthalten, wobei neben der unmit telbaren Zuordnung auch noch Informationen über die Position der einzelnen Objekte 4 innerhalb der Flugzeugkabine 2 sowie Computermodelle der einzelnen Objekte 4 in der Datenbank 14 hinterlegt sind.
Durch die unmittelbare Zuordnung von den identifizierten Tex turelementen 8 zu den einzelnen Objekten 4 lassen sich Letzte- re ebenfalls eindeutig identifizieren. Anhand des mit dem identifizierten Objekt 4 jeweils verknüpften Computermodells lässt sich über kantenbasiertes Modelltracking die relative Position der Bilderfassungseinheit 12 gegenüber dem identifi zierten Objekt 4 ermitteln. Da weiterhin die Position des identifizierten Objektes 4 innerhalb der Flugzeugkabine 2 be kannt ist, kann die absolute Position der Bilderfassungsein heit 12 in der Flugzeugkabine 2 ermittelt werden.
Aufgrund der so eindeutig ermittelten Position der Bilderfas sungseinheit 12 wird das von der von dem Digitalkameramodul aufgenommene Bild vor der Anzeige auf dem Bildschirm 13 durch zusätzliche Informationen ergänzt. Im dargestellten Ausfüh rungsbeispiel wird dabei einer der Passagiersitze 4 eingefärbt und zusätzlich Informationen über eine Beschädigung an eben diesem Sitz eingeblendet.

Claims

Patentansprüche
1. Optisches Positionsbestimmungs- und Identifikationssystem in Umgebungen mit einer Vielzahl von baugleichen Objekten (4) umfassend eine mobile Bilderfassungseinheit (12) und an den Objekten (4) anbringbare Texturelemente (8), wobei je des Texturelement (8) ein Muster (7) aufweist, welches je weils pseudo-zufällige Abweichungen (10) von einem vorgege benen Grundmuster (9) umfasst, die freiäugig in einem Ab stand von 1 m nicht zu erkennen sind, und wobei die Bilder fassungseinheit (12) dazu ausgebildet ist, die Texturele mente (8) anhand ihrer pseudo-zufälligen Abweichungen (10) eindeutig zu identifizieren.
2. System nach Anspruch 1,
dadurch gekennzeichnet, dass
eine mit der Bilderfassungseinheit (12) verbundene Daten bank (14) mit der Zuordnung der Texturelemente (8) zu ein zelnen Objekten (4), an denen die Texturelemente (8) ange bracht sind, vorgesehen ist und die Bilderfassungseinheit vorzugsweise (12) dazu ausgebildet ist, durch kantenbasier tes Modelltracking der über die Texturelemente (8) und die Datenbank (14) eindeutig identifizierten Objekte (4) die relative Position der Bilderfassungseinheit (12) gegenüber den identifizierten Objekten (4) zu ermitteln.
3. System nach Anspruch 2,
dadurch gekennzeichnet, dass
in der Datenbank (14) Positionsdaten der einzelnen Objekte (4) hinterlegt sind und die Bilderfassungseinheit (12) zur Ermittlung der absoluten Position der Bilderfassungseinheit (12) im Koordinatensystem der in der Datenbank (14) hinter legten Positionsdaten ausgebildet ist.
4. System nach einem der vorhergehenden Ansprüche,
dadurch gekennzeichnet, dass
jedes Texturelement (8) ein sich mehrfach wiederholendes Muster (7) basierend auf einem Grundmuster (9) aufweist, wobei jede Musterwiederholung eines Texturelementes (8) die gleiche pseudo-zufällige Abweichung vom Grundmuster (9) aufweist .
5. System nach einem der vorhergehenden Ansprüche,
dadurch gekennzeichnet, dass
wenigstens ein Teil der Texturelemente (8) Klebefolien, Be züge und/oder Objektabdeckungen sind.
6. System nach einem der vorhergehenden Ansprüche,
dadurch gekennzeichnet, dass
wenigstens ein Teil der Texturelemente (8), vorzugsweise durch Aufdrucken und/oder Aufsticken, einstückig mit je weils einem Objekt (4) ausgebildet ist.
7. System nach einem der Ansprüche 2 bis 6,
dadurch gekennzeichnet, dass
die Datenbank (14) zentral abgelegt ist und die Bilderfas sungseinheit (12) über eine Drahtlosverbindung Zugriff auf die Datenbank (14) hat.
8. System nach einem der vorhergehenden Ansprüche,
dadurch gekennzeichnet, dass
das Grundmuster (9) chaotischen Charakter hat.
9. Anordnung (1) aus einem Verkehrsflugzeug mit einer Vielzahl von in der Passagierkabine (2) angeordneten Objekten (4) und einem optischen Positionsbestimmungs- und Identifikati onssystem gemäß einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Objekte (4) jeweils mit wenigstens einem Texturelement (8) versehen ist.
10. Anordnung nach Anspruch 9,
dadurch gekennzeichnet, dass
die Objekte (4) Flugzeugsitze und/oder Wandpaneele sind.
11. Anordnung nach Anspruch 10 oder 11,
dadurch gekennzeichnet, dass
die Datenbank (14) des Positionsbestimmungs- und Identifi kationssystems auf einem Server an Bord des Verkehrsflug- zeugs abgelegt ist.
PCT/EP2019/083653 2018-12-05 2019-12-04 Optisches positionsbestimmungs- und identifikationssystem WO2020115121A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US17/299,837 US12039754B2 (en) 2018-12-05 2019-12-04 Optical position determination and identification system
EP19816634.0A EP3891653A1 (de) 2018-12-05 2019-12-04 Optisches positionsbestimmungs- und identifikationssystem

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102018131000.5A DE102018131000A1 (de) 2018-12-05 2018-12-05 Optisches Positionsbestimmungs- und Identifikationssystem
DE102018131000.5 2018-12-05

Publications (1)

Publication Number Publication Date
WO2020115121A1 true WO2020115121A1 (de) 2020-06-11

Family

ID=68808360

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2019/083653 WO2020115121A1 (de) 2018-12-05 2019-12-04 Optisches positionsbestimmungs- und identifikationssystem

Country Status (4)

Country Link
US (1) US12039754B2 (de)
EP (1) EP3891653A1 (de)
DE (1) DE102018131000A1 (de)
WO (1) WO2020115121A1 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020114780A1 (de) * 2020-06-03 2021-12-09 Neoperl Gmbh Verfahren zur Identifizierung eines Strahlreglers

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050162396A1 (en) * 2004-01-28 2005-07-28 The Boeing Company Dynamic seat labeling and passenger identification system

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69202975T2 (de) * 1991-04-03 1996-02-15 Hewlett Packard Co Positionsbestimmende vorrichtung.
US6937349B2 (en) * 2003-05-02 2005-08-30 Mitutoyo Corporation Systems and methods for absolute positioning using repeated quasi-random pattern
WO2008060656A2 (en) * 2006-04-03 2008-05-22 3M Innovative Properties Company User interface for vehicle inspection
DE102008033733B4 (de) * 2008-07-17 2020-06-18 Airbus Operations Gmbh System und Verfahren zur Bedienung einer Vielzahl von Servicepositionen
DE102010035374A1 (de) * 2010-08-25 2012-03-01 Airbus Operations Gmbh System und Verfahren zum Sammeln von Defektdaten von Bauteilen in einer Passagierkabine eines Fahrzeugs
US9448758B2 (en) * 2012-07-18 2016-09-20 The Boeing Company Projecting airplane location specific maintenance history using optical reference points
US9881349B1 (en) * 2014-10-24 2018-01-30 Gopro, Inc. Apparatus and methods for computerized object identification
US9524435B2 (en) * 2015-03-20 2016-12-20 Google Inc. Detecting the location of a mobile device based on semantic indicators
US20170283086A1 (en) * 2016-04-04 2017-10-05 B/E Aerospace, Inc. Aircraft Passenger Activity Monitoring
WO2018129051A1 (en) * 2017-01-04 2018-07-12 Advanced Functional Fabrics Of America Uniquely identifiable articles of fabric and social networks employing them

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050162396A1 (en) * 2004-01-28 2005-07-28 The Boeing Company Dynamic seat labeling and passenger identification system

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
LAURENT GEORGE ET AL: "Humanoid robot indoor navigation based on 2D bar codes: application to the NAO robot", 2013 13TH IEEE-RAS INTERNATIONAL CONFERENCE ON HUMANOID ROBOTS (HUMANOIDS), 1 October 2013 (2013-10-01), pages 329 - 335, XP055209823, ISBN: 978-1-47-992619-0, DOI: 10.1109/HUMANOIDS.2013.7029995 *

Also Published As

Publication number Publication date
EP3891653A1 (de) 2021-10-13
US20220027619A1 (en) 2022-01-27
US12039754B2 (en) 2024-07-16
DE102018131000A1 (de) 2020-06-10

Similar Documents

Publication Publication Date Title
DE102008016215B4 (de) Informationsvorrichtungsbediengerät
DE102014016069A1 (de) Vorrichtung und Verfahren zum Aufnehmen eines Gegenstandes im 3- dimensionalen Raum mit einem Roboter
EP2457217B1 (de) Verfahren und vorrichtung zum überwachen eines raumbereichs
DE102007053812A1 (de) Konfigurationsmodul für ein Videoüberwachungssystem, Überwachungssystem mit dem Konfigurationsmodul, Verfahren zur Konfiguration eines Videoüberwachungssystems sowie Computerprogramm
WO2009129916A1 (de) Darstellung von ergebnissen einer vermessung von werkstücken in abhängigkeit der erfassung der geste eines nutzers
EP2711869A2 (de) Verfahren und Vorrichtung zur Aufnahme von Fingerabdrücken auf Basis von Fingerabdruckscannern in zuverlässig hoher Qualität
DE19962201A1 (de) Verfahren und Anordnung zur Erfassung und Analyse des Rezeptionsverhaltens von Personen
DE102013220107A1 (de) Verfahren zur Anleitung und/oder Kontrolle von an einem Arbeitsplatz auszuführenden Montage- und Kommissionierungsprozessen
DE102014114440B4 (de) Verfahren zum Klassifizieren eines bekannten Objekts in einem Sichtfeld einer Kamera
DE10027365A1 (de) Objektbezogene Steuerung von Informations- und Werbeträgern
CH713061A1 (de) System und Verfahren zur berührungslosen biometrischen Authentifizierung.
EP3586322A1 (de) Verfahren zur detektion zumindest eines jetonobjekts
EP1821064B1 (de) Verfahren und Vorrichtung zum Erfassen einer Kontur einer reflektierenden Oberfläche
EP2715279B1 (de) Vorrichtung und verfahren zur fahrwerksvermessung eines kraftfahrzeugs
EP3891653A1 (de) Optisches positionsbestimmungs- und identifikationssystem
EP4121897B1 (de) Verfahren und systeme zum bereitstellen von synthetischen gelabelten trainingsdatensätzen und ihre anwendungen
DE102018130569B4 (de) System und Verfahren zur Darstellung eines Kabinenlayouts im Originalmaßstab
WO2020160861A1 (de) Kalibrierung eines sensors für ein fahrzeug basierend auf objektseitigen und bildseitigen identifikationsindizes eines referenzobjektes
DE102021004071B3 (de) Vorrichtung und Verfahren zum Erzeugen photometrischer Stereobilder und eines Farbbildes
DE102012211734A1 (de) Verfahren und Vorrichtung zum Erfassen der Lage eines Objekts in einer Werkzeugmaschine
EP3599571B1 (de) Vorrichtung zum biometrischen identifizieren einer person mittels gesichtserkennung und biometrisches verfahren
DE102020100153A1 (de) Verfahren und Lagerfacheinrichtung zur Erkennung von Eingriffen in ein Lagerfach
DE102007056835A1 (de) Bildverarbeitunsmodul zur Schätzung einer Objektposition eines Überwachungsobjekts, Verfahren zur Bestimmung einer Objektposition eines Überwachungsobjekts sowie Computerprogramm
DE4335121A1 (de) Automatische Flächenrückführung bei optischen 3D Digitalisierer
DE102015226749A1 (de) Überwachungsanlage

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19816634

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2019816634

Country of ref document: EP

Effective date: 20210705