DE102018121317A1 - Method and device for estimating direction information conveyed by a free space gesture for determining user input at a human-machine interface - Google Patents
Method and device for estimating direction information conveyed by a free space gesture for determining user input at a human-machine interface Download PDFInfo
- Publication number
- DE102018121317A1 DE102018121317A1 DE102018121317.4A DE102018121317A DE102018121317A1 DE 102018121317 A1 DE102018121317 A1 DE 102018121317A1 DE 102018121317 A DE102018121317 A DE 102018121317A DE 102018121317 A1 DE102018121317 A1 DE 102018121317A1
- Authority
- DE
- Germany
- Prior art keywords
- data
- point cloud
- density
- free space
- represented
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 86
- 238000005259 measurement Methods 0.000 claims abstract description 36
- 238000009826 distribution Methods 0.000 claims abstract description 33
- 238000004590 computer program Methods 0.000 claims abstract description 13
- 230000002123 temporal effect Effects 0.000 claims description 16
- 238000013139 quantization Methods 0.000 claims description 12
- 238000011161 development Methods 0.000 claims description 9
- 230000018109 developmental process Effects 0.000 claims description 9
- 238000013507 mapping Methods 0.000 claims description 9
- 238000001914 filtration Methods 0.000 claims description 7
- 230000036962 time dependent Effects 0.000 claims description 7
- 230000011218 segmentation Effects 0.000 claims description 6
- 238000012935 Averaging Methods 0.000 claims description 4
- 239000011159 matrix material Substances 0.000 claims description 3
- 210000001364 upper extremity Anatomy 0.000 claims description 3
- 230000008030 elimination Effects 0.000 claims description 2
- 238000003379 elimination reaction Methods 0.000 claims description 2
- 230000008569 process Effects 0.000 description 18
- 230000033001 locomotion Effects 0.000 description 7
- 238000001514 detection method Methods 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 230000001953 sensory effect Effects 0.000 description 4
- 230000001419 dependent effect Effects 0.000 description 3
- 210000000245 forearm Anatomy 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 244000060701 Kaempferia pandurata Species 0.000 description 2
- 235000016390 Uvaria chamae Nutrition 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000005057 finger movement Effects 0.000 description 2
- 238000009499 grossing Methods 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 210000000323 shoulder joint Anatomy 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000012447 hatching Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012417 linear regression Methods 0.000 description 1
- 238000012067 mathematical method Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2135—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
- G06V10/507—Summing image-intensity values; Histogram projection analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
- G06V40/113—Recognition of static hand signs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/24323—Tree-organised classifiers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/12—Acquisition of 3D measurements of objects
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Social Psychology (AREA)
- Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
Abstract
Die Erfindung betrifft ein Verfahren sowie eine Vorrichtung zur Schätzung einer durch eine Freiraumgeste vermittelten Richtungsinformation zur Bestimmung einer Benutzereingabe an einer Mensch-Maschine-Schnittstelle, insbesondere eines Fahrzeugs. Des Weiteren betrifft die Erfindung ein Computerprogramm, das zur Ausführung des Verfahrens konfiguriert ist. Das Verfahren weist auf: Empfangen von sensorisch erfassten Messdaten, die eine durch einen Benutzer bezüglich der Mensch-Maschine-Schnittstelle ausgeführte Freiraumgeste als räumlich mehrdimensionale inhomogene Punktwolke in einem entsprechend mehrdimensionalen Raum repräsentieren; Bestimmen, auf Basis der Messdaten, von Dichtedaten, die eine zu der Punktwolke korrespondierende Dichteverteilung repräsentieren, bei der den einzelnen Punkten der Punktwolke jeweils eine Dichteinformation zugeordnet wird, welche eine lokale Punktdichte der Punktwolke in der Umgebung des jeweiligen Punkts kennzeichnet; Anwenden eines dimensionsreduzierenden Approximationsverfahrens auf die Dichtedaten zur Bestimmung von Schätzdaten, die eine Schätzung einer zumindest einen Richtungsaspekt der Dichteverteilung charakterisierende, eindimensionale Richtungskurve; repräsentieren; und Generieren und Bereitstellen von Richtungsdaten, welche eine Richtungsinformation repräsentieren, die durch den räumlichen Verlauf der durch die Schätzdaten repräsentierten Richtungskurve in dem übergeordneten mehrdimensionalen Raum bestimmt ist.The invention relates to a method and a device for estimating direction information conveyed by a free space gesture for determining a user input at a human-machine interface, in particular a vehicle. Furthermore, the invention relates to a computer program that is configured to execute the method. The method comprises: receiving sensor-acquired measurement data which represent a free space gesture carried out by a user with respect to the human-machine interface as a spatially multidimensional inhomogeneous point cloud in a correspondingly multidimensional space; Determining, on the basis of the measurement data, density data which represent a density distribution corresponding to the point cloud, in which in each case density information is assigned to the individual points of the point cloud, which identifies a local point density of the point cloud in the vicinity of the respective point; Applying a dimension-reducing approximation method to the density data to determine estimated data that estimate an estimate of a one-dimensional direction curve that characterizes at least one direction aspect of the density distribution; represent; and generating and providing directional data which represent directional information which is determined by the spatial course of the directional curve represented by the estimated data in the superordinate multidimensional space.
Description
Die vorliegende Erfindung betrifft ein Verfahren sowie eine Vorrichtung zur Schätzung einer durch eine Freiraumgeste vermittelten Richtungsinformation zur Bestimmung einer Benutzereingabe an einer Mensch-Maschine-Schnittstelle, insbesondere eines Fahrzeugs. Des Weiteren betrifft die Erfindung ein Computerprogramm, das zur Ausführung des Verfahrens konfiguriert ist.The present invention relates to a method and a device for estimating direction information conveyed by a free space gesture for determining a user input at a human-machine interface, in particular a vehicle. Furthermore, the invention relates to a computer program that is configured to execute the method.
Während klassische Mensch-Maschine-Schnittstellen (abgek. „MMS“ oder häufiger „MMI“) regelmäßig auf einer kontaktbasierten Interaktion eines Benutzers mit einem entsprechenden Bedienelement, beispielsweise einem physischen Schalter oder einer berührungsempfindlichen Oberfläche oder Anzeigevorrichtung usw. beruhen, sind inzwischen MMI bekannt, bei denen eine im freien Raum ohne physischen Kontakt mit einer MMI-Vorrichtung ausgeführte statische oder dynamische Geste eines menschlichen Benutzers sensorisch erfasst wird. Diese sensorische Erfassung solcher auch als „Freiraumgesten“ bezeichneten Gesten, kann beispielsweise mittels einer geeigneten Kamera erfolgen. Sodann werden mittels mathematischer Verfahren, insbesondere Bilderkennungsverfahren, aus den sensorisch erfassten Daten Rückschlüsse auf eine mittels der erfassten Geste intendierten Benutzereingabe gezogen.While classic human-machine interfaces (abbreviated “MMS” or more frequently “MMI”) are regularly based on a user's contact-based interaction with a corresponding control element, for example a physical switch or a touch-sensitive surface or display device, etc., MMI are now known, in which a static or dynamic gesture of a human user, performed in free space without physical contact with an MMI device, is sensed. This sensory detection of such gestures, also known as “free space gestures”, can be carried out, for example, using a suitable camera. Then, by means of mathematical methods, in particular image recognition methods, conclusions are drawn from the sensor-acquired data on a user input intended by means of the recorded gesture.
Insbesondere im Zusammenhang mit fahrzeugbezogenen Anwendungen können derartige zur Erkennung von Freiraumgesten fähige MII dazu eingesetzt werden, Eingaben zur Bedienung des Fahrzeugs oder eines Teilsystems davon vorzunehmen. Des Weiteren ist es auch möglich, dass sich die Freiraumgesten auf das Umfeld des Fahrzeugs beziehen, wie etwa ein Zeigen auf ein interessantes, vom Fahrzeug aus sichtbaren, fahrzeugexternes Objekt, und das Erkennen einer solchen Freiraumgeste dazu dient, eine Eingabe für ein System zu liefern, welches eine auf das Objekt bezogene Information liefern soll, oder das Fahrzeug veranlasst, darauf zu reagieren.In particular in connection with vehicle-related applications, such MII capable of recognizing free space gestures can be used to make inputs for operating the vehicle or a subsystem thereof. Furthermore, it is also possible for the free space gestures to relate to the surroundings of the vehicle, such as pointing to an interesting object that is visible from the vehicle and external to the vehicle, and the recognition of such a free space gesture serves to provide an input for a system which is intended to provide information relating to the object or causes the vehicle to react to it.
Zur Implementierung von solchen kontaktlosen MMI sind Gestenerkennungssysteme bekannt, bei denen kalibrierte 2D-Sensoren eingesetzt werden, um bestimmten Merkmalen zugeordnete Punkte entlang der Kontur einer Hand eines Benutzers zu detektieren und zu verfolgen, insbesondere von oben und der Seite aus. Auf Basis der detektierten Punkte kann sodann eine, mit der im dreidimensionalen Raum ausgeführten Geste verbundene Zeigerichtung geschätzt werden. Solche Systeme sind von der Erkennung gut unterscheidbarer Merkmale (Punkte) der menschlichen Hand abhängig und benötigen eine feststehende und kalibrierte Hardware mit zumindest zwei 2D-Sensoren.For the implementation of such contactless MMI, gesture recognition systems are known in which calibrated 2D sensors are used in order to detect and track points associated with certain features along the contour of a user's hand, in particular from above and from the side. On the basis of the detected points, a pointing direction associated with the gesture carried out in three-dimensional space can then be estimated. Such systems are dependent on the recognition of clearly distinguishable features (points) of the human hand and require fixed and calibrated hardware with at least two 2D sensors.
Darüber hinaus sind Verfahren bekannt, bei denen körperbezogene Informationen verwendet werden, um auf eine durch eine Geste ausgedrückte Zeigerichtung zu schließen. In den meisten Fällen werden dazu eine Kopfposition sowie eine Handposition detektiert und darauf beruhend eine Anzeigerichtung geschätzt. Ausrichtungen oder sogar Bewegungen der Finger der Hand werden dabei nicht detektiert oder berücksichtigt.In addition, methods are known in which body-related information is used to infer a pointing direction expressed by a gesture. In most cases, a head position and a hand position are detected and a display direction is estimated based on this. Alignments or even movements of the fingers of the hand are not detected or taken into account.
Der vorliegenden Erfindung liegt die Aufgabe zugrunde, die Erkennung von Freiraumgesten und insbesondere die Bestimmung einer dadurch vermittelnden Richtungsinformation weiter zu verbessern.The present invention is based on the object of further improving the recognition of free space gestures and in particular the determination of directional information conveying them.
Die Lösung dieser Aufgabe wird gemäß der Lehre der unabhängigen Ansprüche erreicht. Verschiedene Ausführungsformen und Weiterbildungen der Erfindung sind Gegenstand der Unteransprüche.This object is achieved in accordance with the teaching of the independent claims. Various embodiments and developments of the invention are the subject of the dependent claims.
Ein erster Aspekt der Erfindung betrifft ein, insbesondere computerimplementiertes, Verfahren zur Schätzung einer durch eine Freiraumgeste vermittelten Richtungsinformation zur Bestimmung einer Benutzereingabe an einer Mensch-Maschine-Schnittstelle, insbesondere eines Fahrzeugs. Das Verfahren weist auf: (i) Empfangen von sensorisch erfassten Messdaten, die eine durch einen Benutzer bezüglich der Mensch-Maschine-Schnittstelle, insbesondere mittels Arm, Hand und/oder Finger, ausgeführte Freiraumgeste als räumlich mehrdimensionale, d.h. 2-dimensionale oder 3-dimensionale, inhomogene Punktwolke in einem entsprechend mehrdimensionalen Raum repräsentieren; (ii) Bestimmen, auf Basis der Messdaten, von Dichtedaten, die eine zu der Punktwolke korrespondierende Dichteverteilung repräsentieren, bei der den einzelnen Punkten der Punktwolke jeweils eine Dichteinformation zugeordnet wird, welche eine lokale Punktdichte der Punktwolke in der Umgebung des jeweiligen Punkts kennzeichnet; (iii) Anwenden eines dimensionsreduzierenden Approximationsverfahrens auf die Dichtedaten zur Bestimmung von Schätzdaten, die eine Schätzung einer zumindest einen Richtungsaspekt der Dichteverteilung charakterisierende, eindimensionale Richtungskurve; repräsentieren; und (iv) Generieren und Bereitstellen von Richtungsdaten, welche eine Richtungsinformation repräsentieren, die durch den räumlichen Verlauf der durch die Schätzdaten repräsentierten Richtungskurve in dem übergeordneten mehrdimensionalen Raum bestimmt ist.A first aspect of the invention relates to a, in particular computer-implemented, method for estimating direction information conveyed by a free space gesture for determining a user input at a human-machine interface, in particular a vehicle. The method comprises: (i) receiving sensor-acquired measurement data which a free space gesture carried out by a user with respect to the human-machine interface, in particular by means of arm, hand and / or finger, as spatially multidimensional, i.e. Represent 2-dimensional or 3-dimensional, inhomogeneous point cloud in a correspondingly multidimensional space; (ii) determining, on the basis of the measurement data, density data which represent a density distribution corresponding to the point cloud, in which in each case density information is assigned to the individual points of the point cloud, which identifies a local point density of the point cloud in the vicinity of the respective point; (iii) applying a dimension-reducing approximation method to the density data to determine estimated data which is an estimate of a one-dimensional direction curve characterizing at least one direction aspect of the density distribution; represent; and (iv) generation and provision of directional data which represent directional information which is determined by the spatial course of the directional curve represented by the estimated data in the superordinate multidimensional space.
Unter einer „Richtungsinformation“ im Sinne der Erfindung ist insbesondere eine Information zu verstehen, die zumindest eine bestimmte, ausgewählte Richtung im Raum angibt. Sie kann optional insbesondere auch gegebenenfalls deren zeitliche Abhängigkeit angeben. “Direction information” in the sense of the invention is to be understood in particular to mean information that indicates at least one specific, selected direction in space. Optionally, it can optionally also specify its temporal dependency.
Unter einer „Punktwolke“ im Sinne der Erfindung ist insbesondere eine Menge von Punkten eines Vektorraums, insbesondere des dreidimensionalen Raums oder eines zweidimensionalen Unterraums davon, zu verstehen, die eine unorganisierte räumliche Struktur („Wolke“) aufweist. Eine Punktwolke ist durch die darin enthaltenen Punkte beschrieben, die jeweils insbesondere durch ihre Raumkoordinaten in einem dem Vektorraum zugeordneten Koordinatensystem erfasst werden können.A “point cloud” in the sense of the invention is to be understood in particular as a set of points of a vector space, in particular of the three-dimensional space or of a two-dimensional subspace thereof, which has an unorganized spatial structure (“cloud”). A point cloud is described by the points contained therein, each of which can be detected in particular by their spatial coordinates in a coordinate system assigned to the vector space.
Unter einer „Richtungskurve“ im Sinne der Erfindung ist insbesondere eine eindimensionale Kurve bzw. insbesondere eine eindimensionale Richtungskurve in einem höherdimensionalen Raum zu verstehen, die zumindest einen durch sie charakterisierten Richtungsaspekt aufweist. Die Richtungskurve kann insbesondere im einfachsten Fall als eindimensionale Richtungskurve eine Gerade darstellen, deren Richtung zugleich den Richtungsaspekt angibt. Sie kann jedoch im allgemeinen Fall auch eine beliebige Krümmung, auch mehrfache Krümmungen, aufweisen. Bevorzugt ist die Richtungskurve zumindest zum überwiegenden Teil, idealerweise überall, stetig und differenzierbar.A “direction curve” in the sense of the invention is to be understood in particular as a one-dimensional curve or in particular a one-dimensional direction curve in a higher-dimensional space, which has at least one directional aspect characterized by it. In the simplest case, the direction curve can represent a straight line as a one-dimensional direction curve, the direction of which at the same time indicates the direction aspect. In the general case, however, it can also have any curvature, including multiple curvatures. The directional curve is preferably at least for the most part, ideally everywhere, continuous and differentiable.
Bei der erfindungsgemäßen Lösung wird folglich die gewünschte Richtungsinformation nicht unmittelbar aus der Punkteverteilung der erfassten Punktwolke bestimmt, sondern stattdessen wird aus der Punkteverteilung zunächst eine eine Wahrscheinlichkeitsverteilung repräsentierende Dichteverteilung abgeleitet, auf deren Basis erst mittels des genannten dimensionsreduzierenden Approximationsverfahrens eine eindimensionale Richtungskurve bestimmt wird, welche die gewünschte Richtungsinformation charakterisiert. Auf diese Weise lässt sich die erreichbare Zuverlässigkeit und Genauigkeit bei der schätzungsbasierten Bestimmung von Richtungsinformationen aus Punktwolken steigern. Zudem benötigt das Verfahren nur relativ geringe Rechenressourcen, sodass es sich insbesondere für echtzeitfähige Anwendungen eignet. Außerdem ist das Verfahren unabhängig von einer bestimmten Orientierung des zur Erfassung der Messdaten verwendeten Sensors, beispielsweise einer Kamera, was es besonders gut zur Bestimmung von, insbesondere auch fingerbasierten, Zeigefreiraumgesten innerhalb eines Fahrzeugs geeignet macht, da gerade dort der Sensor in verschiedensten Positionen vorgesehen sein kann.In the solution according to the invention, the desired directional information is consequently not determined directly from the point distribution of the recorded point cloud, but instead a density distribution representing a probability distribution is first derived from the point distribution, on the basis of which a one-dimensional directional curve is determined only by means of the dimension-reducing approximation method mentioned, which determines the characterizes the desired directional information. In this way, the achievable reliability and accuracy in the estimation-based determination of directional information from point clouds can be increased. In addition, the method requires only relatively small computing resources, so that it is particularly suitable for real-time capable applications. In addition, the method is independent of a specific orientation of the sensor used to record the measurement data, for example a camera, which makes it particularly well suited for determining, in particular also finger-based, gestures of pointer clearance within a vehicle, since the sensor can be provided in very different positions there can.
Nachfolgend werden bevorzugte Ausführungsformen des Verfahrens beschrieben, die jeweils, soweit dies nicht ausdrücklich ausgeschlossen wird oder technisch unmöglich ist, beliebig miteinander sowie mit den weiteren beschriebenen anderen Aspekten der Erfindung kombiniert bzw. als entsprechende Ausführungsformen letzterer verwendet werden können.Preferred embodiments of the method are described below, each of which, as far as this is not expressly excluded or technically impossible, can be combined with one another as well as with the other described other aspects of the invention or used as corresponding embodiments of the latter.
Bei einigen Ausführungsformen erfolgt das sensorische mehrdimensionale Erfassen der durch einen Benutzer bezüglich der Mensch-Maschine-Schnittstelle ausgeführten Freiraumgeste mittels einem TOF-Kamerasystem. Unter einem „TOF-Kamerasystem“ im Sinne der Erfindung ist ein 3D-Kamerasystem zu verstehen, das auf Basis eines Laufzeitverfahren (englisch: time of flight, „TOF“) Distanzen misst. Das Messprinzip beruht darauf, dass die aufzunehmende Szene mittels eines Lichtpulses ausgeleuchtet wird, und die Kamera für jeden Bildpunkt die Zeit, die das Licht bis zum Objekt und wieder zurück braucht misst. Diese benötigte Zeit ist aufgrund der Konstanz der Lichtgeschwindigkeit direkt proportional zur Distanz. Die Kamera liefert somit für jeden Bildpunkt die Entfernung des darauf abgebildeten Objektes. Die Verwendung eines TOF-Kamerasystems stellt eine besonders effektive und hochauflösende Implementierungsmöglichkeit, für den zu sensorischen Erfassung der Freiraumgeste erforderlichen zumindest einen Sensor dar.In some embodiments, the sensory multidimensional detection of the free space gesture carried out by a user with respect to the human-machine interface takes place by means of a TOF camera system. A “TOF camera system” in the sense of the invention is to be understood as a 3D camera system that measures distances on the basis of a time of flight (“TOF”) method. The measuring principle is based on the fact that the scene to be recorded is illuminated by means of a light pulse, and the camera measures for each pixel the time it takes for the light to reach the object and back again. Due to the constant speed of light, this time is directly proportional to the distance. The camera thus supplies the distance of the object depicted on it for each pixel. The use of a TOF camera system represents a particularly effective and high-resolution implementation option for the at least one sensor required for sensory detection of the free space gesture.
Bei einigen Ausführungsformen ist der mehrdimensionale Raum dreidimensional und die Messdaten repräsentieren eine die erfasste Freiraumgeste räumlich dreidimensional, 3D, abbildende Punktwolke.In some embodiments, the multi-dimensional space is three-dimensional, and the measurement data represent a point cloud that depicts the detected free space gesture in three-dimensional, 3D.
Bei einer ersten Variante dazu wird unmittelbar für die 3D-Punktwolke eine dazu korrespondierende Dichteverteilung bestimmt, indem den einzelnen Punkten der 3D-Punktwolke jeweils eine Dichteinformation zugeordnet wird, welche eine lokalen Dichte der 3D-Punktwolke in der Umgebung des jeweiligen Punkts kennzeichnet, wobei für die 3D-Punktwolken die resultierende 3D-Dichteverteilung repräsentierende, zugeordnete Dichtedaten erzeugt werden. Eine dimensionsreduzierende Abbildung der 3D-Punktwolke auf eine oder insbesondere mehrere Punktwolken niedrigerer Dimension ist bei dieser Variante nicht erforderlich, so dass entsprechende Verfahrensschritte eingespart werden können.In a first variant, a density distribution corresponding to this is determined directly for the 3D point cloud by assigning density information to the individual points of the 3D point cloud, which identifies a local density of the 3D point cloud in the vicinity of the respective point, whereby for the 3D point clouds representing the resulting 3D density distribution and associated density data are generated. A dimension-reducing image of the 3D point cloud on one or in particular several point clouds of a lower dimension is not necessary in this variant, so that corresponding method steps can be saved.
Bei einer zweiten, alternativen Variante dazu weist das Bestimmen der Dichtedaten auf: (i) Dimensionsreduzierendes Abbilden der 3D-Punktwolke auf eine Mehrzahl N, mit N >1, jeweils räumlich zweidimensionaler, 2D, Punktwolken, die jeweils in einem von N zugehörigen 2D-Unterräumen des mehrdimensionalen Raums definiert sind, von denen zumindest zwei in dem übergeordneten 3D-Raum nicht parallel zueinander liegen; und (ii) Bestimmen, für jede der N 2D-Punktwolken, einer dazu korrespondierenden Dichteverteilung, bei der den einzelnen Punkten der jeweiligen 2D-Punktwolke jeweils eine Dichteinformation zugeordnet wird, welche eine lokalen Dichte der jeweiligen 2D-Punktwolke in der Umgebung des jeweiligen Punkts kennzeichnet, wobei für jede der 2D-Punktwolken die jeweilige resultierende 2D-Dichteverteilung repräsentierende, zugeordnete Dichtedaten erzeugt werden. Des Weiteren erfolgt das Anwenden des Approximationsverfahrens separat für jede der durch die jeweiligen Dichtedaten repräsentierten 2D-Dichteverteilungen zur Schätzung einer durch sie charakterisierten jeweiligen eindimensionalen, 1D, Richtungskurve, wobei für jede der 2D-Dichteverteilungen die jeweilige 1 D-Richtungskurve repräsentierende zugeordnete Schätzdaten erzeugt werden. Zudem erfolgt das Bestimmen der Richtungsinformation auf Basis einer, insbesondere gewichteten oder ungewichteten, Mittelung von zumindest zwei, bevorzugt sämtlicher, der durch die jeweiligen Schätzdaten repräsentierten einzelnen 1D-Richtungskurven im übergeordneten 3D-Raum, um eine auf den 3D-Raum bezogene Richtungsinformation zu erhalten.In a second, alternative variant, the determination of the density data comprises: (i) dimension-reducing mapping of the 3D point cloud onto a plurality N, with N> 1, each spatially two-dimensional, 2D, point clouds, each of which is defined in one of N associated 2D subspaces of the multidimensional space, at least two of which are not parallel to one another in the superordinate 3D space; and (ii) determining, for each of the N 2D point clouds, a density distribution corresponding thereto, in which the individual points of the respective 2D point cloud are each assigned density information which is a local density of the respective 2D point cloud in the vicinity of the respective point indicates, for each of the 2D point clouds the associated resulting 2D density distribution representing assigned density data are generated. Furthermore, the approximation method is used separately for each of the 2D density distributions represented by the respective density data for estimating a respective one-dimensional, 1D, direction curve characterized by them, whereby for each of the 2D density distributions the associated 1 D direction curve representing assigned estimation data is generated . In addition, the directional information is determined on the basis of a, in particular weighted or unweighted, averaging of at least two, preferably all, of the individual 1D directional curves represented by the respective estimation data in the superordinate 3D space in order to obtain directional information related to the 3D space .
Letzteres kann insbesondere mittels Gradientenbestimmung bezüglich einer aus der Mittelung resultierenden 1D-Richtungskurve erfolgen. Diese sowie jegliche darauf aufbauenden weiteren Ausführungsformen haben den Vorteil, dass die Komplexität der nachfolgenden Berechnungen aufgrund der vorgenommenen Dimensionsreduktion deutlich reduziert werden kann, da insgesamt weniger und nur auf zwei Dimensionen bezogene Daten verarbeitet werden müssen. Somit lässt sich insbesondere die Performanz steigern und somit auch die Echtzeitfähigkeit des Verfahrens erreichen bzw. verbessern.The latter can be done in particular by means of gradient determination with regard to a 1D direction curve resulting from the averaging. These, as well as any further embodiments based on them, have the advantage that the complexity of the subsequent calculations can be significantly reduced due to the dimensional reduction carried out, since overall less and only two-dimensional data have to be processed. In particular, the performance can thus be increased and thus the real-time capability of the method can be achieved or improved.
Bei einigen dieser Ausführungsformen gemäß der zweiten Variante weist das dimensionsreduzierende Abbilden eine Projektionsabbildung entlang einer der drei Dimensionen der durch die Messdaten repräsentierten 3D-Punktwolke auf eine korrespondierende 2D-Punktwolke in einem zugehörigen der N 2D-Unterräumen auf. Die Dimensionsreduzierung auf zwei Dimensionen erfolgt somit mittels Projektion. Beispielsweise kann bei Verwendung eines kartesischen Koordinatensystems die Projektion insbesondere entlang einer der Achsen dieses Koordinatensystems erfolgen, sodass beispielsweise alle Punkte der Punktwolke in dem durch die Koordinatenachsen
Bei einigen Ausführungsformen weist das Bestimmen der Dichtedaten des Weiteren auf: (i) räumliches Quantisieren der durch die Messdaten repräsentierten mehrdimensionalen Punktwolke
oder gegebenenfalls jeder der daraus mittels einer jeweiligen dimensionsreduzierenden Abbildung gewonnenen 2D-Punktwolke, und (ii) Bestimmen der Dichtedaten auf Basis einer resultierenden Dichteverteilung der Punkte der entsprechenden quantisierten Punktwolke. Anstelle einer kontinuierlichen oder in Abhängigkeit von der diskreten Auflösung des entsprechenden die Messdaten erzeugten Sensorsystems festgelegten Abbildung, wird die Punktwolke nun auf ein vordefiniertes räumliches Gitter abgebildet und somit quantisiert. Die einzelnen Zellen des Gitters können insbesondere bei Anwendung eines rechtwinkligen oder sogar Würfelgitters im dreidimensionalen Fall als „Voxel“ und im zweidimensionalen Fall als „Pixel“ bezeichnet werden. Durch die Quantisierung wird wiederum die Komplexität der nachfolgenden Berechnungen vereinfacht, und insbesondere die Verwendung einer einfachen Indizierung für die Voxel bzw. die Pixel anstelle von Koordinatenangaben ermöglicht. Insbesondere kann die Komplexitätsreduktion einschließen, dass anstelle einer Fließkommaarithmetik nun die einfachere und weniger aufwendige Ganzzahlarithmetik verwendet werden kann. Dies vereinfacht und beschleunigt den Einsatz insbesondere in eingebetteten Systemen. Zusätzlich lässt sich durch die Art der Quantisierung die Genauigkeit des Systems anpassen, insbesondere sogar steigern, da die Art der Quantisierung einen einstellbaren Trade-off zwischen Genauigkeit und Geschwindigkeit ermöglicht (grobes Gitter = schnell aber ungenau, feines Gitter = langsamer aber genauer).In some embodiments, determining the density data further comprises: (i) spatial quantizing the multidimensional point cloud represented by the measurement data
or, if applicable, each of the 2D point clouds obtained therefrom by means of a respective dimension-reducing image, and (ii) determining the density data on the basis of a resulting density distribution of the points of the corresponding quantized point cloud. Instead of a continuous or fixed image depending on the discrete resolution of the corresponding sensor system generated the measurement data, the point cloud is now mapped onto a predefined spatial grid and thus quantized. The individual cells of the grid can be referred to as a “voxel” in the three-dimensional case and as a “pixel” in the two-dimensional case, particularly when using a rectangular or even cube grid. The quantization in turn simplifies the complexity of the subsequent calculations and in particular enables simple indexing for the voxels or the pixels instead of coordinate information. In particular, the complexity reduction can include that instead of floating point arithmetic, the simpler and less complex integer arithmetic can now be used. This simplifies and speeds up use, particularly in embedded systems. In addition, the type of quantization allows the accuracy of the system to be adjusted, in particular even increased, since the type of quantization enables an adjustable trade-off between accuracy and speed (coarse grid = fast but inaccurate, fine grid = slower but more precise).
In einigen Weiterbildungen dieser Ausführungsformen kann sich die Quantisierung zusätzlich auf einen dem jeweiligen Voxel bzw. Pixel zugeordneten Wert beziehen, der auf Basis der darin vorhandenen Punkte der Punktwolke bestimmt wird. Die Quantisierung kann dabei insbesondere binär erfolgen, sodass im Rahmen der Quantisierung der Wert eines Voxels bzw. Pixels, wenn seine Punkteanzahl unterhalb einer vorbestimmten Schwelle liegt, auf einen ersten der beiden binären Werte, beispielsweise auf „0“, gesetzt wird, während bei Punkteanzahlen oberhalb der Schwelle dieser Wert auf den zweiten der beiden binären Werte, beispielsweise „1“, gesetzt wird. Bei einer Punkteanzahl, die gleich der Schwelle ist, kann der Wert so festgelegt werden, dass er auf vordefinierte Weise auf einen der binären Werte gesetzt wird. Auf diese Weise kann die Anzahl der weiterzuverarbeitenden Punkte mittels dieser noch weiter reduziert werden, indem nur diejenigen Voxel bzw. Pixel mit dem zweiten Wert im weitern Verfahren berücksichtigt werden, was die Performanz des Verfahrens weiter steigert.In some developments of these embodiments, the quantization can additionally relate to a value assigned to the respective voxel or pixel, which is determined on the basis of the points of the point cloud present therein. The quantization can in particular be carried out in binary form, so that in the course of quantization the value of a voxel or pixel, if its number of points lies below a predetermined threshold, is set to a first of the two binary values, for example to "0", while for points above the threshold this value is set to the second of the two binary values, for example "1". If the number of points is equal to the threshold, the value can be set so that it is set to one of the binary values in a predefined manner. This way the number of Points to be processed further can be reduced further by using only those voxels or pixels with the second value in the further process, which further increases the performance of the process.
Bei einigen dieser Ausführungsformen wird im Falle der räumlichen Quantisierung einer mittels einer jeweiligen dimensionsreduzierenden Abbildung gewonnenen 2D-Punktwolke, die Dichteverteilung für jeden Punkt der resultierenden 2D-Punktwolke auf Basis der Anzahl derjenigen Punkte der durch die Messdaten repräsentierten mehrdimensionalen Punktwolke bestimmt, welche gemäß der Projektionsabbildung auf denselben quantisierten Punkt der 2D-Punktwolke abgebildet werden. Werden also bei der dimensionsreduzierenden Abbildung mittels der Projektion viele Punkte auf dasselbe Pixel der resultierenden 2D-Punktwolke abgebildet, so erhält dieses Pixel einen hohen, der Anzahl dieser Punkte entsprechenden oder daraus abgeleiteten Wert, während im umgekehrten Fall, wenn nur wenige Punkte auf das Pixel abgebildet werden, dieser Wert entsprechend niedriger ausfällt. Auf diese Weise kann die ursprüngliche Punktwolke auf effektive und einfach auszuführende und somit hochperformante Weise in eine zweidimensionale Dichteverteilung umgewandelt werden, welche die resultierende jeweilige 2D-Punktwolke charakterisiert.In some of these embodiments, in the case of spatial quantization of a 2D point cloud obtained by means of a respective dimension-reducing image, the density distribution for each point of the resulting 2D point cloud is determined on the basis of the number of those points of the multidimensional point cloud represented by the measurement data, which are according to the projection image are mapped onto the same quantized point of the 2D point cloud. If, in the case of dimension-reducing imaging, many points are mapped onto the same pixel of the resulting 2D point cloud by means of the projection, this pixel receives a high value corresponding to the number of these points or derived therefrom, while in the opposite case if only a few points are on the pixel are shown, this value is correspondingly lower. In this way, the original point cloud can be converted into a two-dimensional density distribution, which characterizes the resulting respective 2D point cloud, in an effective and easy to carry out and thus high-performance manner.
Bei einigen Ausführungsformen weist das Bestimmen der Dichtedaten des Weiteren ein Filtern der jeweiligen Punktwolke auf, von der ausgehend die durch die jeweiligen Dichtedaten repräsentierte jeweilige Dichteverteilung mittels, bevorzugt mehrfacher, Faltung der Dichteverteilung mit einem jeweiligen Filterkern, der insbesondere eine Tiefpasseigenschaft aufweisen kann und insbesondere ein Glättungskern sein kann, bestimmt wird. In einer Variante kann der Filterkern insbesondere ein Gaußscher Filterkern sein. Mithilfe dieser Filterung wird erreicht, dass die ursprüngliche Dichteverteilung, wie sie sich insbesondere aus der Quantisierung ergibt, geglättet wird, was insbesondere die Anwendbarkeit der nachfolgenden Verfahrensschritte sowie die Qualität der daraus resultierenden Schätzergebnisse für die Richtungsinformationen verbessern kann. Ohne die Filterung würden die Informationen zwischen den Punkten nicht interpoliert, mit der Folge, dass für die nachfolgenden Verfahrensschritte, insbesondere für eine (nachfolgend beschriebene) PCA, deutlich weniger Informationen zur Verfügung stünden, was in einigen Fällen zu weniger zuverlässigen Resultaten führen könnte. Ein weiterer Vorteil der Filterung besteht darin, dass auch einzelne „falsche“ (z.B. durch Messrauschen oder Fehlmessungen erzeugte) Punkte geglättet werden und somit geringeren Einfluss auf den weiteren Verfahrensgang, insbesondere z.B. eine PCA, hat. Das insbesondere mit TOF-Sensoren üblicherweise einhergehende Rauschen wird somit mittels der Filterung unterdrückt und die Ergebnisqualität kann so erhöht werden.In some embodiments, the determination of the density data further comprises filtering the respective point cloud, on the basis of which the respective density distribution represented by the respective density data by means of, preferably multiple, folding of the density distribution with a respective filter core, which in particular can have a low-pass property and in particular Smoothing core can be determined. In one variant, the filter core can in particular be a Gaussian filter core. With the aid of this filtering, the original density distribution, as it results in particular from the quantization, is smoothed, which in particular can improve the applicability of the subsequent method steps and the quality of the resulting estimation results for the directional information. Without the filtering, the information between the points would not be interpolated, with the result that significantly less information would be available for the subsequent method steps, in particular for a PCA (described below), which in some cases could lead to less reliable results. Another advantage of filtering is that individual "wrong" points (e.g. caused by measurement noise or incorrect measurements) are smoothed and thus have less influence on the further process, especially e.g. has a PCA. The noise usually associated with TOF sensors in particular is thus suppressed by means of the filtering and the quality of the result can thus be increased.
Bei einigen Ausführungsformen kommt als dimensionsreduzierenden Approximationsverfahren zur Bestimmung der jeweiligen Schätzdaten eine Hauptkomponentenanalyse, PCA, oder ein Regressionsverfahren zum Einsatz.In some embodiments, a main component analysis, PCA, or a regression method is used as the dimension-reducing approximation method for determining the respective estimation data.
Die PCA stellt ein im Rahmen des erfindungsgemäßen Verfahrens besonders geeignetes und performantes Approximationsverfahren dar. Die PCA kann insbesondere gewichtet sein, so dass kleinere daraus resultierende Hauptkomponenten für die resultierende Bestimmung der Richtungsdaten vernachlässigt werden. Insbesondere kann die PCA im einfachsten Fall bereits unmittelbar nach Bestimmung der ersten Hauptkomponente abgebrochen werden, sodass eine Bestimmung der weiteren Hauptkomponenten nicht mehr erforderlich ist. Die durch die Richtungsdaten repräsentierte Richtungsinformation wird dann somit auf Basis nur der größten mittels der PCA ermittelten Hauptkomponente (d.h. derjenigen Komponenten mit dem größten im Rahmen der PCA ermittelten Eigenwert) bestimmt. Dies ermöglicht eine besonders performante und einfache Implementierung.The PCA is a particularly suitable and performant approximation method within the scope of the method according to the invention. The PCA can in particular be weighted so that smaller main components resulting therefrom are neglected for the resulting determination of the directional data. In particular, in the simplest case, the PCA can be terminated immediately after the determination of the first main component, so that a determination of the further main components is no longer necessary. The directional information represented by the directional data is then determined on the basis of only the largest main component ascertained by means of the PCA (i.e. those components with the greatest intrinsic value determined as part of the PCA). This enables a particularly performant and simple implementation.
Bei einigen Ausführungsformen, bei denen eine PCA bezüglich einer quantisierten und gefilterten, zweidimensionalen Dichteverteilung F(i,j) die Kovarianzmatrix, M, der PCA die folgenden Ausgangswerte erhält:
Bei einigen Ausführungsformen weist das Verfahren des Weiteren auf: (i) Segmentieren der zum Bestimmen der zugehörigen Dichtedaten daraus vorgesehenen jeweiligen Punktwolke in mehrere verschiedene Segmente auf Basis einer Erkennung verschiedener durch die Punktwolke abgebildeter Körperteile des Benutzers; (ii) Auswählen einer echten Untermenge der Segmente mittels eines Auswahlkriteriums, welches in Abhängigkeit von dem bzw. den zur Ausführung der Freiraumgeste bestimmten einem oder mehreren Körperteilen definiert ist; und (iii) Bestimmen der zugehörigen Dichtedaten nur auf Basis des durch die ausgewählte Untermenge der Segmente repräsentierten Teils der Punktwolke. Auf diese Weise ist es möglich, die Bestimmung der gewünschten Richtungsinformationen allein auf Basis eines Ausschnitts der sensorischer erfassten Punktwolke durchzuführen. Dies ist insbesondere dann vorteilhaft, wenn die Punktwolke jenseits eines für die Bestimmung der Richtungsinformationen relevanten Körperteils des Benutzers zusätzlich ein oder mehrere weitere Körperteile oder Abschnitte davon repräsentiert. Die Segmentierung erlaubt zudem zum einen, eine unnötige Verarbeitung der in diesem Sinne nicht relevanten Anteile der Punktwolke zu vermeiden, und andererseits die erforderliche Zuverlässigkeit und Genauigkeit der Ergebnisse zu steigern, da diese nicht durch irrelevante Anteile der Punktwolke verfälscht werden können.In some embodiments, the method further comprises: (i) segmenting the respective point cloud provided for determining the associated density data therefrom into a plurality of different segments on the basis of a recognition of different body parts of the user represented by the point cloud; (ii) selecting a real subset of the segments by means of a selection criterion which is defined as a function of the one or more body parts intended for the execution of the free space gesture; and (iii) determining the associated density data only based on the portion of the point cloud represented by the selected subset of the segments. In this way it is possible to determine the desired directional information solely on the basis of a section of the sensor-acquired point cloud. This is particularly advantageous if the point cloud also represents one or more other body parts or sections thereof beyond a body part of the user that is relevant for determining the directional information. The segmentation also allows, on the one hand, to avoid unnecessary processing of the portions of the point cloud that are not relevant in this sense, and on the other hand increases the required reliability and accuracy of the results, since these cannot be falsified by irrelevant portions of the point cloud.
So kann bei einigen Ausführungsformen die in den Messdaten repräsentierte Punktwolke insbesondere zu einer mit zumindest einem Teil der oberen Gliedmaßen eines Benutzers ausgeführten Freiraumgeste korrespondieren. Dabei enthält die Segmentierung zumindest ein Auswahlsegment, das nur zu einem oder mehreren Fingern des Benutzers korrespondiert, und das Auswahlkriterium ist so definiert, dass die dadurch bestimmte Untermenge der Segmente zumindest, bevorzugt ausschließlich, dieses Auswahlsegment enthält. So lässt sich trotz sensorischer Erfassung eines größeren Teils der oberen Gliedmaßen eine Fokussierung mittels der Segmentierung allein auf durch den einen bzw. mehrere Finger des Benutzers ausgeführte Aspekte der Freiraumgeste erreichen. Insbesondere lässt sich so eine mit dem bzw. den Fingern ausgedrückte Zeigerichtung zuverlässig, performant und/oder mit hoher Genauigkeit erkennen. Thus, in some embodiments, the point cloud represented in the measurement data can correspond in particular to a free space gesture carried out with at least part of the upper limbs of a user. The segmentation contains at least one selection segment that corresponds only to one or more fingers of the user, and the selection criterion is defined in such a way that the subset of the segments determined thereby contains at least, preferably exclusively, this selection segment. In spite of the sensory detection of a larger part of the upper limbs, the segmentation can be focused solely on aspects of the open space gesture carried out by one or more fingers of the user. In particular, a pointing direction expressed with the finger or fingers can be recognized reliably, with high performance and / or with high accuracy.
Bei einigen Ausführungsformen repräsentieren die Messdaten eine zeitliche Entwicklung der Freiraumgeste als räumlich mehrdimensionale und zugleich entsprechend zeitabhängige Punktwolke. Zudem erfolgt die verfahrensgemäße Bestimmung einer durch die Freiraumgeste vermittelten Richtungsinformation mehrfach, jeweils für einen anderen Zeitpunkt bezüglich der zeitabhängigen Punktwolke. Die Richtungsinformation wird dabei so generiert und bereitgestellt, dass sie die aus dieser mehrfachen Bestimmung resultierende zeitliche Entwicklung der Richtungsinformation repräsentiert. Auf diese Weise lässt sich auch eine zeitliche Entwicklung der erfassten Freiraumgeste verfolgen, beispielsweise eine zeitliche Änderung einer durch die Freiraumgeste ausgedrückten Richtungsinformation, wie etwa einer Zeigerichtung.In some embodiments, the measurement data represent a temporal development of the free space gesture as a spatially multidimensional and at the same time correspondingly time-dependent point cloud. In addition, the procedural determination of a directional information conveyed by the free space gesture is carried out several times, in each case for a different point in time with respect to the time-dependent point cloud. The directional information is generated and provided in such a way that it represents the temporal development of the directional information resulting from this multiple determination. In this way, a temporal development of the detected free space gesture can also be tracked, for example a temporal change in direction information, such as a pointing direction, expressed by the free space gesture.
Bei einigen Ausführungsformen (i) repräsentieren die Messdaten in M+1 Dimensionen eine zeitliche Entwicklung der Freiraumgeste als räumlich M-dimensionale und zugleich entsprechend zeitabhängige Punktwolke, mit M>1, (ii) geht dem Bestimmen der Dichtedaten ein dimensionsreduzierendes Abbilden der durch die Messdaten in
Dies soll an einem kurzem Beispiel erläutert werden: Angenommen der Benutzer führt eine dreidimensionale Zeigegeste aus (M=3), bei der er die Hand oder den Arm in einer Kreisbewegung führt, sodass die Zeigerichtung einen zeitlichen Verlauf aufweist, bei dem sie einen Kegel beschreibt. Die Kegelspitze ist dabei (i) die Fingerwurzel (im Falle einer reinen Fingerbewegung) oder (ii) der Ellenbogen im Falle einer von ihm ausgehenden Unterarmbewegung) oder (iii) das Schultergelenk (im Falle einer von ihm ausgehenden Bewegung des gesamten Arms), und die vom Benutzer gewünschte Region befindet sich jeweils im Kegelinneren. Die Punktwolke kann dann zunächst in M + 1 = 4 Dimensionen mit drei Raum- und einer Zeitdimension beschrieben werden und daraus eine dimensionsreduzierende Projektion entlang der Zeitdimension und optional einer der Raumdimensionen auf einen drei- oder zweidimensionalen Raum erfolgen. Die resultierende Punktewolke in diesem reduzierten Raum könnte dann (z.B. für die obige Geste) eine Form bzw. ein Verhalten aufweisen, das eine Raumbereich zumindest teilweise einschließt, z.B. in dem sie eine zumindest weitgehend geschlossene Ringform aufweist. Davon ausgehend lassen sich dann verfahrensgemäß entsprechende Dichtedaten und daraus wiederum eine Richtungsinformation generieren, die die durch die Freiraumgeste umrissene Region beschreibt. Somit kann die Anwendbarkeit des Verfahrens auf die Schätzung von reinen Zeigegesten auf Schätzung von Raumgesten hin erweitert werden.This is to be explained using a short example: Suppose the user performs a three-dimensional pointing gesture (M = 3), in which he moves the hand or arm in a circular motion, so that the pointing direction has a time course in which it describes a cone . The cone tip is (i) the finger root (in the case of a pure finger movement) or (ii) the elbow in the case of a forearm movement emanating from it) or (iii) the shoulder joint (in the case of a movement of the entire arm emanating from it), and the region desired by the user is located inside the cone. The point cloud can then first be described in M + 1 = 4 dimensions with three space and one time dimension and a dimension-reducing projection along the time dimension and optionally one of the space dimensions onto a three- or two-dimensional space. The resulting point cloud in this reduced space could then (e.g. for the above gesture) have a shape or behavior that at least partially includes a spatial area, e.g. in which it has an at least largely closed ring shape. Proceeding from this, corresponding density data can then be generated in accordance with the method and, in turn, directional information can be generated from this, which describes the region outlined by the free space gesture. The applicability of the method to the estimation of pure pointing gestures to the estimation of spatial gestures can thus be expanded.
Bei einigen Ausführungsformen weist das Bestimmen einer durch die Freiraumgeste vermittelten Richtungsinformation auf Basis der Schätzdaten ein Bestimmen zumindest eines tangential zur durch die Schätzdaten repräsentierten Richtungskurve liegenden Richtungsvektors auf. Dies kann insbesondere mittels einer Ableitung im Sinne einer mathematischen Differenzierung bzw. Gradientenbildung bzgl. der Richtungskurve erfolgen. So lässt sich auf einfache Weise aus der Richtungskurve eine sie charakterisierende Richtungsinformation gewinnen, die zugleich einer Schätzung der durch die Freiraumgeste vermittelten Richtungsinformation entspricht.In some embodiments, determining a direction information conveyed by the free space gesture on the basis of the estimated data comprises determining at least one direction vector lying tangential to the direction curve represented by the estimated data. This can be done in particular by means of a derivation in the sense of a mathematical differentiation or gradient formation with respect to the direction curve. In this way, directional information characterizing it can be obtained in a simple manner from the directional curve, which at the same time corresponds to an estimate of the directional information conveyed by the free space gesture.
Ein zweiter Aspekt der Erfindung betrifft eine Vorrichtung zur Schätzung einer durch eine Freiraumgeste vermittelten Richtungsinformation zur Bestimmung einer Benutzereingabe an einer Mensch-Maschine-Schnittstelle, insbesondere eines Fahrzeugs, wobei die Vorrichtung eingerichtet ist, das Verfahren gemäß dem ersten Aspekt der Erfindung auszuführen. Die Vorrichtung kann insbesondere ein Steuergerät für ein Fahrzeug, insbesondere ein Kraftfahrzeug, sein, wobei das Steuergerät selbst die genannte Mensch-Maschine-Schnittstelle aufweist oder eingerichtet ist mit einer solchen zum Empfang der Messdaten von dieser signalverbunden zu werden.A second aspect of the invention relates to a device for estimating direction information conveyed by a free-space gesture for determining a user input at a human-machine interface, in particular a vehicle, the device being set up to carry out the method according to the first aspect of the invention. The device can be, in particular, a control device for a vehicle, in particular a motor vehicle, the control device itself having the man-machine interface mentioned or being set up to be signal-connected to it for receiving the measurement data.
Ein dritter Aspekt der Erfindung betrifft Computerprogramm, das konfiguriert ist, das Verfahren dem ersten Aspekt der Erfindung auszuführen. Das Computerprogramm kann insbesondere auf einem nichtflüchtigen Datenträger gespeichert sein. Bevorzugt ist dies ein Datenträger in Form eines optischen Datenträgers oder eines Flashspeichermoduls. Dies kann vorteilhaft sein, wenn das Computerprogramm als solches unabhängig von einer Prozessorplattform gehandelt werden soll, auf der das ein bzw. die mehreren Programme auszuführen sind. In einer anderen Implementierung kann das Computerprogramm als eine Datei auf einer Datenverarbeitungseinheit, insbesondere auf einem Server vorliegen, und über eine Datenverbindung, beispielsweise das Internet oder eine dedizierte Datenverbindung, wie etwa ein proprietäres oder lokales Netzwerk, herunterladbar sein. Zudem kann das Computerprogramm eine Mehrzahl von zusammenwirkenden einzelnen Programmodulen aufweisen.A third aspect of the invention relates to a computer program configured to carry out the method of the first aspect of the invention. The computer program can in particular be stored on a non-volatile data carrier. This is preferably a data carrier in the form of an optical data carrier or a flash memory module. This can be advantageous if the computer program as such is to be traded independently of a processor platform on which the one or more programs are to be executed. In another implementation, the computer program can be present as a file on a data processing unit, in particular on a server, and via a data connection, for example the Internet or a dedicated data connection, such as a proprietary or local network. be downloadable. In addition, the computer program can have a plurality of interacting individual program modules.
Die Vorrichtung gemäß dem zweiten Aspekt der Erfindung kann entsprechend einen Programmspeicher aufweisen, in dem das Computerprogramm abgelegt ist. Alternativ kann die Vorrichtung auch eingerichtet sein, über eine Kommunikationsverbindung auf ein extern, beispielsweise auf einem oder mehreren Servern oder anderen Datenverarbeitungseinheiten verfügbares Computerprogramm zuzugreifen, insbesondere um mit diesem Daten auszutauschen, die während des Ablaufs des Verfahrens bzw. Computerprogramms Verwendung finden oder Ausgaben des Computerprogramms darstellen.The device according to the second aspect of the invention can accordingly have a program memory in which the computer program is stored. Alternatively, the device can also be set up to access a computer program which is available externally, for example on one or more servers or other data processing units, in particular in order to exchange data with it, which are used during the course of the method or computer program or outputs of the computer program represent.
Die vorausgehend in Bezug auf den ersten Aspekt der Erfindung erläuterten Merkmale und Vorteile gelten entsprechend auch für die weiteren Aspekte der Erfindung.The features and advantages explained above in relation to the first aspect of the invention also apply accordingly to the further aspects of the invention.
Weitere Vorteile, Merkmale und Anwendungsmöglichkeiten der vorliegenden Erfindung ergeben sich aus der nachfolgenden detaillierten Beschreibung im Zusammenhang mit den Figuren.Further advantages, features and possible uses of the present invention result from the following detailed description in connection with the figures.
Dabei zeigt
-
1 schematisch ein System zur Schätzung einer Richtungsinformation einschließlich einer Schätzvorrichtung, gemäß verschiedener Ausführungsformen der Erfindung; -
2 ein Flussdiagramm zur Veranschaulichung einer bevorzugten Ausführungsform des erfindungsgemäßen Verfahrens; -
3 zum Zwecke der Illustration desSegmentierungsprozesses S1 aus2 eine zweidimensionale Darstellung einer durch entsprechende, durch Aufnahme eines menschlichen Arms gewonnene Messdaten repräsentierten beispielhaften Punktwolke, wobei ein zu den Fingern des Arms korrespondierendes Segment gekennzeichnet ist; -
4 graphische Darstellungen zur Veranschaulichung von während des Verfahrens nach2 auftretenden und aus den Messdaten abgeleiteten Daten; und -
5 eine beispielhafte Illustration einer Interpretation einer erfassten Freiraumgeste als Raumgeste zur Schätzung von Richtungsinformation, die einen durch die Freiraumgeste ausgewählten 2D-Flächenbereich definiert, gemäß Ausführungsformen der Erfindung.
-
1 schematically shows a system for estimating a direction information including an estimation device, according to various embodiments of the invention; -
2 a flowchart to illustrate a preferred embodiment of the method according to the invention; -
3 for the purpose of illustrating the segmentation processS1 out2 a two-dimensional representation of an exemplary point cloud represented by corresponding measurement data obtained by recording a human arm, wherein a segment corresponding to the fingers of the arm is identified; -
4 graphic representations to illustrate during theprocess 2 occurring data and derived from the measurement data; and -
5 an exemplary illustration of an interpretation of a detected free space gesture as a spatial gesture for estimating directional information, which defines a 2D surface area selected by the free space gesture, according to embodiments of the invention.
In den Figuren werden durchgängig dieselben Bezugszeichen für dieselben oder einander entsprechenden Elemente der Erfindung verwendet.The same reference numbers are used throughout the figures for the same or corresponding elements of the invention.
Das in
Bei der hier beschriebenen Ausführungsform des Schätzverfahrens wird die durch die Messdaten
Sodann wird die durch die Segmentdaten
Es folgt ein Quantisierungsprozess
Der Quantisierungsprozess
Diese Schätzung erfolgt in einem Schätzabschnitt des Verfahrens, bei dem zunächst aus den quantisierten Bilddaten IDxy bzw. IDxz in einem Wahrscheinlichkeitsschätzprozess
Die
Nun folgt ein Filterprozess
Dabei erfolgt die Indizierung des Kerns
In einem nachfolgenden Approximationsprozess
Im Falle des Einsatzes einer PCA bezüglich der quantisierten und gefilterten, zweidimensionalen Dichteverteilung F(i,j) kann die Kovarianzmatrix,
Aus den Schätzdaten
Das vorausgehend unter Bezugnahme auf die
Angenommen der Benutzer führt eine dreidimensionale Zeigegeste aus (M=3), bei der er die Hand oder den Arm in einer Kreisbewegung führt, sodass die Zeigerichtung einen zeitlichen Verlauf (hier durch die fünf Zeitpunkte t0 bis t4 gekennzeichnet) aufweist, bei dem sie einen Kegel
Während vorausgehend wenigstens eine beispielhafte Ausführungsform beschrieben wurde, ist zu bemerken, dass eine große Anzahl von Variationen dazu existiert. Es ist dabei auch zu beachten, dass die beschriebenen beispielhaften Ausführungsformen nur nichtlimitierende Beispiele darstellen, und es nicht beabsichtigt ist, dadurch den Umfang, die Anwendbarkeit oder die Konfiguration der hier beschriebenen Vorrichtungen und Verfahren zu beschränken. Vielmehr wird die vorausgehende Beschreibung dem Fachmann eine Anleitung zur Implementierung mindestens einer beispielhaften Ausführungsform liefern, wobei sich versteht, dass verschiedene Änderungen in der Funktionsweise und der Anordnung der in einer beispielhaften Ausführungsform beschriebenen Elemente vorgenommen werden können, ohne dass dabei von dem in den angehängten Ansprüchen jeweils festgelegten Gegenstand sowie seinen rechtlichen Äquivalenten abgewichen wird.While at least one exemplary embodiment has been described above, it should be noted that a large number of variations exist. It should also be noted that the exemplary embodiments described are only non-limiting examples and are not intended to limit the scope, applicability, or configuration of the devices and methods described herein. Rather, the foregoing description will provide those skilled in the art with a guide to implementing at least one example embodiment, it being understood that various changes in the operation and arrangement of the elements described in an example embodiment may be made without departing from the scope of the appended claims deviated subject and its legal equivalents.
BezugszeichenlisteReference list
- 11
- System zur Schätzung einer RichtungsinformationSystem for estimating directional information
- 22
- SchätzvorrichtungEstimator
- 2a2a
- ProzessorplattformProcessor platform
- 2b2 B
- Programm- und DatenspeicherProgram and data storage
- 2c2c
- DatenausgangData output
- 33
- TOF-Kamerasystem TOF camera system
- MDMD
- MessdatenMeasurement data
- SDSD
- Segment bzw. dieses darstellende SegmentdatenSegment or segment data representing this
- BDBD
- ProjektionsdatenProjection data
- IDID
- BilddatenImage data
- PDPD
- DichtedatenDensity data
- FDFD
- FilterdatenFilter data
- EDED
- SchätzdatenEstimated data
- RDRD
- Richtungsdaten Directional data
- AA
- per Freiraumgeste ausgewählte 2D-Fläche2D area selected using free space gesture
- CC
- Kegelcone
- TT
- KegelspitzeCone tip
- XX
- von der ausgewählten 2D-Fläche umschlossenes Objektobject enclosed by the selected 2D surface
- t0-t4 t 0 -t 4
- Abfolge verschiedener, zur Durchführung der Freiraumgeste korrespondierender ZeitpunkteSequence of different times corresponding to the execution of the free space gesture
Claims (17)
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102018121317.4A DE102018121317A1 (en) | 2018-08-31 | 2018-08-31 | Method and device for estimating direction information conveyed by a free space gesture for determining user input at a human-machine interface |
PCT/EP2019/071079 WO2020043440A1 (en) | 2018-08-31 | 2019-08-06 | Directional estimation of an open space gesture |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102018121317.4A DE102018121317A1 (en) | 2018-08-31 | 2018-08-31 | Method and device for estimating direction information conveyed by a free space gesture for determining user input at a human-machine interface |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102018121317A1 true DE102018121317A1 (en) | 2020-03-05 |
Family
ID=67620421
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102018121317.4A Granted DE102018121317A1 (en) | 2018-08-31 | 2018-08-31 | Method and device for estimating direction information conveyed by a free space gesture for determining user input at a human-machine interface |
Country Status (2)
Country | Link |
---|---|
DE (1) | DE102018121317A1 (en) |
WO (1) | WO2020043440A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP4083757A1 (en) * | 2020-10-19 | 2022-11-02 | ameria AG | Touchless input interface for an electronic display using multiple sensors |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7831087B2 (en) * | 2003-10-31 | 2010-11-09 | Hewlett-Packard Development Company, L.P. | Method for visual-based recognition of an object |
-
2018
- 2018-08-31 DE DE102018121317.4A patent/DE102018121317A1/en active Granted
-
2019
- 2019-08-06 WO PCT/EP2019/071079 patent/WO2020043440A1/en active Application Filing
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP4083757A1 (en) * | 2020-10-19 | 2022-11-02 | ameria AG | Touchless input interface for an electronic display using multiple sensors |
Also Published As
Publication number | Publication date |
---|---|
WO2020043440A1 (en) | 2020-03-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102014210820B4 (en) | Method for detecting large and passenger vehicles from fixed cameras | |
DE112014003563B4 (en) | Device and method for gesture determination, gesture control device, program and recording medium | |
DE102015121339B4 (en) | SYSTEMS AND METHODS FOR DETERMINING A CONDITION OF A ROAD | |
DE102014209137B4 (en) | Method and device for calibrating a camera system of a motor vehicle | |
EP3642696B1 (en) | Method and device for detecting a user input on the basis of a gesture | |
DE102017220307B4 (en) | Device and method for recognizing traffic signs | |
DE102015207676A1 (en) | Method and device for obstacle detection based on a monocular camera | |
DE102013223803A1 (en) | Method and device for segmenting an occupancy grid for an environment model of a driver assistance system for a vehicle | |
WO2020049154A1 (en) | Method and device for classifying objects | |
DE102021106518A1 (en) | Electronic device for fused camera and radar sensor-based three-dimensional object recognition and operating procedures for it | |
EP2951804A1 (en) | Creation of an environment model for a vehicle | |
DE112019002848T5 (en) | SYSTEM AND METHOD FOR FINDING AND CLASSIFYING PATTERNS IN AN IMAGE WITH AN IMAGE PROCESSING SYSTEM | |
EP3245943A1 (en) | Method for the contactless determination and processing of sleep movement data | |
DE102007013664A1 (en) | Tool e.g. blade, measuring and/or adjusting device, has rolling nut designed as roller ring transmission comprising set of roller-supported roller rings with variable upward gradient | |
DE102004032118A1 (en) | Object recognition method for vehicles | |
DE102018132805A1 (en) | Procedure for improved object detection | |
DE102013210771A1 (en) | DETECTION OF A COMPLEX OBJECT USING A CASCADE OF CLASSIFICATION EQUIPMENT | |
EP3642697B1 (en) | Method and device for detecting a user input on the basis of a gesture | |
DE102018121317A1 (en) | Method and device for estimating direction information conveyed by a free space gesture for determining user input at a human-machine interface | |
DE102013206920A1 (en) | Detecting a complex object using a cascade of classifiers | |
WO2024041833A1 (en) | Visual perception using a vehicle on the basis of a camera image and an ultrasonic map | |
EP1756748B1 (en) | Method for the classification of an object by means of a stereo camera | |
DE102020129164A1 (en) | METHOD AND DEVICE FOR DISTINGUISHING DIFFERENT CONFIGURATION STATES OF AN OBJECT ON THE BASIS OF A PICTURED REPRESENTATION OF THE OBJECT | |
DE102020208080A1 (en) | Detection of objects in images under equivariance or invariance with respect to the object size | |
DE102019220615A1 (en) | Method and device for recognizing and classifying objects |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R163 | Identified publications notified | ||
R016 | Response to examination communication | ||
R082 | Change of representative |
Representative=s name: POTHMANN, KARSTEN, DIPL.-ING., DE |
|
R018 | Grant decision by examination section/examining division |