Nothing Special   »   [go: up one dir, main page]

DE102009023875A1 - Gestenerkennungsschittstellensystem mit vertikaler Anzeigefläche - Google Patents

Gestenerkennungsschittstellensystem mit vertikaler Anzeigefläche Download PDF

Info

Publication number
DE102009023875A1
DE102009023875A1 DE102009023875A DE102009023875A DE102009023875A1 DE 102009023875 A1 DE102009023875 A1 DE 102009023875A1 DE 102009023875 A DE102009023875 A DE 102009023875A DE 102009023875 A DE102009023875 A DE 102009023875A DE 102009023875 A1 DE102009023875 A1 DE 102009023875A1
Authority
DE
Germany
Prior art keywords
input object
images
gesture
interface system
gesture recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102009023875A
Other languages
English (en)
Inventor
Keith H. Los Altos Nishihara
Shi-Ping Pasadena Hsu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northrop Grumman Corp
Original Assignee
Northrop Grumman Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northrop Grumman Corp filed Critical Northrop Grumman Corp
Publication of DE102009023875A1 publication Critical patent/DE102009023875A1/de
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0421Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0428Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by sensing at the edges of the touch surface the interruption of optical paths, e.g. an illumination plane, parallel to the touch surface which may be virtual
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

Eine Ausführungsform der Erfindung umfasst ein Gestenerkennungs-Schnittstellensystem. Das System kann eine im Wesentlichen vertikale Oberfläche enthalten, die dazu ausgelegt ist, um eine Gestenerkennungsumgebung, basierend auf einem physischen Raum im Vordergrund der im Wesentlichen vertikalen Oberfläche, zu definieren. Das System kann auch mindestens eine Lichtquelle zum Bereitstellen von Beleuchtung in der Gestenerkennungsumgebung umfassen. Das System kann auch mindestens zwei Kameras umfassen, die dafür ausgelegt sind, eine Vielzahl von Bildersätzen, basierend auf der von einem Eingabeobjekt reflektierten Beleuchtung in der Gestenerkennungsumgebung, zu erzeugen. Das System kann zusätzlich einen Controller umfassen, der dafür ausgelegt ist, eine bestimmte Eingabegeste, basierend auf Änderungen in den relativen Positionen des Eingabeobjekts in jeder der Vielzahl der Bildersätze, zu bestimmen. Der Controller kann zusätzlich dafür ausgelegt sein, eine mit einer bestimmten Eingabegeste assoziierte Geräteeingabe auszulösen.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Erfindung bezieht sich allgemein auf ein Schnittstellensystem und insbesondere auf ein Gestenerkennungsschnittstellensystem mit vertikaler Anzeigefläche.
  • HINTERGRUND DER ERFINDUNG
  • Da das Angebot an Tätigkeiten zunimmt, die mit einem Computer ausgeführt werden können, werden neue und innovative Wege zur Schaffung einer Computerschnittstelle häufig entwickelt, um die Veränderungen der Computerfunktionen und Aufmachungen (engl. packaging) zu ergänzen. So können es berührungsempfindliche Bildschirme dem Benutzer zum Beispiel ermöglichen, Computereingaben ohne Maus und/oder ohne Tastatur vorzunehmen, so dass der Computer ohne eine eigene Arbeitsfläche bedient werden kann. Beispiele von berührungsempfindlichen Bildschirmen umfassen druckempfindliche Membrane, Strahlunterbrechungstechniken mit am Umfang angeordneten Lichtquellen und Sensoren sowie akustische Erfassungstechniken. Diese Arten von Computerschnittstellen können jedoch Informationen an den Computer nur bezüglich eines Berührungsereignisses selbst liefern und sind daher in ihrer Anwendbarkeit beschränkt. Hinzu kommt, dass solche Arten von Schnittstellen hinsichtlich der Anzahl der Berührungsereignisse, die über einen bestimmten Zeitraum verarbeitet werden können, begrenzt sein können, und dass sie dazu neigen, unbeabsichtigten Kontakt – wie den von einer Hemdmanschette oder Handfläche – als Berührungsereignis auszuwerten. Ferner können solche berührungsempfindliche Bildschirme prohibitiv teuer sein und eignen sich nicht für sehr große Bildschirmgrößen, wie sie beispielsweise bei Präsentationen eingesetzt werden.
  • KURZDARSTELLUNG DER ERFINDUNG
  • Eine Ausführungsform der Erfindung umfasst ein Gestenerkennungs-Schnittstellensystem. Das System kann eine im Wesentlichen vertikale Oberfläche umfassen, die ausgelegt ist, basierend auf einem physischen Raum im Vordergrund der im Wesentlichen vertikalen Oberfläche eine Gestenerkennungsumgebung zu definieren. Das System kann außerdem mindestens eine Lichtquelle umfassen, die angeordnet ist, um eine Beleuchtung der Gestenerkennungsumgebung bereitzustellen. Das System kann auch mindestens zwei Kameras umfassen, die dafür ausgelegt sind, basierend auf der in der Gestenerkennungsumgebung von einem Eingabeobjekt reflektierten Beleuchtung eine Vielzahl von Bildsätzen zu erzeugen. Das System kann weiter einen Controller umfassen, der dafür ausgelegt ist, basierend auf den Veränderungen der relativen Positionen des Eingabeobjekts in jedem der Vielzahl der Bildersätze eine bestimmte Eingabegeste zu bestimmen. Der Controller kann zusätzlich dafür ausgelegt sein, eine mit einer bestimmten Eingabegeste assoziierte Geräteeingabe zu initiieren.
  • Eine andere Ausführungsform der Erfindung umfasst ein Verfahren zum Erzeugen von Geräteeingaben. Das Verfahren umfasst das Darstellen von visuellem Inhalt auf einer im Wesentlichen vertikalen Anzeigefläche, Beleuchten einer Gestenerkennungsumgebung, die durch einen physischen Raum im Vordergrund der im Wesentlichen vertikalen Anzeigefläche definiert ist, und das Erzeugen simulierter Eingaben in der Gestenerkennungsumgebung durch mit einem Eingabeobjekt assoziierte Gesten. Das Verfahren umfasst auch das im Wesentlichen gleichzeitige Erzeugen von einer mit dem Eingabeobjekt assoziierten ersten Vielzahl von Bildern und einer zweiten Vielzahl von Bildern, die auf dem vom Eingabeobjekt reflektierten Licht basieren. Das Verfahren umfasst auch das Erkennen von Merkmalen, die mit dem Eingabeobjekt verbunden sind, in jedem der zusammengehörigen Paare der ersten und zweiten Vielzahl von Bildern. Das Verfahren umfasst auch das Bestimmen einer Vielzahl von dreidimensionalen physischen Positionen des Eingabeobjekts, basierend auf einem relativen Abstand der korrelierenden Punkte in der Folge von Punkten in jedem der zusammengehörigen Paare der ersten und zweiten Vielzahl von Bildern und das Bestimmen, ob Veränderungen der Vielzahl der dreidimensionalen physischen Positionen des Eingabeobjekts irgendeiner einer Vielzahl von vordefinierten Gesten entsprechen. Zusätzlich umfasst das Verfahren das Erzeugen mindestens einer Geräteeingabe, die auf einer bestimmten Geste aus der Vielzahl der vordefinierten Gesten basiert, nachdem bestimmt worden ist, dass die Veränderungen der Vielzahl der dreidimensionalen Positionen des Eingabeobjekts einer bestimmten Geste aus der Vielzahl der vordefinierten Gesten entsprechen.
  • Eine weitere Ausführungsform der Erfindung umfasst ein Gestenerkennungssystem. Das System umfasst Mittel zum Erzeugen eines Helligkeitskontrasts zwischen reflektiertem und nicht reflektiertem Licht in einer Gestenerkennungsumgebung, die durch einen physischen Raum vor einer im Wesentlichen vertikalen Anzeigefläche definiert ist. Das reflektierte Licht kann von einem Eingabeobjekt reflektiert werden. Das System umfasst auch Mittel zum Erzeugen einer auf dem Helligkeitskontrast basierenden ersten Vielzahl von Bildern des Eingabeobjekts und Mittel zum Erzeugen einer auf dem Helligkeitskontrast basierenden zweiten Vielzahl von Bildern des Eingabeobjekts. Die erste Vielzahl von Bildern und die zweite Vielzahl von Bildern können eine Vielzahl von zusammengebrachten Bilderpaaren des Eingabeobjekts bilden. Das System umfasst auch Mittel zum Erzeugen einer Folge mit lang gestreckten Teilen des Eingabeobjekts assoziierten Punkten in jeder Vielzahl der ersten und zweiten Bilder und Mittel zum Korrelieren mindestens eines Paars zusammengehöriger Punkte in jedem der Vielzahl der zusammengebrachten Bilderpaare des Eingabeobjekts. Das System umfasst auch Mittel zum Bestimmen von dreidimensionalen physischen Positionsinformationen, die mit Merkmalen des Eingabeobjekts verbunden sind, basierend auf einem relativen Abstand des mindestens einen korrelierten Paars zusammengehöriger Punkte in der Vielzahl der zusammengebrachten Bilder des Eingabeobjekts. Ferner umfasst das System Mittel zum Übersetzen von Änderungen in den dreidimensionalen Positionsinformationen, die mit den Merkmalen des Eingabeobjekts assoziiert sind, in eine bestimmte Eingabegeste und Mittel zum Erzeugen von Geräteeingaben, basierend auf dem Übereinstimmen einer bestimmten Eingabegeste mit einer Geste der Vielzahl der vordefinierten Gesten.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • 1 zeigt ein Beispiel eines Gestenerkennungs-Schnittstellensystems gemäß einem Aspekt der Erfindung.
  • 2 zeigt ein Beispiel eines Kamerasystems für ein Gestenerkennungs-Schnittstellensystem gemäß einem Aspekt der Erfindung.
  • 3 zeigt ein Beispiel eines Beleuchtungssystems für ein Gestenerkennungs-Schnittstellensystem gemäß einem Aspekt der Erfindung.
  • 4 zeigt ein anderes Beispiel eines Gestenerkennungs-Schnittstellensystems gemäß einem Aspekt der Erfindung.
  • 5 zeigt ein Beispiel einer Grafik eines konvertierten Handbilds, basierend auf einem Algorithmus, zur Verwendung in einem Gestenerkennungs-Schnittstellensystem gemäß einem Aspekt der Erfindung.
  • 6 stellt ein Beispiel einer Parallaxenabstandsgrafik der konvertierten Handbilder zur Verwendung in einem Gestenerkennungs-Schnittstellensystem gemäß einem Aspekt der Erfindung dar.
  • 7 zeigt ein Beispiel einer Gestenanwendung gemäß einem Aspekt der Erfindung.
  • 8 zeigt ein Beispiel eines Verfahrens zum Erzeugen von Eingaben in einen Computer gemäß einem Aspekt der Erfindung.
  • DETAILLIERTE BESCHREIBUNG
  • Die vorliegende Erfindung bezieht sich generell auf Schnittstellensysteme und insbesondere auf Gestenerkennungs-Schnittstellensysteme mit einer vertikalen Anzeigefläche. Ein Benutzer verwendet ein Eingabeobjekt, um simulierte Eingaben in einen Computer oder ein anderes elektronisches Gerät zu erzeugen. Es ist ersichtlich, dass die simulierten Eingaben durch Gesten unter Verwendung des Eingabeobjekts erzeugt werden. Zum Beispiel kann der Benutzer unter Verwendung des Eingabeobjekts Gesten erzeugen, die eine Bewegung und/oder einen Kontakt mit einer vertikalen Anzeigefläche umfassen. Das Eingabeobjekt kann zum Beispiel die Hand des Benutzers sein, ein Stab, ein Eingabestift, ein Zeigestock oder eines aus einer Vielzahl anderer Geräte, mit denen der Benutzer gestikulieren kann. Die simulierten Eingaben können zum Beispiel simulierte Maus-Eingaben sein. Eine oder mehrere Infrarot (IR)-Lichtquellen beleuchten eine Gestenerkennungsumgebung die durch einen Bereich eines physischen Raums vor der vertikalen Anzeigefläche definiert ist. Ein Satz Stereokameras kann jeweils eine Vielzahl von Bildern des Eingabeobjekts erzeugen. Diese Vielzahl von Bilder kann zum Beispiel auf einem reflektierten Lichtkontrast des vom Eingabeobjekt zurück reflektierten IR-Lichts im Vergleich zu im Wesentlichen nicht reflektierten Licht basieren. Die von jeder Kamera aufgenommene Vielzahl von Bilder des Eingabeobjekts kann zum Beispiel eine Vielzahl von zusammengebrachten Bildersätzen des Eingabeobjekts sein, so dass jedes Bild in den zusammengebrachten Bildersätzen unterschiedlichen Perspektiven des Eingabeobjekts zur im Wesentlichen gleichen Zeit entspricht. Ein bestimmter zusammengebrachter Bildersatz kann verwendet werden, die Position des Eingabeobjekts zu bestimmen, und die Vielzahl der zusammengebrachten Bildersätze kann dazu verwendet werden, eine physische Bewegung des Eingabeobjekts zu bestimmen.
  • Ein Controller kann dafür ausgelegt sein, eine Vielzahl von Bildern zu empfangen, um mit dem Eingabeobjekt assoziierte dreidimensionale Positionsinformationen zu ermitteln. Zum Beispiel kann der Controller einen Algorithmus anwenden, um Merkmale des Eingabeobjekts, wie Endpunkte, Länge und Neigung langgestreckter Teile des Eingabeobjekts im dreidimensionalen Raum zu ermitteln. Der Controller kann dann, basierend auf den dreidimensionalen Positionsinformationen, die simulierten Eingaben in Geräteeingaben übersetzen. Zum Beispiel kann der Controller auf mit dem Eingabeobjekt assoziierten Bewegungen basierende Gesteneingaben interpretieren und diese Gesteneingaben in Eingaben in einen Computer oder andere Geräte übersetzen. Der Controller kann auch die mit einem Endpunkt oder mit mehreren Endpunkten des Eingabeobjekts assoziierten Bewegungen mit einer Vielzahl von vordefinierten, in einem Speicher gespeicherten Gesten vergleichen, so dass eine Übereinstimmung mit einer bestimmten vordefinierten Geste einer bestimmten Geräteeingabe entspricht.
  • 1 stellt ein Beispiel eines Gestenerkennungs-Schnittstellensystems 10 in Übereinstimmung mit einem Aspekt der Erfindung dar. Das Gestenerkennungs-Schnittstellensystem umfasst eine erste Kamera 12, eine zweite Kamera 14, eine erste IR-Lichtquelle 16 und eine zweite IR-Lichtquelle 18, die über einer vertikalen Anzeigefläche 20 montiert sind. Die vertikale Anzeigefläche 20 kann zum Beispiel eine Projektionsleinwand sein. Die erste Kamera 12 und die zweite Kamera 14 können einen IR-Filter beinhalten, so dass die jeweilige Kamera nur jeweils IR-Licht empfangen kann. Jede der ersten IR-Lichtquelle 16 und zweiten IR-Lichtquelle 18 kann die Gestenerkennungsumgebung 22 beleuchten, die als dreidimensionaler physischer Raum im Vordergrund der vertikalen Anzeigefläche 20 definiert ist, und die für die erste und zweite Kamera 12 und 14 einsehbar ist.
  • Ein Eingabeobjekt 24 kann simulierte Eingaben über der vertikalen Anzeigefläche 20 erzeugen. In dem Beispiel nach 1 wird das Eingabeobjekt 24 als die Hand des Benutzers dargestellt, so dass die simulierten Eingaben durch Handgesten erzeugt werden. Es ist ersichtlich, dass die Verwendung einer Hand zur Erzeugung simulierter Eingaben über Handgesten, nur eine beispielhafte Ausführungsform eines Gestenerkennungs-Schnittstellensystems 10 ist. Beispiele anderer Arten eines Eingabeobjekts können einen Eingabestift, einen Stab, einen Zeigestock oder eine Vielzahl anderer Objekte umfassen, die Gesten erzeugen können, um Eingaben zu simulieren. Ferner ist ersichtlich, dass das Eingabeobjekt 24 für den Gebrauch in dem Gestenerkennungs-Schnittstellensystem 10 nicht speziell gestaltet oder geeignet sein muss. Zum Beispiel kann die bloße Hand eines Benutzers als Eingabeobjekt verwendet werden. Daher ist es nicht notwendig, dass der Benutzer zum Erzeugen von Gesteneingaben in dem Gestenerkennungs-Schnittstellensystem 10, in Übereinstimmung mit einem Aspekt der Erfindung, einen Handschuh trägt der retro-reflektives Material oder einen oder mehrere Positionssensoren umfasst.
  • Bei dem Ausführungsbeispiel nach 1 empfängt jede der ersten Kamera 12 und der zweiten Kamera 14 separate Bilder des Eingabeobjekts 24, wobei jedes von der ersten Kamera 12 beziehungsweise der zweiten Kamera 14 empfangenen separaten Bilder einen zusammengebrachten Satz bilden (d. h. zusammengebrachtes Paar). Zum Beispiel kann jede der ersten und zweiten Kamera 12 und 14 in schneller Abfolge fotografische Standbilder, zum Beispiel mit einer Rate von sechzig Bildern pro Sekunde aufnehmen, so dass jedes fotografische Standbild, das von der ersten Kamera 12 aufgenommen wird, mit einem fotografische Standbild, das von der zweiten Kamera 14 zur im Wesentlichen selben Zeit aufgenommen wird, zusammengebracht wird. Wegen der Parallaxe, verursacht durch die unterschiedlichen Befestigungspositionen der ersten Kamera 12 und der zweiten Kamera 14, kann das Eingabeobjekt 24 in jedem Bild des von der ersten Kamera 12 und der zweiten Kamera 14 entsprechend aufgenommenen zusammengebrachten Bildersatzes an unterschiedlichen Positionen erscheinen. In dem Beispiel der 1 können die erste und zweite Kamera 12 und 14 jeweils so positioniert sein, dass sie zur Mitte der vertikalen Anzeigefläche 20 geneigt sind, um eine genauere Positionsbestimmung des Eingabeobjekts 24 bereitzustellen.
  • Die von jeder der ersten und zweiten Kamera 12 und 14 empfangenen Bilder können auf IR-Licht basieren, das von dem Eingabeobjekt reflektiert wird, relativ zu im Wesentlichen nicht reflektiertem Licht in der Gestenerkennungsumgebung 22. Im Speziellen wird ein Objekt mit einer relativen Beleuchtungsintensität beleuchtet, die 1/D2 beträgt, wobei D die Entfernung zur Lichtquelle ist. Daher erscheint ein Objekt das doppelt so weit von der Lichtquelle entfernt ist viermal dunkler. Obwohl ein gewisser Teil des von der ersten und zweiten IR-Lichtquelle 16 und 18 emittierten IR-Lichts durch den Fußboden 28 unter der vertikalen Anzeigefläche 20 reflektiert wird, ist die Intensität des reflektierten Lichts signifikant geringer als die Intensität des vom Eingabeobjekt 24 reflektierten Lichts.
  • Die erste Kamera 12 und die zweite Kamera 14 können jeweils ihre jeweiligen getrennten Bilder des Eingabeobjekts 24 einem Controller 26 bereitstellen. Der Controller 26 kann sich zum Beispiel in einem nicht dargestellten Computer befinden, für den das Gestenerkennungs-Schnittstellensystem 10 vorgesehen ist, um eine Gestenerkennungs-Schnittstelle bereitzustellen. Allerdings ist ersichtlich, dass nicht nur ein allein stehender Computer den Controller aufnehmen kann, sondern der Controller auch in einem eingebetteten Prozessor enthalten sein kann. Der Controller 26 kann die jeweiligen, mit dem Eingabeobjekt 24 assoziierten Bilder verarbeiten, um mit dem Eingabeobjekt 24 assoziierte dreidimensionale Positionsdaten zu erzeugen.
  • Zum Beispiel kann jede der ersten Kamera 12 und der zweiten Kamera 14 mit einem vorbestimmten Winkel im Bezug zum Fußboden unter der vertikalen Anzeigefläche 20 befestigt sein. Für ein bestimmtes zusammengebrachtes Bilderpaar des Eingabeobjekts 24 ist, wenn der vorbestimmte Winkel beider Kameras 12 und 14 gleich ist, jeder Punkt des Eingabeobjekts 24 in einem zweidimensionalen Raum in einem bestimmten Bild der Kamera 12 im gleichen Abstand von dem entsprechenden Punkt des Eingabeobjekts 24 in dem entspre chenden zusammengebrachten Bild der Kamera 14 vorhanden. Daher kann der Controller 26 die dreidimensionale physische Position des Eingabeobjekts 24, basierend auf einem relativen Parallaxenabstand in dem zusammengebrachten Bildersatz des Eingabeobjekts 24, für einen bestimmten Zeitpunkt bestimmen. Zusätzlich kann der Controller 26 unter Verwendung eines Computeralgorithmus auch die dreidimensionale physische Position von mit Teilen des Eingabeobjekts 24 assoziierten Merkmalen bestimmen, wie zum Beispiel Finger und Fingerspitzen.
  • Das Gestenerkennungs-Schnittstellensystem 10 kann auch einen Projektor 30 umfassen. Der Projektor 30 kann visuellen Inhalt bereitstellen, mit dem der Benutzer interagieren und Eingaben erzeugen kann. In dem Beispiel der 1 projiziert der Projektor 30 den visuellen Inhalt auf die vertikale Anzeigefläche 20. Da die IR-Lichtquellen 16 und 18 nicht sichtbares Licht ausstrahlen, behindert die IR-Beleuchtung nicht die vom Projektor 30 projizierten visuellen Inhalte. Daher kann der Benutzer in der Gestenerkennungsumgebung 22 das Eingabeobjekt 24 verwenden, um mit dem visuellen Inhalt interagierende Eingaben zu simulieren. Es ist ersichtlich, dass die Interaktion mit dem visuellen Inhalt über Gesten, so wie es hier beschrieben wird, als das Erzeugen simulierten Eingaben durch Gesten in Reaktion auf den visuellen Inhalt, oder das Erzeugen des visuellen Inhalts definiert ist, so wie es detailliert im Ausführungsbeispiel der 7 beschrieben wird.
  • Die simulierten Eingaben können zum Beispiel Maus-Eingaben sein, so dass der Controller 26 die zweidimensionale Bewegung eines Endpunkts des Eingabeobjekts 24 über die vertikale Anzeigefläche 20 als einen Maus-Cursor interpretiert und die Berührung der vertikalen Anzeigefläche 20 durch den Endpunkt des Eingabeobjekts 24 als linken Maus-Klick interpretiert. Dementsprechend kann ein Benutzer des Gestenerkennungs-Schnittstellensystems 10 durch eine Vielzahl von mit dem Computer assoziierten Computermenüs navigieren, nur indem er seine oder ihre Fingerspitze durch die Luft vor der vertikalen Anzeigefläche 20 bewegt und die auf die vertikale Anzeigefläche 20 projizierten Symbole berührt. In einem anderen Beispiel kann die vertikale Anzeigefläche 20 als virtuelle Leinwand verwendet werden, so dass der visuelle Inhalt als virtuelle Tinte projiziert wird, die auf der virtuellen Leinwand in Reaktion auf das Berühren der vertikalen Anzeigefläche 20 mit dem Eingabeobjekt 24 bereitgestellt wird. Zusätzlich können weitere Gesten implementiert werden, um die virtuelle Tinte zu löschen oder ihre Eigenschaften zu verändern, wie zum Beispiel Farbe und Stiftbreite. Dementsprechend kann das Gestenerkennungs-Schnittstellensystem 10 als virtuelle Weißwandtafel fungieren, auf der der Benutzer zeichnen oder schreiben kann.
  • Der Controller 26 umfasst eine Kalibrierungseinheit 32 zum Kalibrieren des Gestenerkennungs-Schnittstellensystems 10. Die Kalibrierungseinheit 32 kann ein separates System sein, das in Verbindung mit dem Controller 26 arbeitet oder lediglich eine Software-Routine des Controllers 26 sein. Zum Beispiel kann die Kalibrierungseinheit 23 als Kalibrierungsroutine implementiert sein, die zum Beispiel beim Einschalten oder Set-Up des Gestenerkennungs-Schnittstellensystems 10, oder in periodischen Intervallen mit der Software des Controllers 26 interagiert. Eine Kalibrierungsroutine kann lediglich darin bestehen, den Benutzer aufzufordern, einen spezifischen Punkt auf der vertikalen Anzeigefläche 20 mit einem Endpunkt des Eingabeobjekts 24 zu berühren. Dieser spezifische Punkt kann aus einem oder mehreren Punkten mit vorbestimmten Koordinaten bestehen, die vom Controller 26 und/oder der Kalibrierungseinheit 23 auf der vertikalen Anzeigefläche 20 gekennzeichnet werden. Zum Beispiel kann der spezifische Punkt eine permanente visuelle Markierung auf der vertikalen Anzeigefläche 20 sein, oder der spezifische Punkt kann von dem Projektor 30 auf die vertikale Anzeigefläche 20 projiziert werden. Daraufhin kann die Kalibrierungseinheit 32 die Bilder des den spezifischen Punkt berührenden Eingabeobjekts mit den vorgegebenen Koordinaten des spezifischen Punkts verbinden. Somit kann die Kalibrierungseinheit 32 die Bilder kalibrieren, um eine genaue Gestenerkennung zu ermöglichen.
  • Es ist ersichtlich, dass das Gestenerkennungs-Schnittstellensystem 10 in dem Beispiel der 1 nur ein Beispiel eines Gestenerkennungs-Schnittstellensystems darstellen soll. Zum Beispiel kann das Gestenerkennungs-Schnittstellensystem 10 mehr als zwei Kameras umfassen, die sich an unterschiedlichen Positionen über und/oder unter der vertikalen Anzeigefläche 20 befinden, von denen jede entsprechende Bilder des Eingabeobjekts 24 zu dem Controller 26 liefert. Zum Beispiel kann ein Dreiwege-Stereo-Kamerasystem verwendet werden, oder es können auch mehrere Kameras eingesetzt werden, um den visuellen Erfassungsbereich für eine breite vertikale Anzeigefläche 20 zu erhöhen oder in Situationen in denen der Raum über der vertikalen Anzeigefläche 20 nicht ausreicht. Zusätzlich kann als weiteres Beispiel der Projektor 30 den visuellen Inhalt von hinten auf die vertikale Anzeigefläche 20 projizieren oder die vertikale Anzeigefläche 20 kann ein Flüssigkristall-Display (LCD) oder ein Plasmamonitor anstelle der Projektionsleinwand sein. Als weiteres Beispiel können die IR-Lichtquellen 16 und 18 nicht im IR-Spektrum strahlen, sondern können stattdessen in einem anderen Spektralbereich strahlen, zum Beispiel in einem engen Frequenzband des sichtbaren Lichts, wobei jede der entsprechenden Kameras 12 und 14 einen entsprechenden Spektralfilter aufweist. Demzufolge kann das Gestenerkennungs-Schnittstellensystem 10 in einer von vielen Weisen ausgestaltet sein.
  • 2 stellt ein Beispiel eines Kamerasystems 50 für ein Gestenerkennungs-Schnittstellensystem 10 in Übereinstimmung mit einem Aspekt der Erfindung dar. Das Kamerasystem 50 kann ein Teil des Gestenerkennungs-Schnittstellensystems 10 gemäß dem Ausführungsbeispiel nach 1 sein. Insoweit ist in der nachfolgenden Beschreibung des Ausführungsbeispiels nach 2 auch auf das Ausführungsbeispiel von 1 Bezug zu nehmen.
  • In dem Beispiel der 2 wird das Kamerasystem 50 in einer Seitenansicht im Bezug zur vertikalen Anzeigefläche 20 gezeigt. Daher zeigt das Kamerasystem 50 die Positionierung einer Kamera 52, stellvertretend für eine der Kameras 12 und 14 im Beispiel der 1. So wie im Beispiel der 2 gezeigt, ist die Kamera 52 derart über der vertikalen Anzeigefläche 20 angeordnet, dass die zentrale Linsenachse 54 der Kamera 52 einen Blickwinkel (engl. glancing angle) von θ im Bezug zur der von der vertikalen Anzeigefläche 20 definierten Ebene aufweist. Wie hierin beschrieben, ist die zentrale Linsenachse 54 als eine durch den Mittelpunkt der Linse der Kamera 52 verlaufende Achse definiert. Der Blickwinkel θ kann zum Beispiel ein im Wesentlichen kleiner Winkel ungleich Null sein. In einem anderen Beispiel kann der Blickwinkel θ Null sein, so dass die Kamera 52 näher an die vertikale Anzeigefläche 20 positioniert werden kann.
  • Aufgrund der Positionierung der Kameras 12 und 14 relativ zu der vertikalen Anzeigefläche 20, wie durch die Kamera 52 in dem Beispiel der 2 dargestellt, können die vertikale Anzeigefläche 20 und die Gestenerkennungsumgebung 22 vor der vertikalen Anzeigefläche 20 durch die Kameras 12 und 14 abgebildet werden. Insbesondere die Position der Kamera 52 in dem Beispiel der 2 zeigt, dass die Kameras 12 und 14 dafür ausgelegt sind, die vertikale Anzeigefläche 20 und einen Bereich des physischen Raums im Vordergrund der virtuellen Anzeigefläche 20 abzubilden, der ausreichend groß ist (zum Beispiel ungefähr 25 bis 50 cm vor der Anzeigefläche), um die Eingabegesten des Eingabeobjekts 24 zu erfassen, ohne dass es zwingend erforderlich ist, die vertikale Anzeigefläche 20 zu berühren. Daher kann der Controller 26, basierend auf der Positionierung der Kamera 52, die dreidimensionale Position des Eingabeobjekts 24 aus einer Analyse der Positionen in den Bildern und der Parallaxe zwischen den Kameras 12 und 14 berechnen. Die Anordnung der Kameras 12 und 14 kann außerdem eine genauere Messung der Entfernung zwischen der vertikalen Anzeigefläche 20 und dem Eingabeobjekt 24 ermöglichen, als wenn die zentrale Linsenachse 54 im Wesentlichen senkrecht zu der vertikalen Anzeigefläche 20 wäre.
  • 3 stellt ein Beispiel eines Beleuchtungssystems 100 für ein Gestenerkennungs-Schnittstellensystem 10 in Übereinstimmung mit einem Aspekt der Erfindung dar. Das Be leuchtungssystem 100 kann ein Teil des Gestenerkennungs-Schnittstellensystems 10 gemäß dem Ausführungsbeispiel nach 1 sein. Insoweit ist in der nachfolgenden Beschreibung des Ausführungsbeispiels nach 3 auch auf das Ausführungsbeispiel von 1 Bezug zu nehmen.
  • Das Beleuchtungssystem 100 umfasst eine Vielzahl von Beleuchtungsgeräten 102, die über der vertikalen Anzeigefläche 20 angeordnet sind. Die Beleuchtungsgeräte 102 können zum Beispiel IR-Beleuchtungsgeräte sein. Die Beleuchtungsgeräte 102 teilen sich in einen ersten Teil 104 und in einen zweiten Teil 106 auf. Der erste und zweite Teil 104 und 106 können jeweils eines oder mehrere der Beleuchtungsgeräte 102 umfassen. Daher können die Beleuchtungsgeräte 102 quer über die Oberseite der vertikalen Anzeigefläche 20 verteilt sein, um die Gestenerkennungsumgebung 22 in einer im Wesentlichen gleichmäßigen Art und Weise zu beleuchten. Zusätzlich können die Beleuchtungsgeräte 102 so angeordnet sein, dass sie relativ zu einer Ebene, die durch die vertikale Anzeigefläche 20 definiert wird, einen großen Einfallswinkel (z. B. ungefähr 90°) aufweisen.
  • Die Beleuchtungsgeräte 102 des ersten und zweiten Teils 104 und 106 sind jeweils mit einer zentralen Beleuchtungsachse 108 angeordnet. Im vorliegenden Zusammenhang ist die zentrale Beleuchtungsachse 108 als eine Achse definiert die von dem Mittelpunkt der IR-Lichtquelle des Beleuchtungsgeräts 102 ausgeht. Insbesondere die Beleuchtungsgeräte 102 in dem ersten Teil 104 sind in Bezug zu einer Normalen 110 des Fußbodens 28 (in dem Beispiel der 2 nicht dargestellt) mit einem Winkel φ zur Mitte der vertikalen Anzeigefläche 20 hin angeordnet. Ebenso sind die Beleuchtungsgeräte 102 in dem zweiten Teil 106 in Bezug zu einer Normalen 110 des Fußbodens 28 mit einem Winkel φ zur Mitte der vertikalen Anzeigefläche 20 hin angeordnet, so dass der erste Teil 104 und der zweite Teil 106 der Beleuchtungsgeräte 102 spiegelbildlich angeordnet sind.
  • Aufgrund der angewinkelten Positionierung der Beleuchtungsgeräte 102 relativ zur Normalen 110 wird die direkte Beleuchtung des Fußbodens 102 unter der vertikalen Anzeigefläche 20 abgeschwächt. Im Besonderen beleuchten die Beleuchtungsgeräte 102 den Fußboden 28 unter einem Einfallswinkel φ. Daher wird deutlich weniger Beleuchtung von dem Fußboden 28 in die Gestenerkennungsumgebung 22 reflektiert. Daher ist der Helligkeitskontrast zwischen dem vom Eingabeobjekt 24 reflektiertem Licht und dem nicht reflektierten Licht in dem physischen Raum der Gestenerkennungsumgebung stärker. Dementsprechend können in den Bildern, die von der ersten und der zweiten Kamera bereitgestellt werden, die Kanten des Eingabeobjekts 24 genauer ermittelt werden, so dass die mit dem Eingabeobjekt 24 assoziierten Merkmale mit einer größeren Genauigkeit durch den von dem Controller 26 ausgeführten Algorithmus erkannt werden.
  • Zusätzlich kann, da die Beleuchtungsgeräte 102 mit einem großen Einfallswinkel im Bezug zur Ebene der vertikalen Anzeigefläche 20 positioniert sind, die vertikale Anzeigefläche 20 für die Kameras 12 und 14, im Bezug auf das reflektierte IR-Licht, wesentlich dunkler erscheinen als das Eingabeobjekt 24. Außerdem kann die vertikale Anzeigefläche 20 in dem Beleuchtungssystem 100 und damit das Gestenerkennungs-Schnittstellensystem 10 retroreflektiv ausgestaltet sein. Daher kann das auf die vertikale Anzeigefläche 20 einfallende Licht im Wesentlichen zurück zu der Beleuchtungsquelle reflektiert werden. Allerdings kann sich die Retro-Reflektivität bei größeren Einfallswinkeln deutlich vermindern. Aufgrund der Retro-Reflektivität der vertikalen Anzeigefläche 20 wird das IR-Licht, das von den Beleuchtungsgeräten 102 emittiert wird, oder das von dem Eingabeobjekt auf die vertikale Anzeigefläche 20 reflektiert wird, nicht zu den Kameras 12 und 14 reflektiert. Dementsprechend bleibt, obwohl die vertikale Anzeigefläche 20 durch die Kameras 12 und 14 abgebildet wird, so wie es vorher in Beispiel der 2 beschrieben worden ist, die vertikale Anzeigefläche 20 für die Kameras 12 und 14 im Vergleich zu dem Eingabeobjekt 24 in Bezug auf das reflektierte IR-Licht im Wesentlichen dunkler.
  • 4 stellt ein anderes Beispiel eines Gestenerkennungs-Schnittstellensystems 150 in Übereinstimmung mit einem Aspekt der Erfindung dar. Das Gestenerkennungs-Schnittstellensystem 150 kann ein Teil des Gestenerkennungs-Schnittstellensystems 10 gemäß dem Ausführungsbeispiel nach 1 sein. Insoweit ist in der nachfolgenden Beschreibung des Ausführungsbeispiels nach 4 auch auf das Ausführungsbeispiel von 1 Bezug zu nehmen.
  • Das Gestenerkennungs-Schnittstellensystem 150 umfasst den Controller 26, die erste Kamera 12 und die zweite Kamera 14. Die erste und zweite Kamera 12 und 14 empfangen jeweils eine Vielzahl von Bildern des Eingabeobjekts 24, wie zum Beispiel der Hand eines Benutzers. Die entsprechenden Bilder des Eingabeobjekts 24 können Bilder sein, die auf den Helligkeitskontrast zwischen dem vom Eingabeobjekt 24 reflektiertem Licht und dem nicht reflektiertem Licht in der Gestenerkennungsumgebung 22 basieren.
  • Die erste und zweite Kamera 12 und 14 geben jeweils ihre entsprechenden Bilder eines zusammengehörigen Bilderpaars in einen Digitalisierer 152 ein. Der Digitalisierer 152 erzeugt digitale Versionen der Bilder des Eingabeobjekts. Die digitalisierten Bilder des Eingabeobjekts 24 werden in einen Bildvergleicher 154 eingegeben. Der Bildvergleicher 154 ver gleicht jedes der digitalisierten Bilder des Eingabeobjekts mit einem zuvor gespeicherten digitalisierten Bild des Eingabeobjekts, um ein binär codiertes Bild des Eingabeobjekts 24 zu erzeugen. Solch ein Vergleich ermöglicht eine verbesserte Qualität der digitalisierten Bilder, wenn die IR-Beleuchtung der Gestenerkennungsumgebung 22 nicht über die gesamte vertikale Anzeigefläche 20 gleichmäßig ist. Das zuvor gespeicherte digitalisierte Bild kann während eines Kalibrierungsvorgangs und/oder aus den wiederholten Speichern der digitalisierten Bilder in einem Pufferspeicher erhalten werden.
  • Zum Beispiel kann ein Hintergrundmodell ohne das Eingabeobjekt 24 für jede der Kameras 12 und 14 beibehalten werden. Die Hintergrundmodellbilder können verwendet werden, um für jeden Bildpunkt zu entscheiden, ob das Bild des Eingabeobjekts 24 einer binären 1 oder 0 entspricht. Zum Beispiel wird für jeden Bildpunktort, wenn das Bild des Eingabeobjekts 24 einen Wert aufweist, der etwas größer ist als der Wert des Hintergrundmodellbilds multipliziert mit einem Schwellen-Skalierungswert zwischen 0 und 1, der Ausgabewert eine binäre 1 sein, wodurch die Anwesenheit des Eingabeobjekts 24 angezeigt wird. Auf diese Weise kann der Skalierungswert so ausgewählt werden, dass ein optimales Gleichgewicht zwischen dem wünschenswerten Erkennen des Eingabeobjekts 24 und einer Unempfindlichkeit der ersten und zweiten Kamera 12 und 14 gegenüber dem Vorhandensein von zurück reflektierten Licht eingestellt werden kann. Daher können mit dem Eingabeobjekt assoziierte Kanten in allen Bildern erkannt werden.
  • Die im Kontrast verstärkten binär codierten Bilder des Eingabeobjekts 24 werden dann in ein Skelettdarstellungs-Objekterkennungs-Algorithmusgerät 156 eingegeben. Das Objekterkennungs-Algorithmusgerät 156 kann ein integrierter Schaltkreis (IC), ein Satz von ICs innerhalb des Controllers 26 oder eine Software-Routine des Controllers 26 sein. Das Objekterkennungs-Algorithmusgerät 156 kann dafür ausgelegt sein, mit dem Eingabeobjekt 24 assoziierte Merkmale in jedem der binär codierten Bilder zu erkennen. Zum Beispiel kann das Objekterkennungs-Algorithmusgerät 156 die Länge, die Neigung und/oder die mit den langgestreckten Teilen des Eingabeobjekts 24 assoziierten Endpunkte erkennen.
  • Zum Beispiel kann das Objekterkennungs-Algorithmusgerät 156 dafür ausgelegt sein, die Position einer Folge von mit Kanten der langgestreckten Teile des Eingabeobjekts 24 assoziierten Mittelpunkte zu bestimmen. Die Mittelpunkte können in den Bildern, auf denen keine andere Kantenpunkte in dem zweidimensionalen Koordinatensystem vorhanden sind, symmetrische Punkte sein, die sich ungefähr auf halben Weg zwischen zwei Grenzpunkten an Kanten des Eingabeobjekts befinden. Ein Verbindungsalgorithmus kann dann die symmetrischen Punkte zu Ketten verbinden, aus denen gerade den langgestreckten Teilen entspre chende Segmente gebildet werden. Die symmetrischen Punkte können mit radialen Entfernungsparametern versehen werden, die einen Ball beschreiben, der an den Punkt zentriert wird, der in die Grenzen des Bildes passt. Die Ketten und Segmentstrukturen können dann die radialen Entfernungsparameter übernehmen, um eine Skelettdarstellung des Eingabeobjekts 24 zu bilden, von der dann die Merkmale der langgestreckten Teile abgeleitet werden können.
  • 5 stellt ein Beispiel einer Grafik 200 des konvertierten Handbilds, basierend auf den Skelettdarstellungs-Objekterkennungsalgorithmus in Übereinstimmung mit einem Aspekt der Erfindung dar. Ein erstes Handbild 202 wird gezeigt, das einen von einer im Wesentlichen geschlossenen Faust ausgestreckten Zeigefinger zeigt. Das Objekterkennungs-Algorithmusgerät 156 kann dann das erste Handbild 202 in eine Skelettdarstellung 203 konvertieren. Insbesondere kann das Objekterkennungs-Algorithmusgerät 156 eine Folge von Mittelpunkten entlang der langgestreckten Teile (d. h. Arm und Zeigefinger) erkennen, die in dem Beispiel der 5 als gepunktete Linien 204 und 206 dargestellt sind, die entsprechend mit symmetrischen Achsen des Zeigefingers und des Arms korrespondieren. Die gepunkteten Linien 204 und 206 werden durch den Ball 208 getrennt, der der Faust entspricht. Daher kann das Objekterkennungs-Algorithmusgerät 156 Endpunkte der symmetrischen Achsen des Arms und des Zeigefingers, die entsprechend durch das ”X” 210 und das ”X” 212 dargestellt sind, in dem zweidimensionalen Raum jedes Bilds bestimmen.
  • Ein zweites Handbild 214 ist so dargestellt, dass alle Finger und der Daumen ausgestreckt sind. Das Objekterkennungs-Algorithmusgerät 156 kann daher das zweite Handbild 214 in eine Skelettdarstellung 215 konvertieren. Das Objekterkennungs-Algorithmusgerät 156 kann eine Folge von Mittelpunkten entlang der langgestreckten Teile (d. h. Arm, Daumen und alle Finger) bestimmen, die in dem Beispiel der 5 als gepunktete Linien 260 entsprechend den symmetrischen Achsen von Arm, Daumen und Finger dargestellt sind. Die gepunkteten Linien 216 führen von sich überlappenden Bällen 218, die die Handfläche darstellen, weg. Daher kann das Objekterkennungs-Algorithmusgerät 156 die Endpunkte der symmetrischen Achsen des Arms, des Daumens und der Finger, dargestellt durch das ”X” 220 am Ende jeder Achse, in dem zweidimensionalen Raum jedes Bilds bestimmen.
  • Zurückverweisend auf das Beispiel der 4 kann das Skelettdarstellungsbild des Eingabeobjekts 24 einem Kalibrierungsdaten- und Positionskoordinatenwandler 158 bereitgestellt werden. Der Kalibrierungsdaten- und Positionskoordinatenwandler 158 bestimmt für einen bestimmten Zeitpunkt die dreidimensionale Position des Eingabeobjekts 24 und aller damit assoziierten Merkmale. Zum Beispiel kann der Kalibrierungsdaten- und Positionskoor dinatenwandler 158 dafür ausgelegt sein, die relativen zweidimensionalen Positionen der korrespondierenden Punkte in jedem der Skelettdarstellungsbilder des Eingabeobjekts 24 zu vergleichen und die dreidimensionale Position der Punkte, basierend auf einem Parallaxenabstand der korrespondierenden Punkte, zu interpolieren.
  • 6 stellt ein Beispiel einer Parallaxenabstandsgrafik 250 der konvertierten Handbilder in Übereinstimmung mit einem Aspekt der Erfindung dar. Die Grafik 250 umfasst ein erstes konvertiertes Bild 252 und ein zweites konvertiertes Bild 254 des Eingabeobjekts 24. In dem Beispiel der 6 als Benutzerhand dargestellt. Die konvertierten Bilder 252 und 254 sind als Skelettdarstellungen des Eingabeobjekts 24 dargestellt, so wie oben für das Beispiel der 5 beschrieben. Das erste konvertierte Bild 252 kann von der ersten Kamera 12 empfangen worden sein, und das zweite konvertierte Bild 254 kann von der zweiten Kamera 14 empfangen worden sein. Der Kalibrierungsdaten- und Positionskoordinatenwandler 158 kann daher die beiden konvertierten Bilder 252 und 254 gleichzeitig als übereinander liegendes, zusammengesetztes Bild empfangen. Aufgrund der Parallaxe, die durch die unterschiedlichen Positionen der Kameras 12 und 14 verursacht wird, ist ein Endpunkt 256 des ersten konvertierten Bilds 252 und ein Endpunkt 258 des zweiten konvertierten Bilds 254 in dem Beispiel der 6 als voneinander durch die Entfernung X beabstandet dargestellt. Die Entfernung X ist daher die Darstellung der Stereodisparität des Eingabeobjekts 24, so dass die Entfernung X einen Unterschied in den Positionen des Endpunkts 256 und 258 in den entsprechenden konvertierten Bildern 252 und 254 repräsentiert.
  • Veränderungen der Werte der Stereodisparität X können eine Veränderung einer, durch die Endpunkte 256 und 258 repräsentierte, mit der Fingerspitze des Benutzers assoziierten Höhe anzeigen. Wenn zum Beispiel X größer wird, wird die Fingerspitze des Benutzers vertikal nach oben bewegt (zum Beispiel zu den Kameras 12 und 14), und wenn X kleiner wird, wird die Fingerspitze des Benutzers vertikal nach unten bewegt (zum Beispiel weg von den Kameras 12 und 14). Somit interpoliert, basierend auf dem Parallaxenabstand, der Kalibrierungsdaten- und Positionskoordinatenwandler 158 die dreidimensionale Position der Endpunkte des Eingabeobjekts. Der Controller 26 kann kalibriert werden, um einen Wert X, im Verhältnis zu einem Punkt mit einer vorbestimmten Position auf der vertikalen Anzeigefläche 20, einer Höhe der Fingerspitze des Benutzers zuzuordnen.
  • Beispielsweise können die korrespondierenden Punkte, die vom Kalibrierungsdaten- und Positionskoordinatenwandler 158 gemessen werden, ein oder mehrere der Endpunkte sein, so wie die Endpunkte 210, 212 und 220 in dem Beispiel der 5. In einem anderen Beispiel können die korrespondierenden Punkte, die durch den Kalibrierungsdaten- und Positionskoordinatenwandler 158 gemessen wurden, beliebige der Mittelpunkte entlang der langgestreckten Teile sein, so wie die Mittelpunkte 204, 206 und 216 aus dem Beispiel der 5. Das Gestenerkennungs-Schnittstellensystem 150 kann kalibriert werden, um den Betrag eines physischen Abstands in den zweidimensionalen Bildern zu ermitteln, der einer Höhe, einer seitlichen und proximalen Position der Merkmale des Eingabeobjekts 24 im Bezug zu der vertikalen Anzeigefläche 20 entspricht. Demzufolge kann der Kalibrierungsdaten- und Positionskoordinatenwandler 158 eine zweidimensionale Position des Eingabeobjekts relativ zu der vertikalen Anzeigefläche 20 sowie eine Berührung der vertikalen Anzeigenfläche 20 mit einem Endpunkt des Eingabeobjekts 24 (zum Beispiel die Fingerspitze des Benutzers) erkennen.
  • Die von dem Kalibrierungsdaten- und Positionskoordinatenwandler 158 ausgegebenen Daten werden in ein Gestenerkennungsgerät 160 eingegeben. Das Gestenerkennungsgerät 160 interpretiert die mit dem einen Endpunkt oder den mehreren Endpunkten des Eingabeobjekts assoziierten dreidimensionalen Positionsdaten und übersetzt Änderungen in den Positionsdaten in eine Eingabegeste. Da das Gestenerkennungsgerät 160 die mit dem Eingabeobjekt 24 assoziierten Positionsdaten implementiert, kann es programmiert sein, eine beliebige von einer Vielzahl von Gesten zu erkennen, die mit einer Fingerspitze oder mit mehreren Fingerspitzen der Benutzerhand ausgeführt werden. Auf diese Weise bietet das Gestenerkennungs-Schnittstellensystem 150 eine viel vielseitigere Eingabemöglichkeit als berührungsempfindliche Bildschirme.
  • Zum Beispiel können Gesten die mit mehrere Fingerspitzen oder sogar mit Fingerspitzen von beiden Händen ausgeführt werden als Eingabegesten interpretiert werden, die Zoom-Befehle, Rotations- oder ”Dreh”-Befehle oder sogar Arbeitsumgebungseinstellungen wie zum Beispiel Lautstärke und Helligkeitseinstellungen simulieren, die alle für eine Interpretation durch das Gestenerkennungsgerät 160 programmiert sein können. Das Gestenerkennungsgerät 160 kann auch programmiert sein, die Gesten verschiedener Benutzer gleichzeitig zu erkennen. Zum Beispiel kann das Gestenerkennungsgerät 160 eine Vielpunktsteuermöglichkeit bereitstellen, so dass koordinierte Aktionen zwischen zwei Händen und/oder mehreren Benutzern implementiert werden können. Außerdem kann das Gestenerkennungsgerät 160 in Verbindung mit anderen Computer-Eingabegeräten verwendet werden, wie zum Beispiel einer konventionellen Maus oder Tastatur, um zusätzliche Arten von Gesteneingaben zu erzeugen. Hinzu kommt, dass die simulierten Befehle noch nicht einmal das Berühren der vertikalen Anzeigefläche 20 erfordern. Zum Beispiel kann das Gestenerkennungsgerät 160 nicht nur Veränderungen in der dreidimensionalen Position des Eingabeobjekts 24 auswerten, sondern auch mit dieser Bewegung assoziierte Zeitschwellen. Überdies kann jegliche von einer Vielzahl von Eingabegesten aus einer Bewegung mit sechs Freiheitsgraden gebildet werden, die auf Änderung der dreidimensionalen Position und Orientierung des Eingabeobjekts 24 und aller damit assoziierten Endpunkte basiert.
  • Der Controller 26 kann auch einen Speicher vordefinierter Gesten 162 umfassen, der mit dem Gestenerkennungsgerät 160 gekoppelt ist. Der Speicher vordefinierter Gesten 162 kann eine Vielzahl vordefinierter Gesten umfassen, wobei jede der vordefinierten Gesten einer bestimmten Geräteeingabe entspricht. Zum Beispiel kann der Speicher vordefinierter Gesten 162 eine Datenbank mit spezifischen Anordnungen und Kombinationen von Fingerspitzenpositionen und Bewegungen umfassen, von denen jede mit einer anderen Computer-Eingabe korrespondiert. Das Gestenerkennungsgerät 160 kann, nachdem es die mit einem Endpunkt oder mehreren Endpunkten des Eingabeobjekts assoziierten dreidimensionalen Positionsdaten über einen bestimmten Zeitbereich empfangen hat, den Speicher vordefinierter Gesten 162 abfragen, um zu ermitteln, ob die Gesteneingabe mit einer vordefinierten Geste übereinstimmt. Nachdem eine Übereinstimmung festgestellt worden ist, kann das Gestenerkennungsgerät 160 die Gesteneingabe in eine Geräteeingabe übersetzen die mit der entsprechenden vordefinierten Geste korrespondiert. Der Speicher vordefinierter Gesten 162 kann mit geeigneten vordefinierten Gesteneingaben vorprogrammiert sein oder er kann dynamisch programmierbar sein, so dass neue Gesten gemeinsam mit den korrespondierenden Geräteeingaben hinzugefügt werden können. Zum Beispiel kann der Benutzer einen Vorgang ”Beginne ein Gestenbeispiel” aktivieren; die neue Geste ausführen, wobei die erste Kamera 12 und die zweite Kamera 14 verwendet werden, um geeignete Bilder der neuen Geste aufzunehmen; und die dazugehörige Geräteeingabe eingeben, die mit der neuen Geste korrespondiert.
  • Es ist ersichtlich, dass es nicht beabsichtigt ist, ein bestimmtes Gestenerkennungs-Schnittstellensystem auf die Beispiele der 2 bis 6 zu limitieren. In Übereinstimmung mit einem Aspekt der Erfindung sind andere Implementierungen zum Erzeugen von Eingaben möglich. Zum Beispiel können ein oder mehrere Elemente des Controllers 26 in anderen Geräten integriert sein oder können von dem Controller 26 getrennt sein. Zum Beispiel kann jede der Kameras 12 und 14 die jeweiligen Bilder in einen üblichen Digitalisierer 152 eingeben. In einem anderen Beispiel, ähnlich zu dem mit Bezug zum Ausführungsbeispiel der 1 beschriebenen, ist ein bestimmtes Gestenerkennungs-Schnittstellensystem nicht auf zwei Kameras limitiert, sondern kann eine Vielzahl von Kameras über und/oder unter der vertikalen Anzeigefläche 20 umfassen. Außerdem kann in dem Controller 26 nicht nur der Skelettdarstellungs-Objektalgorithmus zum Erkennen von mit dem Eingabeobjekt assoziierten Merkmalen implementiert sein. Es können andere Algorithmen verwendet werden, wie zum Beispiel ein zweidimensionaler Laplace-Filter eines Gaussschen-Faltungsfilters, um mit dem Eingabeobjekt 24 assoziierte Endpunkte wie zum Beispiel Fingerspitzen zu bestimmen. Dementsprechend kann das Gestenerkennungs-Schnittstellensystem 150 in einer beliebigen von einer Vielzahl von Möglichkeiten ausgestaltet sein.
  • 7 stellt ein Beispiel der Gestenanwendung 300 in Übereinstimmung mit einem Aspekt der Erfindung dar. Die Gestenanwendung 300 kann ein Teil des Gestenerkennungs-Schnittstellensystems 10 gemäß dem Ausführungsbeispiel nach 1 sein. Insoweit ist in der nachfolgenden Beschreibung des Ausführungsbeispiels nach 7 auch auf das Ausführungsbeispiel von 1 Bezug zu nehmen.
  • Die Gestenanwendung 300 wird auf einer virtuellen Weißwandtafel auf der vertikalen Anzeigefläche 20, ähnlich der im Ausführungsbeispiel der 1 beschriebenen, dargestellt. Die Gestenanwendung 300 zeigt eine erste Geste 302 die durch das Berühren der vertikalen Anzeigefläche 20 mit dem ausgestreckten Zeigefinger einer sonst geschlossenen Faust, so wie durch die Hand 304 dargestellt, gebildet wird. Der Controller 26 kann dafür eingerichtet sein (zum Beispiel über das Gestenerkennungsgerät 160), die erste Geste 302 zu erkennen und durch das Bereitstellen von visuellen Daten zu reagieren, zum Beispiel durch die von dem Projektor 30 auf der vertikalen Anzeigefläche 20 dargestellten virtuellen Tinte 306. Daher kann der Benutzer mit der virtuellen Tinte 306 auf der vertikalen Anzeigefläche 20 zeichnen und/oder schreiben, nur indem er die vertikale Anzeigefläche 20 berührt und seinen Finger darüber bewegt, so wie es durch die erste Geste 302 dargestellt ist.
  • Die Gestenanwendung 300 zeigt auch eine zweite, zusammengesetzte Geste 308, die eine Variation der ersten Geste 302 ist. Im Speziellen wird die zweite Geste durch das Berühren der vertikalen Anzeigefläche 20 mit einem ausgestreckten Zeigefinger und einem ausgestreckten Daumen von einer sonst geschlossenen Hand ausgeführt, so wie durch die Hand 310 dargestellt. Daher ist die zweite Geste 308 eine zusammengesetzte Geste, da die erste Geste 302 mit einer weiteren Geste kombiniert wird (zum Beispiel dem Ausstrecken des Daumens). Der Controller 26 kann daher dafür ausgelegt sein, die zweite Geste 308 als eine Kombination der ersten Geste 302 und einer Geste die das Ausstrecken des Daumens umfasst zu erkennen, so dass der ausgestreckte Daumen eine Modifikation für die erste Geste 302 bildet. In dem Beispiel der 7 reagiert der Controller 26 auf die zweite Geste 308 durch das Bereitstellen der visuellen Daten als virtuelle Tinte 312, die eine Variation der virtuellen Tinte 306 ist. Im Speziellen ist die virtuelle Tinte 312 so dargestellt, dass sie eine dickere Stiftbreite und eine andere Farbe im Vergleich zur virtuellen Tinte 306 aufweist.
  • Somit verdeutlicht die zweite Geste 308, dass jegliche von einer Vielzahl von Variationen der ersten Geste 302 erzeugt werden kann, und dass diese nicht nur auf das reine Hinzufügen des ausgestreckten Daumens beschränkt sind. Zum Beispiel können, basierend auf unterschiedlichen Kombinationen von ausgestreckten Fingern und/oder des Daumens der Hand 310, unterschiedliche Stiftbreiten und/oder Farben implementiert werden. In einem anderen Beispiel können die visuellen Daten, die auf der vertikalen Anzeigefläche 20 bereitgestellt werden, eine virtuelle Farbpalette und/oder eine Stiftbreitenauswahl umfassen, die in einer Ecke der vertikalen Anzeigefläche 20 angeordnet sind. Zum Beispiel kann der visuelle Inhalt eine aktuell ausgewählte Farbe und/oder Stiftbreite darstellen oder kann alle verfügbaren Farben und/oder Stiftbreiten darstellen, wobei ein Pfeil oder eine Unterstreichung die aktuell ausgewählte Farbe und/oder Stiftbreite kennzeichnet. Daher kann der Benutzer eine zusätzliche Geste verwenden, um zwischen den verfügbaren Farben und/oder Stiftbreiten zu wechseln oder auszuwählen. Zum Beispiel kann der Benutzer eine Auslösegeste mit dem Daumen ausführen, um zwischen den Auswahloptionen zu wechseln, oder er kann eine Geste mit der anderen Hand implementieren die ein Berühren der Leinwand beinhalten kann, während die Hand 310 weiterhin Schreib- und/oder Zeichengesten ausführt. Daher kann jegliche von einer Vielzahl von zusammengesetzten Gesten in dem Beispiel der 7 implementiert werden.
  • Die Gestenanwendung 300 zeigt auch eine dritte Geste 314, die durch ein Berühren der vertikalen Anzeigefläche 20 mit der geöffneten Handfläche, so wie durch die Hand 316 dargestellt, ausgeführt wird. Der Controller 26 kann dafür ausgelegt sein, die dritte Geste 314 zu erkennen und mit dem Löschen der virtuellen Tinte zu reagieren. In dem Beispiel der 7 wird die dritte Geste 314 als die Hand 316 dargestellt die durch die virtuelle Tinte 318 bewegt wird und einen von der Hand erfassten Teil der virtuellen Tinte löscht, so wie durch die gepunkteten Linien 320 dargestellt. Zusätzlich kann die dritte Geste 314 ebenso gut eine zusammengesetzte Geste zum Löschen der virtuellen Tinte umfassen. Zum Beispiel kann der Controller 26 dafür ausgelegt sein, auf eine Geste die das Platzieren der beiden geöffneten Handflächen des Benutzers auf der vertikalen Anzeigefläche 20 umfasst, mit einem ”alles löschen”-Befehl zu reagieren, so dass die gesamte virtuelle Tinte auf der vertikalen Anzeigefläche 20 gelöscht wird. In einem anderen Beispiel können auf einen Befehl hin Teile der virtuellen Tinte ausgewählt werden, so dass ein einfaches Berühren mit einem Finger oder mit der geöffneten Handfläche mit dem Löschen der ausgewählten virtuellen Tinte korrespondiert.
  • Es ist ersichtlich, dass die Gestenanwendung 300 nicht auf die im Beispiel der 7 beschriebene virtuelle Weißwandtafelanwendung beschränkt ist. Zum Beispiel kann der Controller 26 dafür ausgelegt sein, eine große Vielzahl von vordefinierten Gesten zu erkennen, so dass gezeichnete und/oder geschriebene virtuelle Tinte durch unterschiedliche Gesten in einer Vielzahl von unterschiedlichen Möglichkeiten manipuliert werden kann. Zum Beispiel kann die Gestenanwendung 300 im Wesentlichen ähnlich zu einer beliebigen von einer Vielzahl von kommerziell verfügbaren Computer-Zeichenprogrammen ausgelegt sein.
  • Es ist ersichtlich, dass die virtuelle Weißwandtafelfunktion mit einem beliebigen von einer Vielzahl von Computer-Bildschirmpräsentations-Software-Programmen verwendet werden kann. Zum Beispiel unterstützten einige Bildschirmpräsentations-Software-Programme das Zeichnen von Notizen mit der Maus auf Folien. Folglich kann, so wie hierin beschrieben, ein Bildschirmpräsentationsprogramm durch die Verwendung von Gesten zum Vorwärts- oder Rückwärtsschalten der Folien gesteuert werden. Zum Zeichnen auf die Folien können natürliche Fingerzeichengesten verwendet werden, so wie im Beispiel der 7 beschrieben. Zum Beispiel kann eine oder mehrere zusätzliche Handgesten eingesetzt werden, um zu einer leeren Folie zu schalten, auf der mit virtueller Tinte gezeichnet und/oder geschrieben werden kann, um eine ausführlichere Präsentation vor, nach oder während einer vorgefertigte Folien umfassenden Präsentation zu ermöglichen. Dementsprechend kann eine beliebige von einer Vielzahl von Gestenanwendungen implementiert werden.
  • Aufgrund der zuvor beschriebenen strukturellen und funktionellen Merkmale wird die Methodologie gemäß der unterschiedlichen Aspekten der vorliegenden Erfindung durch Bezugnahme auf 8 noch besser verdeutlicht. Während zum Zwecke der Erläuterung die Methodologien als aufeinander folgend und nacheinander auszuführen beschrieben werden, ist ersichtlich und verständlich, dass die vorliegende Erfindung nicht auf die dargestellte Reihenfolge beschränkt ist, da einige Aspekte gemäß der vorliegenden Erfindung in einer anderen Reihenfolge und/oder gleichzeitig mit anderen als den dargestellten und beschriebenen Aspekten auftreten. Außerdem müssen nicht alle dargestellten Merkmale zur Ausführung einer Methodologie gemäß einem Aspekt der vorliegenden Erfindung erforderlich sein.
  • 8 stellt ein Beispiel eines Verfahrens 350 zum Erzeugen von Eingaben in Übereinstimmung mit einem Aspekt der Erfindung dar. In Schritt 352 wird visueller Inhalt auf einer vertikalen Anzeigefläche angezeigt. Die vertikale Anzeigefläche kann eine Anzeigeleinwand sein, auf die visueller Inhalt projiziert werden kann. In Schritt 354 wird eine Gestenerkennungsumgebung beleuchtet, die durch einen physischen Raum im Vordergrund der im Wesentlichen vertikalen Anzeigefläche definiert ist. Die Beleuchtung kann durch IR-Lichtquellen bereitgestellt werden. In Schritt 356 erzeugt ein Benutzer simulierte Eingaben, die mit dem visuellen Inhalt in der Gestenerkennungsumgebung über mit einem Eingabeob jekt assoziierten Gesten interagieren können. Das Eingabeobjekt kann die Hand des Benutzers sein, so dass der Benutzer die Eingaben über Handgesten simulieren kann. Zusätzlich können die simulierten Eingaben simulierte Maus-Eingaben, Zoom-Befehle oder Rotationsbefehle sein. Die simulierten Eingaben können auch das Berühren der vertikalen Anzeigefläche umfassen, so dass die simulierten Eingaben virtuelle Tinte bereitstellen, mit der auf der vertikalen Anzeigefläche gezeichnet und/oder geschrieben werden kann. Daher kann das Gestenerkennungssystem im Wesentlichen als virtuelle Weißwandtafel ausgelegt sein.
  • In Schritt 358 wird gleichzeitig eine erste Vielzahl und zweite Vielzahl von Bildern des Eingabeobjekts erzeugt, die auf dem vom Eingabeobjekt reflektiertem Licht basieren. Die Vielzahl der Bilder kann eine Vielzahl von zusammengebrachten Bildersätzen sein, so dass jedes Bild des zusammengebrachten Satzes mit dem aus unterschiedlichen Perspektiven zur im Wesentlichen gleichen Zeit aufgenommenem Eingabeobjekt korrespondiert. Die Bilder können, basierend auf dem vom Eingabeobjekt reflektiertem Licht im Verhältnis zum nicht reflektiertem Licht, in der Gestenerkennungsumgebung erzeugt werden. Daher können die Vielzahl der Bilder Bilder des vom Benutzer kontrollierten Eingabeobjekts sein.
  • In Schritt 360 werden mit dem Eingabeobjekt assoziierte Merkmale in jedem der korrespondierenden Sätze der Vielzahl der ersten und zweiten Bilder erkannt. Die Merkmale können durch das Erzeugen einer Folge von Punkten längs der langgestreckten Teile des Eingabeobjekts in der ersten und zweiten Vielzahl von Bildern erkannt werden. Zum Beispiel kann es sich bei der Folge von Punkten um Mittelpunkte handeln, die symmetrisch zwischen Grenzpunkten, die Kanten des Eingabeobjekts in den ersten und zweiten Bildern definieren, angeordnet sind. Jeder Punkt in der Folge von Punkten in der ersten Vielzahl von Bildern kann mit einem entsprechenden Punkt in der Folge von Bildern in der zweiten Vielzahl von Bildern korrelieren. Die Korrelation der Punkte in jedem der ersten und zweiten Bilder kann auf beidseitigen Endpunkten oder einem beliebigen Punkt längs der langgestreckten Teile des Eingabeobjekts basieren. In Schritt 362 wird eine Vielzahl von dreidimensionalen physischen Positionen des Eingabeobjekts bestimmt, die auf dem relativen Abstand der korrelierenden Punkte in der Folge von Punkten in jedem der Sätze der ersten und zweiten Vielzahl von Bildern basieren. Der relative Abstand kann auf einem Parallaxenabstand zwischen den ersten und zweiten Bildern basieren. Die dreidimensionale Position kann relativ zur vertikalen Anzeigefläche bestimmt werden. Positionsänderungen der dreidimensionalen Position des zumindest einen Endpunkts des Eingabeobjekts können für eine physische Bewegung des Eingabeobjekts entscheidend sein. In Schritt 364 wird bestimmt, ob die mit dem Eingabeobjekt assoziierte physische Bewegung mit einer der Vielzahl der vordefinierten Gesten korrespondiert. Die vordefinierten Gesten können in einem Speicher gespeichert sein. Jede der vordefinierten Gesten kann mit einer anderen Geräteeingabe assoziiert sein. In Schritt 366 wird zumindest eine Geräteeingabe erzeugt, die darauf basiert, dass eine mit dem Eingabeobjekt assoziierte Bewegung als eine einer bestimmten der vordefinierten Gesten entsprechende Geste erkannt wird. Geräteeingaben können Maus-Eingaben sein, so dass zweidimensionale Bewegungen über die vertikale Anzeigefläche die Bewegungen eines Maus-Cursors nachbilden können und das Berühren der vertikalen Anzeigefläche kann einen Linken-Maus-Klick simulieren. Zusätzlich können mit unterschiedlichen Endpunkten assoziierte Bewegungen verschiedene Arten von Eingaben erzeugen, wie zum Beispiel Rotations- und Zoom-Befehle.
  • Was beschrieben wurde sind Ausführungsbeispiele der vorliegenden Erfindung. Es ist jedoch nicht möglich, alle denkbaren Kombinationen der Komponenten oder Methodologien für die Zwecke der Beschreibung der vorliegenden Erfindung darzustellen. Jedoch wird jemand mit üblichen Fähigkeiten auf dem vorliegenden Gebiet erkennen, dass viele weitere Kombinationen und Permutationen der vorliegenden Erfindung möglich sind. Folglich ist beabsichtigt, dass die vorliegende Erfindung auch solche Veränderungen, Modifikationen und Abwandlungen umfasst, die unter den Gedanken und in den Bereich der beigefügten Patentansprüche fallen.

Claims (20)

  1. Ein Gestenerkennungs-Schnittstellensystem mit: einer im Wesentlichen vertikalen Oberfläche, die dafür ausgelegt ist, eine Gestenerkennungsumgebung zu definieren, die auf einem physischen Raum in einem Vordergrund der im Wesentlichen vertikalen Oberfläche basiert; mindestens einer Lichtquelle, die angeordnet ist, um die Gestenerkennungsumgebung zu beleuchten; mindestens zwei Kameras, die dafür ausgelegt sind, eine Vielzahl von Bildersätzen zu erzeugen, die auf der von einem Eingabeobjekt reflektierten Beleuchtung in der Gestenerkennungsumgebung basieren; und einem Controller, der dafür ausgelegt ist, bestimmte Eingabegesten zu erkennen, die auf Veränderungen der relativen Positionen des Eingabeobjekts in jedem der Vielzahl von Bildersätzen basieren, und der ferner dafür ausgelegt ist, um eine mit der bestimmten Eingabegeste assoziierte Geräteeingabe auszulösen.
  2. Das Schnittstellensystem nach Anspruch 1, wobei die mindestens zwei Kameras so positioniert sind, dass eine zentrale Linsenachse von jeder der mindestens zwei Kameras im Wesentlichen parallel zu einer Ebene verläuft, die durch die im Wesentlichen vertikale Oberfläche definiert wird, um die im Wesentlichen vertikale Oberfläche und die Gestenerkennungsumgebung in einer Vielzahl von Bildersätzen zu erfassen.
  3. Das Schnittstellensystem nach Anspruch 1, wobei die mindestens eine Lichtquelle so positioniert ist, dass eine zentrale Beleuchtungsachse der mindestens einen Lichtquelle bezüglich einer mit einem Fußboden, unter der im Wesentlichen vertikalen Oberfläche, assoziierten Normalen einen Einfallswinkel bildet, der ungleich Null ist.
  4. Das Schnittstellensystem nach Anspruch 1, wobei der Controller dafür ausgelegt ist, einen Algorithmus zu implementieren, der in der Vielzahl der Bildersätze mit dem Eingabeobjekt assoziierte Merkmale erkennt.
  5. Das Schnittstellensystem nach Anspruch 4, wobei der Algorithmus dafür ausgelegt ist, um in einem vorgegebenen Koordinatensystem in jedem der Vielzahl von Bildersätzen eine Folge von Mittelpunkten zwischen gegenüberliegenden Kanten der langgestreckten Teile des Eingabeobjekts zu bestimmen, und um die Mittelpunkte in jedem eines ersten Bilds eines Bildersatzes mit den dazugehörigen Mittelpunkten eines zweiten Bildes des Bildsatzes aufeinander zu beziehen, und um Endpunkte, Länge und Neigung der langgestreckten Teile des Eingabeobjekts zu berechnen.
  6. Das Schnittstellensystem nach Anspruch 1, wobei die im Wesentlichen vertikale Oberfläche dafür ausgelegt ist, mit dem Eingabeobjekt interagierende visuelle Inhalte anzuzeigen.
  7. Das Schnittstellensystem nach Anspruch 6, wobei der Controller dafür ausgelegt ist, den visuellen Inhalt als virtuelle Tinte auf den Teilen der im Wesentlichen vertikalen Oberfläche bereitzustellen, die vom Eingabeobjekt berührt werden.
  8. Das Schnittstellensystem nach Anspruch 7, wobei zumindest ein Farbwechsel, ein Stiftbreitenwechsel oder ein Löschen der virtuellen Tinte durch eine entsprechende, mindestens eine zusätzliche vorbestimmte Geste gesteuert wird.
  9. Das Schnittstellensystem nach Anspruch 1, wobei die zumindest eine Lichtquelle mindestens eine Infrarot (IR)-Lichtquelle umfasst, und wobei jede der zumindest zwei Kameras einen IR-Filter umfasst.
  10. Das Schnittstellensystem nach Anspruch 9, wobei der Controller eine automatisierte Kalibrierungseinheit umfasst, die dafür ausgelegt ist, basierend auf einer Anzahl von Parallaxenabständen in zusammengebrachten Sätzen von Bildern des Eingabeobjekts, das mindestens eine vorbestimmte zweidimensionale Position auf der im Wesentlichen vertikalen Oberfläche berührt, das Gestenerkennungs-Schnittstellensystem zu kalibrieren.
  11. Das Schnittstellensystem nach Anspruch 1, wobei die im Wesentlichen vertikale Oberfläche als eine im Wesentlichen vertikale retro-reflektive Oberfläche ausgelegt ist, um den Empfang von den am Eingabeobjekt zu der im Wesentlichen vertikalen Oberfläche reflektierten Beleuchtung durch zumindest eine der mindestens zwei Kameras abzuschwächen.
  12. Ein Verfahren zum Erzeugen von Geräteeingaben, wobei das Verfahren umfasst: Anzeigen von visuellem Inhalt auf einer im Wesentlichen vertikalen Anzeigefläche; Beleuchten einer Gestenerkennungsumgebung, die durch einen physischen Raum im Vordergrund der im Wesentlichen vertikalen Anzeigefläche definiert ist; Erzeugen simulierter Eingaben, die mit dem visuellen Inhalt in der Gestenerkennungsumgebung über mit einem Eingabeobjekt assoziierten Gesten interagieren können; ein im Wesentlichen gleichzeitiges Erzeugen einer ersten Vielzahl von Bildern und einer zweiten Vielzahl von Bildern, die mit dem Eingabeobjekt verbunden sind und auf dem vom Eingabeobjekt reflektierten Licht basieren; Erkennen der mit dem Eingabeobjekt assoziierten Merkmale in jedem der zusammengehörigen Paare der ersten und zweiten Vielzahl von Bildern; Bestimmen einer Vielzahl von dreidimensionalen physischen Positionen des Eingabeobjekts, basierend auf einem relativen Abstand der mit dem Eingabeobjekt assoziierten Merkmale in jedem der zusammengehörigen Paare der ersten und zweiten Vielzahl von Bildern; Bestimmen ob Veränderungen in der Vielzahl der dreidimensionalen physischen Positionen des Eingabeobjekts irgendeiner einer Vielzahl der vorgegebenen Gesten entspricht; und Erzeugen von zumindest einer Geräteeingabe, die auf einer bestimmten Geste der Vielzahl der vorbestimmten Gesten basiert, nachdem bestimmt wurde, dass die Veränderungen in der Vielzahl der dreidimensionalen physischen Positionen des Eingabeobjekts einer bestimmten Geste der Vielzahl von vorbestimmten Gesten entspricht.
  13. Das Verfahren nach Anspruch 12, weiter umfassend: Berühren von mindestens einem vorbestimmten Punkt in dem zweidimensionalen Raum auf der im Wesentlichen vertikalen Anzeigefläche mit einem Endpunkt des Eingabeobjekts; Erzeugen eines ersten und zweiten Kalibrierungsbilds des sich in Kontakt mit dem zumindest einen vorbestimmten Punkt befindenden Eingabeobjekts; und Kalibrierung der dreidimensionalen physischen Positionen des Eingabeobjekts, basierend auf einer Anzahl von Parallaxenabständen zwischen dem Endpunkt des Eingabeobjekts in jedem der ersten und zweiten Kalibrierungsbilder.
  14. Das Verfahren nach Anspruch 12, wobei das Erkennen von mit dem Eingabeobjekt assoziierten Merkmalen umfasst: Erzeugen einer Folge von mit langgestreckten Teilen des Eingabeobjekts assoziierten Punkten in jedem der Vielzahl der ersten und zweiten Bilder.
  15. Das Verfahren nach Anspruch 14, wobei das Bestimmen der Vielzahl der dreidimensionalen physischen Positionen umfasst: zumindest einen Punkt in der Folge der Punkte der ersten Vielzahl von Bildern auf zumindest einen dazugehörigen Punkt in der Folge von Punkten in der dazugehörigen zweiten Vielzahl von Bildern zu beziehen.
  16. Das Verfahren nach Anspruch 14, wobei das Erzeugen einer Folge von Punkten umfasst: Bestimmen der Kanten des Eingabeobjekts in jedem der auf dem von Eingabeobjekt reflektieren Licht basierenden Vielzahl der ersten und zweiten Bilder; Erzeugen einer Folge von Mittelpunkten zwischen den gegenüberliegenden Kanten längs der langgestreckten Teile der Eingabeobjekte, in einem vorbestimmten Koordinatensystem in jedem der Vielzahl der ersten und zweiten Bilder.
  17. Ein Gestenerkennungs-Schnittstellensystem mit: Mittel zum Erzeugen eines Helligkeitskontrasts zwischen reflektiertem Licht und nicht reflektiertem Licht in einer Gestenerkennungsumgebung, die als physischer Raum vor einer im Wesentlichen vertikalen Anzeigefläche definiert ist, wobei das reflektierte Licht von einem Eingabeobjekt reflektiert wird; Mittel zum Erzeugen einer ersten Vielzahl von auf dem Helligkeitskontrast basierenden Bildern des Eingabeobjekts; Mittel zum Erzeugen einer zweiten Vielzahl von auf dem Helligkeitskontrast basierenden Bildern des Eingabeobjekts, wobei die erste Vielzahl von Bildern und die zweite Vielzahl von Bildern eine Vielzahl von zusammengebrachten Bilderpaaren des Eingabeobjekts bilden; Mittel zum Erzeugen einer Folge von mit langgestreckten Teilen des Eingabeobjekts assoziierten Punkten in jedem der Vielzahl der ersten und zweiten Bilder und um zumindest ein Paar von korrespondierenden Punkten in jedem der Vielzahl der zusammengebrachten Bilderpaare des Eingabeobjekts aufeinander zu beziehen; Mittel zum Bestimmen der mit Merkmalen des Eingabeobjekts assoziierten dreidimensionalen physischen Positionsinformation, basierend auf einem relativen Abstand des zumindest einen Paars aufeinander bezogener, zusammengehöriger Punkte in der Vielzahl der zusammengebrachten Bilderpaare des Eingabeobjekts; Mittel zum Übersetzen von mit Merkmalen des Eingabeobjekts assoziierten Änderung in der dreidimensionalen Positionsinformation in eine bestimmte Eingabegeste; und Mittel zum Erzeugen von Geräteeingaben, basierend auf dem Abgleich der bestimmten Eingabegeste mit einer von einer Vielzahl von vorbestimmten Gesten.
  18. Das Schnittstellensystem nach Anspruch 17, wobei das Mittel zum Erzeugen einer Folge von Punkten dafür ausgelegt ist, die Kanten des Eingabeobjekts in jedem der auf dem Helligkeitskontrast basierenden Vielzahl der ersten und zweiten Bilder zu bestimmen, und um eine Folge von Mittelpunkten zwischen gegenüberliegenden Kanten der langgestreckten Teile des Eingabeobjekts in einem vorbestimmten Koordinatensystem in jedem der Vielzahl der ersten und zweiten Bilder zu erzeugen.
  19. Das Schnittstellensystem nach Anspruch 17, wobei die Mittel zum Erzeugen der ersten Vielzahl von Bildern und die Mittel zum Erzeugen der zweiten Vielzahl von Bildern dafür ausgelegt sind, um die erste und zweite Vielzahl von Bildern mit einem Blickwinkel zu erhalten, der im Wesentlichen parallel zu einer durch die im Wesentlichen vertikale Anzeigefläche definierte Ebene ist, um die im Wesentlichen vertikale Anzeigefläche und die Gestenerkennungsumgebung in jedem der ersten und zweiten Vielzahl von Bildern zu erfassen.
  20. Das Schnittstellensystem nach Anspruch 17, weiter umfassend: Mittel zum Kalibrieren der Mittel zum Bestimmen der mit dem Eingabeobjekt assoziierten dreidimensionalen Positionsinformation, basierend auf einer Anzahl von Parallaxenabständen in den zusammengebrachten Bilderpaaren eines mit zumindest einer vorbestimmten zweidimensionalen Position auf der im Wesentlichen vertikalen Anzeigefläche in Verbindung stehenden Endpunkts des Eingabeobjekts.
DE102009023875A 2008-06-05 2009-06-04 Gestenerkennungsschittstellensystem mit vertikaler Anzeigefläche Ceased DE102009023875A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/133,836 2008-06-05
US12/133,836 US8180114B2 (en) 2006-07-13 2008-06-05 Gesture recognition interface system with vertical display

Publications (1)

Publication Number Publication Date
DE102009023875A1 true DE102009023875A1 (de) 2010-02-04

Family

ID=40902563

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102009023875A Ceased DE102009023875A1 (de) 2008-06-05 2009-06-04 Gestenerkennungsschittstellensystem mit vertikaler Anzeigefläche

Country Status (3)

Country Link
US (1) US8180114B2 (de)
DE (1) DE102009023875A1 (de)
GB (1) GB2460542B (de)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013019197A1 (de) * 2013-11-15 2015-05-21 Audi Ag Kraftfahrzeug-Klimatisierung mit adaptivem Luftausströmer
DE102012020607B4 (de) * 2012-10-19 2015-06-11 Audi Ag Kraftwagen mit einer Gestensteuerungseinrichtung sowie Verfahren zum Steuern eines Auswahlelements
DE112013000590B4 (de) * 2012-01-17 2016-05-04 Leap Motion, Inc. Verbesserter Kontrast zur Objekterfassung und Charakterisierung durch optisches Abbilden
US9612655B2 (en) 2012-10-31 2017-04-04 Audi Ag Method for inputting a control command for a component of a motor vehicle
WO2018153726A1 (de) * 2017-02-24 2018-08-30 Dr. Schneider Kunststoffwerke Gmbh Vorrichtung zum steuern eines luftausströmers

Families Citing this family (201)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7584432B1 (en) * 1999-01-13 2009-09-01 Promethean Limited Interactive display system
US7262785B2 (en) * 2003-08-21 2007-08-28 Microsoft Corporation Ink editing architecture
US20100302165A1 (en) * 2009-05-26 2010-12-02 Zienon, Llc Enabling data entry based on differentiated input objects
US8018579B1 (en) 2005-10-21 2011-09-13 Apple Inc. Three-dimensional imaging and display system
US8972902B2 (en) 2008-08-22 2015-03-03 Northrop Grumman Systems Corporation Compound gesture recognition
US8180114B2 (en) 2006-07-13 2012-05-15 Northrop Grumman Systems Corporation Gesture recognition interface system with vertical display
US8589824B2 (en) * 2006-07-13 2013-11-19 Northrop Grumman Systems Corporation Gesture recognition interface system
US9696808B2 (en) * 2006-07-13 2017-07-04 Northrop Grumman Systems Corporation Hand-gesture recognition method
US8234578B2 (en) * 2006-07-25 2012-07-31 Northrop Grumman Systems Corporatiom Networked gesture collaboration system
US8432448B2 (en) * 2006-08-10 2013-04-30 Northrop Grumman Systems Corporation Stereo camera intrusion detection system
US8139110B2 (en) * 2007-11-01 2012-03-20 Northrop Grumman Systems Corporation Calibration of a gesture recognition interface system
US9377874B2 (en) * 2007-11-02 2016-06-28 Northrop Grumman Systems Corporation Gesture recognition light and video image projector
US9171454B2 (en) * 2007-11-14 2015-10-27 Microsoft Technology Licensing, Llc Magic wand
US20090219253A1 (en) * 2008-02-29 2009-09-03 Microsoft Corporation Interactive Surface Computer with Switchable Diffuser
US20110102570A1 (en) * 2008-04-14 2011-05-05 Saar Wilf Vision based pointing device emulation
DE102008020772A1 (de) * 2008-04-21 2009-10-22 Carl Zeiss 3D Metrology Services Gmbh Darstellung von Ergebnissen einer Vermessung von Werkstücken
US8952894B2 (en) * 2008-05-12 2015-02-10 Microsoft Technology Licensing, Llc Computer vision-based multi-touch sensing using infrared lasers
US8345920B2 (en) * 2008-06-20 2013-01-01 Northrop Grumman Systems Corporation Gesture recognition interface system with a light-diffusive screen
US20100031202A1 (en) * 2008-08-04 2010-02-04 Microsoft Corporation User-defined gesture set for surface computing
US8847739B2 (en) 2008-08-04 2014-09-30 Microsoft Corporation Fusing RFID and vision for surface object tracking
TW201020896A (en) * 2008-11-19 2010-06-01 Nat Applied Res Laboratories Method of gesture control
GB2468884A (en) * 2009-03-25 2010-09-29 Nec Corp User defined paths for control on a touch screen
KR101559178B1 (ko) * 2009-04-08 2015-10-12 엘지전자 주식회사 명령어 입력 방법 및 이를 적용한 이동 통신 단말기
US9498718B2 (en) * 2009-05-01 2016-11-22 Microsoft Technology Licensing, Llc Altering a view perspective within a display environment
US9898675B2 (en) 2009-05-01 2018-02-20 Microsoft Technology Licensing, Llc User movement tracking feedback to improve tracking
US9417700B2 (en) 2009-05-21 2016-08-16 Edge3 Technologies Gesture recognition systems and related methods
US20100295782A1 (en) 2009-05-21 2010-11-25 Yehuda Binder System and method for control based on face ore hand gesture detection
KR100936666B1 (ko) * 2009-05-25 2010-01-13 전자부품연구원 적외선 스크린 방식의 투영 영상 터치 장치
US8386963B2 (en) * 2009-05-28 2013-02-26 Microsoft Corporation Virtual inking using gesture recognition
GB2474536B (en) 2009-10-13 2011-11-02 Pointgrab Ltd Computer vision gesture based control of a device
KR101639383B1 (ko) * 2009-11-12 2016-07-22 삼성전자주식회사 근접 터치 동작 감지 장치 및 방법
US20110117526A1 (en) * 2009-11-16 2011-05-19 Microsoft Corporation Teaching gesture initiation with registration posture guides
US8622742B2 (en) * 2009-11-16 2014-01-07 Microsoft Corporation Teaching gestures with offset contact silhouettes
KR101092722B1 (ko) * 2009-12-02 2011-12-09 현대자동차주식회사 차량의 멀티미디어 시스템 조작용 사용자 인터페이스 장치
KR100974894B1 (ko) * 2009-12-22 2010-08-11 전자부품연구원 멀티 적외선 카메라 방식의 3차원 공간 터치 장치
US8947455B2 (en) 2010-02-22 2015-02-03 Nike, Inc. Augmented reality design system
TW201142465A (en) * 2010-05-17 2011-12-01 Hon Hai Prec Ind Co Ltd Front projection device and front projection controlling method
US8457353B2 (en) * 2010-05-18 2013-06-04 Microsoft Corporation Gestures and gesture modifiers for manipulating a user-interface
US8396252B2 (en) 2010-05-20 2013-03-12 Edge 3 Technologies Systems and related methods for three dimensional gesture recognition in vehicles
US20120319945A1 (en) * 2010-05-21 2012-12-20 Mccarthy John System and method for reporting data in a computer vision system
US20110296352A1 (en) * 2010-05-27 2011-12-01 Microsoft Corporation Active calibration of a natural user interface
US8982060B2 (en) * 2010-08-27 2015-03-17 Apple Inc. Touch and hover sensor compensation
US8854594B2 (en) * 2010-08-31 2014-10-07 Cast Group Of Companies Inc. System and method for tracking
US9350923B2 (en) 2010-08-31 2016-05-24 Cast Group Of Companies Inc. System and method for tracking
US9055226B2 (en) 2010-08-31 2015-06-09 Cast Group Of Companies Inc. System and method for controlling fixtures based on tracking data
CN101943995A (zh) * 2010-09-01 2011-01-12 惠州Tcl移动通信有限公司 一种移动终端及其触摸屏的显示信息处理方法和装置
WO2012030872A1 (en) 2010-09-02 2012-03-08 Edge3 Technologies Inc. Method and apparatus for confusion learning
US8655093B2 (en) 2010-09-02 2014-02-18 Edge 3 Technologies, Inc. Method and apparatus for performing segmentation of an image
US8582866B2 (en) 2011-02-10 2013-11-12 Edge 3 Technologies, Inc. Method and apparatus for disparity computation in stereo images
US8666144B2 (en) 2010-09-02 2014-03-04 Edge 3 Technologies, Inc. Method and apparatus for determining disparity of texture
EP2439700B1 (de) * 2010-10-06 2013-05-01 Alcatel Lucent Verfahren und Anordnung zur Identifizierung virtueller visueller Information in Bildern
US20130154913A1 (en) * 2010-12-16 2013-06-20 Siemens Corporation Systems and methods for a gaze and gesture interface
WO2012107892A2 (en) * 2011-02-09 2012-08-16 Primesense Ltd. Gaze detection in a 3d mapping environment
US8970589B2 (en) 2011-02-10 2015-03-03 Edge 3 Technologies, Inc. Near-touch interaction with a stereo camera grid structured tessellations
US8723789B1 (en) 2011-02-11 2014-05-13 Imimtek, Inc. Two-dimensional method and system enabling three-dimensional user interaction with a device
US9857868B2 (en) 2011-03-19 2018-01-02 The Board Of Trustees Of The Leland Stanford Junior University Method and system for ergonomic touch-free interface
WO2012142250A1 (en) * 2011-04-12 2012-10-18 Radiation Monitoring Devices, Inc. Augumented reality system
GB2490108B (en) * 2011-04-13 2018-01-17 Nokia Technologies Oy A method, apparatus and computer program for user control of a state of an apparatus
US8840466B2 (en) 2011-04-25 2014-09-23 Aquifi, Inc. Method and system to create three-dimensional mapping in a two-dimensional game
US8686943B1 (en) 2011-05-13 2014-04-01 Imimtek, Inc. Two-dimensional method and system enabling three-dimensional user interaction with a device
US8845431B2 (en) * 2011-05-31 2014-09-30 Microsoft Corporation Shape trace gesturing
US8740702B2 (en) * 2011-05-31 2014-06-03 Microsoft Corporation Action trigger gesturing
US9176608B1 (en) 2011-06-27 2015-11-03 Amazon Technologies, Inc. Camera based sensor for motion detection
US8773512B1 (en) * 2011-06-30 2014-07-08 Aquifi, Inc. Portable remote control device enabling three-dimensional user interaction with at least one appliance
US8817076B2 (en) * 2011-08-03 2014-08-26 General Electric Company Method and system for cropping a 3-dimensional medical dataset
CN104160364A (zh) 2011-10-18 2014-11-19 卡内基梅隆大学 用于分类触敏表面上的触摸事件的方法和设备
US9672609B1 (en) 2011-11-11 2017-06-06 Edge 3 Technologies, Inc. Method and apparatus for improved depth-map estimation
US10691219B2 (en) 2012-01-17 2020-06-23 Ultrahaptics IP Two Limited Systems and methods for machine control
US8638989B2 (en) 2012-01-17 2014-01-28 Leap Motion, Inc. Systems and methods for capturing motion in three-dimensional space
US9501152B2 (en) 2013-01-15 2016-11-22 Leap Motion, Inc. Free-space user interface and control using virtual constructs
US9070019B2 (en) 2012-01-17 2015-06-30 Leap Motion, Inc. Systems and methods for capturing motion in three-dimensional space
US9679215B2 (en) 2012-01-17 2017-06-13 Leap Motion, Inc. Systems and methods for machine control
US11493998B2 (en) 2012-01-17 2022-11-08 Ultrahaptics IP Two Limited Systems and methods for machine control
US8693731B2 (en) 2012-01-17 2014-04-08 Leap Motion, Inc. Enhanced contrast for object detection and characterization by optical imaging
US20150253428A1 (en) 2013-03-15 2015-09-10 Leap Motion, Inc. Determining positional information for an object in space
US8854433B1 (en) 2012-02-03 2014-10-07 Aquifi, Inc. Method and system enabling natural user interface gestures with an electronic system
US11169611B2 (en) 2012-03-26 2021-11-09 Apple Inc. Enhanced virtual touchpad
DE102012206777A1 (de) * 2012-04-25 2013-10-31 Robert Bosch Gmbh Verfahren zur Steuerung einer Bilddarstellung einer Projektionsvorrichtung
US8938124B2 (en) 2012-05-10 2015-01-20 Pointgrab Ltd. Computer vision based tracking of a hand
US9400575B1 (en) 2012-06-20 2016-07-26 Amazon Technologies, Inc. Finger detection for element selection
US9213436B2 (en) * 2012-06-20 2015-12-15 Amazon Technologies, Inc. Fingertip location for gesture input
US9111135B2 (en) 2012-06-25 2015-08-18 Aquifi, Inc. Systems and methods for tracking human hands using parts based template matching using corresponding pixels in bounded regions of a sequence of frames that are a specified distance interval from a reference camera
US8934675B2 (en) 2012-06-25 2015-01-13 Aquifi, Inc. Systems and methods for tracking human hands by performing parts based template matching using images from multiple viewpoints
US8970479B1 (en) * 2012-07-31 2015-03-03 Rawles Llc Hand gesture detection
WO2014034527A1 (ja) * 2012-08-27 2014-03-06 シチズンホールディングス株式会社 情報入力装置
CN103677217A (zh) * 2012-08-30 2014-03-26 深圳市亿思达显示科技有限公司 一种3d空间输入系统
US8836768B1 (en) 2012-09-04 2014-09-16 Aquifi, Inc. Method and system enabling natural user interface gestures with user wearable glasses
US20150212647A1 (en) 2012-10-10 2015-07-30 Samsung Electronics Co., Ltd. Head mounted display apparatus and method for displaying a content
KR102083937B1 (ko) 2012-10-10 2020-03-04 삼성전자주식회사 멀티 디스플레이 장치 및 그 툴 제공 방법
KR102063952B1 (ko) 2012-10-10 2020-01-08 삼성전자주식회사 멀티 디스플레이 장치 및 멀티 디스플레이 방법
KR102083918B1 (ko) 2012-10-10 2020-03-04 삼성전자주식회사 멀티 디스플레이 장치 및 그 제어 방법
KR102061881B1 (ko) 2012-10-10 2020-01-06 삼성전자주식회사 멀티 디스플레이 장치 및 그 디스플레이 제어 방법
KR101984683B1 (ko) 2012-10-10 2019-05-31 삼성전자주식회사 멀티 디스플레이 장치 및 그 제어 방법
KR101951228B1 (ko) 2012-10-10 2019-02-22 삼성전자주식회사 멀티 디스플레이 장치 및 그 촬상 방법
US20140118257A1 (en) * 2012-10-29 2014-05-01 Amazon Technologies, Inc. Gesture detection systems
US9285893B2 (en) * 2012-11-08 2016-03-15 Leap Motion, Inc. Object detection and tracking with variable-field illumination devices
TWI475448B (zh) * 2012-11-29 2015-03-01 Pixart Imaging Inc 座標定位模組、光學式觸控系統及其計算觸控媒介之座標的方法
US9213448B2 (en) 2012-11-29 2015-12-15 Pixart Imaging Inc. Positioning module, optical touch system and method of calculating a coordinate of a touch medium
KR20140081316A (ko) * 2012-12-21 2014-07-01 삼성디스플레이 주식회사 화상 표시 시스템
TWI454968B (zh) 2012-12-24 2014-10-01 Ind Tech Res Inst 三維互動裝置及其操控方法
US10609285B2 (en) 2013-01-07 2020-03-31 Ultrahaptics IP Two Limited Power consumption in motion-capture systems
US9465461B2 (en) 2013-01-08 2016-10-11 Leap Motion, Inc. Object detection and tracking with audio and optical signals
US9176588B2 (en) 2013-01-14 2015-11-03 Maxm Integrated Products, Inc. System and method for discerning complex gestures using an array of optical sensors
US9459697B2 (en) 2013-01-15 2016-10-04 Leap Motion, Inc. Dynamic, free-space user interactions for machine control
KR102059598B1 (ko) * 2013-01-29 2019-12-26 삼성전자주식회사 디지털 촬영 장치 및 그의 제어 방법
US9092665B2 (en) 2013-01-30 2015-07-28 Aquifi, Inc Systems and methods for initializing motion tracking of human hands
US9129155B2 (en) 2013-01-30 2015-09-08 Aquifi, Inc. Systems and methods for initializing motion tracking of human hands using template matching within bounded regions determined using a depth map
JP6111706B2 (ja) * 2013-02-01 2017-04-12 セイコーエプソン株式会社 位置検出装置、調整方法、および調整プログラム
JP6144501B2 (ja) * 2013-02-12 2017-06-07 富士通テン株式会社 表示装置、および、表示方法
US9501151B2 (en) 2013-02-13 2016-11-22 Google Inc. Simultaneous multi-user marking interactions
US10134267B2 (en) 2013-02-22 2018-11-20 Universal City Studios Llc System and method for tracking a passive wand and actuating an effect based on a detected wand path
US9158381B2 (en) 2013-02-25 2015-10-13 Honda Motor Co., Ltd. Multi-resolution gesture recognition
US11209975B2 (en) * 2013-03-03 2021-12-28 Microsoft Technology Licensing, Llc Enhanced canvas environments
US9372541B2 (en) 2013-03-11 2016-06-21 Honeywell International Inc. Gesture recognition system operability verification
US9566414B2 (en) 2013-03-13 2017-02-14 Hansen Medical, Inc. Integrated catheter and guide wire controller
EP2778864A1 (de) * 2013-03-14 2014-09-17 BlackBerry Limited Verfahren und Vorrichtung für das Display eines stiftbasierten Steuerungeingabebereichs
US9122916B2 (en) * 2013-03-14 2015-09-01 Honda Motor Co., Ltd. Three dimensional fingertip tracking
US9283046B2 (en) 2013-03-15 2016-03-15 Hansen Medical, Inc. User interface for active drive apparatus with finite range of motion
US10849702B2 (en) 2013-03-15 2020-12-01 Auris Health, Inc. User input devices for controlling manipulation of guidewires and catheters
US10721448B2 (en) 2013-03-15 2020-07-21 Edge 3 Technologies, Inc. Method and apparatus for adaptive exposure bracketing, segmentation and scene organization
KR20140114766A (ko) 2013-03-19 2014-09-29 퀵소 코 터치 입력을 감지하기 위한 방법 및 장치
US9612689B2 (en) 2015-02-02 2017-04-04 Qeexo, Co. Method and apparatus for classifying a touch event on a touchscreen as related to one of multiple function generating interaction layers and activating a function in the selected interaction layer
US9013452B2 (en) 2013-03-25 2015-04-21 Qeexo, Co. Method and system for activating different interactive functions using different types of finger contacts
JP6201379B2 (ja) * 2013-04-02 2017-09-27 富士通株式会社 位置算出システム、位置算出プログラム、および、位置算出方法
JP6146094B2 (ja) * 2013-04-02 2017-06-14 富士通株式会社 情報操作表示システム、表示プログラム、および、表示方法
US9298266B2 (en) 2013-04-02 2016-03-29 Aquifi, Inc. Systems and methods for implementing three-dimensional (3D) gesture based graphical user interfaces (GUI) that incorporate gesture reactive interface objects
US10082935B2 (en) * 2013-04-15 2018-09-25 Carnegie Mellon University Virtual tools for use with touch-sensitive surfaces
US9916009B2 (en) 2013-04-26 2018-03-13 Leap Motion, Inc. Non-tactile interface systems and methods
WO2014194148A2 (en) * 2013-05-29 2014-12-04 Weijie Zhang Systems and methods involving gesture based user interaction, user interface and/or other features
US11020016B2 (en) 2013-05-30 2021-06-01 Auris Health, Inc. System and method for displaying anatomy and devices on a movable display
US9483171B1 (en) * 2013-06-11 2016-11-01 Amazon Technologies, Inc. Low latency touch input rendering
US9798388B1 (en) 2013-07-31 2017-10-24 Aquifi, Inc. Vibrotactile system to augment 3D input systems
US9529513B2 (en) * 2013-08-05 2016-12-27 Microsoft Technology Licensing, Llc Two-hand interaction with natural user interface
US10281987B1 (en) 2013-08-09 2019-05-07 Leap Motion, Inc. Systems and methods of free-space gestural interaction
US10846942B1 (en) 2013-08-29 2020-11-24 Ultrahaptics IP Two Limited Predictive information for free space gesture control and communication
CN103605460B (zh) * 2013-08-30 2017-01-25 华为技术有限公司 一种手势识别方法和相关终端
US9632572B2 (en) 2013-10-03 2017-04-25 Leap Motion, Inc. Enhanced field of view to augment three-dimensional (3D) sensory space for free-space gesture interpretation
KR20150042039A (ko) * 2013-10-10 2015-04-20 엘지전자 주식회사 이동 단말기 및 그 동작 방법
CN103530619B (zh) * 2013-10-29 2016-08-31 北京交通大学 基于rgb-d数据构成的少量训练样本的手势识别方法
US9996638B1 (en) 2013-10-31 2018-06-12 Leap Motion, Inc. Predictive information for free space gesture control and communication
US9329727B2 (en) * 2013-12-11 2016-05-03 Microsoft Technology Licensing, Llc Object detection in optical sensor systems
JP6127958B2 (ja) * 2013-12-19 2017-05-17 ソニー株式会社 情報処理装置、情報処理方法、並びにプログラム
US9507417B2 (en) 2014-01-07 2016-11-29 Aquifi, Inc. Systems and methods for implementing head tracking based graphical user interfaces (GUI) that incorporate gesture reactive interface objects
US20150194187A1 (en) * 2014-01-09 2015-07-09 Microsoft Corporation Telestrator system
US9613262B2 (en) 2014-01-15 2017-04-04 Leap Motion, Inc. Object detection and tracking for providing a virtual device experience
US20150205358A1 (en) * 2014-01-20 2015-07-23 Philip Scott Lyren Electronic Device with Touchless User Interface
US9430095B2 (en) 2014-01-23 2016-08-30 Microsoft Technology Licensing, Llc Global and local light detection in optical sensor systems
US9619105B1 (en) 2014-01-30 2017-04-11 Aquifi, Inc. Systems and methods for gesture based interaction with viewpoint dependent user interfaces
CN104932797A (zh) * 2014-03-17 2015-09-23 深圳富泰宏精密工业有限公司 手势解锁方法及系统
EP3243476B1 (de) 2014-03-24 2019-11-06 Auris Health, Inc. Systeme und vorrichtungen für katheter zur förderung von instinkthandlungen
CN103941867B (zh) * 2014-04-11 2017-07-11 北京智谷睿拓技术服务有限公司 交互方法和系统
JP6359862B2 (ja) * 2014-04-17 2018-07-18 シャープ株式会社 タッチ操作入力装置、タッチ操作入力方法及びプログラム
US9616350B2 (en) 2014-05-21 2017-04-11 Universal City Studios Llc Enhanced interactivity in an amusement park environment using passive tracking elements
US9433870B2 (en) 2014-05-21 2016-09-06 Universal City Studios Llc Ride vehicle tracking and control system using passive tracking elements
US10207193B2 (en) 2014-05-21 2019-02-19 Universal City Studios Llc Optical tracking system for automation of amusement park elements
US10025990B2 (en) 2014-05-21 2018-07-17 Universal City Studios Llc System and method for tracking vehicles in parking structures and intersections
US9600999B2 (en) 2014-05-21 2017-03-21 Universal City Studios Llc Amusement park element tracking system
US9429398B2 (en) 2014-05-21 2016-08-30 Universal City Studios Llc Optical tracking for controlling pyrotechnic show elements
US10061058B2 (en) 2014-05-21 2018-08-28 Universal City Studios Llc Tracking system and method for use in surveying amusement park equipment
US20150378440A1 (en) * 2014-06-27 2015-12-31 Microsoft Technology Licensing, Llc Dynamically Directing Interpretation of Input Data Based on Contextual Information
US20150375399A1 (en) * 2014-06-27 2015-12-31 Hansen Medical, Inc. User interface for medical robotics system
JP6335695B2 (ja) * 2014-07-09 2018-05-30 キヤノン株式会社 情報処理装置、その制御方法、プログラム、及び記憶媒体
CN204480228U (zh) 2014-08-08 2015-07-15 厉动公司 运动感测和成像设备
KR102271184B1 (ko) * 2014-08-28 2021-07-01 엘지전자 주식회사 영상 투사 장치 및 그의 동작 방법
US9329715B2 (en) 2014-09-11 2016-05-03 Qeexo, Co. Method and apparatus for differentiating touch screen users based on touch event analysis
CN104268507A (zh) * 2014-09-15 2015-01-07 南京邮电大学 一种基于rgb-d图像的手语字母识别方法
US11619983B2 (en) 2014-09-15 2023-04-04 Qeexo, Co. Method and apparatus for resolving touch screen ambiguities
US10606417B2 (en) 2014-09-24 2020-03-31 Qeexo, Co. Method for improving accuracy of touch screen event analysis by use of spatiotemporal touch patterns
US10282024B2 (en) 2014-09-25 2019-05-07 Qeexo, Co. Classifying contacts or associations with a touch sensitive device
US10238979B2 (en) 2014-09-26 2019-03-26 Universal City Sudios LLC Video game ride
US10725533B2 (en) 2014-09-26 2020-07-28 Intel Corporation Systems, apparatuses, and methods for gesture recognition and interaction
US10499999B2 (en) 2014-10-09 2019-12-10 Auris Health, Inc. Systems and methods for aligning an elongate member with an access site
US10452195B2 (en) 2014-12-30 2019-10-22 Samsung Electronics Co., Ltd. Electronic system with gesture calibration mechanism and method of operation thereof
JP2016186674A (ja) * 2015-03-27 2016-10-27 セイコーエプソン株式会社 インタラクティブプロジェクター及びインタラクティブプロジェクションシステム
US9946298B2 (en) * 2015-04-08 2018-04-17 Mediatek Inc. Wearable device interactive system
US10564770B1 (en) 2015-06-09 2020-02-18 Apple Inc. Predictive touch detection
US10057078B2 (en) 2015-08-21 2018-08-21 Samsung Electronics Company, Ltd. User-configurable interactive region monitoring
US10642404B2 (en) 2015-08-24 2020-05-05 Qeexo, Co. Touch sensitive device with multi-sensor stream synchronized data
US9549101B1 (en) * 2015-09-01 2017-01-17 International Business Machines Corporation Image capture enhancement using dynamic control image
US10599919B2 (en) * 2015-12-31 2020-03-24 Microsoft Technology Licensing, Llc Detection of hand gestures using gesture language discrete values
US10481682B2 (en) * 2016-03-29 2019-11-19 Google Llc System and method for generating virtual marks based on gaze tracking
CN108604125B (zh) * 2016-03-29 2021-08-27 谷歌有限责任公司 用于基于凝视跟踪生成虚拟标记的系统和方法
TWI653563B (zh) * 2016-05-24 2019-03-11 仁寶電腦工業股份有限公司 投影觸控的圖像選取方法
CN106078752B (zh) * 2016-06-27 2019-03-19 西安电子科技大学 一种基于Kinect的仿人机器人人体行为模仿方法
US11037464B2 (en) 2016-07-21 2021-06-15 Auris Health, Inc. System with emulator movement tracking for controlling medical devices
DE102016215746A1 (de) * 2016-08-23 2018-03-01 Robert Bosch Gmbh Projektor mit berührungsfreier Steuerung
US20180059863A1 (en) * 2016-08-26 2018-03-01 Lenovo (Singapore) Pte. Ltd. Calibration of pen location to projected whiteboard
JP6729297B2 (ja) * 2016-10-27 2020-07-22 セイコーエプソン株式会社 プロジェクター、プロジェクションシステム及び検出光照射装置
CN107831894A (zh) * 2017-11-06 2018-03-23 浙江工业大学 一种适用于移动终端的隔空手势板书方法
EP3684281A4 (de) 2017-12-08 2021-10-13 Auris Health, Inc. System und verfahren für navigation und targeting von medizinischen instrumenten
JP7081142B2 (ja) * 2017-12-26 2022-06-07 富士通株式会社 情報処理装置、情報処理方法、及びプログラム
US10585525B2 (en) 2018-02-12 2020-03-10 International Business Machines Corporation Adaptive notification modifications for touchscreen interfaces
CN112218595A (zh) 2018-05-18 2021-01-12 奥瑞斯健康公司 用于机器人使能的远程操作的系统的控制器
US11009989B2 (en) 2018-08-21 2021-05-18 Qeexo, Co. Recognizing and rejecting unintentional touch events associated with a touch sensitive device
US10942603B2 (en) 2019-05-06 2021-03-09 Qeexo, Co. Managing activity states of an application processor in relation to touch or hover interactions with a touch sensitive device
US11231815B2 (en) 2019-06-28 2022-01-25 Qeexo, Co. Detecting object proximity using touch sensitive surface sensing and ultrasonic sensing
EP3989793A4 (de) 2019-06-28 2023-07-19 Auris Health, Inc. Konsolenauflage und verfahren zu ihrer verwendung
US11592423B2 (en) 2020-01-29 2023-02-28 Qeexo, Co. Adaptive ultrasonic sensing techniques and systems to mitigate interference
US11500976B2 (en) 2020-11-03 2022-11-15 Nxp B.V. Challenge-response method for biometric authentication
CN113220114B (zh) * 2021-01-22 2023-06-20 华南理工大学 一种融合人脸识别的可嵌入非接触式电梯按键交互方法
US20220253148A1 (en) * 2021-02-05 2022-08-11 Pepsico, Inc. Devices, Systems, and Methods for Contactless Interfacing

Family Cites Families (101)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4468694A (en) * 1980-12-30 1984-08-28 International Business Machines Corporation Apparatus and method for remote displaying and sensing of information using shadow parallax
US4843568A (en) * 1986-04-11 1989-06-27 Krueger Myron W Real time perception of and response to the actions of an unencumbered participant/user
JPS62264390A (ja) 1986-05-12 1987-11-17 Omron Tateisi Electronics Co 監視ロボツト用視覚認識装置
US4924506A (en) * 1986-07-22 1990-05-08 Schlumberger Systems & Services, Inc. Method for directly measuring area and volume using binocular stereo vision
JPH0431996A (ja) 1990-05-28 1992-02-04 Matsushita Electric Works Ltd 画像認識型の防犯センサー
US5220441A (en) * 1990-09-28 1993-06-15 Eastman Kodak Company Mechanism for determining parallax between digital images
US5239373A (en) * 1990-12-26 1993-08-24 Xerox Corporation Video computational shared drawing space
JP3114813B2 (ja) 1991-02-27 2000-12-04 日本電信電話株式会社 情報入力方法
US5483261A (en) * 1992-02-14 1996-01-09 Itu Research, Inc. Graphical input controller and method with rear screen image detection
US5999185A (en) * 1992-03-30 1999-12-07 Kabushiki Kaisha Toshiba Virtual reality control using image, model and control data to manipulate interactions
EP0829799A3 (de) 1992-05-26 1998-08-26 Takenaka Corporation Wandcomputereinheit
JP3512207B2 (ja) 1993-02-05 2004-03-29 松下電器産業株式会社 加熱装置
EP0631250B1 (de) * 1993-06-21 2002-03-20 Nippon Telegraph And Telephone Corporation Verfahren und Vorrichtung zur dreidimensionalen Bilderzeugung von Objekten
US20020126161A1 (en) * 1994-07-05 2002-09-12 Hitachi, Ltd. Information processing system
US5563988A (en) * 1994-08-01 1996-10-08 Massachusetts Institute Of Technology Method and system for facilitating wireless, full-body, real-time user interaction with a digitally represented visual environment
US6327381B1 (en) * 1994-12-29 2001-12-04 Worldscape, Llc Image transformation and synthesis methods
US5913727A (en) * 1995-06-02 1999-06-22 Ahdoot; Ned Interactive movement and contact simulation game
US20010006426A1 (en) * 1996-07-18 2001-07-05 Korea Institute Of Science And Technology Holographic projection screen for displaying a three-dimensional color images and optical display system using the holographic screen
US6002808A (en) * 1996-07-26 1999-12-14 Mitsubishi Electric Information Technology Center America, Inc. Hand gesture control system
RU2123718C1 (ru) 1996-09-27 1998-12-20 Кузин Виктор Алексеевич Способ ввода информации в компьютер
US6956573B1 (en) 1996-11-15 2005-10-18 Sarnoff Corporation Method and apparatus for efficiently representing storing and accessing video information
DE69626208T2 (de) * 1996-12-20 2003-11-13 Hitachi Europe Ltd., Maidenhead Verfahren und System zur Erkennung von Handgesten
DE19708240C2 (de) * 1997-02-28 1999-10-14 Siemens Ag Anordnung und Verfahren zur Detektion eines Objekts in einem von Wellen im nichtsichtbaren Spektralbereich angestrahlten Bereich
JP3749369B2 (ja) * 1997-03-21 2006-02-22 株式会社竹中工務店 ハンドポインティング装置
US7532372B2 (en) * 1997-07-08 2009-05-12 Kremen Stanley H Method for creating a holographic screen that reconstructs uniformly magnified three-dimensional images from projected integral photographs
US6720949B1 (en) * 1997-08-22 2004-04-13 Timothy R. Pryor Man machine interfaces and applications
DE19739285C1 (de) 1997-09-08 1998-11-19 Siemens Nixdorf Inf Syst Vorrichtung zur Darstellung und virtuellen Eingabe von Daten
JP3795647B2 (ja) 1997-10-29 2006-07-12 株式会社竹中工務店 ハンドポインティング装置
FR2771202B1 (fr) * 1997-11-19 2000-01-21 Inst Nat Rech Inf Automat Dispositif electronique de traitement de donnees-image, pour la simulation du comportement deformable d'un objet
US6195104B1 (en) * 1997-12-23 2001-02-27 Philips Electronics North America Corp. System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs
US6512507B1 (en) * 1998-03-31 2003-01-28 Seiko Epson Corporation Pointing position detection device, presentation system, and method, and computer-readable medium
US6377229B1 (en) * 1998-04-20 2002-04-23 Dimensional Media Associates, Inc. Multi-planar volumetric display system and method of operation using three-dimensional anti-aliasing
US6064354A (en) 1998-07-01 2000-05-16 Deluca; Michael Joseph Stereoscopic user interface method and apparatus
US6950534B2 (en) * 1998-08-10 2005-09-27 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
US6681031B2 (en) * 1998-08-10 2004-01-20 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
DE19845030A1 (de) * 1998-09-30 2000-04-20 Siemens Ag Bildsystem
US6690357B1 (en) 1998-10-07 2004-02-10 Intel Corporation Input device using scanning sensors
US6147678A (en) * 1998-12-09 2000-11-14 Lucent Technologies Inc. Video hand image-three-dimensional computer interface with multiple degrees of freedom
US6204852B1 (en) * 1998-12-09 2001-03-20 Lucent Technologies Inc. Video hand image three-dimensional computer interface
US6222465B1 (en) * 1998-12-09 2001-04-24 Lucent Technologies Inc. Gesture-based computer interface
WO2000059581A1 (en) * 1999-04-01 2000-10-12 Dominic Choy Simulated human interaction systems
US7015954B1 (en) * 1999-08-09 2006-03-21 Fuji Xerox Co., Ltd. Automatic video system using multiple cameras
US7006236B2 (en) * 2002-05-22 2006-02-28 Canesta, Inc. Method and apparatus for approximating depth of an object's placement onto a monitored region with applications to virtual interface devices
SE0000850D0 (sv) * 2000-03-13 2000-03-13 Pink Solution Ab Recognition arrangement
US6624833B1 (en) * 2000-04-17 2003-09-23 Lucent Technologies Inc. Gesture-based input interface system with shadow detection
AU2001275308A1 (en) * 2000-06-06 2001-12-17 Frauenhofer Institut Fuer Graphische Datenverarbeitung The extended virtual table: an optical extension for table-like projection systems
US6788809B1 (en) * 2000-06-30 2004-09-07 Intel Corporation System and method for gesture recognition in three dimensions using stereo imaging and color vision
CN1262366C (zh) * 2000-08-11 2006-07-05 株式会社阿玛达 弯曲设备
WO2002027453A2 (en) * 2000-09-26 2002-04-04 Eugenio Bustamante Providing input signals
CA2433791A1 (en) * 2001-01-08 2002-07-11 Vkb Inc. A data input device
DE10100615A1 (de) * 2001-01-09 2002-07-18 Siemens Ag Handerkennung mit Positionsbestimmung
DE10100617A1 (de) 2001-01-09 2002-07-18 Siemens Ag Steuerbare Anordnung mit Benutzerauthentisierung
US6775014B2 (en) * 2001-01-17 2004-08-10 Fujixerox Co., Ltd. System and method for determining the location of a target in a room or small area
US7215322B2 (en) * 2001-05-31 2007-05-08 Siemens Corporate Research, Inc. Input devices for augmented reality applications
US7259747B2 (en) * 2001-06-05 2007-08-21 Reactrix Systems, Inc. Interactive video display system
EP1689172B1 (de) 2001-06-05 2016-03-09 Microsoft Technology Licensing, LLC Interaktives Video-Anzeigesystem
US8035612B2 (en) * 2002-05-28 2011-10-11 Intellectual Ventures Holding 67 Llc Self-contained interactive video display system
US7007236B2 (en) 2001-09-14 2006-02-28 Accenture Global Services Gmbh Lab window collaboration
US7110569B2 (en) * 2001-09-27 2006-09-19 Koninklijke Philips Electronics N.V. Video based detection of fall-down and other events
US20030067537A1 (en) * 2001-10-04 2003-04-10 Myers Kenneth J. System and method for three-dimensional data acquisition
US6983065B1 (en) * 2001-12-28 2006-01-03 Cognex Technology And Investment Corporation Method for extracting features from an image using oriented filters
US7138997B2 (en) * 2002-06-28 2006-11-21 Autodesk, Inc. System for physical rotation of volumetric display enclosures to facilitate viewing
US7340077B2 (en) * 2002-02-15 2008-03-04 Canesta, Inc. Gesture recognition system using depth perceptive sensors
KR100998381B1 (ko) 2002-04-26 2010-12-03 다이쿄 니시카와 가부시키가이샤 흡음체, 흡음 구조체, 흡음체의 제조 방법 및 흡음 구조체의 제조 방법
US7710391B2 (en) * 2002-05-28 2010-05-04 Matthew Bell Processing an image utilizing a spatially varying pattern
US6857746B2 (en) * 2002-07-01 2005-02-22 Io2 Technology, Llc Method and system for free-space imaging display and interface
US7321386B2 (en) * 2002-08-01 2008-01-22 Siemens Corporate Research, Inc. Robust stereo-driven video-based surveillance
US7576727B2 (en) * 2002-12-13 2009-08-18 Matthew Bell Interactive directed light/sound system
ES2212739B1 (es) * 2003-01-02 2005-04-01 Sociedad Española De Carburos Metalicos, S.A. Sistema analizador para la deteccion de gases reductores y oxidantes en un gas portador y sensor de gases basado en oxidos metalicos de tipo semiconductor.
US8745541B2 (en) * 2003-03-25 2014-06-03 Microsoft Corporation Architecture for controlling a computer using hand gestures
US7088243B2 (en) * 2003-05-26 2006-08-08 S1 Corporation Method of intruder detection and device thereof
WO2004111688A2 (en) * 2003-06-06 2004-12-23 New York University Method and apparatus for determining a bidirectional reflectance distribution function of a subject
US6796656B1 (en) * 2003-06-14 2004-09-28 Imatte, Inc. Generating a matte signal from a retro reflective component of a front projection screen
JP4741488B2 (ja) * 2003-07-03 2011-08-03 ホロタッチ, インコーポレイテッド ホログラフィックヒューマンマシンインタフェース
US20050012817A1 (en) * 2003-07-15 2005-01-20 International Business Machines Corporation Selective surveillance system with active sensor management policies
US7190496B2 (en) * 2003-07-24 2007-03-13 Zebra Imaging, Inc. Enhanced environment visualization using holographic stereograms
FR2858692B1 (fr) * 2003-08-08 2006-01-06 Rosenthal Patrick Olivier Levy Systeme permettant la visualisation d'images en trois dimensions avec un rendu en relief sur 36o degres
KR100588042B1 (ko) * 2004-01-14 2006-06-09 한국과학기술연구원 인터액티브 프레젠테이션 시스템
US7755608B2 (en) * 2004-01-23 2010-07-13 Hewlett-Packard Development Company, L.P. Systems and methods of interfacing with a machine
US7969409B2 (en) * 2004-02-18 2011-06-28 Rafal Jan Krepec Camera assisted pen tablet
WO2005099386A2 (en) * 2004-04-13 2005-10-27 Board Of Regents, The University Of Texas System Holographic projector
JP4424088B2 (ja) * 2004-06-25 2010-03-03 株式会社日立製作所 撮像装置
US7519223B2 (en) * 2004-06-28 2009-04-14 Microsoft Corporation Recognizing gestures and using gestures for interacting with software applications
US7724242B2 (en) * 2004-08-06 2010-05-25 Touchtable, Inc. Touch driven method and apparatus to integrate and display multiple image layers forming alternate depictions of same subject matter
US8560972B2 (en) * 2004-08-10 2013-10-15 Microsoft Corporation Surface UI for gesture-based interaction
US20060092178A1 (en) * 2004-10-29 2006-05-04 Tanguay Donald O Jr Method and system for communicating through shared media
US7598942B2 (en) * 2005-02-08 2009-10-06 Oblong Industries, Inc. System and method for gesture based control system
KR100687737B1 (ko) * 2005-03-19 2007-02-27 한국전자통신연구원 양손 제스쳐에 기반한 가상 마우스 장치 및 방법
US7643051B2 (en) * 2005-09-09 2010-01-05 Roy Benjamin Sandberg Mobile video teleconferencing system and control method
US8086971B2 (en) 2006-06-28 2011-12-27 Nokia Corporation Apparatus, methods and computer program products providing finger-based and hand-based gesture commands for portable electronic device applications
US8972902B2 (en) * 2008-08-22 2015-03-03 Northrop Grumman Systems Corporation Compound gesture recognition
US8180114B2 (en) 2006-07-13 2012-05-15 Northrop Grumman Systems Corporation Gesture recognition interface system with vertical display
US8589824B2 (en) 2006-07-13 2013-11-19 Northrop Grumman Systems Corporation Gesture recognition interface system
US7701439B2 (en) * 2006-07-13 2010-04-20 Northrop Grumman Corporation Gesture recognition simulation system and method
US9696808B2 (en) * 2006-07-13 2017-07-04 Northrop Grumman Systems Corporation Hand-gesture recognition method
US8234578B2 (en) * 2006-07-25 2012-07-31 Northrop Grumman Systems Corporatiom Networked gesture collaboration system
US8432448B2 (en) * 2006-08-10 2013-04-30 Northrop Grumman Systems Corporation Stereo camera intrusion detection system
US9052575B2 (en) * 2007-07-12 2015-06-09 Hewlett-Packard Development Company, L.P. Determining correspondence mappings from infrared patterns projected during the projection of visual content
US8139110B2 (en) 2007-11-01 2012-03-20 Northrop Grumman Systems Corporation Calibration of a gesture recognition interface system
US9377874B2 (en) 2007-11-02 2016-06-28 Northrop Grumman Systems Corporation Gesture recognition light and video image projector
US8345920B2 (en) * 2008-06-20 2013-01-01 Northrop Grumman Systems Corporation Gesture recognition interface system with a light-diffusive screen

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112013000590B4 (de) * 2012-01-17 2016-05-04 Leap Motion, Inc. Verbesserter Kontrast zur Objekterfassung und Charakterisierung durch optisches Abbilden
DE102012020607B4 (de) * 2012-10-19 2015-06-11 Audi Ag Kraftwagen mit einer Gestensteuerungseinrichtung sowie Verfahren zum Steuern eines Auswahlelements
US9612655B2 (en) 2012-10-31 2017-04-04 Audi Ag Method for inputting a control command for a component of a motor vehicle
DE102013019197A1 (de) * 2013-11-15 2015-05-21 Audi Ag Kraftfahrzeug-Klimatisierung mit adaptivem Luftausströmer
WO2018153726A1 (de) * 2017-02-24 2018-08-30 Dr. Schneider Kunststoffwerke Gmbh Vorrichtung zum steuern eines luftausströmers

Also Published As

Publication number Publication date
US8180114B2 (en) 2012-05-15
GB2460542B (en) 2010-12-01
GB2460542A (en) 2009-12-09
US20080244468A1 (en) 2008-10-02
GB0909597D0 (en) 2009-07-15

Similar Documents

Publication Publication Date Title
DE102009023875A1 (de) Gestenerkennungsschittstellensystem mit vertikaler Anzeigefläche
US10620712B2 (en) Interactive input system and method
DE102009025236B4 (de) Schnittstellensystem zur Gestenerkennung mit einem lichtstreuenden Bildschirm
DE102009034413B4 (de) Erkennung zusammengesetzter Gesten
DE102009043798B4 (de) Verfahren zur Erkennung von Handgesten
DE69530395T2 (de) Interaktives projektiertes videobildanzeigesystem
US8589824B2 (en) Gesture recognition interface system
DE102009032637B4 (de) Bildvergrößerungssystem für eine Computerschnittstelle
DE69430967T2 (de) Interaktives Kopiersystem
DE60124549T2 (de) Kamerabasiertes beruehrungssystem
DE60205662T2 (de) Vorrichtung und Verfahren zur Berechnung einer Position einer Anzeige
US20140354602A1 (en) Interactive input system and method
EP0963563B1 (de) Anordnung und verfahren zur detektion eines objekts in einem von wellen im nichtsichtbaren spektralbereich angestrahlten bereich
WO2009148064A1 (ja) 画像認識装置および操作判定方法並びにプログラム
US20010030668A1 (en) Method and system for interacting with a display
CN102508578B (zh) 投影定位装置及方法、交互系统和交互方法
CN104423578B (zh) 交互式输入系统和方法
US20140333585A1 (en) Electronic apparatus, information processing method, and storage medium
DE112012006199T5 (de) Virtuelle Hand basierend auf kombinierten Daten
DE102015009821A1 (de) Optisches digitales Lineal
Sharma et al. Interactive projector screen with hand detection using gestures
KR20200063727A (ko) 제스처 인식 방법 및 장치
DE102019107103B4 (de) Verfahren und system zur objektsegmentierung in einer mixed-reality- umgebung
DE10124834C2 (de) Verfahren zur Informationseingabe für eine Mensch-Maschine-Schnittstelle, Stift zur Durchführung des Verfahrens und Vorrichtung zur Eingabe von Informationen mittels des Verfahrens
DE112004002016T5 (de) In der Hand gehaltenes Gerät zur Navigation durch Daten und zur Datenanzeige

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
R016 Response to examination communication
R016 Response to examination communication
R002 Refusal decision in examination/registration proceedings
R006 Appeal filed
R008 Case pending at federal patent court
R003 Refusal decision now final
R011 All appeals rejected, refused or otherwise settled