DE102009023875A1 - Gestenerkennungsschittstellensystem mit vertikaler Anzeigefläche - Google Patents
Gestenerkennungsschittstellensystem mit vertikaler Anzeigefläche Download PDFInfo
- Publication number
- DE102009023875A1 DE102009023875A1 DE102009023875A DE102009023875A DE102009023875A1 DE 102009023875 A1 DE102009023875 A1 DE 102009023875A1 DE 102009023875 A DE102009023875 A DE 102009023875A DE 102009023875 A DE102009023875 A DE 102009023875A DE 102009023875 A1 DE102009023875 A1 DE 102009023875A1
- Authority
- DE
- Germany
- Prior art keywords
- input object
- images
- gesture
- interface system
- gesture recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
- 238000005286 illumination Methods 0.000 claims abstract description 11
- 238000000034 method Methods 0.000 claims description 23
- 230000000007 visual effect Effects 0.000 claims description 23
- 230000008859 change Effects 0.000 claims description 7
- 238000012217 deletion Methods 0.000 claims description 3
- 230000037430 deletion Effects 0.000 claims description 3
- 230000000875 corresponding effect Effects 0.000 description 21
- 230000033001 locomotion Effects 0.000 description 14
- 210000003811 finger Anatomy 0.000 description 13
- 210000003813 thumb Anatomy 0.000 description 11
- 239000002131 composite material Substances 0.000 description 5
- 239000003086 colorant Substances 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 210000005224 forefinger Anatomy 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 210000004247 hand Anatomy 0.000 description 2
- 238000002310 reflectometry Methods 0.000 description 2
- 230000003595 spectral effect Effects 0.000 description 2
- 230000002146 bilateral effect Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002329 infrared spectrum Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 239000012528 membrane Substances 0.000 description 1
- 230000003278 mimic effect Effects 0.000 description 1
- 238000004806 packaging method and process Methods 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
- G06F3/0418—Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0421—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0428—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by sensing at the edges of the touch surface the interruption of optical paths, e.g. an illumination plane, parallel to the touch surface which may be virtual
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04808—Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Abstract
Eine Ausführungsform der Erfindung umfasst ein Gestenerkennungs-Schnittstellensystem. Das System kann eine im Wesentlichen vertikale Oberfläche enthalten, die dazu ausgelegt ist, um eine Gestenerkennungsumgebung, basierend auf einem physischen Raum im Vordergrund der im Wesentlichen vertikalen Oberfläche, zu definieren. Das System kann auch mindestens eine Lichtquelle zum Bereitstellen von Beleuchtung in der Gestenerkennungsumgebung umfassen. Das System kann auch mindestens zwei Kameras umfassen, die dafür ausgelegt sind, eine Vielzahl von Bildersätzen, basierend auf der von einem Eingabeobjekt reflektierten Beleuchtung in der Gestenerkennungsumgebung, zu erzeugen. Das System kann zusätzlich einen Controller umfassen, der dafür ausgelegt ist, eine bestimmte Eingabegeste, basierend auf Änderungen in den relativen Positionen des Eingabeobjekts in jeder der Vielzahl der Bildersätze, zu bestimmen. Der Controller kann zusätzlich dafür ausgelegt sein, eine mit einer bestimmten Eingabegeste assoziierte Geräteeingabe auszulösen.
Description
- TECHNISCHES GEBIET
- Die vorliegende Erfindung bezieht sich allgemein auf ein Schnittstellensystem und insbesondere auf ein Gestenerkennungsschnittstellensystem mit vertikaler Anzeigefläche.
- HINTERGRUND DER ERFINDUNG
- Da das Angebot an Tätigkeiten zunimmt, die mit einem Computer ausgeführt werden können, werden neue und innovative Wege zur Schaffung einer Computerschnittstelle häufig entwickelt, um die Veränderungen der Computerfunktionen und Aufmachungen (engl. packaging) zu ergänzen. So können es berührungsempfindliche Bildschirme dem Benutzer zum Beispiel ermöglichen, Computereingaben ohne Maus und/oder ohne Tastatur vorzunehmen, so dass der Computer ohne eine eigene Arbeitsfläche bedient werden kann. Beispiele von berührungsempfindlichen Bildschirmen umfassen druckempfindliche Membrane, Strahlunterbrechungstechniken mit am Umfang angeordneten Lichtquellen und Sensoren sowie akustische Erfassungstechniken. Diese Arten von Computerschnittstellen können jedoch Informationen an den Computer nur bezüglich eines Berührungsereignisses selbst liefern und sind daher in ihrer Anwendbarkeit beschränkt. Hinzu kommt, dass solche Arten von Schnittstellen hinsichtlich der Anzahl der Berührungsereignisse, die über einen bestimmten Zeitraum verarbeitet werden können, begrenzt sein können, und dass sie dazu neigen, unbeabsichtigten Kontakt – wie den von einer Hemdmanschette oder Handfläche – als Berührungsereignis auszuwerten. Ferner können solche berührungsempfindliche Bildschirme prohibitiv teuer sein und eignen sich nicht für sehr große Bildschirmgrößen, wie sie beispielsweise bei Präsentationen eingesetzt werden.
- KURZDARSTELLUNG DER ERFINDUNG
- Eine Ausführungsform der Erfindung umfasst ein Gestenerkennungs-Schnittstellensystem. Das System kann eine im Wesentlichen vertikale Oberfläche umfassen, die ausgelegt ist, basierend auf einem physischen Raum im Vordergrund der im Wesentlichen vertikalen Oberfläche eine Gestenerkennungsumgebung zu definieren. Das System kann außerdem mindestens eine Lichtquelle umfassen, die angeordnet ist, um eine Beleuchtung der Gestenerkennungsumgebung bereitzustellen. Das System kann auch mindestens zwei Kameras umfassen, die dafür ausgelegt sind, basierend auf der in der Gestenerkennungsumgebung von einem Eingabeobjekt reflektierten Beleuchtung eine Vielzahl von Bildsätzen zu erzeugen. Das System kann weiter einen Controller umfassen, der dafür ausgelegt ist, basierend auf den Veränderungen der relativen Positionen des Eingabeobjekts in jedem der Vielzahl der Bildersätze eine bestimmte Eingabegeste zu bestimmen. Der Controller kann zusätzlich dafür ausgelegt sein, eine mit einer bestimmten Eingabegeste assoziierte Geräteeingabe zu initiieren.
- Eine andere Ausführungsform der Erfindung umfasst ein Verfahren zum Erzeugen von Geräteeingaben. Das Verfahren umfasst das Darstellen von visuellem Inhalt auf einer im Wesentlichen vertikalen Anzeigefläche, Beleuchten einer Gestenerkennungsumgebung, die durch einen physischen Raum im Vordergrund der im Wesentlichen vertikalen Anzeigefläche definiert ist, und das Erzeugen simulierter Eingaben in der Gestenerkennungsumgebung durch mit einem Eingabeobjekt assoziierte Gesten. Das Verfahren umfasst auch das im Wesentlichen gleichzeitige Erzeugen von einer mit dem Eingabeobjekt assoziierten ersten Vielzahl von Bildern und einer zweiten Vielzahl von Bildern, die auf dem vom Eingabeobjekt reflektierten Licht basieren. Das Verfahren umfasst auch das Erkennen von Merkmalen, die mit dem Eingabeobjekt verbunden sind, in jedem der zusammengehörigen Paare der ersten und zweiten Vielzahl von Bildern. Das Verfahren umfasst auch das Bestimmen einer Vielzahl von dreidimensionalen physischen Positionen des Eingabeobjekts, basierend auf einem relativen Abstand der korrelierenden Punkte in der Folge von Punkten in jedem der zusammengehörigen Paare der ersten und zweiten Vielzahl von Bildern und das Bestimmen, ob Veränderungen der Vielzahl der dreidimensionalen physischen Positionen des Eingabeobjekts irgendeiner einer Vielzahl von vordefinierten Gesten entsprechen. Zusätzlich umfasst das Verfahren das Erzeugen mindestens einer Geräteeingabe, die auf einer bestimmten Geste aus der Vielzahl der vordefinierten Gesten basiert, nachdem bestimmt worden ist, dass die Veränderungen der Vielzahl der dreidimensionalen Positionen des Eingabeobjekts einer bestimmten Geste aus der Vielzahl der vordefinierten Gesten entsprechen.
- Eine weitere Ausführungsform der Erfindung umfasst ein Gestenerkennungssystem. Das System umfasst Mittel zum Erzeugen eines Helligkeitskontrasts zwischen reflektiertem und nicht reflektiertem Licht in einer Gestenerkennungsumgebung, die durch einen physischen Raum vor einer im Wesentlichen vertikalen Anzeigefläche definiert ist. Das reflektierte Licht kann von einem Eingabeobjekt reflektiert werden. Das System umfasst auch Mittel zum Erzeugen einer auf dem Helligkeitskontrast basierenden ersten Vielzahl von Bildern des Eingabeobjekts und Mittel zum Erzeugen einer auf dem Helligkeitskontrast basierenden zweiten Vielzahl von Bildern des Eingabeobjekts. Die erste Vielzahl von Bildern und die zweite Vielzahl von Bildern können eine Vielzahl von zusammengebrachten Bilderpaaren des Eingabeobjekts bilden. Das System umfasst auch Mittel zum Erzeugen einer Folge mit lang gestreckten Teilen des Eingabeobjekts assoziierten Punkten in jeder Vielzahl der ersten und zweiten Bilder und Mittel zum Korrelieren mindestens eines Paars zusammengehöriger Punkte in jedem der Vielzahl der zusammengebrachten Bilderpaare des Eingabeobjekts. Das System umfasst auch Mittel zum Bestimmen von dreidimensionalen physischen Positionsinformationen, die mit Merkmalen des Eingabeobjekts verbunden sind, basierend auf einem relativen Abstand des mindestens einen korrelierten Paars zusammengehöriger Punkte in der Vielzahl der zusammengebrachten Bilder des Eingabeobjekts. Ferner umfasst das System Mittel zum Übersetzen von Änderungen in den dreidimensionalen Positionsinformationen, die mit den Merkmalen des Eingabeobjekts assoziiert sind, in eine bestimmte Eingabegeste und Mittel zum Erzeugen von Geräteeingaben, basierend auf dem Übereinstimmen einer bestimmten Eingabegeste mit einer Geste der Vielzahl der vordefinierten Gesten.
- KURZE BESCHREIBUNG DER ZEICHNUNGEN
-
1 zeigt ein Beispiel eines Gestenerkennungs-Schnittstellensystems gemäß einem Aspekt der Erfindung. -
2 zeigt ein Beispiel eines Kamerasystems für ein Gestenerkennungs-Schnittstellensystem gemäß einem Aspekt der Erfindung. -
3 zeigt ein Beispiel eines Beleuchtungssystems für ein Gestenerkennungs-Schnittstellensystem gemäß einem Aspekt der Erfindung. -
4 zeigt ein anderes Beispiel eines Gestenerkennungs-Schnittstellensystems gemäß einem Aspekt der Erfindung. -
5 zeigt ein Beispiel einer Grafik eines konvertierten Handbilds, basierend auf einem Algorithmus, zur Verwendung in einem Gestenerkennungs-Schnittstellensystem gemäß einem Aspekt der Erfindung. -
6 stellt ein Beispiel einer Parallaxenabstandsgrafik der konvertierten Handbilder zur Verwendung in einem Gestenerkennungs-Schnittstellensystem gemäß einem Aspekt der Erfindung dar. -
7 zeigt ein Beispiel einer Gestenanwendung gemäß einem Aspekt der Erfindung. -
8 zeigt ein Beispiel eines Verfahrens zum Erzeugen von Eingaben in einen Computer gemäß einem Aspekt der Erfindung. - DETAILLIERTE BESCHREIBUNG
- Die vorliegende Erfindung bezieht sich generell auf Schnittstellensysteme und insbesondere auf Gestenerkennungs-Schnittstellensysteme mit einer vertikalen Anzeigefläche. Ein Benutzer verwendet ein Eingabeobjekt, um simulierte Eingaben in einen Computer oder ein anderes elektronisches Gerät zu erzeugen. Es ist ersichtlich, dass die simulierten Eingaben durch Gesten unter Verwendung des Eingabeobjekts erzeugt werden. Zum Beispiel kann der Benutzer unter Verwendung des Eingabeobjekts Gesten erzeugen, die eine Bewegung und/oder einen Kontakt mit einer vertikalen Anzeigefläche umfassen. Das Eingabeobjekt kann zum Beispiel die Hand des Benutzers sein, ein Stab, ein Eingabestift, ein Zeigestock oder eines aus einer Vielzahl anderer Geräte, mit denen der Benutzer gestikulieren kann. Die simulierten Eingaben können zum Beispiel simulierte Maus-Eingaben sein. Eine oder mehrere Infrarot (IR)-Lichtquellen beleuchten eine Gestenerkennungsumgebung die durch einen Bereich eines physischen Raums vor der vertikalen Anzeigefläche definiert ist. Ein Satz Stereokameras kann jeweils eine Vielzahl von Bildern des Eingabeobjekts erzeugen. Diese Vielzahl von Bilder kann zum Beispiel auf einem reflektierten Lichtkontrast des vom Eingabeobjekt zurück reflektierten IR-Lichts im Vergleich zu im Wesentlichen nicht reflektierten Licht basieren. Die von jeder Kamera aufgenommene Vielzahl von Bilder des Eingabeobjekts kann zum Beispiel eine Vielzahl von zusammengebrachten Bildersätzen des Eingabeobjekts sein, so dass jedes Bild in den zusammengebrachten Bildersätzen unterschiedlichen Perspektiven des Eingabeobjekts zur im Wesentlichen gleichen Zeit entspricht. Ein bestimmter zusammengebrachter Bildersatz kann verwendet werden, die Position des Eingabeobjekts zu bestimmen, und die Vielzahl der zusammengebrachten Bildersätze kann dazu verwendet werden, eine physische Bewegung des Eingabeobjekts zu bestimmen.
- Ein Controller kann dafür ausgelegt sein, eine Vielzahl von Bildern zu empfangen, um mit dem Eingabeobjekt assoziierte dreidimensionale Positionsinformationen zu ermitteln. Zum Beispiel kann der Controller einen Algorithmus anwenden, um Merkmale des Eingabeobjekts, wie Endpunkte, Länge und Neigung langgestreckter Teile des Eingabeobjekts im dreidimensionalen Raum zu ermitteln. Der Controller kann dann, basierend auf den dreidimensionalen Positionsinformationen, die simulierten Eingaben in Geräteeingaben übersetzen. Zum Beispiel kann der Controller auf mit dem Eingabeobjekt assoziierten Bewegungen basierende Gesteneingaben interpretieren und diese Gesteneingaben in Eingaben in einen Computer oder andere Geräte übersetzen. Der Controller kann auch die mit einem Endpunkt oder mit mehreren Endpunkten des Eingabeobjekts assoziierten Bewegungen mit einer Vielzahl von vordefinierten, in einem Speicher gespeicherten Gesten vergleichen, so dass eine Übereinstimmung mit einer bestimmten vordefinierten Geste einer bestimmten Geräteeingabe entspricht.
-
1 stellt ein Beispiel eines Gestenerkennungs-Schnittstellensystems10 in Übereinstimmung mit einem Aspekt der Erfindung dar. Das Gestenerkennungs-Schnittstellensystem umfasst eine erste Kamera12 , eine zweite Kamera14 , eine erste IR-Lichtquelle16 und eine zweite IR-Lichtquelle18 , die über einer vertikalen Anzeigefläche20 montiert sind. Die vertikale Anzeigefläche20 kann zum Beispiel eine Projektionsleinwand sein. Die erste Kamera12 und die zweite Kamera14 können einen IR-Filter beinhalten, so dass die jeweilige Kamera nur jeweils IR-Licht empfangen kann. Jede der ersten IR-Lichtquelle16 und zweiten IR-Lichtquelle18 kann die Gestenerkennungsumgebung22 beleuchten, die als dreidimensionaler physischer Raum im Vordergrund der vertikalen Anzeigefläche20 definiert ist, und die für die erste und zweite Kamera12 und14 einsehbar ist. - Ein Eingabeobjekt
24 kann simulierte Eingaben über der vertikalen Anzeigefläche20 erzeugen. In dem Beispiel nach1 wird das Eingabeobjekt24 als die Hand des Benutzers dargestellt, so dass die simulierten Eingaben durch Handgesten erzeugt werden. Es ist ersichtlich, dass die Verwendung einer Hand zur Erzeugung simulierter Eingaben über Handgesten, nur eine beispielhafte Ausführungsform eines Gestenerkennungs-Schnittstellensystems10 ist. Beispiele anderer Arten eines Eingabeobjekts können einen Eingabestift, einen Stab, einen Zeigestock oder eine Vielzahl anderer Objekte umfassen, die Gesten erzeugen können, um Eingaben zu simulieren. Ferner ist ersichtlich, dass das Eingabeobjekt24 für den Gebrauch in dem Gestenerkennungs-Schnittstellensystem10 nicht speziell gestaltet oder geeignet sein muss. Zum Beispiel kann die bloße Hand eines Benutzers als Eingabeobjekt verwendet werden. Daher ist es nicht notwendig, dass der Benutzer zum Erzeugen von Gesteneingaben in dem Gestenerkennungs-Schnittstellensystem10 , in Übereinstimmung mit einem Aspekt der Erfindung, einen Handschuh trägt der retro-reflektives Material oder einen oder mehrere Positionssensoren umfasst. - Bei dem Ausführungsbeispiel nach
1 empfängt jede der ersten Kamera12 und der zweiten Kamera14 separate Bilder des Eingabeobjekts24 , wobei jedes von der ersten Kamera12 beziehungsweise der zweiten Kamera14 empfangenen separaten Bilder einen zusammengebrachten Satz bilden (d. h. zusammengebrachtes Paar). Zum Beispiel kann jede der ersten und zweiten Kamera12 und14 in schneller Abfolge fotografische Standbilder, zum Beispiel mit einer Rate von sechzig Bildern pro Sekunde aufnehmen, so dass jedes fotografische Standbild, das von der ersten Kamera12 aufgenommen wird, mit einem fotografische Standbild, das von der zweiten Kamera14 zur im Wesentlichen selben Zeit aufgenommen wird, zusammengebracht wird. Wegen der Parallaxe, verursacht durch die unterschiedlichen Befestigungspositionen der ersten Kamera12 und der zweiten Kamera14 , kann das Eingabeobjekt24 in jedem Bild des von der ersten Kamera12 und der zweiten Kamera14 entsprechend aufgenommenen zusammengebrachten Bildersatzes an unterschiedlichen Positionen erscheinen. In dem Beispiel der1 können die erste und zweite Kamera12 und14 jeweils so positioniert sein, dass sie zur Mitte der vertikalen Anzeigefläche20 geneigt sind, um eine genauere Positionsbestimmung des Eingabeobjekts24 bereitzustellen. - Die von jeder der ersten und zweiten Kamera
12 und14 empfangenen Bilder können auf IR-Licht basieren, das von dem Eingabeobjekt reflektiert wird, relativ zu im Wesentlichen nicht reflektiertem Licht in der Gestenerkennungsumgebung22 . Im Speziellen wird ein Objekt mit einer relativen Beleuchtungsintensität beleuchtet, die 1/D2 beträgt, wobei D die Entfernung zur Lichtquelle ist. Daher erscheint ein Objekt das doppelt so weit von der Lichtquelle entfernt ist viermal dunkler. Obwohl ein gewisser Teil des von der ersten und zweiten IR-Lichtquelle16 und18 emittierten IR-Lichts durch den Fußboden28 unter der vertikalen Anzeigefläche20 reflektiert wird, ist die Intensität des reflektierten Lichts signifikant geringer als die Intensität des vom Eingabeobjekt24 reflektierten Lichts. - Die erste Kamera
12 und die zweite Kamera14 können jeweils ihre jeweiligen getrennten Bilder des Eingabeobjekts24 einem Controller26 bereitstellen. Der Controller26 kann sich zum Beispiel in einem nicht dargestellten Computer befinden, für den das Gestenerkennungs-Schnittstellensystem10 vorgesehen ist, um eine Gestenerkennungs-Schnittstelle bereitzustellen. Allerdings ist ersichtlich, dass nicht nur ein allein stehender Computer den Controller aufnehmen kann, sondern der Controller auch in einem eingebetteten Prozessor enthalten sein kann. Der Controller26 kann die jeweiligen, mit dem Eingabeobjekt24 assoziierten Bilder verarbeiten, um mit dem Eingabeobjekt24 assoziierte dreidimensionale Positionsdaten zu erzeugen. - Zum Beispiel kann jede der ersten Kamera
12 und der zweiten Kamera14 mit einem vorbestimmten Winkel im Bezug zum Fußboden unter der vertikalen Anzeigefläche20 befestigt sein. Für ein bestimmtes zusammengebrachtes Bilderpaar des Eingabeobjekts24 ist, wenn der vorbestimmte Winkel beider Kameras12 und14 gleich ist, jeder Punkt des Eingabeobjekts24 in einem zweidimensionalen Raum in einem bestimmten Bild der Kamera12 im gleichen Abstand von dem entsprechenden Punkt des Eingabeobjekts24 in dem entspre chenden zusammengebrachten Bild der Kamera14 vorhanden. Daher kann der Controller26 die dreidimensionale physische Position des Eingabeobjekts24 , basierend auf einem relativen Parallaxenabstand in dem zusammengebrachten Bildersatz des Eingabeobjekts24 , für einen bestimmten Zeitpunkt bestimmen. Zusätzlich kann der Controller26 unter Verwendung eines Computeralgorithmus auch die dreidimensionale physische Position von mit Teilen des Eingabeobjekts24 assoziierten Merkmalen bestimmen, wie zum Beispiel Finger und Fingerspitzen. - Das Gestenerkennungs-Schnittstellensystem
10 kann auch einen Projektor30 umfassen. Der Projektor30 kann visuellen Inhalt bereitstellen, mit dem der Benutzer interagieren und Eingaben erzeugen kann. In dem Beispiel der1 projiziert der Projektor30 den visuellen Inhalt auf die vertikale Anzeigefläche20 . Da die IR-Lichtquellen16 und18 nicht sichtbares Licht ausstrahlen, behindert die IR-Beleuchtung nicht die vom Projektor30 projizierten visuellen Inhalte. Daher kann der Benutzer in der Gestenerkennungsumgebung22 das Eingabeobjekt24 verwenden, um mit dem visuellen Inhalt interagierende Eingaben zu simulieren. Es ist ersichtlich, dass die Interaktion mit dem visuellen Inhalt über Gesten, so wie es hier beschrieben wird, als das Erzeugen simulierten Eingaben durch Gesten in Reaktion auf den visuellen Inhalt, oder das Erzeugen des visuellen Inhalts definiert ist, so wie es detailliert im Ausführungsbeispiel der7 beschrieben wird. - Die simulierten Eingaben können zum Beispiel Maus-Eingaben sein, so dass der Controller
26 die zweidimensionale Bewegung eines Endpunkts des Eingabeobjekts24 über die vertikale Anzeigefläche20 als einen Maus-Cursor interpretiert und die Berührung der vertikalen Anzeigefläche20 durch den Endpunkt des Eingabeobjekts24 als linken Maus-Klick interpretiert. Dementsprechend kann ein Benutzer des Gestenerkennungs-Schnittstellensystems10 durch eine Vielzahl von mit dem Computer assoziierten Computermenüs navigieren, nur indem er seine oder ihre Fingerspitze durch die Luft vor der vertikalen Anzeigefläche20 bewegt und die auf die vertikale Anzeigefläche20 projizierten Symbole berührt. In einem anderen Beispiel kann die vertikale Anzeigefläche20 als virtuelle Leinwand verwendet werden, so dass der visuelle Inhalt als virtuelle Tinte projiziert wird, die auf der virtuellen Leinwand in Reaktion auf das Berühren der vertikalen Anzeigefläche20 mit dem Eingabeobjekt24 bereitgestellt wird. Zusätzlich können weitere Gesten implementiert werden, um die virtuelle Tinte zu löschen oder ihre Eigenschaften zu verändern, wie zum Beispiel Farbe und Stiftbreite. Dementsprechend kann das Gestenerkennungs-Schnittstellensystem10 als virtuelle Weißwandtafel fungieren, auf der der Benutzer zeichnen oder schreiben kann. - Der Controller
26 umfasst eine Kalibrierungseinheit32 zum Kalibrieren des Gestenerkennungs-Schnittstellensystems10 . Die Kalibrierungseinheit32 kann ein separates System sein, das in Verbindung mit dem Controller26 arbeitet oder lediglich eine Software-Routine des Controllers26 sein. Zum Beispiel kann die Kalibrierungseinheit23 als Kalibrierungsroutine implementiert sein, die zum Beispiel beim Einschalten oder Set-Up des Gestenerkennungs-Schnittstellensystems10 , oder in periodischen Intervallen mit der Software des Controllers26 interagiert. Eine Kalibrierungsroutine kann lediglich darin bestehen, den Benutzer aufzufordern, einen spezifischen Punkt auf der vertikalen Anzeigefläche20 mit einem Endpunkt des Eingabeobjekts24 zu berühren. Dieser spezifische Punkt kann aus einem oder mehreren Punkten mit vorbestimmten Koordinaten bestehen, die vom Controller26 und/oder der Kalibrierungseinheit23 auf der vertikalen Anzeigefläche20 gekennzeichnet werden. Zum Beispiel kann der spezifische Punkt eine permanente visuelle Markierung auf der vertikalen Anzeigefläche20 sein, oder der spezifische Punkt kann von dem Projektor30 auf die vertikale Anzeigefläche20 projiziert werden. Daraufhin kann die Kalibrierungseinheit32 die Bilder des den spezifischen Punkt berührenden Eingabeobjekts mit den vorgegebenen Koordinaten des spezifischen Punkts verbinden. Somit kann die Kalibrierungseinheit32 die Bilder kalibrieren, um eine genaue Gestenerkennung zu ermöglichen. - Es ist ersichtlich, dass das Gestenerkennungs-Schnittstellensystem
10 in dem Beispiel der1 nur ein Beispiel eines Gestenerkennungs-Schnittstellensystems darstellen soll. Zum Beispiel kann das Gestenerkennungs-Schnittstellensystem10 mehr als zwei Kameras umfassen, die sich an unterschiedlichen Positionen über und/oder unter der vertikalen Anzeigefläche20 befinden, von denen jede entsprechende Bilder des Eingabeobjekts24 zu dem Controller26 liefert. Zum Beispiel kann ein Dreiwege-Stereo-Kamerasystem verwendet werden, oder es können auch mehrere Kameras eingesetzt werden, um den visuellen Erfassungsbereich für eine breite vertikale Anzeigefläche20 zu erhöhen oder in Situationen in denen der Raum über der vertikalen Anzeigefläche20 nicht ausreicht. Zusätzlich kann als weiteres Beispiel der Projektor30 den visuellen Inhalt von hinten auf die vertikale Anzeigefläche20 projizieren oder die vertikale Anzeigefläche20 kann ein Flüssigkristall-Display (LCD) oder ein Plasmamonitor anstelle der Projektionsleinwand sein. Als weiteres Beispiel können die IR-Lichtquellen16 und18 nicht im IR-Spektrum strahlen, sondern können stattdessen in einem anderen Spektralbereich strahlen, zum Beispiel in einem engen Frequenzband des sichtbaren Lichts, wobei jede der entsprechenden Kameras12 und14 einen entsprechenden Spektralfilter aufweist. Demzufolge kann das Gestenerkennungs-Schnittstellensystem10 in einer von vielen Weisen ausgestaltet sein. -
2 stellt ein Beispiel eines Kamerasystems50 für ein Gestenerkennungs-Schnittstellensystem10 in Übereinstimmung mit einem Aspekt der Erfindung dar. Das Kamerasystem50 kann ein Teil des Gestenerkennungs-Schnittstellensystems10 gemäß dem Ausführungsbeispiel nach1 sein. Insoweit ist in der nachfolgenden Beschreibung des Ausführungsbeispiels nach2 auch auf das Ausführungsbeispiel von1 Bezug zu nehmen. - In dem Beispiel der
2 wird das Kamerasystem50 in einer Seitenansicht im Bezug zur vertikalen Anzeigefläche20 gezeigt. Daher zeigt das Kamerasystem50 die Positionierung einer Kamera52 , stellvertretend für eine der Kameras12 und14 im Beispiel der1 . So wie im Beispiel der2 gezeigt, ist die Kamera52 derart über der vertikalen Anzeigefläche20 angeordnet, dass die zentrale Linsenachse54 der Kamera52 einen Blickwinkel (engl. glancing angle) von θ im Bezug zur der von der vertikalen Anzeigefläche20 definierten Ebene aufweist. Wie hierin beschrieben, ist die zentrale Linsenachse54 als eine durch den Mittelpunkt der Linse der Kamera52 verlaufende Achse definiert. Der Blickwinkel θ kann zum Beispiel ein im Wesentlichen kleiner Winkel ungleich Null sein. In einem anderen Beispiel kann der Blickwinkel θ Null sein, so dass die Kamera52 näher an die vertikale Anzeigefläche20 positioniert werden kann. - Aufgrund der Positionierung der Kameras
12 und14 relativ zu der vertikalen Anzeigefläche20 , wie durch die Kamera52 in dem Beispiel der2 dargestellt, können die vertikale Anzeigefläche20 und die Gestenerkennungsumgebung22 vor der vertikalen Anzeigefläche20 durch die Kameras12 und14 abgebildet werden. Insbesondere die Position der Kamera52 in dem Beispiel der2 zeigt, dass die Kameras12 und14 dafür ausgelegt sind, die vertikale Anzeigefläche20 und einen Bereich des physischen Raums im Vordergrund der virtuellen Anzeigefläche20 abzubilden, der ausreichend groß ist (zum Beispiel ungefähr 25 bis 50 cm vor der Anzeigefläche), um die Eingabegesten des Eingabeobjekts24 zu erfassen, ohne dass es zwingend erforderlich ist, die vertikale Anzeigefläche20 zu berühren. Daher kann der Controller26 , basierend auf der Positionierung der Kamera52 , die dreidimensionale Position des Eingabeobjekts24 aus einer Analyse der Positionen in den Bildern und der Parallaxe zwischen den Kameras12 und14 berechnen. Die Anordnung der Kameras12 und14 kann außerdem eine genauere Messung der Entfernung zwischen der vertikalen Anzeigefläche20 und dem Eingabeobjekt24 ermöglichen, als wenn die zentrale Linsenachse54 im Wesentlichen senkrecht zu der vertikalen Anzeigefläche20 wäre. -
3 stellt ein Beispiel eines Beleuchtungssystems100 für ein Gestenerkennungs-Schnittstellensystem10 in Übereinstimmung mit einem Aspekt der Erfindung dar. Das Be leuchtungssystem100 kann ein Teil des Gestenerkennungs-Schnittstellensystems10 gemäß dem Ausführungsbeispiel nach1 sein. Insoweit ist in der nachfolgenden Beschreibung des Ausführungsbeispiels nach3 auch auf das Ausführungsbeispiel von1 Bezug zu nehmen. - Das Beleuchtungssystem
100 umfasst eine Vielzahl von Beleuchtungsgeräten102 , die über der vertikalen Anzeigefläche20 angeordnet sind. Die Beleuchtungsgeräte102 können zum Beispiel IR-Beleuchtungsgeräte sein. Die Beleuchtungsgeräte102 teilen sich in einen ersten Teil104 und in einen zweiten Teil106 auf. Der erste und zweite Teil104 und106 können jeweils eines oder mehrere der Beleuchtungsgeräte102 umfassen. Daher können die Beleuchtungsgeräte102 quer über die Oberseite der vertikalen Anzeigefläche20 verteilt sein, um die Gestenerkennungsumgebung22 in einer im Wesentlichen gleichmäßigen Art und Weise zu beleuchten. Zusätzlich können die Beleuchtungsgeräte102 so angeordnet sein, dass sie relativ zu einer Ebene, die durch die vertikale Anzeigefläche20 definiert wird, einen großen Einfallswinkel (z. B. ungefähr 90°) aufweisen. - Die Beleuchtungsgeräte
102 des ersten und zweiten Teils104 und106 sind jeweils mit einer zentralen Beleuchtungsachse108 angeordnet. Im vorliegenden Zusammenhang ist die zentrale Beleuchtungsachse108 als eine Achse definiert die von dem Mittelpunkt der IR-Lichtquelle des Beleuchtungsgeräts102 ausgeht. Insbesondere die Beleuchtungsgeräte102 in dem ersten Teil104 sind in Bezug zu einer Normalen110 des Fußbodens28 (in dem Beispiel der2 nicht dargestellt) mit einem Winkel φ zur Mitte der vertikalen Anzeigefläche20 hin angeordnet. Ebenso sind die Beleuchtungsgeräte102 in dem zweiten Teil106 in Bezug zu einer Normalen110 des Fußbodens28 mit einem Winkel φ zur Mitte der vertikalen Anzeigefläche20 hin angeordnet, so dass der erste Teil104 und der zweite Teil106 der Beleuchtungsgeräte102 spiegelbildlich angeordnet sind. - Aufgrund der angewinkelten Positionierung der Beleuchtungsgeräte
102 relativ zur Normalen110 wird die direkte Beleuchtung des Fußbodens102 unter der vertikalen Anzeigefläche20 abgeschwächt. Im Besonderen beleuchten die Beleuchtungsgeräte102 den Fußboden28 unter einem Einfallswinkel φ. Daher wird deutlich weniger Beleuchtung von dem Fußboden28 in die Gestenerkennungsumgebung22 reflektiert. Daher ist der Helligkeitskontrast zwischen dem vom Eingabeobjekt24 reflektiertem Licht und dem nicht reflektierten Licht in dem physischen Raum der Gestenerkennungsumgebung stärker. Dementsprechend können in den Bildern, die von der ersten und der zweiten Kamera bereitgestellt werden, die Kanten des Eingabeobjekts24 genauer ermittelt werden, so dass die mit dem Eingabeobjekt24 assoziierten Merkmale mit einer größeren Genauigkeit durch den von dem Controller26 ausgeführten Algorithmus erkannt werden. - Zusätzlich kann, da die Beleuchtungsgeräte
102 mit einem großen Einfallswinkel im Bezug zur Ebene der vertikalen Anzeigefläche20 positioniert sind, die vertikale Anzeigefläche20 für die Kameras12 und14 , im Bezug auf das reflektierte IR-Licht, wesentlich dunkler erscheinen als das Eingabeobjekt24 . Außerdem kann die vertikale Anzeigefläche20 in dem Beleuchtungssystem100 und damit das Gestenerkennungs-Schnittstellensystem10 retroreflektiv ausgestaltet sein. Daher kann das auf die vertikale Anzeigefläche20 einfallende Licht im Wesentlichen zurück zu der Beleuchtungsquelle reflektiert werden. Allerdings kann sich die Retro-Reflektivität bei größeren Einfallswinkeln deutlich vermindern. Aufgrund der Retro-Reflektivität der vertikalen Anzeigefläche20 wird das IR-Licht, das von den Beleuchtungsgeräten102 emittiert wird, oder das von dem Eingabeobjekt auf die vertikale Anzeigefläche20 reflektiert wird, nicht zu den Kameras12 und14 reflektiert. Dementsprechend bleibt, obwohl die vertikale Anzeigefläche20 durch die Kameras12 und14 abgebildet wird, so wie es vorher in Beispiel der2 beschrieben worden ist, die vertikale Anzeigefläche20 für die Kameras12 und14 im Vergleich zu dem Eingabeobjekt24 in Bezug auf das reflektierte IR-Licht im Wesentlichen dunkler. -
4 stellt ein anderes Beispiel eines Gestenerkennungs-Schnittstellensystems150 in Übereinstimmung mit einem Aspekt der Erfindung dar. Das Gestenerkennungs-Schnittstellensystem150 kann ein Teil des Gestenerkennungs-Schnittstellensystems10 gemäß dem Ausführungsbeispiel nach1 sein. Insoweit ist in der nachfolgenden Beschreibung des Ausführungsbeispiels nach4 auch auf das Ausführungsbeispiel von1 Bezug zu nehmen. - Das Gestenerkennungs-Schnittstellensystem
150 umfasst den Controller26 , die erste Kamera12 und die zweite Kamera14 . Die erste und zweite Kamera12 und14 empfangen jeweils eine Vielzahl von Bildern des Eingabeobjekts24 , wie zum Beispiel der Hand eines Benutzers. Die entsprechenden Bilder des Eingabeobjekts24 können Bilder sein, die auf den Helligkeitskontrast zwischen dem vom Eingabeobjekt24 reflektiertem Licht und dem nicht reflektiertem Licht in der Gestenerkennungsumgebung22 basieren. - Die erste und zweite Kamera
12 und14 geben jeweils ihre entsprechenden Bilder eines zusammengehörigen Bilderpaars in einen Digitalisierer152 ein. Der Digitalisierer152 erzeugt digitale Versionen der Bilder des Eingabeobjekts. Die digitalisierten Bilder des Eingabeobjekts24 werden in einen Bildvergleicher154 eingegeben. Der Bildvergleicher154 ver gleicht jedes der digitalisierten Bilder des Eingabeobjekts mit einem zuvor gespeicherten digitalisierten Bild des Eingabeobjekts, um ein binär codiertes Bild des Eingabeobjekts24 zu erzeugen. Solch ein Vergleich ermöglicht eine verbesserte Qualität der digitalisierten Bilder, wenn die IR-Beleuchtung der Gestenerkennungsumgebung22 nicht über die gesamte vertikale Anzeigefläche20 gleichmäßig ist. Das zuvor gespeicherte digitalisierte Bild kann während eines Kalibrierungsvorgangs und/oder aus den wiederholten Speichern der digitalisierten Bilder in einem Pufferspeicher erhalten werden. - Zum Beispiel kann ein Hintergrundmodell ohne das Eingabeobjekt
24 für jede der Kameras12 und14 beibehalten werden. Die Hintergrundmodellbilder können verwendet werden, um für jeden Bildpunkt zu entscheiden, ob das Bild des Eingabeobjekts24 einer binären 1 oder 0 entspricht. Zum Beispiel wird für jeden Bildpunktort, wenn das Bild des Eingabeobjekts24 einen Wert aufweist, der etwas größer ist als der Wert des Hintergrundmodellbilds multipliziert mit einem Schwellen-Skalierungswert zwischen 0 und 1, der Ausgabewert eine binäre 1 sein, wodurch die Anwesenheit des Eingabeobjekts24 angezeigt wird. Auf diese Weise kann der Skalierungswert so ausgewählt werden, dass ein optimales Gleichgewicht zwischen dem wünschenswerten Erkennen des Eingabeobjekts24 und einer Unempfindlichkeit der ersten und zweiten Kamera12 und14 gegenüber dem Vorhandensein von zurück reflektierten Licht eingestellt werden kann. Daher können mit dem Eingabeobjekt assoziierte Kanten in allen Bildern erkannt werden. - Die im Kontrast verstärkten binär codierten Bilder des Eingabeobjekts
24 werden dann in ein Skelettdarstellungs-Objekterkennungs-Algorithmusgerät156 eingegeben. Das Objekterkennungs-Algorithmusgerät156 kann ein integrierter Schaltkreis (IC), ein Satz von ICs innerhalb des Controllers26 oder eine Software-Routine des Controllers26 sein. Das Objekterkennungs-Algorithmusgerät156 kann dafür ausgelegt sein, mit dem Eingabeobjekt24 assoziierte Merkmale in jedem der binär codierten Bilder zu erkennen. Zum Beispiel kann das Objekterkennungs-Algorithmusgerät156 die Länge, die Neigung und/oder die mit den langgestreckten Teilen des Eingabeobjekts24 assoziierten Endpunkte erkennen. - Zum Beispiel kann das Objekterkennungs-Algorithmusgerät
156 dafür ausgelegt sein, die Position einer Folge von mit Kanten der langgestreckten Teile des Eingabeobjekts24 assoziierten Mittelpunkte zu bestimmen. Die Mittelpunkte können in den Bildern, auf denen keine andere Kantenpunkte in dem zweidimensionalen Koordinatensystem vorhanden sind, symmetrische Punkte sein, die sich ungefähr auf halben Weg zwischen zwei Grenzpunkten an Kanten des Eingabeobjekts befinden. Ein Verbindungsalgorithmus kann dann die symmetrischen Punkte zu Ketten verbinden, aus denen gerade den langgestreckten Teilen entspre chende Segmente gebildet werden. Die symmetrischen Punkte können mit radialen Entfernungsparametern versehen werden, die einen Ball beschreiben, der an den Punkt zentriert wird, der in die Grenzen des Bildes passt. Die Ketten und Segmentstrukturen können dann die radialen Entfernungsparameter übernehmen, um eine Skelettdarstellung des Eingabeobjekts24 zu bilden, von der dann die Merkmale der langgestreckten Teile abgeleitet werden können. -
5 stellt ein Beispiel einer Grafik200 des konvertierten Handbilds, basierend auf den Skelettdarstellungs-Objekterkennungsalgorithmus in Übereinstimmung mit einem Aspekt der Erfindung dar. Ein erstes Handbild202 wird gezeigt, das einen von einer im Wesentlichen geschlossenen Faust ausgestreckten Zeigefinger zeigt. Das Objekterkennungs-Algorithmusgerät156 kann dann das erste Handbild202 in eine Skelettdarstellung203 konvertieren. Insbesondere kann das Objekterkennungs-Algorithmusgerät156 eine Folge von Mittelpunkten entlang der langgestreckten Teile (d. h. Arm und Zeigefinger) erkennen, die in dem Beispiel der5 als gepunktete Linien204 und206 dargestellt sind, die entsprechend mit symmetrischen Achsen des Zeigefingers und des Arms korrespondieren. Die gepunkteten Linien204 und206 werden durch den Ball208 getrennt, der der Faust entspricht. Daher kann das Objekterkennungs-Algorithmusgerät156 Endpunkte der symmetrischen Achsen des Arms und des Zeigefingers, die entsprechend durch das ”X”210 und das ”X”212 dargestellt sind, in dem zweidimensionalen Raum jedes Bilds bestimmen. - Ein zweites Handbild
214 ist so dargestellt, dass alle Finger und der Daumen ausgestreckt sind. Das Objekterkennungs-Algorithmusgerät156 kann daher das zweite Handbild214 in eine Skelettdarstellung215 konvertieren. Das Objekterkennungs-Algorithmusgerät156 kann eine Folge von Mittelpunkten entlang der langgestreckten Teile (d. h. Arm, Daumen und alle Finger) bestimmen, die in dem Beispiel der5 als gepunktete Linien260 entsprechend den symmetrischen Achsen von Arm, Daumen und Finger dargestellt sind. Die gepunkteten Linien216 führen von sich überlappenden Bällen218 , die die Handfläche darstellen, weg. Daher kann das Objekterkennungs-Algorithmusgerät156 die Endpunkte der symmetrischen Achsen des Arms, des Daumens und der Finger, dargestellt durch das ”X”220 am Ende jeder Achse, in dem zweidimensionalen Raum jedes Bilds bestimmen. - Zurückverweisend auf das Beispiel der
4 kann das Skelettdarstellungsbild des Eingabeobjekts24 einem Kalibrierungsdaten- und Positionskoordinatenwandler158 bereitgestellt werden. Der Kalibrierungsdaten- und Positionskoordinatenwandler158 bestimmt für einen bestimmten Zeitpunkt die dreidimensionale Position des Eingabeobjekts24 und aller damit assoziierten Merkmale. Zum Beispiel kann der Kalibrierungsdaten- und Positionskoor dinatenwandler158 dafür ausgelegt sein, die relativen zweidimensionalen Positionen der korrespondierenden Punkte in jedem der Skelettdarstellungsbilder des Eingabeobjekts24 zu vergleichen und die dreidimensionale Position der Punkte, basierend auf einem Parallaxenabstand der korrespondierenden Punkte, zu interpolieren. -
6 stellt ein Beispiel einer Parallaxenabstandsgrafik250 der konvertierten Handbilder in Übereinstimmung mit einem Aspekt der Erfindung dar. Die Grafik250 umfasst ein erstes konvertiertes Bild252 und ein zweites konvertiertes Bild254 des Eingabeobjekts24 . In dem Beispiel der6 als Benutzerhand dargestellt. Die konvertierten Bilder252 und254 sind als Skelettdarstellungen des Eingabeobjekts24 dargestellt, so wie oben für das Beispiel der5 beschrieben. Das erste konvertierte Bild252 kann von der ersten Kamera12 empfangen worden sein, und das zweite konvertierte Bild254 kann von der zweiten Kamera14 empfangen worden sein. Der Kalibrierungsdaten- und Positionskoordinatenwandler158 kann daher die beiden konvertierten Bilder252 und254 gleichzeitig als übereinander liegendes, zusammengesetztes Bild empfangen. Aufgrund der Parallaxe, die durch die unterschiedlichen Positionen der Kameras12 und14 verursacht wird, ist ein Endpunkt256 des ersten konvertierten Bilds252 und ein Endpunkt258 des zweiten konvertierten Bilds254 in dem Beispiel der6 als voneinander durch die Entfernung X beabstandet dargestellt. Die Entfernung X ist daher die Darstellung der Stereodisparität des Eingabeobjekts24 , so dass die Entfernung X einen Unterschied in den Positionen des Endpunkts256 und258 in den entsprechenden konvertierten Bildern252 und254 repräsentiert. - Veränderungen der Werte der Stereodisparität X können eine Veränderung einer, durch die Endpunkte
256 und258 repräsentierte, mit der Fingerspitze des Benutzers assoziierten Höhe anzeigen. Wenn zum Beispiel X größer wird, wird die Fingerspitze des Benutzers vertikal nach oben bewegt (zum Beispiel zu den Kameras12 und14 ), und wenn X kleiner wird, wird die Fingerspitze des Benutzers vertikal nach unten bewegt (zum Beispiel weg von den Kameras12 und14 ). Somit interpoliert, basierend auf dem Parallaxenabstand, der Kalibrierungsdaten- und Positionskoordinatenwandler158 die dreidimensionale Position der Endpunkte des Eingabeobjekts. Der Controller26 kann kalibriert werden, um einen Wert X, im Verhältnis zu einem Punkt mit einer vorbestimmten Position auf der vertikalen Anzeigefläche20 , einer Höhe der Fingerspitze des Benutzers zuzuordnen. - Beispielsweise können die korrespondierenden Punkte, die vom Kalibrierungsdaten- und Positionskoordinatenwandler
158 gemessen werden, ein oder mehrere der Endpunkte sein, so wie die Endpunkte210 ,212 und220 in dem Beispiel der5 . In einem anderen Beispiel können die korrespondierenden Punkte, die durch den Kalibrierungsdaten- und Positionskoordinatenwandler158 gemessen wurden, beliebige der Mittelpunkte entlang der langgestreckten Teile sein, so wie die Mittelpunkte204 ,206 und216 aus dem Beispiel der5 . Das Gestenerkennungs-Schnittstellensystem150 kann kalibriert werden, um den Betrag eines physischen Abstands in den zweidimensionalen Bildern zu ermitteln, der einer Höhe, einer seitlichen und proximalen Position der Merkmale des Eingabeobjekts24 im Bezug zu der vertikalen Anzeigefläche20 entspricht. Demzufolge kann der Kalibrierungsdaten- und Positionskoordinatenwandler158 eine zweidimensionale Position des Eingabeobjekts relativ zu der vertikalen Anzeigefläche20 sowie eine Berührung der vertikalen Anzeigenfläche20 mit einem Endpunkt des Eingabeobjekts24 (zum Beispiel die Fingerspitze des Benutzers) erkennen. - Die von dem Kalibrierungsdaten- und Positionskoordinatenwandler
158 ausgegebenen Daten werden in ein Gestenerkennungsgerät160 eingegeben. Das Gestenerkennungsgerät160 interpretiert die mit dem einen Endpunkt oder den mehreren Endpunkten des Eingabeobjekts assoziierten dreidimensionalen Positionsdaten und übersetzt Änderungen in den Positionsdaten in eine Eingabegeste. Da das Gestenerkennungsgerät160 die mit dem Eingabeobjekt24 assoziierten Positionsdaten implementiert, kann es programmiert sein, eine beliebige von einer Vielzahl von Gesten zu erkennen, die mit einer Fingerspitze oder mit mehreren Fingerspitzen der Benutzerhand ausgeführt werden. Auf diese Weise bietet das Gestenerkennungs-Schnittstellensystem150 eine viel vielseitigere Eingabemöglichkeit als berührungsempfindliche Bildschirme. - Zum Beispiel können Gesten die mit mehrere Fingerspitzen oder sogar mit Fingerspitzen von beiden Händen ausgeführt werden als Eingabegesten interpretiert werden, die Zoom-Befehle, Rotations- oder ”Dreh”-Befehle oder sogar Arbeitsumgebungseinstellungen wie zum Beispiel Lautstärke und Helligkeitseinstellungen simulieren, die alle für eine Interpretation durch das Gestenerkennungsgerät
160 programmiert sein können. Das Gestenerkennungsgerät160 kann auch programmiert sein, die Gesten verschiedener Benutzer gleichzeitig zu erkennen. Zum Beispiel kann das Gestenerkennungsgerät160 eine Vielpunktsteuermöglichkeit bereitstellen, so dass koordinierte Aktionen zwischen zwei Händen und/oder mehreren Benutzern implementiert werden können. Außerdem kann das Gestenerkennungsgerät160 in Verbindung mit anderen Computer-Eingabegeräten verwendet werden, wie zum Beispiel einer konventionellen Maus oder Tastatur, um zusätzliche Arten von Gesteneingaben zu erzeugen. Hinzu kommt, dass die simulierten Befehle noch nicht einmal das Berühren der vertikalen Anzeigefläche20 erfordern. Zum Beispiel kann das Gestenerkennungsgerät160 nicht nur Veränderungen in der dreidimensionalen Position des Eingabeobjekts24 auswerten, sondern auch mit dieser Bewegung assoziierte Zeitschwellen. Überdies kann jegliche von einer Vielzahl von Eingabegesten aus einer Bewegung mit sechs Freiheitsgraden gebildet werden, die auf Änderung der dreidimensionalen Position und Orientierung des Eingabeobjekts24 und aller damit assoziierten Endpunkte basiert. - Der Controller
26 kann auch einen Speicher vordefinierter Gesten162 umfassen, der mit dem Gestenerkennungsgerät160 gekoppelt ist. Der Speicher vordefinierter Gesten162 kann eine Vielzahl vordefinierter Gesten umfassen, wobei jede der vordefinierten Gesten einer bestimmten Geräteeingabe entspricht. Zum Beispiel kann der Speicher vordefinierter Gesten162 eine Datenbank mit spezifischen Anordnungen und Kombinationen von Fingerspitzenpositionen und Bewegungen umfassen, von denen jede mit einer anderen Computer-Eingabe korrespondiert. Das Gestenerkennungsgerät160 kann, nachdem es die mit einem Endpunkt oder mehreren Endpunkten des Eingabeobjekts assoziierten dreidimensionalen Positionsdaten über einen bestimmten Zeitbereich empfangen hat, den Speicher vordefinierter Gesten162 abfragen, um zu ermitteln, ob die Gesteneingabe mit einer vordefinierten Geste übereinstimmt. Nachdem eine Übereinstimmung festgestellt worden ist, kann das Gestenerkennungsgerät160 die Gesteneingabe in eine Geräteeingabe übersetzen die mit der entsprechenden vordefinierten Geste korrespondiert. Der Speicher vordefinierter Gesten162 kann mit geeigneten vordefinierten Gesteneingaben vorprogrammiert sein oder er kann dynamisch programmierbar sein, so dass neue Gesten gemeinsam mit den korrespondierenden Geräteeingaben hinzugefügt werden können. Zum Beispiel kann der Benutzer einen Vorgang ”Beginne ein Gestenbeispiel” aktivieren; die neue Geste ausführen, wobei die erste Kamera12 und die zweite Kamera14 verwendet werden, um geeignete Bilder der neuen Geste aufzunehmen; und die dazugehörige Geräteeingabe eingeben, die mit der neuen Geste korrespondiert. - Es ist ersichtlich, dass es nicht beabsichtigt ist, ein bestimmtes Gestenerkennungs-Schnittstellensystem auf die Beispiele der
2 bis6 zu limitieren. In Übereinstimmung mit einem Aspekt der Erfindung sind andere Implementierungen zum Erzeugen von Eingaben möglich. Zum Beispiel können ein oder mehrere Elemente des Controllers26 in anderen Geräten integriert sein oder können von dem Controller26 getrennt sein. Zum Beispiel kann jede der Kameras12 und14 die jeweiligen Bilder in einen üblichen Digitalisierer152 eingeben. In einem anderen Beispiel, ähnlich zu dem mit Bezug zum Ausführungsbeispiel der1 beschriebenen, ist ein bestimmtes Gestenerkennungs-Schnittstellensystem nicht auf zwei Kameras limitiert, sondern kann eine Vielzahl von Kameras über und/oder unter der vertikalen Anzeigefläche20 umfassen. Außerdem kann in dem Controller26 nicht nur der Skelettdarstellungs-Objektalgorithmus zum Erkennen von mit dem Eingabeobjekt assoziierten Merkmalen implementiert sein. Es können andere Algorithmen verwendet werden, wie zum Beispiel ein zweidimensionaler Laplace-Filter eines Gaussschen-Faltungsfilters, um mit dem Eingabeobjekt24 assoziierte Endpunkte wie zum Beispiel Fingerspitzen zu bestimmen. Dementsprechend kann das Gestenerkennungs-Schnittstellensystem150 in einer beliebigen von einer Vielzahl von Möglichkeiten ausgestaltet sein. -
7 stellt ein Beispiel der Gestenanwendung300 in Übereinstimmung mit einem Aspekt der Erfindung dar. Die Gestenanwendung300 kann ein Teil des Gestenerkennungs-Schnittstellensystems10 gemäß dem Ausführungsbeispiel nach1 sein. Insoweit ist in der nachfolgenden Beschreibung des Ausführungsbeispiels nach7 auch auf das Ausführungsbeispiel von1 Bezug zu nehmen. - Die Gestenanwendung
300 wird auf einer virtuellen Weißwandtafel auf der vertikalen Anzeigefläche20 , ähnlich der im Ausführungsbeispiel der1 beschriebenen, dargestellt. Die Gestenanwendung300 zeigt eine erste Geste302 die durch das Berühren der vertikalen Anzeigefläche20 mit dem ausgestreckten Zeigefinger einer sonst geschlossenen Faust, so wie durch die Hand304 dargestellt, gebildet wird. Der Controller26 kann dafür eingerichtet sein (zum Beispiel über das Gestenerkennungsgerät160 ), die erste Geste302 zu erkennen und durch das Bereitstellen von visuellen Daten zu reagieren, zum Beispiel durch die von dem Projektor30 auf der vertikalen Anzeigefläche20 dargestellten virtuellen Tinte306 . Daher kann der Benutzer mit der virtuellen Tinte306 auf der vertikalen Anzeigefläche20 zeichnen und/oder schreiben, nur indem er die vertikale Anzeigefläche20 berührt und seinen Finger darüber bewegt, so wie es durch die erste Geste302 dargestellt ist. - Die Gestenanwendung
300 zeigt auch eine zweite, zusammengesetzte Geste308 , die eine Variation der ersten Geste302 ist. Im Speziellen wird die zweite Geste durch das Berühren der vertikalen Anzeigefläche20 mit einem ausgestreckten Zeigefinger und einem ausgestreckten Daumen von einer sonst geschlossenen Hand ausgeführt, so wie durch die Hand310 dargestellt. Daher ist die zweite Geste308 eine zusammengesetzte Geste, da die erste Geste302 mit einer weiteren Geste kombiniert wird (zum Beispiel dem Ausstrecken des Daumens). Der Controller26 kann daher dafür ausgelegt sein, die zweite Geste308 als eine Kombination der ersten Geste302 und einer Geste die das Ausstrecken des Daumens umfasst zu erkennen, so dass der ausgestreckte Daumen eine Modifikation für die erste Geste302 bildet. In dem Beispiel der7 reagiert der Controller26 auf die zweite Geste308 durch das Bereitstellen der visuellen Daten als virtuelle Tinte312 , die eine Variation der virtuellen Tinte306 ist. Im Speziellen ist die virtuelle Tinte312 so dargestellt, dass sie eine dickere Stiftbreite und eine andere Farbe im Vergleich zur virtuellen Tinte306 aufweist. - Somit verdeutlicht die zweite Geste
308 , dass jegliche von einer Vielzahl von Variationen der ersten Geste302 erzeugt werden kann, und dass diese nicht nur auf das reine Hinzufügen des ausgestreckten Daumens beschränkt sind. Zum Beispiel können, basierend auf unterschiedlichen Kombinationen von ausgestreckten Fingern und/oder des Daumens der Hand310 , unterschiedliche Stiftbreiten und/oder Farben implementiert werden. In einem anderen Beispiel können die visuellen Daten, die auf der vertikalen Anzeigefläche20 bereitgestellt werden, eine virtuelle Farbpalette und/oder eine Stiftbreitenauswahl umfassen, die in einer Ecke der vertikalen Anzeigefläche20 angeordnet sind. Zum Beispiel kann der visuelle Inhalt eine aktuell ausgewählte Farbe und/oder Stiftbreite darstellen oder kann alle verfügbaren Farben und/oder Stiftbreiten darstellen, wobei ein Pfeil oder eine Unterstreichung die aktuell ausgewählte Farbe und/oder Stiftbreite kennzeichnet. Daher kann der Benutzer eine zusätzliche Geste verwenden, um zwischen den verfügbaren Farben und/oder Stiftbreiten zu wechseln oder auszuwählen. Zum Beispiel kann der Benutzer eine Auslösegeste mit dem Daumen ausführen, um zwischen den Auswahloptionen zu wechseln, oder er kann eine Geste mit der anderen Hand implementieren die ein Berühren der Leinwand beinhalten kann, während die Hand310 weiterhin Schreib- und/oder Zeichengesten ausführt. Daher kann jegliche von einer Vielzahl von zusammengesetzten Gesten in dem Beispiel der7 implementiert werden. - Die Gestenanwendung
300 zeigt auch eine dritte Geste314 , die durch ein Berühren der vertikalen Anzeigefläche20 mit der geöffneten Handfläche, so wie durch die Hand316 dargestellt, ausgeführt wird. Der Controller26 kann dafür ausgelegt sein, die dritte Geste314 zu erkennen und mit dem Löschen der virtuellen Tinte zu reagieren. In dem Beispiel der7 wird die dritte Geste314 als die Hand316 dargestellt die durch die virtuelle Tinte318 bewegt wird und einen von der Hand erfassten Teil der virtuellen Tinte löscht, so wie durch die gepunkteten Linien320 dargestellt. Zusätzlich kann die dritte Geste314 ebenso gut eine zusammengesetzte Geste zum Löschen der virtuellen Tinte umfassen. Zum Beispiel kann der Controller26 dafür ausgelegt sein, auf eine Geste die das Platzieren der beiden geöffneten Handflächen des Benutzers auf der vertikalen Anzeigefläche20 umfasst, mit einem ”alles löschen”-Befehl zu reagieren, so dass die gesamte virtuelle Tinte auf der vertikalen Anzeigefläche20 gelöscht wird. In einem anderen Beispiel können auf einen Befehl hin Teile der virtuellen Tinte ausgewählt werden, so dass ein einfaches Berühren mit einem Finger oder mit der geöffneten Handfläche mit dem Löschen der ausgewählten virtuellen Tinte korrespondiert. - Es ist ersichtlich, dass die Gestenanwendung
300 nicht auf die im Beispiel der7 beschriebene virtuelle Weißwandtafelanwendung beschränkt ist. Zum Beispiel kann der Controller26 dafür ausgelegt sein, eine große Vielzahl von vordefinierten Gesten zu erkennen, so dass gezeichnete und/oder geschriebene virtuelle Tinte durch unterschiedliche Gesten in einer Vielzahl von unterschiedlichen Möglichkeiten manipuliert werden kann. Zum Beispiel kann die Gestenanwendung300 im Wesentlichen ähnlich zu einer beliebigen von einer Vielzahl von kommerziell verfügbaren Computer-Zeichenprogrammen ausgelegt sein. - Es ist ersichtlich, dass die virtuelle Weißwandtafelfunktion mit einem beliebigen von einer Vielzahl von Computer-Bildschirmpräsentations-Software-Programmen verwendet werden kann. Zum Beispiel unterstützten einige Bildschirmpräsentations-Software-Programme das Zeichnen von Notizen mit der Maus auf Folien. Folglich kann, so wie hierin beschrieben, ein Bildschirmpräsentationsprogramm durch die Verwendung von Gesten zum Vorwärts- oder Rückwärtsschalten der Folien gesteuert werden. Zum Zeichnen auf die Folien können natürliche Fingerzeichengesten verwendet werden, so wie im Beispiel der
7 beschrieben. Zum Beispiel kann eine oder mehrere zusätzliche Handgesten eingesetzt werden, um zu einer leeren Folie zu schalten, auf der mit virtueller Tinte gezeichnet und/oder geschrieben werden kann, um eine ausführlichere Präsentation vor, nach oder während einer vorgefertigte Folien umfassenden Präsentation zu ermöglichen. Dementsprechend kann eine beliebige von einer Vielzahl von Gestenanwendungen implementiert werden. - Aufgrund der zuvor beschriebenen strukturellen und funktionellen Merkmale wird die Methodologie gemäß der unterschiedlichen Aspekten der vorliegenden Erfindung durch Bezugnahme auf
8 noch besser verdeutlicht. Während zum Zwecke der Erläuterung die Methodologien als aufeinander folgend und nacheinander auszuführen beschrieben werden, ist ersichtlich und verständlich, dass die vorliegende Erfindung nicht auf die dargestellte Reihenfolge beschränkt ist, da einige Aspekte gemäß der vorliegenden Erfindung in einer anderen Reihenfolge und/oder gleichzeitig mit anderen als den dargestellten und beschriebenen Aspekten auftreten. Außerdem müssen nicht alle dargestellten Merkmale zur Ausführung einer Methodologie gemäß einem Aspekt der vorliegenden Erfindung erforderlich sein. -
8 stellt ein Beispiel eines Verfahrens350 zum Erzeugen von Eingaben in Übereinstimmung mit einem Aspekt der Erfindung dar. In Schritt352 wird visueller Inhalt auf einer vertikalen Anzeigefläche angezeigt. Die vertikale Anzeigefläche kann eine Anzeigeleinwand sein, auf die visueller Inhalt projiziert werden kann. In Schritt354 wird eine Gestenerkennungsumgebung beleuchtet, die durch einen physischen Raum im Vordergrund der im Wesentlichen vertikalen Anzeigefläche definiert ist. Die Beleuchtung kann durch IR-Lichtquellen bereitgestellt werden. In Schritt356 erzeugt ein Benutzer simulierte Eingaben, die mit dem visuellen Inhalt in der Gestenerkennungsumgebung über mit einem Eingabeob jekt assoziierten Gesten interagieren können. Das Eingabeobjekt kann die Hand des Benutzers sein, so dass der Benutzer die Eingaben über Handgesten simulieren kann. Zusätzlich können die simulierten Eingaben simulierte Maus-Eingaben, Zoom-Befehle oder Rotationsbefehle sein. Die simulierten Eingaben können auch das Berühren der vertikalen Anzeigefläche umfassen, so dass die simulierten Eingaben virtuelle Tinte bereitstellen, mit der auf der vertikalen Anzeigefläche gezeichnet und/oder geschrieben werden kann. Daher kann das Gestenerkennungssystem im Wesentlichen als virtuelle Weißwandtafel ausgelegt sein. - In Schritt
358 wird gleichzeitig eine erste Vielzahl und zweite Vielzahl von Bildern des Eingabeobjekts erzeugt, die auf dem vom Eingabeobjekt reflektiertem Licht basieren. Die Vielzahl der Bilder kann eine Vielzahl von zusammengebrachten Bildersätzen sein, so dass jedes Bild des zusammengebrachten Satzes mit dem aus unterschiedlichen Perspektiven zur im Wesentlichen gleichen Zeit aufgenommenem Eingabeobjekt korrespondiert. Die Bilder können, basierend auf dem vom Eingabeobjekt reflektiertem Licht im Verhältnis zum nicht reflektiertem Licht, in der Gestenerkennungsumgebung erzeugt werden. Daher können die Vielzahl der Bilder Bilder des vom Benutzer kontrollierten Eingabeobjekts sein. - In Schritt
360 werden mit dem Eingabeobjekt assoziierte Merkmale in jedem der korrespondierenden Sätze der Vielzahl der ersten und zweiten Bilder erkannt. Die Merkmale können durch das Erzeugen einer Folge von Punkten längs der langgestreckten Teile des Eingabeobjekts in der ersten und zweiten Vielzahl von Bildern erkannt werden. Zum Beispiel kann es sich bei der Folge von Punkten um Mittelpunkte handeln, die symmetrisch zwischen Grenzpunkten, die Kanten des Eingabeobjekts in den ersten und zweiten Bildern definieren, angeordnet sind. Jeder Punkt in der Folge von Punkten in der ersten Vielzahl von Bildern kann mit einem entsprechenden Punkt in der Folge von Bildern in der zweiten Vielzahl von Bildern korrelieren. Die Korrelation der Punkte in jedem der ersten und zweiten Bilder kann auf beidseitigen Endpunkten oder einem beliebigen Punkt längs der langgestreckten Teile des Eingabeobjekts basieren. In Schritt362 wird eine Vielzahl von dreidimensionalen physischen Positionen des Eingabeobjekts bestimmt, die auf dem relativen Abstand der korrelierenden Punkte in der Folge von Punkten in jedem der Sätze der ersten und zweiten Vielzahl von Bildern basieren. Der relative Abstand kann auf einem Parallaxenabstand zwischen den ersten und zweiten Bildern basieren. Die dreidimensionale Position kann relativ zur vertikalen Anzeigefläche bestimmt werden. Positionsänderungen der dreidimensionalen Position des zumindest einen Endpunkts des Eingabeobjekts können für eine physische Bewegung des Eingabeobjekts entscheidend sein. In Schritt364 wird bestimmt, ob die mit dem Eingabeobjekt assoziierte physische Bewegung mit einer der Vielzahl der vordefinierten Gesten korrespondiert. Die vordefinierten Gesten können in einem Speicher gespeichert sein. Jede der vordefinierten Gesten kann mit einer anderen Geräteeingabe assoziiert sein. In Schritt366 wird zumindest eine Geräteeingabe erzeugt, die darauf basiert, dass eine mit dem Eingabeobjekt assoziierte Bewegung als eine einer bestimmten der vordefinierten Gesten entsprechende Geste erkannt wird. Geräteeingaben können Maus-Eingaben sein, so dass zweidimensionale Bewegungen über die vertikale Anzeigefläche die Bewegungen eines Maus-Cursors nachbilden können und das Berühren der vertikalen Anzeigefläche kann einen Linken-Maus-Klick simulieren. Zusätzlich können mit unterschiedlichen Endpunkten assoziierte Bewegungen verschiedene Arten von Eingaben erzeugen, wie zum Beispiel Rotations- und Zoom-Befehle. - Was beschrieben wurde sind Ausführungsbeispiele der vorliegenden Erfindung. Es ist jedoch nicht möglich, alle denkbaren Kombinationen der Komponenten oder Methodologien für die Zwecke der Beschreibung der vorliegenden Erfindung darzustellen. Jedoch wird jemand mit üblichen Fähigkeiten auf dem vorliegenden Gebiet erkennen, dass viele weitere Kombinationen und Permutationen der vorliegenden Erfindung möglich sind. Folglich ist beabsichtigt, dass die vorliegende Erfindung auch solche Veränderungen, Modifikationen und Abwandlungen umfasst, die unter den Gedanken und in den Bereich der beigefügten Patentansprüche fallen.
Claims (20)
- Ein Gestenerkennungs-Schnittstellensystem mit: einer im Wesentlichen vertikalen Oberfläche, die dafür ausgelegt ist, eine Gestenerkennungsumgebung zu definieren, die auf einem physischen Raum in einem Vordergrund der im Wesentlichen vertikalen Oberfläche basiert; mindestens einer Lichtquelle, die angeordnet ist, um die Gestenerkennungsumgebung zu beleuchten; mindestens zwei Kameras, die dafür ausgelegt sind, eine Vielzahl von Bildersätzen zu erzeugen, die auf der von einem Eingabeobjekt reflektierten Beleuchtung in der Gestenerkennungsumgebung basieren; und einem Controller, der dafür ausgelegt ist, bestimmte Eingabegesten zu erkennen, die auf Veränderungen der relativen Positionen des Eingabeobjekts in jedem der Vielzahl von Bildersätzen basieren, und der ferner dafür ausgelegt ist, um eine mit der bestimmten Eingabegeste assoziierte Geräteeingabe auszulösen.
- Das Schnittstellensystem nach Anspruch 1, wobei die mindestens zwei Kameras so positioniert sind, dass eine zentrale Linsenachse von jeder der mindestens zwei Kameras im Wesentlichen parallel zu einer Ebene verläuft, die durch die im Wesentlichen vertikale Oberfläche definiert wird, um die im Wesentlichen vertikale Oberfläche und die Gestenerkennungsumgebung in einer Vielzahl von Bildersätzen zu erfassen.
- Das Schnittstellensystem nach Anspruch 1, wobei die mindestens eine Lichtquelle so positioniert ist, dass eine zentrale Beleuchtungsachse der mindestens einen Lichtquelle bezüglich einer mit einem Fußboden, unter der im Wesentlichen vertikalen Oberfläche, assoziierten Normalen einen Einfallswinkel bildet, der ungleich Null ist.
- Das Schnittstellensystem nach Anspruch 1, wobei der Controller dafür ausgelegt ist, einen Algorithmus zu implementieren, der in der Vielzahl der Bildersätze mit dem Eingabeobjekt assoziierte Merkmale erkennt.
- Das Schnittstellensystem nach Anspruch 4, wobei der Algorithmus dafür ausgelegt ist, um in einem vorgegebenen Koordinatensystem in jedem der Vielzahl von Bildersätzen eine Folge von Mittelpunkten zwischen gegenüberliegenden Kanten der langgestreckten Teile des Eingabeobjekts zu bestimmen, und um die Mittelpunkte in jedem eines ersten Bilds eines Bildersatzes mit den dazugehörigen Mittelpunkten eines zweiten Bildes des Bildsatzes aufeinander zu beziehen, und um Endpunkte, Länge und Neigung der langgestreckten Teile des Eingabeobjekts zu berechnen.
- Das Schnittstellensystem nach Anspruch 1, wobei die im Wesentlichen vertikale Oberfläche dafür ausgelegt ist, mit dem Eingabeobjekt interagierende visuelle Inhalte anzuzeigen.
- Das Schnittstellensystem nach Anspruch 6, wobei der Controller dafür ausgelegt ist, den visuellen Inhalt als virtuelle Tinte auf den Teilen der im Wesentlichen vertikalen Oberfläche bereitzustellen, die vom Eingabeobjekt berührt werden.
- Das Schnittstellensystem nach Anspruch 7, wobei zumindest ein Farbwechsel, ein Stiftbreitenwechsel oder ein Löschen der virtuellen Tinte durch eine entsprechende, mindestens eine zusätzliche vorbestimmte Geste gesteuert wird.
- Das Schnittstellensystem nach Anspruch 1, wobei die zumindest eine Lichtquelle mindestens eine Infrarot (IR)-Lichtquelle umfasst, und wobei jede der zumindest zwei Kameras einen IR-Filter umfasst.
- Das Schnittstellensystem nach Anspruch 9, wobei der Controller eine automatisierte Kalibrierungseinheit umfasst, die dafür ausgelegt ist, basierend auf einer Anzahl von Parallaxenabständen in zusammengebrachten Sätzen von Bildern des Eingabeobjekts, das mindestens eine vorbestimmte zweidimensionale Position auf der im Wesentlichen vertikalen Oberfläche berührt, das Gestenerkennungs-Schnittstellensystem zu kalibrieren.
- Das Schnittstellensystem nach Anspruch 1, wobei die im Wesentlichen vertikale Oberfläche als eine im Wesentlichen vertikale retro-reflektive Oberfläche ausgelegt ist, um den Empfang von den am Eingabeobjekt zu der im Wesentlichen vertikalen Oberfläche reflektierten Beleuchtung durch zumindest eine der mindestens zwei Kameras abzuschwächen.
- Ein Verfahren zum Erzeugen von Geräteeingaben, wobei das Verfahren umfasst: Anzeigen von visuellem Inhalt auf einer im Wesentlichen vertikalen Anzeigefläche; Beleuchten einer Gestenerkennungsumgebung, die durch einen physischen Raum im Vordergrund der im Wesentlichen vertikalen Anzeigefläche definiert ist; Erzeugen simulierter Eingaben, die mit dem visuellen Inhalt in der Gestenerkennungsumgebung über mit einem Eingabeobjekt assoziierten Gesten interagieren können; ein im Wesentlichen gleichzeitiges Erzeugen einer ersten Vielzahl von Bildern und einer zweiten Vielzahl von Bildern, die mit dem Eingabeobjekt verbunden sind und auf dem vom Eingabeobjekt reflektierten Licht basieren; Erkennen der mit dem Eingabeobjekt assoziierten Merkmale in jedem der zusammengehörigen Paare der ersten und zweiten Vielzahl von Bildern; Bestimmen einer Vielzahl von dreidimensionalen physischen Positionen des Eingabeobjekts, basierend auf einem relativen Abstand der mit dem Eingabeobjekt assoziierten Merkmale in jedem der zusammengehörigen Paare der ersten und zweiten Vielzahl von Bildern; Bestimmen ob Veränderungen in der Vielzahl der dreidimensionalen physischen Positionen des Eingabeobjekts irgendeiner einer Vielzahl der vorgegebenen Gesten entspricht; und Erzeugen von zumindest einer Geräteeingabe, die auf einer bestimmten Geste der Vielzahl der vorbestimmten Gesten basiert, nachdem bestimmt wurde, dass die Veränderungen in der Vielzahl der dreidimensionalen physischen Positionen des Eingabeobjekts einer bestimmten Geste der Vielzahl von vorbestimmten Gesten entspricht.
- Das Verfahren nach Anspruch 12, weiter umfassend: Berühren von mindestens einem vorbestimmten Punkt in dem zweidimensionalen Raum auf der im Wesentlichen vertikalen Anzeigefläche mit einem Endpunkt des Eingabeobjekts; Erzeugen eines ersten und zweiten Kalibrierungsbilds des sich in Kontakt mit dem zumindest einen vorbestimmten Punkt befindenden Eingabeobjekts; und Kalibrierung der dreidimensionalen physischen Positionen des Eingabeobjekts, basierend auf einer Anzahl von Parallaxenabständen zwischen dem Endpunkt des Eingabeobjekts in jedem der ersten und zweiten Kalibrierungsbilder.
- Das Verfahren nach Anspruch 12, wobei das Erkennen von mit dem Eingabeobjekt assoziierten Merkmalen umfasst: Erzeugen einer Folge von mit langgestreckten Teilen des Eingabeobjekts assoziierten Punkten in jedem der Vielzahl der ersten und zweiten Bilder.
- Das Verfahren nach Anspruch 14, wobei das Bestimmen der Vielzahl der dreidimensionalen physischen Positionen umfasst: zumindest einen Punkt in der Folge der Punkte der ersten Vielzahl von Bildern auf zumindest einen dazugehörigen Punkt in der Folge von Punkten in der dazugehörigen zweiten Vielzahl von Bildern zu beziehen.
- Das Verfahren nach Anspruch 14, wobei das Erzeugen einer Folge von Punkten umfasst: Bestimmen der Kanten des Eingabeobjekts in jedem der auf dem von Eingabeobjekt reflektieren Licht basierenden Vielzahl der ersten und zweiten Bilder; Erzeugen einer Folge von Mittelpunkten zwischen den gegenüberliegenden Kanten längs der langgestreckten Teile der Eingabeobjekte, in einem vorbestimmten Koordinatensystem in jedem der Vielzahl der ersten und zweiten Bilder.
- Ein Gestenerkennungs-Schnittstellensystem mit: Mittel zum Erzeugen eines Helligkeitskontrasts zwischen reflektiertem Licht und nicht reflektiertem Licht in einer Gestenerkennungsumgebung, die als physischer Raum vor einer im Wesentlichen vertikalen Anzeigefläche definiert ist, wobei das reflektierte Licht von einem Eingabeobjekt reflektiert wird; Mittel zum Erzeugen einer ersten Vielzahl von auf dem Helligkeitskontrast basierenden Bildern des Eingabeobjekts; Mittel zum Erzeugen einer zweiten Vielzahl von auf dem Helligkeitskontrast basierenden Bildern des Eingabeobjekts, wobei die erste Vielzahl von Bildern und die zweite Vielzahl von Bildern eine Vielzahl von zusammengebrachten Bilderpaaren des Eingabeobjekts bilden; Mittel zum Erzeugen einer Folge von mit langgestreckten Teilen des Eingabeobjekts assoziierten Punkten in jedem der Vielzahl der ersten und zweiten Bilder und um zumindest ein Paar von korrespondierenden Punkten in jedem der Vielzahl der zusammengebrachten Bilderpaare des Eingabeobjekts aufeinander zu beziehen; Mittel zum Bestimmen der mit Merkmalen des Eingabeobjekts assoziierten dreidimensionalen physischen Positionsinformation, basierend auf einem relativen Abstand des zumindest einen Paars aufeinander bezogener, zusammengehöriger Punkte in der Vielzahl der zusammengebrachten Bilderpaare des Eingabeobjekts; Mittel zum Übersetzen von mit Merkmalen des Eingabeobjekts assoziierten Änderung in der dreidimensionalen Positionsinformation in eine bestimmte Eingabegeste; und Mittel zum Erzeugen von Geräteeingaben, basierend auf dem Abgleich der bestimmten Eingabegeste mit einer von einer Vielzahl von vorbestimmten Gesten.
- Das Schnittstellensystem nach Anspruch 17, wobei das Mittel zum Erzeugen einer Folge von Punkten dafür ausgelegt ist, die Kanten des Eingabeobjekts in jedem der auf dem Helligkeitskontrast basierenden Vielzahl der ersten und zweiten Bilder zu bestimmen, und um eine Folge von Mittelpunkten zwischen gegenüberliegenden Kanten der langgestreckten Teile des Eingabeobjekts in einem vorbestimmten Koordinatensystem in jedem der Vielzahl der ersten und zweiten Bilder zu erzeugen.
- Das Schnittstellensystem nach Anspruch 17, wobei die Mittel zum Erzeugen der ersten Vielzahl von Bildern und die Mittel zum Erzeugen der zweiten Vielzahl von Bildern dafür ausgelegt sind, um die erste und zweite Vielzahl von Bildern mit einem Blickwinkel zu erhalten, der im Wesentlichen parallel zu einer durch die im Wesentlichen vertikale Anzeigefläche definierte Ebene ist, um die im Wesentlichen vertikale Anzeigefläche und die Gestenerkennungsumgebung in jedem der ersten und zweiten Vielzahl von Bildern zu erfassen.
- Das Schnittstellensystem nach Anspruch 17, weiter umfassend: Mittel zum Kalibrieren der Mittel zum Bestimmen der mit dem Eingabeobjekt assoziierten dreidimensionalen Positionsinformation, basierend auf einer Anzahl von Parallaxenabständen in den zusammengebrachten Bilderpaaren eines mit zumindest einer vorbestimmten zweidimensionalen Position auf der im Wesentlichen vertikalen Anzeigefläche in Verbindung stehenden Endpunkts des Eingabeobjekts.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US12/133,836 | 2008-06-05 | ||
US12/133,836 US8180114B2 (en) | 2006-07-13 | 2008-06-05 | Gesture recognition interface system with vertical display |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102009023875A1 true DE102009023875A1 (de) | 2010-02-04 |
Family
ID=40902563
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102009023875A Ceased DE102009023875A1 (de) | 2008-06-05 | 2009-06-04 | Gestenerkennungsschittstellensystem mit vertikaler Anzeigefläche |
Country Status (3)
Country | Link |
---|---|
US (1) | US8180114B2 (de) |
DE (1) | DE102009023875A1 (de) |
GB (1) | GB2460542B (de) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102013019197A1 (de) * | 2013-11-15 | 2015-05-21 | Audi Ag | Kraftfahrzeug-Klimatisierung mit adaptivem Luftausströmer |
DE102012020607B4 (de) * | 2012-10-19 | 2015-06-11 | Audi Ag | Kraftwagen mit einer Gestensteuerungseinrichtung sowie Verfahren zum Steuern eines Auswahlelements |
DE112013000590B4 (de) * | 2012-01-17 | 2016-05-04 | Leap Motion, Inc. | Verbesserter Kontrast zur Objekterfassung und Charakterisierung durch optisches Abbilden |
US9612655B2 (en) | 2012-10-31 | 2017-04-04 | Audi Ag | Method for inputting a control command for a component of a motor vehicle |
WO2018153726A1 (de) * | 2017-02-24 | 2018-08-30 | Dr. Schneider Kunststoffwerke Gmbh | Vorrichtung zum steuern eines luftausströmers |
Families Citing this family (201)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7584432B1 (en) * | 1999-01-13 | 2009-09-01 | Promethean Limited | Interactive display system |
US7262785B2 (en) * | 2003-08-21 | 2007-08-28 | Microsoft Corporation | Ink editing architecture |
US20100302165A1 (en) * | 2009-05-26 | 2010-12-02 | Zienon, Llc | Enabling data entry based on differentiated input objects |
US8018579B1 (en) | 2005-10-21 | 2011-09-13 | Apple Inc. | Three-dimensional imaging and display system |
US8972902B2 (en) | 2008-08-22 | 2015-03-03 | Northrop Grumman Systems Corporation | Compound gesture recognition |
US8180114B2 (en) | 2006-07-13 | 2012-05-15 | Northrop Grumman Systems Corporation | Gesture recognition interface system with vertical display |
US8589824B2 (en) * | 2006-07-13 | 2013-11-19 | Northrop Grumman Systems Corporation | Gesture recognition interface system |
US9696808B2 (en) * | 2006-07-13 | 2017-07-04 | Northrop Grumman Systems Corporation | Hand-gesture recognition method |
US8234578B2 (en) * | 2006-07-25 | 2012-07-31 | Northrop Grumman Systems Corporatiom | Networked gesture collaboration system |
US8432448B2 (en) * | 2006-08-10 | 2013-04-30 | Northrop Grumman Systems Corporation | Stereo camera intrusion detection system |
US8139110B2 (en) * | 2007-11-01 | 2012-03-20 | Northrop Grumman Systems Corporation | Calibration of a gesture recognition interface system |
US9377874B2 (en) * | 2007-11-02 | 2016-06-28 | Northrop Grumman Systems Corporation | Gesture recognition light and video image projector |
US9171454B2 (en) * | 2007-11-14 | 2015-10-27 | Microsoft Technology Licensing, Llc | Magic wand |
US20090219253A1 (en) * | 2008-02-29 | 2009-09-03 | Microsoft Corporation | Interactive Surface Computer with Switchable Diffuser |
US20110102570A1 (en) * | 2008-04-14 | 2011-05-05 | Saar Wilf | Vision based pointing device emulation |
DE102008020772A1 (de) * | 2008-04-21 | 2009-10-22 | Carl Zeiss 3D Metrology Services Gmbh | Darstellung von Ergebnissen einer Vermessung von Werkstücken |
US8952894B2 (en) * | 2008-05-12 | 2015-02-10 | Microsoft Technology Licensing, Llc | Computer vision-based multi-touch sensing using infrared lasers |
US8345920B2 (en) * | 2008-06-20 | 2013-01-01 | Northrop Grumman Systems Corporation | Gesture recognition interface system with a light-diffusive screen |
US20100031202A1 (en) * | 2008-08-04 | 2010-02-04 | Microsoft Corporation | User-defined gesture set for surface computing |
US8847739B2 (en) | 2008-08-04 | 2014-09-30 | Microsoft Corporation | Fusing RFID and vision for surface object tracking |
TW201020896A (en) * | 2008-11-19 | 2010-06-01 | Nat Applied Res Laboratories | Method of gesture control |
GB2468884A (en) * | 2009-03-25 | 2010-09-29 | Nec Corp | User defined paths for control on a touch screen |
KR101559178B1 (ko) * | 2009-04-08 | 2015-10-12 | 엘지전자 주식회사 | 명령어 입력 방법 및 이를 적용한 이동 통신 단말기 |
US9498718B2 (en) * | 2009-05-01 | 2016-11-22 | Microsoft Technology Licensing, Llc | Altering a view perspective within a display environment |
US9898675B2 (en) | 2009-05-01 | 2018-02-20 | Microsoft Technology Licensing, Llc | User movement tracking feedback to improve tracking |
US9417700B2 (en) | 2009-05-21 | 2016-08-16 | Edge3 Technologies | Gesture recognition systems and related methods |
US20100295782A1 (en) | 2009-05-21 | 2010-11-25 | Yehuda Binder | System and method for control based on face ore hand gesture detection |
KR100936666B1 (ko) * | 2009-05-25 | 2010-01-13 | 전자부품연구원 | 적외선 스크린 방식의 투영 영상 터치 장치 |
US8386963B2 (en) * | 2009-05-28 | 2013-02-26 | Microsoft Corporation | Virtual inking using gesture recognition |
GB2474536B (en) | 2009-10-13 | 2011-11-02 | Pointgrab Ltd | Computer vision gesture based control of a device |
KR101639383B1 (ko) * | 2009-11-12 | 2016-07-22 | 삼성전자주식회사 | 근접 터치 동작 감지 장치 및 방법 |
US20110117526A1 (en) * | 2009-11-16 | 2011-05-19 | Microsoft Corporation | Teaching gesture initiation with registration posture guides |
US8622742B2 (en) * | 2009-11-16 | 2014-01-07 | Microsoft Corporation | Teaching gestures with offset contact silhouettes |
KR101092722B1 (ko) * | 2009-12-02 | 2011-12-09 | 현대자동차주식회사 | 차량의 멀티미디어 시스템 조작용 사용자 인터페이스 장치 |
KR100974894B1 (ko) * | 2009-12-22 | 2010-08-11 | 전자부품연구원 | 멀티 적외선 카메라 방식의 3차원 공간 터치 장치 |
US8947455B2 (en) | 2010-02-22 | 2015-02-03 | Nike, Inc. | Augmented reality design system |
TW201142465A (en) * | 2010-05-17 | 2011-12-01 | Hon Hai Prec Ind Co Ltd | Front projection device and front projection controlling method |
US8457353B2 (en) * | 2010-05-18 | 2013-06-04 | Microsoft Corporation | Gestures and gesture modifiers for manipulating a user-interface |
US8396252B2 (en) | 2010-05-20 | 2013-03-12 | Edge 3 Technologies | Systems and related methods for three dimensional gesture recognition in vehicles |
US20120319945A1 (en) * | 2010-05-21 | 2012-12-20 | Mccarthy John | System and method for reporting data in a computer vision system |
US20110296352A1 (en) * | 2010-05-27 | 2011-12-01 | Microsoft Corporation | Active calibration of a natural user interface |
US8982060B2 (en) * | 2010-08-27 | 2015-03-17 | Apple Inc. | Touch and hover sensor compensation |
US8854594B2 (en) * | 2010-08-31 | 2014-10-07 | Cast Group Of Companies Inc. | System and method for tracking |
US9350923B2 (en) | 2010-08-31 | 2016-05-24 | Cast Group Of Companies Inc. | System and method for tracking |
US9055226B2 (en) | 2010-08-31 | 2015-06-09 | Cast Group Of Companies Inc. | System and method for controlling fixtures based on tracking data |
CN101943995A (zh) * | 2010-09-01 | 2011-01-12 | 惠州Tcl移动通信有限公司 | 一种移动终端及其触摸屏的显示信息处理方法和装置 |
WO2012030872A1 (en) | 2010-09-02 | 2012-03-08 | Edge3 Technologies Inc. | Method and apparatus for confusion learning |
US8655093B2 (en) | 2010-09-02 | 2014-02-18 | Edge 3 Technologies, Inc. | Method and apparatus for performing segmentation of an image |
US8582866B2 (en) | 2011-02-10 | 2013-11-12 | Edge 3 Technologies, Inc. | Method and apparatus for disparity computation in stereo images |
US8666144B2 (en) | 2010-09-02 | 2014-03-04 | Edge 3 Technologies, Inc. | Method and apparatus for determining disparity of texture |
EP2439700B1 (de) * | 2010-10-06 | 2013-05-01 | Alcatel Lucent | Verfahren und Anordnung zur Identifizierung virtueller visueller Information in Bildern |
US20130154913A1 (en) * | 2010-12-16 | 2013-06-20 | Siemens Corporation | Systems and methods for a gaze and gesture interface |
WO2012107892A2 (en) * | 2011-02-09 | 2012-08-16 | Primesense Ltd. | Gaze detection in a 3d mapping environment |
US8970589B2 (en) | 2011-02-10 | 2015-03-03 | Edge 3 Technologies, Inc. | Near-touch interaction with a stereo camera grid structured tessellations |
US8723789B1 (en) | 2011-02-11 | 2014-05-13 | Imimtek, Inc. | Two-dimensional method and system enabling three-dimensional user interaction with a device |
US9857868B2 (en) | 2011-03-19 | 2018-01-02 | The Board Of Trustees Of The Leland Stanford Junior University | Method and system for ergonomic touch-free interface |
WO2012142250A1 (en) * | 2011-04-12 | 2012-10-18 | Radiation Monitoring Devices, Inc. | Augumented reality system |
GB2490108B (en) * | 2011-04-13 | 2018-01-17 | Nokia Technologies Oy | A method, apparatus and computer program for user control of a state of an apparatus |
US8840466B2 (en) | 2011-04-25 | 2014-09-23 | Aquifi, Inc. | Method and system to create three-dimensional mapping in a two-dimensional game |
US8686943B1 (en) | 2011-05-13 | 2014-04-01 | Imimtek, Inc. | Two-dimensional method and system enabling three-dimensional user interaction with a device |
US8845431B2 (en) * | 2011-05-31 | 2014-09-30 | Microsoft Corporation | Shape trace gesturing |
US8740702B2 (en) * | 2011-05-31 | 2014-06-03 | Microsoft Corporation | Action trigger gesturing |
US9176608B1 (en) | 2011-06-27 | 2015-11-03 | Amazon Technologies, Inc. | Camera based sensor for motion detection |
US8773512B1 (en) * | 2011-06-30 | 2014-07-08 | Aquifi, Inc. | Portable remote control device enabling three-dimensional user interaction with at least one appliance |
US8817076B2 (en) * | 2011-08-03 | 2014-08-26 | General Electric Company | Method and system for cropping a 3-dimensional medical dataset |
CN104160364A (zh) | 2011-10-18 | 2014-11-19 | 卡内基梅隆大学 | 用于分类触敏表面上的触摸事件的方法和设备 |
US9672609B1 (en) | 2011-11-11 | 2017-06-06 | Edge 3 Technologies, Inc. | Method and apparatus for improved depth-map estimation |
US10691219B2 (en) | 2012-01-17 | 2020-06-23 | Ultrahaptics IP Two Limited | Systems and methods for machine control |
US8638989B2 (en) | 2012-01-17 | 2014-01-28 | Leap Motion, Inc. | Systems and methods for capturing motion in three-dimensional space |
US9501152B2 (en) | 2013-01-15 | 2016-11-22 | Leap Motion, Inc. | Free-space user interface and control using virtual constructs |
US9070019B2 (en) | 2012-01-17 | 2015-06-30 | Leap Motion, Inc. | Systems and methods for capturing motion in three-dimensional space |
US9679215B2 (en) | 2012-01-17 | 2017-06-13 | Leap Motion, Inc. | Systems and methods for machine control |
US11493998B2 (en) | 2012-01-17 | 2022-11-08 | Ultrahaptics IP Two Limited | Systems and methods for machine control |
US8693731B2 (en) | 2012-01-17 | 2014-04-08 | Leap Motion, Inc. | Enhanced contrast for object detection and characterization by optical imaging |
US20150253428A1 (en) | 2013-03-15 | 2015-09-10 | Leap Motion, Inc. | Determining positional information for an object in space |
US8854433B1 (en) | 2012-02-03 | 2014-10-07 | Aquifi, Inc. | Method and system enabling natural user interface gestures with an electronic system |
US11169611B2 (en) | 2012-03-26 | 2021-11-09 | Apple Inc. | Enhanced virtual touchpad |
DE102012206777A1 (de) * | 2012-04-25 | 2013-10-31 | Robert Bosch Gmbh | Verfahren zur Steuerung einer Bilddarstellung einer Projektionsvorrichtung |
US8938124B2 (en) | 2012-05-10 | 2015-01-20 | Pointgrab Ltd. | Computer vision based tracking of a hand |
US9400575B1 (en) | 2012-06-20 | 2016-07-26 | Amazon Technologies, Inc. | Finger detection for element selection |
US9213436B2 (en) * | 2012-06-20 | 2015-12-15 | Amazon Technologies, Inc. | Fingertip location for gesture input |
US9111135B2 (en) | 2012-06-25 | 2015-08-18 | Aquifi, Inc. | Systems and methods for tracking human hands using parts based template matching using corresponding pixels in bounded regions of a sequence of frames that are a specified distance interval from a reference camera |
US8934675B2 (en) | 2012-06-25 | 2015-01-13 | Aquifi, Inc. | Systems and methods for tracking human hands by performing parts based template matching using images from multiple viewpoints |
US8970479B1 (en) * | 2012-07-31 | 2015-03-03 | Rawles Llc | Hand gesture detection |
WO2014034527A1 (ja) * | 2012-08-27 | 2014-03-06 | シチズンホールディングス株式会社 | 情報入力装置 |
CN103677217A (zh) * | 2012-08-30 | 2014-03-26 | 深圳市亿思达显示科技有限公司 | 一种3d空间输入系统 |
US8836768B1 (en) | 2012-09-04 | 2014-09-16 | Aquifi, Inc. | Method and system enabling natural user interface gestures with user wearable glasses |
US20150212647A1 (en) | 2012-10-10 | 2015-07-30 | Samsung Electronics Co., Ltd. | Head mounted display apparatus and method for displaying a content |
KR102083937B1 (ko) | 2012-10-10 | 2020-03-04 | 삼성전자주식회사 | 멀티 디스플레이 장치 및 그 툴 제공 방법 |
KR102063952B1 (ko) | 2012-10-10 | 2020-01-08 | 삼성전자주식회사 | 멀티 디스플레이 장치 및 멀티 디스플레이 방법 |
KR102083918B1 (ko) | 2012-10-10 | 2020-03-04 | 삼성전자주식회사 | 멀티 디스플레이 장치 및 그 제어 방법 |
KR102061881B1 (ko) | 2012-10-10 | 2020-01-06 | 삼성전자주식회사 | 멀티 디스플레이 장치 및 그 디스플레이 제어 방법 |
KR101984683B1 (ko) | 2012-10-10 | 2019-05-31 | 삼성전자주식회사 | 멀티 디스플레이 장치 및 그 제어 방법 |
KR101951228B1 (ko) | 2012-10-10 | 2019-02-22 | 삼성전자주식회사 | 멀티 디스플레이 장치 및 그 촬상 방법 |
US20140118257A1 (en) * | 2012-10-29 | 2014-05-01 | Amazon Technologies, Inc. | Gesture detection systems |
US9285893B2 (en) * | 2012-11-08 | 2016-03-15 | Leap Motion, Inc. | Object detection and tracking with variable-field illumination devices |
TWI475448B (zh) * | 2012-11-29 | 2015-03-01 | Pixart Imaging Inc | 座標定位模組、光學式觸控系統及其計算觸控媒介之座標的方法 |
US9213448B2 (en) | 2012-11-29 | 2015-12-15 | Pixart Imaging Inc. | Positioning module, optical touch system and method of calculating a coordinate of a touch medium |
KR20140081316A (ko) * | 2012-12-21 | 2014-07-01 | 삼성디스플레이 주식회사 | 화상 표시 시스템 |
TWI454968B (zh) | 2012-12-24 | 2014-10-01 | Ind Tech Res Inst | 三維互動裝置及其操控方法 |
US10609285B2 (en) | 2013-01-07 | 2020-03-31 | Ultrahaptics IP Two Limited | Power consumption in motion-capture systems |
US9465461B2 (en) | 2013-01-08 | 2016-10-11 | Leap Motion, Inc. | Object detection and tracking with audio and optical signals |
US9176588B2 (en) | 2013-01-14 | 2015-11-03 | Maxm Integrated Products, Inc. | System and method for discerning complex gestures using an array of optical sensors |
US9459697B2 (en) | 2013-01-15 | 2016-10-04 | Leap Motion, Inc. | Dynamic, free-space user interactions for machine control |
KR102059598B1 (ko) * | 2013-01-29 | 2019-12-26 | 삼성전자주식회사 | 디지털 촬영 장치 및 그의 제어 방법 |
US9092665B2 (en) | 2013-01-30 | 2015-07-28 | Aquifi, Inc | Systems and methods for initializing motion tracking of human hands |
US9129155B2 (en) | 2013-01-30 | 2015-09-08 | Aquifi, Inc. | Systems and methods for initializing motion tracking of human hands using template matching within bounded regions determined using a depth map |
JP6111706B2 (ja) * | 2013-02-01 | 2017-04-12 | セイコーエプソン株式会社 | 位置検出装置、調整方法、および調整プログラム |
JP6144501B2 (ja) * | 2013-02-12 | 2017-06-07 | 富士通テン株式会社 | 表示装置、および、表示方法 |
US9501151B2 (en) | 2013-02-13 | 2016-11-22 | Google Inc. | Simultaneous multi-user marking interactions |
US10134267B2 (en) | 2013-02-22 | 2018-11-20 | Universal City Studios Llc | System and method for tracking a passive wand and actuating an effect based on a detected wand path |
US9158381B2 (en) | 2013-02-25 | 2015-10-13 | Honda Motor Co., Ltd. | Multi-resolution gesture recognition |
US11209975B2 (en) * | 2013-03-03 | 2021-12-28 | Microsoft Technology Licensing, Llc | Enhanced canvas environments |
US9372541B2 (en) | 2013-03-11 | 2016-06-21 | Honeywell International Inc. | Gesture recognition system operability verification |
US9566414B2 (en) | 2013-03-13 | 2017-02-14 | Hansen Medical, Inc. | Integrated catheter and guide wire controller |
EP2778864A1 (de) * | 2013-03-14 | 2014-09-17 | BlackBerry Limited | Verfahren und Vorrichtung für das Display eines stiftbasierten Steuerungeingabebereichs |
US9122916B2 (en) * | 2013-03-14 | 2015-09-01 | Honda Motor Co., Ltd. | Three dimensional fingertip tracking |
US9283046B2 (en) | 2013-03-15 | 2016-03-15 | Hansen Medical, Inc. | User interface for active drive apparatus with finite range of motion |
US10849702B2 (en) | 2013-03-15 | 2020-12-01 | Auris Health, Inc. | User input devices for controlling manipulation of guidewires and catheters |
US10721448B2 (en) | 2013-03-15 | 2020-07-21 | Edge 3 Technologies, Inc. | Method and apparatus for adaptive exposure bracketing, segmentation and scene organization |
KR20140114766A (ko) | 2013-03-19 | 2014-09-29 | 퀵소 코 | 터치 입력을 감지하기 위한 방법 및 장치 |
US9612689B2 (en) | 2015-02-02 | 2017-04-04 | Qeexo, Co. | Method and apparatus for classifying a touch event on a touchscreen as related to one of multiple function generating interaction layers and activating a function in the selected interaction layer |
US9013452B2 (en) | 2013-03-25 | 2015-04-21 | Qeexo, Co. | Method and system for activating different interactive functions using different types of finger contacts |
JP6201379B2 (ja) * | 2013-04-02 | 2017-09-27 | 富士通株式会社 | 位置算出システム、位置算出プログラム、および、位置算出方法 |
JP6146094B2 (ja) * | 2013-04-02 | 2017-06-14 | 富士通株式会社 | 情報操作表示システム、表示プログラム、および、表示方法 |
US9298266B2 (en) | 2013-04-02 | 2016-03-29 | Aquifi, Inc. | Systems and methods for implementing three-dimensional (3D) gesture based graphical user interfaces (GUI) that incorporate gesture reactive interface objects |
US10082935B2 (en) * | 2013-04-15 | 2018-09-25 | Carnegie Mellon University | Virtual tools for use with touch-sensitive surfaces |
US9916009B2 (en) | 2013-04-26 | 2018-03-13 | Leap Motion, Inc. | Non-tactile interface systems and methods |
WO2014194148A2 (en) * | 2013-05-29 | 2014-12-04 | Weijie Zhang | Systems and methods involving gesture based user interaction, user interface and/or other features |
US11020016B2 (en) | 2013-05-30 | 2021-06-01 | Auris Health, Inc. | System and method for displaying anatomy and devices on a movable display |
US9483171B1 (en) * | 2013-06-11 | 2016-11-01 | Amazon Technologies, Inc. | Low latency touch input rendering |
US9798388B1 (en) | 2013-07-31 | 2017-10-24 | Aquifi, Inc. | Vibrotactile system to augment 3D input systems |
US9529513B2 (en) * | 2013-08-05 | 2016-12-27 | Microsoft Technology Licensing, Llc | Two-hand interaction with natural user interface |
US10281987B1 (en) | 2013-08-09 | 2019-05-07 | Leap Motion, Inc. | Systems and methods of free-space gestural interaction |
US10846942B1 (en) | 2013-08-29 | 2020-11-24 | Ultrahaptics IP Two Limited | Predictive information for free space gesture control and communication |
CN103605460B (zh) * | 2013-08-30 | 2017-01-25 | 华为技术有限公司 | 一种手势识别方法和相关终端 |
US9632572B2 (en) | 2013-10-03 | 2017-04-25 | Leap Motion, Inc. | Enhanced field of view to augment three-dimensional (3D) sensory space for free-space gesture interpretation |
KR20150042039A (ko) * | 2013-10-10 | 2015-04-20 | 엘지전자 주식회사 | 이동 단말기 및 그 동작 방법 |
CN103530619B (zh) * | 2013-10-29 | 2016-08-31 | 北京交通大学 | 基于rgb-d数据构成的少量训练样本的手势识别方法 |
US9996638B1 (en) | 2013-10-31 | 2018-06-12 | Leap Motion, Inc. | Predictive information for free space gesture control and communication |
US9329727B2 (en) * | 2013-12-11 | 2016-05-03 | Microsoft Technology Licensing, Llc | Object detection in optical sensor systems |
JP6127958B2 (ja) * | 2013-12-19 | 2017-05-17 | ソニー株式会社 | 情報処理装置、情報処理方法、並びにプログラム |
US9507417B2 (en) | 2014-01-07 | 2016-11-29 | Aquifi, Inc. | Systems and methods for implementing head tracking based graphical user interfaces (GUI) that incorporate gesture reactive interface objects |
US20150194187A1 (en) * | 2014-01-09 | 2015-07-09 | Microsoft Corporation | Telestrator system |
US9613262B2 (en) | 2014-01-15 | 2017-04-04 | Leap Motion, Inc. | Object detection and tracking for providing a virtual device experience |
US20150205358A1 (en) * | 2014-01-20 | 2015-07-23 | Philip Scott Lyren | Electronic Device with Touchless User Interface |
US9430095B2 (en) | 2014-01-23 | 2016-08-30 | Microsoft Technology Licensing, Llc | Global and local light detection in optical sensor systems |
US9619105B1 (en) | 2014-01-30 | 2017-04-11 | Aquifi, Inc. | Systems and methods for gesture based interaction with viewpoint dependent user interfaces |
CN104932797A (zh) * | 2014-03-17 | 2015-09-23 | 深圳富泰宏精密工业有限公司 | 手势解锁方法及系统 |
EP3243476B1 (de) | 2014-03-24 | 2019-11-06 | Auris Health, Inc. | Systeme und vorrichtungen für katheter zur förderung von instinkthandlungen |
CN103941867B (zh) * | 2014-04-11 | 2017-07-11 | 北京智谷睿拓技术服务有限公司 | 交互方法和系统 |
JP6359862B2 (ja) * | 2014-04-17 | 2018-07-18 | シャープ株式会社 | タッチ操作入力装置、タッチ操作入力方法及びプログラム |
US9616350B2 (en) | 2014-05-21 | 2017-04-11 | Universal City Studios Llc | Enhanced interactivity in an amusement park environment using passive tracking elements |
US9433870B2 (en) | 2014-05-21 | 2016-09-06 | Universal City Studios Llc | Ride vehicle tracking and control system using passive tracking elements |
US10207193B2 (en) | 2014-05-21 | 2019-02-19 | Universal City Studios Llc | Optical tracking system for automation of amusement park elements |
US10025990B2 (en) | 2014-05-21 | 2018-07-17 | Universal City Studios Llc | System and method for tracking vehicles in parking structures and intersections |
US9600999B2 (en) | 2014-05-21 | 2017-03-21 | Universal City Studios Llc | Amusement park element tracking system |
US9429398B2 (en) | 2014-05-21 | 2016-08-30 | Universal City Studios Llc | Optical tracking for controlling pyrotechnic show elements |
US10061058B2 (en) | 2014-05-21 | 2018-08-28 | Universal City Studios Llc | Tracking system and method for use in surveying amusement park equipment |
US20150378440A1 (en) * | 2014-06-27 | 2015-12-31 | Microsoft Technology Licensing, Llc | Dynamically Directing Interpretation of Input Data Based on Contextual Information |
US20150375399A1 (en) * | 2014-06-27 | 2015-12-31 | Hansen Medical, Inc. | User interface for medical robotics system |
JP6335695B2 (ja) * | 2014-07-09 | 2018-05-30 | キヤノン株式会社 | 情報処理装置、その制御方法、プログラム、及び記憶媒体 |
CN204480228U (zh) | 2014-08-08 | 2015-07-15 | 厉动公司 | 运动感测和成像设备 |
KR102271184B1 (ko) * | 2014-08-28 | 2021-07-01 | 엘지전자 주식회사 | 영상 투사 장치 및 그의 동작 방법 |
US9329715B2 (en) | 2014-09-11 | 2016-05-03 | Qeexo, Co. | Method and apparatus for differentiating touch screen users based on touch event analysis |
CN104268507A (zh) * | 2014-09-15 | 2015-01-07 | 南京邮电大学 | 一种基于rgb-d图像的手语字母识别方法 |
US11619983B2 (en) | 2014-09-15 | 2023-04-04 | Qeexo, Co. | Method and apparatus for resolving touch screen ambiguities |
US10606417B2 (en) | 2014-09-24 | 2020-03-31 | Qeexo, Co. | Method for improving accuracy of touch screen event analysis by use of spatiotemporal touch patterns |
US10282024B2 (en) | 2014-09-25 | 2019-05-07 | Qeexo, Co. | Classifying contacts or associations with a touch sensitive device |
US10238979B2 (en) | 2014-09-26 | 2019-03-26 | Universal City Sudios LLC | Video game ride |
US10725533B2 (en) | 2014-09-26 | 2020-07-28 | Intel Corporation | Systems, apparatuses, and methods for gesture recognition and interaction |
US10499999B2 (en) | 2014-10-09 | 2019-12-10 | Auris Health, Inc. | Systems and methods for aligning an elongate member with an access site |
US10452195B2 (en) | 2014-12-30 | 2019-10-22 | Samsung Electronics Co., Ltd. | Electronic system with gesture calibration mechanism and method of operation thereof |
JP2016186674A (ja) * | 2015-03-27 | 2016-10-27 | セイコーエプソン株式会社 | インタラクティブプロジェクター及びインタラクティブプロジェクションシステム |
US9946298B2 (en) * | 2015-04-08 | 2018-04-17 | Mediatek Inc. | Wearable device interactive system |
US10564770B1 (en) | 2015-06-09 | 2020-02-18 | Apple Inc. | Predictive touch detection |
US10057078B2 (en) | 2015-08-21 | 2018-08-21 | Samsung Electronics Company, Ltd. | User-configurable interactive region monitoring |
US10642404B2 (en) | 2015-08-24 | 2020-05-05 | Qeexo, Co. | Touch sensitive device with multi-sensor stream synchronized data |
US9549101B1 (en) * | 2015-09-01 | 2017-01-17 | International Business Machines Corporation | Image capture enhancement using dynamic control image |
US10599919B2 (en) * | 2015-12-31 | 2020-03-24 | Microsoft Technology Licensing, Llc | Detection of hand gestures using gesture language discrete values |
US10481682B2 (en) * | 2016-03-29 | 2019-11-19 | Google Llc | System and method for generating virtual marks based on gaze tracking |
CN108604125B (zh) * | 2016-03-29 | 2021-08-27 | 谷歌有限责任公司 | 用于基于凝视跟踪生成虚拟标记的系统和方法 |
TWI653563B (zh) * | 2016-05-24 | 2019-03-11 | 仁寶電腦工業股份有限公司 | 投影觸控的圖像選取方法 |
CN106078752B (zh) * | 2016-06-27 | 2019-03-19 | 西安电子科技大学 | 一种基于Kinect的仿人机器人人体行为模仿方法 |
US11037464B2 (en) | 2016-07-21 | 2021-06-15 | Auris Health, Inc. | System with emulator movement tracking for controlling medical devices |
DE102016215746A1 (de) * | 2016-08-23 | 2018-03-01 | Robert Bosch Gmbh | Projektor mit berührungsfreier Steuerung |
US20180059863A1 (en) * | 2016-08-26 | 2018-03-01 | Lenovo (Singapore) Pte. Ltd. | Calibration of pen location to projected whiteboard |
JP6729297B2 (ja) * | 2016-10-27 | 2020-07-22 | セイコーエプソン株式会社 | プロジェクター、プロジェクションシステム及び検出光照射装置 |
CN107831894A (zh) * | 2017-11-06 | 2018-03-23 | 浙江工业大学 | 一种适用于移动终端的隔空手势板书方法 |
EP3684281A4 (de) | 2017-12-08 | 2021-10-13 | Auris Health, Inc. | System und verfahren für navigation und targeting von medizinischen instrumenten |
JP7081142B2 (ja) * | 2017-12-26 | 2022-06-07 | 富士通株式会社 | 情報処理装置、情報処理方法、及びプログラム |
US10585525B2 (en) | 2018-02-12 | 2020-03-10 | International Business Machines Corporation | Adaptive notification modifications for touchscreen interfaces |
CN112218595A (zh) | 2018-05-18 | 2021-01-12 | 奥瑞斯健康公司 | 用于机器人使能的远程操作的系统的控制器 |
US11009989B2 (en) | 2018-08-21 | 2021-05-18 | Qeexo, Co. | Recognizing and rejecting unintentional touch events associated with a touch sensitive device |
US10942603B2 (en) | 2019-05-06 | 2021-03-09 | Qeexo, Co. | Managing activity states of an application processor in relation to touch or hover interactions with a touch sensitive device |
US11231815B2 (en) | 2019-06-28 | 2022-01-25 | Qeexo, Co. | Detecting object proximity using touch sensitive surface sensing and ultrasonic sensing |
EP3989793A4 (de) | 2019-06-28 | 2023-07-19 | Auris Health, Inc. | Konsolenauflage und verfahren zu ihrer verwendung |
US11592423B2 (en) | 2020-01-29 | 2023-02-28 | Qeexo, Co. | Adaptive ultrasonic sensing techniques and systems to mitigate interference |
US11500976B2 (en) | 2020-11-03 | 2022-11-15 | Nxp B.V. | Challenge-response method for biometric authentication |
CN113220114B (zh) * | 2021-01-22 | 2023-06-20 | 华南理工大学 | 一种融合人脸识别的可嵌入非接触式电梯按键交互方法 |
US20220253148A1 (en) * | 2021-02-05 | 2022-08-11 | Pepsico, Inc. | Devices, Systems, and Methods for Contactless Interfacing |
Family Cites Families (101)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4468694A (en) * | 1980-12-30 | 1984-08-28 | International Business Machines Corporation | Apparatus and method for remote displaying and sensing of information using shadow parallax |
US4843568A (en) * | 1986-04-11 | 1989-06-27 | Krueger Myron W | Real time perception of and response to the actions of an unencumbered participant/user |
JPS62264390A (ja) | 1986-05-12 | 1987-11-17 | Omron Tateisi Electronics Co | 監視ロボツト用視覚認識装置 |
US4924506A (en) * | 1986-07-22 | 1990-05-08 | Schlumberger Systems & Services, Inc. | Method for directly measuring area and volume using binocular stereo vision |
JPH0431996A (ja) | 1990-05-28 | 1992-02-04 | Matsushita Electric Works Ltd | 画像認識型の防犯センサー |
US5220441A (en) * | 1990-09-28 | 1993-06-15 | Eastman Kodak Company | Mechanism for determining parallax between digital images |
US5239373A (en) * | 1990-12-26 | 1993-08-24 | Xerox Corporation | Video computational shared drawing space |
JP3114813B2 (ja) | 1991-02-27 | 2000-12-04 | 日本電信電話株式会社 | 情報入力方法 |
US5483261A (en) * | 1992-02-14 | 1996-01-09 | Itu Research, Inc. | Graphical input controller and method with rear screen image detection |
US5999185A (en) * | 1992-03-30 | 1999-12-07 | Kabushiki Kaisha Toshiba | Virtual reality control using image, model and control data to manipulate interactions |
EP0829799A3 (de) | 1992-05-26 | 1998-08-26 | Takenaka Corporation | Wandcomputereinheit |
JP3512207B2 (ja) | 1993-02-05 | 2004-03-29 | 松下電器産業株式会社 | 加熱装置 |
EP0631250B1 (de) * | 1993-06-21 | 2002-03-20 | Nippon Telegraph And Telephone Corporation | Verfahren und Vorrichtung zur dreidimensionalen Bilderzeugung von Objekten |
US20020126161A1 (en) * | 1994-07-05 | 2002-09-12 | Hitachi, Ltd. | Information processing system |
US5563988A (en) * | 1994-08-01 | 1996-10-08 | Massachusetts Institute Of Technology | Method and system for facilitating wireless, full-body, real-time user interaction with a digitally represented visual environment |
US6327381B1 (en) * | 1994-12-29 | 2001-12-04 | Worldscape, Llc | Image transformation and synthesis methods |
US5913727A (en) * | 1995-06-02 | 1999-06-22 | Ahdoot; Ned | Interactive movement and contact simulation game |
US20010006426A1 (en) * | 1996-07-18 | 2001-07-05 | Korea Institute Of Science And Technology | Holographic projection screen for displaying a three-dimensional color images and optical display system using the holographic screen |
US6002808A (en) * | 1996-07-26 | 1999-12-14 | Mitsubishi Electric Information Technology Center America, Inc. | Hand gesture control system |
RU2123718C1 (ru) | 1996-09-27 | 1998-12-20 | Кузин Виктор Алексеевич | Способ ввода информации в компьютер |
US6956573B1 (en) | 1996-11-15 | 2005-10-18 | Sarnoff Corporation | Method and apparatus for efficiently representing storing and accessing video information |
DE69626208T2 (de) * | 1996-12-20 | 2003-11-13 | Hitachi Europe Ltd., Maidenhead | Verfahren und System zur Erkennung von Handgesten |
DE19708240C2 (de) * | 1997-02-28 | 1999-10-14 | Siemens Ag | Anordnung und Verfahren zur Detektion eines Objekts in einem von Wellen im nichtsichtbaren Spektralbereich angestrahlten Bereich |
JP3749369B2 (ja) * | 1997-03-21 | 2006-02-22 | 株式会社竹中工務店 | ハンドポインティング装置 |
US7532372B2 (en) * | 1997-07-08 | 2009-05-12 | Kremen Stanley H | Method for creating a holographic screen that reconstructs uniformly magnified three-dimensional images from projected integral photographs |
US6720949B1 (en) * | 1997-08-22 | 2004-04-13 | Timothy R. Pryor | Man machine interfaces and applications |
DE19739285C1 (de) | 1997-09-08 | 1998-11-19 | Siemens Nixdorf Inf Syst | Vorrichtung zur Darstellung und virtuellen Eingabe von Daten |
JP3795647B2 (ja) | 1997-10-29 | 2006-07-12 | 株式会社竹中工務店 | ハンドポインティング装置 |
FR2771202B1 (fr) * | 1997-11-19 | 2000-01-21 | Inst Nat Rech Inf Automat | Dispositif electronique de traitement de donnees-image, pour la simulation du comportement deformable d'un objet |
US6195104B1 (en) * | 1997-12-23 | 2001-02-27 | Philips Electronics North America Corp. | System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs |
US6512507B1 (en) * | 1998-03-31 | 2003-01-28 | Seiko Epson Corporation | Pointing position detection device, presentation system, and method, and computer-readable medium |
US6377229B1 (en) * | 1998-04-20 | 2002-04-23 | Dimensional Media Associates, Inc. | Multi-planar volumetric display system and method of operation using three-dimensional anti-aliasing |
US6064354A (en) | 1998-07-01 | 2000-05-16 | Deluca; Michael Joseph | Stereoscopic user interface method and apparatus |
US6950534B2 (en) * | 1998-08-10 | 2005-09-27 | Cybernet Systems Corporation | Gesture-controlled interfaces for self-service machines and other applications |
US6681031B2 (en) * | 1998-08-10 | 2004-01-20 | Cybernet Systems Corporation | Gesture-controlled interfaces for self-service machines and other applications |
DE19845030A1 (de) * | 1998-09-30 | 2000-04-20 | Siemens Ag | Bildsystem |
US6690357B1 (en) | 1998-10-07 | 2004-02-10 | Intel Corporation | Input device using scanning sensors |
US6147678A (en) * | 1998-12-09 | 2000-11-14 | Lucent Technologies Inc. | Video hand image-three-dimensional computer interface with multiple degrees of freedom |
US6204852B1 (en) * | 1998-12-09 | 2001-03-20 | Lucent Technologies Inc. | Video hand image three-dimensional computer interface |
US6222465B1 (en) * | 1998-12-09 | 2001-04-24 | Lucent Technologies Inc. | Gesture-based computer interface |
WO2000059581A1 (en) * | 1999-04-01 | 2000-10-12 | Dominic Choy | Simulated human interaction systems |
US7015954B1 (en) * | 1999-08-09 | 2006-03-21 | Fuji Xerox Co., Ltd. | Automatic video system using multiple cameras |
US7006236B2 (en) * | 2002-05-22 | 2006-02-28 | Canesta, Inc. | Method and apparatus for approximating depth of an object's placement onto a monitored region with applications to virtual interface devices |
SE0000850D0 (sv) * | 2000-03-13 | 2000-03-13 | Pink Solution Ab | Recognition arrangement |
US6624833B1 (en) * | 2000-04-17 | 2003-09-23 | Lucent Technologies Inc. | Gesture-based input interface system with shadow detection |
AU2001275308A1 (en) * | 2000-06-06 | 2001-12-17 | Frauenhofer Institut Fuer Graphische Datenverarbeitung | The extended virtual table: an optical extension for table-like projection systems |
US6788809B1 (en) * | 2000-06-30 | 2004-09-07 | Intel Corporation | System and method for gesture recognition in three dimensions using stereo imaging and color vision |
CN1262366C (zh) * | 2000-08-11 | 2006-07-05 | 株式会社阿玛达 | 弯曲设备 |
WO2002027453A2 (en) * | 2000-09-26 | 2002-04-04 | Eugenio Bustamante | Providing input signals |
CA2433791A1 (en) * | 2001-01-08 | 2002-07-11 | Vkb Inc. | A data input device |
DE10100615A1 (de) * | 2001-01-09 | 2002-07-18 | Siemens Ag | Handerkennung mit Positionsbestimmung |
DE10100617A1 (de) | 2001-01-09 | 2002-07-18 | Siemens Ag | Steuerbare Anordnung mit Benutzerauthentisierung |
US6775014B2 (en) * | 2001-01-17 | 2004-08-10 | Fujixerox Co., Ltd. | System and method for determining the location of a target in a room or small area |
US7215322B2 (en) * | 2001-05-31 | 2007-05-08 | Siemens Corporate Research, Inc. | Input devices for augmented reality applications |
US7259747B2 (en) * | 2001-06-05 | 2007-08-21 | Reactrix Systems, Inc. | Interactive video display system |
EP1689172B1 (de) | 2001-06-05 | 2016-03-09 | Microsoft Technology Licensing, LLC | Interaktives Video-Anzeigesystem |
US8035612B2 (en) * | 2002-05-28 | 2011-10-11 | Intellectual Ventures Holding 67 Llc | Self-contained interactive video display system |
US7007236B2 (en) | 2001-09-14 | 2006-02-28 | Accenture Global Services Gmbh | Lab window collaboration |
US7110569B2 (en) * | 2001-09-27 | 2006-09-19 | Koninklijke Philips Electronics N.V. | Video based detection of fall-down and other events |
US20030067537A1 (en) * | 2001-10-04 | 2003-04-10 | Myers Kenneth J. | System and method for three-dimensional data acquisition |
US6983065B1 (en) * | 2001-12-28 | 2006-01-03 | Cognex Technology And Investment Corporation | Method for extracting features from an image using oriented filters |
US7138997B2 (en) * | 2002-06-28 | 2006-11-21 | Autodesk, Inc. | System for physical rotation of volumetric display enclosures to facilitate viewing |
US7340077B2 (en) * | 2002-02-15 | 2008-03-04 | Canesta, Inc. | Gesture recognition system using depth perceptive sensors |
KR100998381B1 (ko) | 2002-04-26 | 2010-12-03 | 다이쿄 니시카와 가부시키가이샤 | 흡음체, 흡음 구조체, 흡음체의 제조 방법 및 흡음 구조체의 제조 방법 |
US7710391B2 (en) * | 2002-05-28 | 2010-05-04 | Matthew Bell | Processing an image utilizing a spatially varying pattern |
US6857746B2 (en) * | 2002-07-01 | 2005-02-22 | Io2 Technology, Llc | Method and system for free-space imaging display and interface |
US7321386B2 (en) * | 2002-08-01 | 2008-01-22 | Siemens Corporate Research, Inc. | Robust stereo-driven video-based surveillance |
US7576727B2 (en) * | 2002-12-13 | 2009-08-18 | Matthew Bell | Interactive directed light/sound system |
ES2212739B1 (es) * | 2003-01-02 | 2005-04-01 | Sociedad Española De Carburos Metalicos, S.A. | Sistema analizador para la deteccion de gases reductores y oxidantes en un gas portador y sensor de gases basado en oxidos metalicos de tipo semiconductor. |
US8745541B2 (en) * | 2003-03-25 | 2014-06-03 | Microsoft Corporation | Architecture for controlling a computer using hand gestures |
US7088243B2 (en) * | 2003-05-26 | 2006-08-08 | S1 Corporation | Method of intruder detection and device thereof |
WO2004111688A2 (en) * | 2003-06-06 | 2004-12-23 | New York University | Method and apparatus for determining a bidirectional reflectance distribution function of a subject |
US6796656B1 (en) * | 2003-06-14 | 2004-09-28 | Imatte, Inc. | Generating a matte signal from a retro reflective component of a front projection screen |
JP4741488B2 (ja) * | 2003-07-03 | 2011-08-03 | ホロタッチ, インコーポレイテッド | ホログラフィックヒューマンマシンインタフェース |
US20050012817A1 (en) * | 2003-07-15 | 2005-01-20 | International Business Machines Corporation | Selective surveillance system with active sensor management policies |
US7190496B2 (en) * | 2003-07-24 | 2007-03-13 | Zebra Imaging, Inc. | Enhanced environment visualization using holographic stereograms |
FR2858692B1 (fr) * | 2003-08-08 | 2006-01-06 | Rosenthal Patrick Olivier Levy | Systeme permettant la visualisation d'images en trois dimensions avec un rendu en relief sur 36o degres |
KR100588042B1 (ko) * | 2004-01-14 | 2006-06-09 | 한국과학기술연구원 | 인터액티브 프레젠테이션 시스템 |
US7755608B2 (en) * | 2004-01-23 | 2010-07-13 | Hewlett-Packard Development Company, L.P. | Systems and methods of interfacing with a machine |
US7969409B2 (en) * | 2004-02-18 | 2011-06-28 | Rafal Jan Krepec | Camera assisted pen tablet |
WO2005099386A2 (en) * | 2004-04-13 | 2005-10-27 | Board Of Regents, The University Of Texas System | Holographic projector |
JP4424088B2 (ja) * | 2004-06-25 | 2010-03-03 | 株式会社日立製作所 | 撮像装置 |
US7519223B2 (en) * | 2004-06-28 | 2009-04-14 | Microsoft Corporation | Recognizing gestures and using gestures for interacting with software applications |
US7724242B2 (en) * | 2004-08-06 | 2010-05-25 | Touchtable, Inc. | Touch driven method and apparatus to integrate and display multiple image layers forming alternate depictions of same subject matter |
US8560972B2 (en) * | 2004-08-10 | 2013-10-15 | Microsoft Corporation | Surface UI for gesture-based interaction |
US20060092178A1 (en) * | 2004-10-29 | 2006-05-04 | Tanguay Donald O Jr | Method and system for communicating through shared media |
US7598942B2 (en) * | 2005-02-08 | 2009-10-06 | Oblong Industries, Inc. | System and method for gesture based control system |
KR100687737B1 (ko) * | 2005-03-19 | 2007-02-27 | 한국전자통신연구원 | 양손 제스쳐에 기반한 가상 마우스 장치 및 방법 |
US7643051B2 (en) * | 2005-09-09 | 2010-01-05 | Roy Benjamin Sandberg | Mobile video teleconferencing system and control method |
US8086971B2 (en) | 2006-06-28 | 2011-12-27 | Nokia Corporation | Apparatus, methods and computer program products providing finger-based and hand-based gesture commands for portable electronic device applications |
US8972902B2 (en) * | 2008-08-22 | 2015-03-03 | Northrop Grumman Systems Corporation | Compound gesture recognition |
US8180114B2 (en) | 2006-07-13 | 2012-05-15 | Northrop Grumman Systems Corporation | Gesture recognition interface system with vertical display |
US8589824B2 (en) | 2006-07-13 | 2013-11-19 | Northrop Grumman Systems Corporation | Gesture recognition interface system |
US7701439B2 (en) * | 2006-07-13 | 2010-04-20 | Northrop Grumman Corporation | Gesture recognition simulation system and method |
US9696808B2 (en) * | 2006-07-13 | 2017-07-04 | Northrop Grumman Systems Corporation | Hand-gesture recognition method |
US8234578B2 (en) * | 2006-07-25 | 2012-07-31 | Northrop Grumman Systems Corporatiom | Networked gesture collaboration system |
US8432448B2 (en) * | 2006-08-10 | 2013-04-30 | Northrop Grumman Systems Corporation | Stereo camera intrusion detection system |
US9052575B2 (en) * | 2007-07-12 | 2015-06-09 | Hewlett-Packard Development Company, L.P. | Determining correspondence mappings from infrared patterns projected during the projection of visual content |
US8139110B2 (en) | 2007-11-01 | 2012-03-20 | Northrop Grumman Systems Corporation | Calibration of a gesture recognition interface system |
US9377874B2 (en) | 2007-11-02 | 2016-06-28 | Northrop Grumman Systems Corporation | Gesture recognition light and video image projector |
US8345920B2 (en) * | 2008-06-20 | 2013-01-01 | Northrop Grumman Systems Corporation | Gesture recognition interface system with a light-diffusive screen |
-
2008
- 2008-06-05 US US12/133,836 patent/US8180114B2/en active Active
-
2009
- 2009-06-04 GB GB0909597A patent/GB2460542B/en not_active Expired - Fee Related
- 2009-06-04 DE DE102009023875A patent/DE102009023875A1/de not_active Ceased
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE112013000590B4 (de) * | 2012-01-17 | 2016-05-04 | Leap Motion, Inc. | Verbesserter Kontrast zur Objekterfassung und Charakterisierung durch optisches Abbilden |
DE102012020607B4 (de) * | 2012-10-19 | 2015-06-11 | Audi Ag | Kraftwagen mit einer Gestensteuerungseinrichtung sowie Verfahren zum Steuern eines Auswahlelements |
US9612655B2 (en) | 2012-10-31 | 2017-04-04 | Audi Ag | Method for inputting a control command for a component of a motor vehicle |
DE102013019197A1 (de) * | 2013-11-15 | 2015-05-21 | Audi Ag | Kraftfahrzeug-Klimatisierung mit adaptivem Luftausströmer |
WO2018153726A1 (de) * | 2017-02-24 | 2018-08-30 | Dr. Schneider Kunststoffwerke Gmbh | Vorrichtung zum steuern eines luftausströmers |
Also Published As
Publication number | Publication date |
---|---|
US8180114B2 (en) | 2012-05-15 |
GB2460542B (en) | 2010-12-01 |
GB2460542A (en) | 2009-12-09 |
US20080244468A1 (en) | 2008-10-02 |
GB0909597D0 (en) | 2009-07-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102009023875A1 (de) | Gestenerkennungsschittstellensystem mit vertikaler Anzeigefläche | |
US10620712B2 (en) | Interactive input system and method | |
DE102009025236B4 (de) | Schnittstellensystem zur Gestenerkennung mit einem lichtstreuenden Bildschirm | |
DE102009034413B4 (de) | Erkennung zusammengesetzter Gesten | |
DE102009043798B4 (de) | Verfahren zur Erkennung von Handgesten | |
DE69530395T2 (de) | Interaktives projektiertes videobildanzeigesystem | |
US8589824B2 (en) | Gesture recognition interface system | |
DE102009032637B4 (de) | Bildvergrößerungssystem für eine Computerschnittstelle | |
DE69430967T2 (de) | Interaktives Kopiersystem | |
DE60124549T2 (de) | Kamerabasiertes beruehrungssystem | |
DE60205662T2 (de) | Vorrichtung und Verfahren zur Berechnung einer Position einer Anzeige | |
US20140354602A1 (en) | Interactive input system and method | |
EP0963563B1 (de) | Anordnung und verfahren zur detektion eines objekts in einem von wellen im nichtsichtbaren spektralbereich angestrahlten bereich | |
WO2009148064A1 (ja) | 画像認識装置および操作判定方法並びにプログラム | |
US20010030668A1 (en) | Method and system for interacting with a display | |
CN102508578B (zh) | 投影定位装置及方法、交互系统和交互方法 | |
CN104423578B (zh) | 交互式输入系统和方法 | |
US20140333585A1 (en) | Electronic apparatus, information processing method, and storage medium | |
DE112012006199T5 (de) | Virtuelle Hand basierend auf kombinierten Daten | |
DE102015009821A1 (de) | Optisches digitales Lineal | |
Sharma et al. | Interactive projector screen with hand detection using gestures | |
KR20200063727A (ko) | 제스처 인식 방법 및 장치 | |
DE102019107103B4 (de) | Verfahren und system zur objektsegmentierung in einer mixed-reality- umgebung | |
DE10124834C2 (de) | Verfahren zur Informationseingabe für eine Mensch-Maschine-Schnittstelle, Stift zur Durchführung des Verfahrens und Vorrichtung zur Eingabe von Informationen mittels des Verfahrens | |
DE112004002016T5 (de) | In der Hand gehaltenes Gerät zur Navigation durch Daten und zur Datenanzeige |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
R016 | Response to examination communication | ||
R016 | Response to examination communication | ||
R002 | Refusal decision in examination/registration proceedings | ||
R006 | Appeal filed | ||
R008 | Case pending at federal patent court | ||
R003 | Refusal decision now final | ||
R011 | All appeals rejected, refused or otherwise settled |