Nothing Special   »   [go: up one dir, main page]

DE102014119419A1 - Display a transition from gesture-based input to touch surfaces - Google Patents

Display a transition from gesture-based input to touch surfaces Download PDF

Info

Publication number
DE102014119419A1
DE102014119419A1 DE102014119419.5A DE102014119419A DE102014119419A1 DE 102014119419 A1 DE102014119419 A1 DE 102014119419A1 DE 102014119419 A DE102014119419 A DE 102014119419A DE 102014119419 A1 DE102014119419 A1 DE 102014119419A1
Authority
DE
Germany
Prior art keywords
gesture
based input
touch surface
transition
alarm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102014119419.5A
Other languages
German (de)
Inventor
Shadi Mere
Theodore Charles Wingrove
Kyle Entsminger
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Visteon Global Technologies Inc
Original Assignee
Visteon Global Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US14/555,194 external-priority patent/US9875019B2/en
Application filed by Visteon Global Technologies Inc filed Critical Visteon Global Technologies Inc
Publication of DE102014119419A1 publication Critical patent/DE102014119419A1/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Ein System und Verfahren zum Anzeigen eines Übergangs von einer gestenbasierten Eingabe zu einer Touch-Oberfläche sind hierin bereitgestellt. Das System beinhaltet einen Erkennungsmonitor, der mit einem Erkennungsgerät gekoppelt ist, um den Übergang zu erkennen; und einen Alarmsender, um ein Ausgabegerät basierend auf dem Erkennen zu alarmieren. Die gestenbasierte Eingabe ist eine kontaktlose Schnittstelle, die mit einem elektronischen System verknüpft ist, und eine Touch-Oberfläche ist eine Kontaktschnittstelle, die mit dem elektronischen System verknüpft ist.A system and method for indicating a transition from a gesture-based input to a touch surface is provided herein. The system includes a detection monitor coupled to a recognition device to detect the transition; and an alarm transmitter to alert an output device based on the detection. The gesture-based input is a contactless interface associated with an electronic system, and a touch surface is a contact interface associated with the electronic system.

Description

Prioritätpriority

Diese Patentanmeldung beansprucht Priorität gegenüber der vorläufigen anhängigen US-Patentanmeldung Nr. 61/920,993, angemeldet am 26. Dezember 2013, mit dem Titel „Indicating a Transition from Gesture Based Inputs to Touch Surfaces”. Diese Patentanmeldung enthält die gesamte ausführliche Beschreibung der US-Patentanmeldung Nr. 61/920,993.This patent application claims priority over provisional pending US Patent Application No. 61 / 920,993, filed December 26, 2013, entitled "Indicating a Transition from Gesture Based Inputs to Touch Surfaces". This patent application contains the entire detailed description of US Patent Application No. 61 / 920,993.

Allgemeiner Stand der TechnikGeneral state of the art

Schnittstellen werden immer komplexer und vielseitiger. Das Bereitstellen verschiedener Möglichkeiten, mit einem System zu interagieren, wird immer alltäglicher. Dementsprechend kann ein Benutzer eines Systems selektiv eine erste oder zweite Technik für die Interaktion mit dem System auswählen. In bestimmten Fällen kann der Übergang zwischen einer ersten und zweiten Technik einen Wechselschalter erfordern. In anderen Fällen können sowohl die erste als auch die zweite Technik gleichzeitig für den Benutzer verfügbar sein.Interfaces are becoming ever more complex and versatile. Providing various ways to interact with a system is becoming more commonplace. Accordingly, a user of a system may selectively select a first or second technique for interacting with the system. In certain cases, the transition between a first and second technique may require a toggle switch. In other cases, both the first and second techniques may be simultaneously available to the user.

Eine derartige Eingabetechnik ist eine gestenbasierte Eingabe. Die gestenbasierte Eingabe ermöglicht ein Erkennen von Bewegung eines Auslösereizes, wie einem Körperteil (üblicherweise der Hand), und basierend auf der erkannten Bewegung oder Geste wird ein Befehl ausgelöst. Die gestenbasierten Eingaben erfordern nicht, dass der Benutzer Kontakt mit einer Touch-Oberfläche, einem Pad oder Gerät herstellt.One such input technique is gesture-based input. Gesture-based input allows movement of a trigger stimulus, such as a body part (usually the hand), to be detected, and a command is triggered based on the detected gesture or gesture. The gesture-based input does not require the user to contact a touch surface, pad, or device.

Die Geste wird durch eine Videokamera oder einen Bewegungsdetektor aufgenommen. Dementsprechend nimmt die Videokamera die Bewegung auf, gleicht die Bewegung mit einem gespeicherten Befehlszentrum ab (d. h. einem Prozessor und Speichergerät) und setzt die Bewegung in eine Handlung um.The gesture is recorded by a video camera or a motion detector. Accordingly, the video camera picks up the motion, equalizes the motion with a stored command center (i.e., a processor and memory device), and translates the motion into action.

Eine andere derartige Eingabetechnik ist eine Touch-Oberfläche. Die Touch-Oberfläche ermöglicht es einem Benutzer, mit einem Touchscreen oder einem Touchpad zu interagieren, um ein System zu steuern. Das System kann jede beliebige Art von elektronikbasiertem System sein, zum Beispiel Komponenten, die in oder um die Steuerkonsole eines Fahrzeugs installiert sind. Der Touchscreen oder die Touch-Oberfläche können zum Beispiel kapazitive Berührungstechnologie oder resistive Berührungstechnologie verwenden.Another such input technique is a touch surface. The touch interface allows a user to interact with a touch screen or touchpad to control a system. The system may be any type of electronics-based system, for example, components installed in or around the control console of a vehicle. The touch screen or the touch surface may use, for example, capacitive touch technology or resistive touch technology.

In bestimmten Fällen können die gestenbasierten Eingabesysteme und die berührungsbasierten Eingabesysteme gemeinsam integriert sein. Demnach kann ein Benutzer, der ein System bedient, selektiv entweder mit einem Touchscreen oder einem Bereich, der für das Erkennen von Gesten bereitgestellt ist, interagieren.In certain cases, the gesture-based input systems and the touch-based input systems may be integrated together. Thus, a user operating a system can selectively interact with either a touch screen or an area provided for recognizing gestures.

KurzdarstellungSummary

Ein System und Verfahren zum Anzeigen eines Übergangs von einer gestenbasierten Eingabe zu einer Touch-Oberfläche sind hierin bereitgestellt. Das System beinhaltet einen Erkennungsmonitor, der mit einem Erkennungsgerät gekoppelt ist, um den Übergang zu erkennen; und einen Alarmsender, um ein Ausgabegerät basierend auf dem Erkennen zu alarmieren. Die gestenbasierte Eingabe ist eine kontaktlose Schnittstelle, die mit einem elektronischen System verknüpft ist, und eine Touch-Oberfläche ist eine Kontaktschnittstelle, die mit dem elektronischen System verknüpft ist.A system and method for indicating a transition from a gesture-based input to a touch surface is provided herein. The system includes a detection monitor coupled to a recognition device to detect the transition; and an alarm transmitter to alert an output device based on the detection. The gesture-based input is a contactless interface associated with an electronic system, and a touch surface is a contact interface associated with the electronic system.

Beschreibung der ZeichnungenDescription of the drawings

Die ausführliche Beschreibung bezieht sich auf die nachfolgenden Zeichnungen, in denen sich gleiche Ziffern auf gleiche Elemente beziehen. Es zeigen:The detailed description refers to the following drawings in which like numerals refer to like elements. Show it:

1 ein Blockdiagramm, das einen beispielhaften Computer darstellt. 1 a block diagram illustrating an exemplary computer.

2 ein Beispiel für ein System zum Anzeigen eines Übergangs von gestenbasierten Eingaben zu einer Touch-Oberfläche. 2 an example of a system for displaying a transition from gesture-based inputs to a touch surface.

3 ein Beispiel für ein Verfahren zum Anzeigen eines Übergangs von gestenbasierten Eingaben zu einer Touch-Oberfläche. 3 an example of a method for displaying a transition from gesture-based inputs to a touch surface.

4 ein Beispiel für das System aus 2, integriert in ein Fahrzeug. 4 an example of the system 2 , integrated in a vehicle.

Ausführliche BeschreibungDetailed description

Die Erfindung ist hiernach vollständiger mit Verweis auf die beigefügten Zeichnungen beschrieben, in denen beispielhafte Ausführungsformen der Erfindung dargestellt sind. Diese Erfindung kann jedoch in vielen verschiedenen Formen ausgeführt sein und sollte nicht als auf die hierin ausgeführten Ausführungsformen eingeschränkt ausgelegt werden. Stattdessen sind diese beispielhaften Ausführungsformen bereitgestellt, damit diese Offenbarung umfassend ist und Fachleuten den vollständigen Umfang der Erfindung vermittelt. Es versteht sich, dass „wenigstens eins von” für die Zwecke dieser Offenbarung als sich auf eine beliebige Kombination der nach der entsprechenden Bezeichnung aufgelisteten Elemente, einschließlich einer Kombination aus mehreren der aufgelisteten Elemente, beziehend interpretiert wird. Zum Beispiel ist „wenigstens eins von X, Y und Z” auszulegen als nur X, nur Y, nur Z oder eine beliebige Kombination von zwei oder mehr Elementen X, Y und Z (z. B. XYZ, XZ, YZ, X). Es versteht sich, dass sich gleiche Zeichnungsreferenzziffern in den Zeichnungen und der ausführlichen Beschreibung durchweg auf die gleichen Elemente, Merkmale und Strukturen beziehen, außer dies ist anderweitig beschrieben. Die relative Größe und Darstellung dieser Elemente kann zu Zwecken der Klarheit, Darstellung und Zweckmäßigkeit übertrieben sein.The invention will now be described more fully with reference to the accompanying drawings, in which exemplary embodiments of the invention are shown. However, this invention may be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. Instead, these exemplary embodiments are provided so that this disclosure will be thorough and will convey the full scope of the invention to those skilled in the art. It is understood that "at least one of" for the purposes of this disclosure is interpreted as referring to any combination of the elements listed by the corresponding designation, including a combination of several of the listed elements. For example, "at least one of X, Y and Z "is to be construed as only X, only Y, only Z or any combination of two or more elements X, Y and Z (eg XYZ, XZ, YZ, X). It should be understood that like drawing reference numbers throughout the drawings and the detailed description consistently refer to the same elements, features, and structures, unless otherwise described. The relative size and appearance of these elements may be exaggerated for purposes of clarity, illustration, and convenience.

Gestenbasierte Eingaben werden in verschiedenen Situationen und Zusammenhängen verwendet. Die gestenbasierte Eingabe ermöglicht es einem Benutzer oder Bediener, mit einer Eingabe oder Schnittstelle zu interagieren, ohne Kontakt mit einer Oberfläche herzustellen. Die gestenbasierte Eingabe wird durch eine Kamera oder Erkennungstechnik ermöglicht, die es möglich macht, dass eine Geste aufgenommen und eine Maschine oder ein System dementsprechend gesteuert wird. Die Geste kann sich auf einen beliebigen Teil eines Körpers beziehen, der gesteuert oder bewegt werden kann. Zum Beispiel kann sich das Wackeln mit einer Hand oder das Zeigen mit einem Finger auf eine Geste beziehen.Gesture-based input is used in a variety of situations and contexts. Gesture-based input allows a user or operator to interact with an input or interface without contacting a user interface. Gesture-based input is enabled by a camera or recognition technique that allows a gesture to be taken and a machine or system to be controlled accordingly. The gesture can refer to any part of a body that can be controlled or moved. For example, shaking with one hand or pointing a finger may refer to a gesture.

Eine Schwierigkeit von gestenbasierten Eingabesystemen besteht darin, dass ein Benutzer nicht erkennen kann oder weiß, ob er sich in dem Raum befindet, der für das Erkennen der Geste erforderlich ist. Dementsprechend kann es zu einem Phänomen der Unbeholfenheit kommen, wenn der Benutzer versucht, zu einem geschätzten Raum zu navigieren. Ferner kann der Benutzer unter Umständen selbst in Fällen, in denen ein Touchpad oder eine Touch-Oberfläche implementiert ist, den Bereich nicht kennen, der erforderlich ist, um das Touchpad effektiv zu bedienen. In Fällen, in denen das Touchpad in einem Fahrzeug implementiert ist, kann das Abwenden des Blicks oder der Aufmerksamkeit des Benutzers von der Straße auf ein Touchpad unpraktisch und unsicher sein.One difficulty with gesture-based input systems is that a user can not recognize or know if he is in the room required to recognize the gesture. Accordingly, when the user attempts to navigate to an estimated space, a clumsiness phenomenon may occur. Further, even in cases where a touchpad or a touch surface is implemented, the user may not be aware of the area required to operate the touchpad effectively. In cases where the touchpad is implemented in a vehicle, averting the user's gaze or attention from the road to a touchpad can be impractical and insecure.

Durch das Interagieren mit einer Oberfläche erfahren Benutzer oder Bediener häufig Rückmeldungen, die mit einer Berührung und physischem Kontakt verbunden sind. Dementsprechend erfahren Benutzer häufig eine haptische Wahrnehmung. Haptische Technologie oder Haptik ist eine fühlbare Rückmeldungstechnologie, die den Berührungssinn durch das Anwenden von Kräften, Vibrationen oder Bewegungen auf den Benutzer nutzt. Ein haptischer Steller kann in einen ergonomisch ausgewählten Standort im Fahrzeug eingebettet sein. Ein ergonomischer Standort kann sich auf einen Standort beziehen, an dem der Benutzer oder Bediener des Systems einen Teil seines Körpers positioniert (zum Beispiel einen Sitz, eine Armlehne, eine Ablagemöglichkeit für das Handgelenk).Interacting with a surface often gives users or operators feedback associated with touch and physical contact. Accordingly, users often experience a haptic perception. Haptic technology or feel is a tactile feedback technology that utilizes the sense of touch by applying forces, vibrations or movements to the user. A haptic actuator can be embedded in an ergonomically selected location in the vehicle. An ergonomic location may refer to a location where the user or operator of the system positions a part of his body (for example, a seat, an arm rest, a wrist rest).

Hierin sind Systeme und Verfahren zum Anzeigen eines Übergangs von einem gestenbasierten Eingaberaum zu einer Touch-Oberfläche offenbart. Zusätzlich können die hierin offenbarten Systeme und Verfahren verwendet werden, um jede beliebige Art von Annäherung an eine Touch-Oberfläche oder einen gestenbasierten Eingaberaum anzuzeigen. Dementsprechend wird dem Benutzer durch Bereitstellen der Anzeige an den Benutzer eines Eingabesystems eine verbesserte Benutzererfahrung bereitgestellt. Die Anzeige kann hörbar, visuell, haptisch oder eine Kombination davon sein.Disclosed herein are systems and methods for indicating a transition from a gesture-based input space to a touch surface. In addition, the systems and methods disclosed herein may be used to indicate any type of approach to a touch surface or gesture-based input space. Accordingly, providing the user with an input system provides the user with an improved user experience. The display may be audible, visual, haptic or a combination thereof.

1 ist ein Blockdiagramm, das einen beispielhaften Computer 100 darstellt. Der Computer 100 beinhaltet wenigstens einen Prozessor 102, der mit einem Chipsatz 104 gekoppelt ist. Der Chipsatz 104 beinhaltet einen Speichersteuerknoten 120 und einen Eingabe-/Ausgabe-(I/O)-Steuerknoten 122. Ein Speicher 106 und ein Grafikadapter 112 sind mit dem Speichersteuerknoten 120 gekoppelt und eine Anzeige 118 ist mit dem Grafikadapter 112 gekoppelt. Ein Speichergerät 108, eine Tastatur 110, ein Zeigegerät 114 und ein Netzwerkadapter 116 sind mit dem I/O-Steuerknoten 122 gekoppelt. Andere Ausführungsformen des Computers 100 können andere Architekturen aufweisen. 1 is a block diagram illustrating an exemplary computer 100 represents. The computer 100 includes at least one processor 102 that with a chipset 104 is coupled. The chipset 104 includes a memory control node 120 and an input / output (I / O) control node 122 , A store 106 and a graphics adapter 112 are with the memory control node 120 coupled and an ad 118 is with the graphics adapter 112 coupled. A storage device 108 , a keyboard 110 , a pointing device 114 and a network adapter 116 are with the I / O control node 122 coupled. Other embodiments of the computer 100 can have different architectures.

Das Speichergerät 108 ist ein nichtflüchtiges, computerlesbares Speichermedium, wie eine Festplatte, eine CD-ROM, DVD oder ein Festkörperspeichergerät. Der Speicher 106 enthält Anweisungen und Daten, die vom Prozessor 102 verwendet werden. Das Zeigegerät 114 ist eine Maus, ein Trackball oder eine andere Art von Zeigegerät und wird in Kombination mit der Tastatur 110 verwendet, um Daten in den Computer 100 einzugeben. Das Zeigegerät 114 kann außerdem eine Spielsystemsteuerung oder eine beliebige Art von Gerät sein, das verwendet wird, um das Spielsystem zu steuern. Zum Beispiel kann das Zeigegerät 114 mit einem Video- oder Bildaufnahmegerät verbunden sein, das biometrische Scans verwendet, um einen spezifischen Benutzer zu erkennen. Der spezifische Benutzer kann Bewegung und Gesten verwenden, um das Zeigegerät 114 anzuweisen, verschiedene Aspekte des Computers 100 zu steuern.The storage device 108 is a non-volatile, computer-readable storage medium such as a hard disk, CD-ROM, DVD or solid state storage device. The memory 106 contains instructions and data supplied by the processor 102 be used. The pointing device 114 is a mouse, trackball or other type of pointing device and is used in combination with the keyboard 110 used to data in the computer 100 enter. The pointing device 114 may also be a game system controller or any type of device used to control the gaming system. For example, the pointing device 114 be connected to a video or image capture device that uses biometric scans to recognize a specific user. The specific user can use movement and gestures to the pointing device 114 to instruct different aspects of the computer 100 to control.

Der Grafikadapter 112 zeigt Bilder und andere Informationen auf der Anzeige 118 an. Der Netzwerkadapter 116 koppelt das Computersystem 100 mit einem oder mehreren Computernetzwerk(en).The graphics adapter 112 shows pictures and other information on the display 118 at. The network adapter 116 couples the computer system 100 with one or more computer network (s).

Der Computer 100 ist angepasst, um Computerprogrammmodule zum Bereitstellen hierin beschriebener Funktionalität auszuführen. Die Bezeichnung „Modul” bezieht sich im hier verwendeten Sinne auf Computerprogrammlogik, die verwendet wird, um die festgelegte Funktionalität bereitzustellen. Demnach kann ein Modul in Hardware, Firmware und/oder Software implementiert sein. In einer Ausführungsform werden Programmmodule im Speichergerät 108 gespeichert, in den Speicher 106 geladen und durch den Prozessor 102 ausgeführt.The computer 100 is adapted to execute computer program modules for providing functionality described herein. The term "module" as used herein refers to computer program logic used to provide the specified functionality. Thus, a module in hardware, firmware and / or Software to be implemented. In one embodiment, program modules are stored in the storage device 108 stored in the memory 106 loaded and through the processor 102 executed.

Die Arten von Computern, die von den hierin offenbarten Einheiten und Prozessen verwendet werden, können abhängig von der Ausführungsform und der von der Einheit erforderten Prozessorleistung variieren. Der Computer 100 kann ein Mobilgerät, Tablet, Smartphone oder eine beliebige Art von Rechnerelement mit den oben aufgeführten Elementen sein. Zum Beispiel kann ein Datenspeichergerät, wie eine Festplatte, ein Festkörperspeicher oder Speichergerät, in einem verteilten Datenbanksystem gespeichert sein, das mehrere Blade-Server umfasst, die zusammenarbeiten, um die hierin beschriebene Funktionalität bereitzustellen. Den Computern können einige der oben beschriebenen Komponenten fehlen, wie Tastaturen 110, Grafikadapter 112 und Anzeigen 118.The types of computers used by the devices and processes disclosed herein may vary depending on the embodiment and processor performance required by the device. The computer 100 may be a mobile device, tablet, smartphone, or any type of computing element with the items listed above. For example, a data storage device, such as a hard disk, a solid state memory, or a storage device, may be stored in a distributed database system that includes a plurality of blade servers that work together to provide the functionality described herein. The computers may lack some of the components described above, such as keyboards 110 , Graphics adapter 112 and ads 118 ,

Der Computer 100 kann für den hierin offenbarten Content-Sharing-Dienst als Server fungieren (nicht dargestellt). Der Computer 100 kann mit anderen Computergeräten 100 in einem Clusterverbund stehen, um den Server zu bilden.The computer 100 may act as a server for the content sharing service disclosed herein (not shown). The computer 100 can work with other computer devices 100 in a cluster network to form the server.

2 ist ein Beispiel für ein System 200 zum Anzeigen eines Übergangs von gestenbasierten Eingaben zu einer Touch-Oberfläche. Das System 200 beinhaltet ein Erkennungsmonitormodul 210, einen Abrufer 220 und einen Alarmsender 230. Das System 200 kann auf einem Gerät implementiert sein, wie dem Computer 100. 2 is an example of a system 200 to show a transition from gesture-based input to a touch interface. The system 200 includes a recognition monitor module 210 , a caller 220 and an alarm transmitter 230 , The system 200 can be implemented on a device, such as the computer 100 ,

Das System 200 kann in jeder beliebigen Umgebung oder Situation implementiert sein, in der eine Berührungs- oder Gesteneingabe verwendet wird. Zum Beispiel kann das System in einem Fahrzeug implementiert sein, wobei die Touchpad-Oberfläche 260 in einer Steuerkonsole eines Fahrzeugs (oder einem beliebigen Bereich, in dem der Bediener oder Passagier des Fahrzeugs interagieren kann) angeordnet ist.The system 200 can be implemented in any environment or situation in which a touch or gesture input is used. For example, the system may be implemented in a vehicle with the touchpad surface 260 in a control console of a vehicle (or any area where the operator or passenger of the vehicle can interact).

Das System 200 kann außerdem mit einem gestenbasierten Eingabesystem 250 kommunizieren. Wie dargestellt, beinhaltet das gestenbasierte Eingabesystem 250 eine Kamera. In einer Implementierung des Systems 200 kann die Kamera in einem Bereich direkt unter und vor der Touchpad-Oberfläche 260 platziert sein. Wenn sich ein Benutzer der Touchpad-Oberfläche 260 nähert, um die Touchpad-Oberfläche 260 zu berühren, kann das gestenbasierte Eingabesystem 250 dementsprechend die Hand des Benutzers erkennen.The system 200 can also use a gesture-based input system 250 communicate. As shown, the gesture-based input system includes 250 a camera. In an implementation of the system 200 The camera can be in an area just below and in front of the touchpad surface 260 be placed. When a user touchpad surface 260 approaching the touchpad surface 260 To touch, the gesture-based input system 250 recognize the user's hand accordingly.

Das gestenbasierte Eingabesystem 250 kann allein verwendet werden, um zu erkennen, wenn eine Hand in einen mit der Bedienung einer Touchpad-Oberfläche 260 verknüpften Bereich eindringt, oder alternativ kann das gestenbasierte Eingabesystem 250 außerdem als ein Eingabemechanismus dienen.The gesture-based input system 250 Can be used alone to detect when a hand in one with the operation of a touchpad surface 260 linked area, or alternatively, the gesture-based input system 250 also serve as an input mechanism.

Das System 200 kann basierend auf einem Umschaltbefehl von einem Benutzer oder Implementierer des Systems 200 selektiv implementiert werden. Der Umschaltbefehl kann in einem nichtflüchtigen Speicher gespeichert sein.The system 200 may be based on a toggle command from a user or implementer of the system 200 be selectively implemented. The toggle command may be stored in nonvolatile memory.

Das Erkennungsmonitormodul 210 empfängt einen Hinweis vom gestenbasierten Eingabesystem 250, dass eine Hand eines Benutzers in einen Raum eingedrungen ist, in dem das gestenbasierte Eingabesystem 250 seiner Konfiguration entsprechend überwachen soll. Wie oben beschrieben, kann dies ein Raum sein, der als im Wesentlichen nah an einem Bereich, in dem ein Benutzer eine Touchpad-Oberfläche 260 berührt, bereitgestellt ist. Das Erkennungsmonitormodul 210 kann den Hinweis in einem dauerhaften Speicher speichern (wie jedem beliebigen der oben mit Verweis auf das Speichergerät 108 aufgelisteten Speichergeräte).The detection monitor module 210 receives an indication from the gesture-based input system 250 in that a user's hand has entered a room in which the gesture-based input system 250 should monitor his configuration accordingly. As described above, this may be a space that is substantially close to an area where a user has a touchpad surface 260 touched, provided. The detection monitor module 210 can store the hint in a persistent store (as any of the above with reference to the storage device 108 listed storage devices).

Der Abrufer 220 ruft basierend auf dem erkannten Hinweis eine Alarmfunktion ab. Die Alarmfunktion kann eine Audio-, Video-, Haptikfunktion oder Kombinationen davon sein. Die Alarmfunktion dient als Hinweis an einen mit der Touchpad-Oberfläche 260 und dem gestenbasierten Eingabesystem 250 verknüpften Benutzer, dass eine Hand oder ein Betätigungsmechanismus kurz davor steht, die Touchpad-Oberfläche 260 zu berühren.The caller 220 retrieves an alarm based on the detected alert. The alarm function may be an audio, video, haptic function or combinations thereof. The alarm function serves as an indication of one with the touchpad surface 260 and the gesture-based input system 250 linked user, that a hand or an operating mechanism is about to touch the surface of the touchpad 260 to touch.

Der Alarmsender 230 überträgt die abgerufene Alarmfunktion an den geeigneten Mechanismus. In bestimmten Fällen kann der Alarmsender 230 den Audioalarm an einen Lautsprecher übertragen (zum Beispiel einen Fahrzeugaudiolautsprecher). Wenn die Alarmfunktion ein visueller Hinweis ist, kann der Alarmsender 230 an eine Anzeige oder eine Leuchte übertragen, um die abgerufene Alarmfunktion anzuzeigen. Auf diese Weise kann ein Lichthinweis oder visueller Hinweis anzeigen, dass sich die Hand eines Benutzers in einem mit dem Interagieren mit einer Touchpad-Oberfläche 260 verknüpften Bereich befindet.The alarm transmitter 230 transmits the retrieved alarm function to the appropriate mechanism. In certain cases, the alarm transmitter 230 transmit the audio alarm to a speaker (for example, a car audio speaker). If the alarm function is a visual indication, the alarm transmitter can 230 transmitted to a display or a light to indicate the retrieved alarm function. In this way, a light hint or visual indication may indicate that a user's hand is interacting with a touchpad surface 260 linked area is located.

In anderen Fällen, wenn die Alarmfunktion eine haptische Wahrnehmung ist, kann die Alarmfunktion an einen haptischen Steller 270 übertragen werden. Der haptische Steller 270 kann in einer ergonomisch bestimmten Umgebung installiert sein. Wenn das System 200 in einem Fahrzeug implementiert ist, kann der haptische Steller 270 zum Beispiel in einer Armlehne, einem Sitz oder einem beliebigen Abschnitt der Fahrzeugs, den ein Benutzer einer Touchpad-Oberfläche 260 berühren kann, implementiert sein. Dementsprechend kann der haptische Steller 270 konfiguriert sein, um als Reaktion auf das Bewegen der Hand eines Benutzers in einen Raum oder Bereich im Wesentlichen nah am Betriebsbereich für eine Touchpad-Oberfläche 260 zu zittern oder zu vibrieren.In other cases, when the alarm function is a haptic sensation, the alarm function can be sent to a haptic controller 270 be transmitted. The haptic actuator 270 can be installed in an ergonomically determined environment. If the system 200 implemented in a vehicle, the haptic actuator can 270 for example, in an armrest, seat or any portion of the vehicle that a user of a touchpad surface 260 can be touched, implemented. Accordingly, the haptic actuator 270 be configured to respond to that Moving a user's hand into a room or area substantially close to the operating area for a touchpad surface 260 to tremble or vibrate.

In einem anderen Beispiel kann die Alarmfunktion einen Hinweis an den Bereich der Touchpad-Oberfläche 260 senden, der berührt werden wird. Wenn sich demnach eine Hand oder Geste einer Touchpad-Oberfläche 260 nähert, kann die Touchpad-Oberfläche 260 beleuchtet werden oder eine Anzeige kann in dem Bereich der Touchpad-Oberfläche 260, der berührt werden wird, angezeigt werden.In another example, the alarm function may provide an indication of the area of the touchpad surface 260 send that will be touched. If, therefore, a hand or gesture of a touchpad surface 260 approaching, the touchpad surface may be 260 Illuminated or an ad may be in the area of the touchpad surface 260 which will be touched to be displayed.

3 zeigt ein Verfahren 300 zum Anzeigen eines Übergangs von gestenbasierten Eingaben zu einer Touch-Oberfläche. Das Verfahren 300 kann in einem System 200 implementiert sein. 3 shows a method 300 to show a transition from gesture-based input to a touch interface. The procedure 300 can in a system 200 be implemented.

In Vorgang 310 kann erkannt werden, dass eine Hand oder ein anderes Körperglied verwendet wird, um mit einem Touchpad oder einer Touch-Oberfläche zu interagieren. Das Erkennen kann durch das Installieren eines Bild- oder Videoaufnahmegerätes durchgeführt werden, das unter dem, über dem Bereich oder in der Nähe des Bereichs platziert wird, in dem ein Benutzer eine Touch-Oberfläche berühren wird. Wenn sich der Benutzer einer Touch-Oberfläche nähert, nimmt das Gerät dementsprechend auf, wie sich der Benutzer der Touch-Oberfläche nähert (zum Beispiel eine Hand oder ein Körperglied, die/das verwendet wird, um Kontakt mit der Touch-Oberfläche herzustellen). Unter Verwendung von digitaler Signalverarbeitung kann das Gerät sicherstellen, dass dies einer Hand (oder einem anderen Körperglied) eines Benutzers entspricht, und entsprechend ein Erkennen aufnehmen.In process 310 For example, it can be seen that a hand or other limb is used to interact with a touchpad or touch surface. Detection may be accomplished by installing an image or video capture device that is placed below, over, or near the area where a user will touch a touch surface. As the user approaches a touch surface, the device accordingly picks up as the user approaches the touch surface (eg, a hand or limb used to make contact with the touch surface). Using digital signal processing, the device can ensure that this corresponds to a user's hand (or other limb) and record recognition accordingly.

In Vorgang 320 wird ein Alarm abgerufen. Ein Implementierer des Verfahrens 300 kann eine Korrelationstabelle mit verschiedenen Erkennungen und Alarmen speichern. Der mit dem Erkennen verknüpfte Alarm wird in einem Speicher gespeichert.In process 320 an alarm is called. An implementer of the process 300 can store a correlation table with different detections and alarms. The alarm associated with the detection is stored in a memory.

In Vorgang 330 wird basierend auf dem empfangenen Alarm an das entsprechende Gerät die das Kommunizieren des Alarms übergeben und dementsprechend wird eine Anweisung gesendet, um den Alarm zu erzeugen. Wie oben erläutert, würde zum Beispiel mit einem Lautsprecher kommuniziert werden, wenn der Alarm ein Audioalarm ist. In einem anderen Beispiel, wenn der Alarm visuell ist, würde mit Anzeige- oder Beleuchtungselementen kommuniziert werden. In einem Beispiel kann ein auf das Körperglied scheinendes Licht initiiert werden. In einem anderen Beispiel kann eine mit einer Anzeige auf der Touch-Oberfläche verknüpfte Markierung initiiert oder beleuchtet werden.In process 330 Based on the received alarm, the device communicating the alarm is transferred to the corresponding device and accordingly an instruction is sent to generate the alarm. For example, as discussed above, communicating with a speaker would be when the alarm is an audio alarm. In another example, if the alarm is visual, it would communicate with display or lighting elements. In one example, a light shining on the limb may be initiated. In another example, a mark associated with a display on the touch surface may be initiated or illuminated.

In einem anderen Beispiel, wenn der Alarm eine haptische Wahrnehmung ist, würde mit einem haptischen Steller kommuniziert werden.In another example, if the alarm is a haptic sensation, it would be communicated with a haptic actuator.

4 zeigt ein Beispiel des Systems 200, das in ein Fahrzeug 400 integriert ist. 4 shows an example of the system 200 in a vehicle 400 is integrated.

Wie in 4 dargestellt, tritt eine Hand in eine Kameraebene 255 ein, um eine Touch-Oberfläche 260 zu berühren. Die Ebene 255 kann als in einem bestimmten Bereich um die Touch-Oberfläche liegend vordefiniert sein. Die Touch-Oberfläche 260 kann mit der Steuerung eines elektronischen Gerätes 410 verknüpft sein. Nicht dargestellt ist eine gestenbasierte Eingabe, die außerdem mit der Steuerung des elektronischen Gerätes 410 verknüpft sein kann.As in 4 shown, a hand enters a camera level 255 one to a touch surface 260 to touch. The level 255 can be predefined as lying in a certain area around the touch surface. The touch surface 260 can with the control of an electronic device 410 be linked. Not shown is a gesture-based input, in addition to the control of the electronic device 410 can be linked.

Als Reaktion auf das Eindringen der Hand in den Bereich der Kameraebene 255 kann erkannt werden, dass der Eingabemodus von einer gestenbasierten Steuerung (kontaktlos) zu einer Berührungssteuerung (Kontakt) übergeht. Das Erkennen kann vorgenommen werde, wenn die Hand 270 in den Bereich der Ebene 255 eintritt. Alternativ kann das System 200 erkennen, dass sich die Hand 270 in einem vorbestimmten Abstand von der Touch-Oberfläche 260 befindet, und dann einen Übergang erkennen.In response to the penetration of the hand into the area of the camera plane 255 It can be seen that the input mode transitions from a gesture-based control (contactless) to a touch control (contact). The recognition can be made when the hand 270 in the area of the plane 255 entry. Alternatively, the system can 200 recognize that the hand is 270 at a predetermined distance from the touch surface 260 and then detect a transition.

Sobald ein Übergang erkannt wurde, können verschiedene Sensorgeräte (wie Audio-, Video- oder Haptiksteller) ausgelöst werden. Jedes der Sensorgeräte kann mit einem spezifischen Ausgabegerät verknüpft sein. Dementsprechend wird dem mit der Hand verknüpften Benutzer eine sinnesbasierte Interaktion mit dem im Fahrzeug installierten Eingabemechanismus bereitgestellt.Once a transition has been detected, various sensor devices (such as audio, video or haptics) can be triggered. Each of the sensor devices may be associated with a specific output device. Accordingly, the user associated with the hand is provided with a sense-based interaction with the vehicle-mounted input mechanism.

Bestimmte dieser in 1 dargestellten Geräte beinhalten ein Rechnersystem. Das Rechnersystem beinhaltet einen Prozessor (CPU) und einen Systembus, der verschiedene Systemkomponenten, einschließlich eines Systemspeichers, wie eines Festwertspeichers (ROM) und eines Arbeitsspeichers (RAM), mit dem Prozessor koppelt. Andere Systemspeicher können ebenfalls zur Verwendung bereitstehen. Das Rechnersystem kann mehr als einen Prozessor oder eine Gruppe oder einen Cluster an Rechnersystemen beinhalten, die miteinander vernetzt sind, um eine höhere Prozessorleistung bereitzustellen. Der Systembus kann ein beliebiger von verschiedenen Arten von Busstrukturen sein, einschließlich eines Speicherbusses oder einer Speichersteuerung, eines peripheren Busses und eines lokalen Busses, unter Verwendung einer beliebigen einer Vielzahl von Busarchitekturen. Eine einfache im ROM gespeicherte Eingabe/Ausgabe (BIOS) oder dergleichen kann grundlegende Routinen bereitstellen, die helfen, Informationen zwischen Elementen im Rechnersystem zu übertragen, wie während des Hochfahrens. Das Computersystem beinhaltet ferner Datenspeicher, die eine Datenbank gemäß bekannten Datenbankverwaltungssystemen verwalten können. Die Datenspeicher können in vielen Formen ausgeführt sein, wie einem Festplattenlaufwerk, einem Magnetdiskettenlaufwerk, einem optischen Laufwerk, einem Bandlaufwerk oder einer anderen Art von computerlesbarem Medium, das Daten speichern kann, auf die der Prozessor zugreifen kann, wie Magnetkassetten, Flach-Speicherkarten, DVDs, Endlosbandkassetten, Arbeitsspeicher (RAM) und Festwertspeicher (ROM). Die Datenspeicher können über eine Treiberschnittstelle mit dem Systembus verbunden sein. Die Datenspeicher stellen nichtflüchtiges Speichern von computerlesbaren Anweisungen, Datenstrukturen, Programmmodulen und anderen Daten für das Rechnersystem bereit.Certain of these in 1 shown devices include a computer system. The computer system includes a processor (CPU) and a system bus that couples various system components, including a system memory such as read-only memory (ROM) and random access memory (RAM), to the processor. Other system memory may also be available for use. The computing system may include more than one processor or a cluster or cluster of computing systems that are networked together to provide higher processor performance. The system bus may be any of various types of bus structures, including a memory bus or memory controller, a peripheral bus, and a local bus using any of a variety of bus architectures. A simple ROM stored input / output (BIOS) or the like may provide basic routines that help to transfer information between elements in the computer system, such as during startup. The computer system also includes data stores that can manage a database according to known database management systems. The data stores may be in many forms, such as a hard disk drive, a magnetic disk drive, an optical drive, a tape drive, or other type of computer readable medium that can store data that the processor can access, such as magnetic cassettes, flat memory cards, DVDs , Endless tape cassettes, random access memory (RAM) and read-only memory (ROM). The data memories can be connected to the system bus via a driver interface. The data stores provide nonvolatile storage of computer readable instructions, data structures, program modules, and other data for the computer system.

Um Interaktion mit einem menschlichen Benutzer (und in einigen Fällen einer Maschine) zu ermöglichen, kann das Rechnergerät ein Eingabegerät beinhalten, wie ein Mikrofon für Sprache und Audio, einen berührungsempfindlichen Bildschirm für Gesten- oder Grafikeingabe, eine Tastatur, eine Maus, eine Bewegungseingabe und so weiter. Ein Ausgabegerät kann eine oder mehrere einer Mehrzahl an Ausgabemechanismen beinhalten. In einigen Fällen ermöglichen es multimodale Systeme einem Benutzer, mehrere Arten von Eingabe bereitzustellen, um mit dem Rechnersystem zu kommunizieren. Eine Kommunikationsschnittstelle ermöglicht es allgemein dem Rechnergerätsystem, unter Verwendung verschiedener Kommunikations- und Netzwerkprotokolle mit einem oder mehreren anderen Rechnergerät(en) zu kommunizieren.To facilitate interaction with a human user (and in some cases, a machine), the computing device may include an input device such as a voice and audio microphone, a touch screen for gesture or graphic input, a keyboard, a mouse, a motion input, and so on. An output device may include one or more of a plurality of output mechanisms. In some cases, multimodal systems allow a user to provide multiple types of input to communicate with the computer system. A communication interface generally allows the computing device system to communicate with one or more other computing devices using various communications and network protocols.

Die obige Offenbarung bezieht sich auf eine Mehrzahl an Ablaufdiagrammen und beigefügte Beschreibungen, um die in 3 dargestellten Ausführungsformen darzustellen. Die offenbarten Geräte, Komponenten und Systeme sehen die Verwendung oder Implementierung jeder beliebigen geeigneten Technik zum Durchführen der in diesen Abbildungen dargestellten Schritte vor. 3 dient demnach ausschließlich zu darstellenden Zwecken und die beschriebenen oder ähnliche Schritte können zu jedem beliebigen geeigneten Zeitpunkt durchgeführt werden, einschließlich gleichzeitig, einzeln oder in Kombination. Zusätzlich können viele der Schritte in diesen Ablaufdiagrammen gleichzeitig und/oder in anderen Reihenfolgen stattfinden, als dargestellt und beschrieben ist. Ferner können die offenbarten Systeme Prozesse und Verfahren mit zusätzlichen, weniger und/oder anderen Schritten verwenden.The above disclosure is directed to a plurality of flowcharts and accompanying descriptions to provide for in 3 represent illustrated embodiments. The disclosed devices, components and systems contemplate the use or implementation of any suitable technique for performing the steps illustrated in these figures. 3 Accordingly, it is for illustrative purposes only and the described or similar steps may be performed at any convenient time, including concurrently, individually or in combination. In addition, many of the steps in these flowcharts may occur concurrently and / or in different orders than shown and described. Further, the disclosed systems may utilize processes and methods with additional, fewer, and / or different steps.

Die hierin offenbarten Ausführungsformen können in digitalen elektronischen Schaltungen oder in Computersoftware, Firmware oder Hardware implementiert sein, einschließlich der hierin offenbarten Strukturen und ihrer Elemente. Einige Ausführungsformen können als ein oder mehrere Computerprogramm(e) implementiert sein, d. h. ein oder mehrere Modul(e) von Computerprogrammanweisungen, kodiert auf einem greifbaren Computerspeichermedium, zum Ausführen durch einen oder mehrere Prozessor(en). Ein Computerspeichermedium kann ein computerlesbares Speichergerät, ein computerlesbares Speichersubstrat oder ein Arbeitsspeicher oder serieller Zugriffsspeicher sein oder in diesem enthalten sein. Das Computerspeichermedium kann außerdem ein oder mehrere separate greifbare Komponente(n) oder Medien wie mehrere CDs, Platten oder andere Speichergeräte sein oder in diesen enthalten sein. Das Computerspeichermedium beinhaltet kein transitorisches Signal.The embodiments disclosed herein may be implemented in digital electronic circuits or in computer software, firmware, or hardware, including the structures and their elements disclosed herein. Some embodiments may be implemented as one or more computer program (s), i. H. one or more modules of computer program instructions encoded on a tangible computer storage medium for execution by one or more processors. A computer storage medium may be or may be included in a computer readable storage device, a computer readable storage substrate, or a random access memory or serial access memory. The computer storage medium may also be or include one or more separate tangible component (s) or media such as multiple CDs, disks, or other storage devices. The computer storage medium contains no transitory signal.

Im hier verwendeten Sinne umfasst die Bezeichnung Prozessor alle Arten von Vorrichtungen, Geräten und Maschinen zum Verarbeiten von Daten, einschließlich beispielsweise eines programmierbaren Prozessors, eines Computers, eines Systems auf einem Chip oder mehrerer oder Kombinationen der vorangehenden. Der Prozessor kann spezielle Logikschaltungen beinhalten, z. B. ein FPGA (Field Programmable Gate Array) oder eine ASIC (anwendungsspezifische integrierte Schaltung). Der Prozessor kann zusätzlich zu Hardware außerdem Code beinhalten, der eine Ausführumgebung für ein jeweiliges Computerprogramm erzeugt, z. B. Code, der Prozessor-Firmware konstituiert, einen Protokollstapel, ein Datenbankverwaltungssystem, ein Betriebssystem, eine plattformübergreifende Ausführumgebung, eine virtuelle Maschine oder eine Kombination einer oder mehrerer von ihnen.As used herein, the term processor includes all types of devices, devices, and machines for processing data, including, for example, a programmable processor, a computer, a system on a chip or more, or combinations of the foregoing. The processor may include special logic circuits, e.g. As an FPGA (Field Programmable Gate Array) or an ASIC (application-specific integrated circuit). The processor may also include, in addition to hardware, code that generates an execution environment for a particular computer program, e.g. Code constituting processor firmware, a protocol stack, a database management system, an operating system, a cross-platform execution environment, a virtual machine, or a combination of one or more of them.

Ein Computerprogramm (auch als Programm, Modul, Engine, Software, Softwareanwendung, Skript oder Code bekannt) kann in jeder beliebigen Form von Programmiersprache geschrieben sein, einschließlich kompilierter oder interpretierter Sprache, deklarativer oder Verfahrenssprachen, und das Programm kann in jeder beliebigen Form eingesetzt werden, einschließlich als alleinstehendes Programm oder als Modul, Komponenten, Subroutine, Objekt oder jede andere Einheit, die für die Verwendung in einer Rechnerumgebung geeignet ist. Ein Computerprogramm kann einer Datei in einem Dateisystem entsprechen, was allerdings nicht zwingend ist. Ein Computerprogramm kann in einem Abschnitt einer Datei, die andere Programme oder Daten enthält (z. B. ein oder mehrere Skript(e), das/die in einem Auszeichnungssprachendokument gespeichert ist/sind), in einer einzigen Datei, die dem jeweiligen Programm zugeordnet ist oder in mehreren koordinierten Dateien (z. B. Dateien, die ein oder mehrere Modul(e), Unterprogramm(e) oder Codeabschnitt speichert/speichern) gespeichert sein. Ein Computerprogramm kann eingesetzt werden, um auf einem Computer oder mehreren Computern ausgeführt zu werden, die sich an einem Standort oder verteilt über mehrere Standorte und durch ein Kommunikationsnetzwerk verbunden befinden können.A computer program (also known as a program, module, engine, software, software application, script or code) may be written in any form of programming language, including compiled or interpreted language, declarative or procedural languages, and the program may be used in any form including as a stand-alone program or as a module, component, subroutine, object or any other device suitable for use in a computing environment. A computer program may correspond to a file in a file system, but this is not mandatory. A computer program may be stored in a portion of a file containing other programs or data (eg, one or more scripts stored in a markup language document) in a single file associated with the particular program or is stored in multiple coordinated files (eg, files that store / store one or more modules, subprograms, or sections of code). A computer program may be used to run on one or more computers that may be located at one site or distributed over multiple sites and through a communications network.

Um eine Interaktion mit einer Person bereitzustellen, können die hierin offenbarten Ausführungsformen unter Verwendung einer interaktiven Anzeige, wie einer Grafikbenutzerschnittstelle (GUI), implementiert werden. Derartige GUIs können interaktive Funktionen beinhalten, wie Popup- oder Dropdown-Menüs oder Listen, Auswahlelemente, scannbare Merkmale und andere Merkmale, die menschliche Eingaben empfangen können.To provide for interaction with a person, the embodiments disclosed herein may be implemented using an interactive display, such as a graphical user interface (GUI). Such GUIs may include interactive functions such as pop-up or drop-down menus or lists, selection items, scannable features, and other features that may receive human input.

Das hierin offenbarte Rechnersystem kann Clients und Server beinhalten. Ein Client und Server befinden sich allgemein entfernt voneinander und interagieren typischerweise über ein Kommunikationsnetzwerk. Das Verhältnis von Client und Server entsteht dadurch, dass Computersysteme auf den entsprechenden Computern ausgeführt werden und in einem Client-Server-Verhältnis zueinander stehen. In einigen Ausführungsformen überträgt ein Server Daten (z. B. eine HTML-Seite) an ein Client-Gerät (z. B. zwecks Anzeigen von Daten an einen Benutzer und Empfangen von Benutzereingabe von einem Benutzer, der mit dem Client-Gerät interagiert). Daten, die im Client-Gerät erzeugt werden (z. B. ein Ergebnis der Benutzerinteraktion), können von dem Client-Gerät am Server empfangen werden.The computer system disclosed herein may include clients and servers. A client and server are generally remote from each other and typically interact over a communications network. The relationship between client and server arises because computer systems are running on the respective computers and have a client-server relationship. In some embodiments, a server transmits data (eg, an HTML page) to a client device (eg, for displaying data to a user and receiving user input from a user interacting with the client device). , Data generated in the client device (eg, a result of user interaction) may be received by the client device at the server.

Für Fachleute ist ersichtlich, dass verschiedene Modifikationen und Variationen an der vorliegenden Erfindung vorgenommen werden können, ohne vom Geist oder Umfang der Erfindung abzuweichen. Demnach soll die vorliegende Erfindung die Modifikationen und Variation dieser Erfindung abdecken, sofern sie in den Umfang der beigefügten Ansprüche und ihrer Äquivalente fallen.It will be apparent to those skilled in the art that various modifications and variations can be made to the present invention without departing from the spirit or scope of the invention. Accordingly, the present invention is intended to cover the modifications and variations of this invention provided they come within the scope of the appended claims and their equivalents.

Claims (20)

System zum Anzeigen eines Übergangs von einer gestenbasierten Eingabe zu einer Touch-Oberfläche, das Folgendes umfasst: einen Erkennungsmonitor, der mit einem Erkennungsgerät gekoppelt ist, um den Übergang zu erkennen; und einen Alarmsender, um basierend auf dem Erkennen ein Ausgabegerät zu alarmieren, wobei die gestenbasierte Eingabe eine kontaktlose Schnittstelle ist, die mit einem elektronischen System verknüpft ist, und eine Touch-Oberfläche eine Kontaktschnittstelle ist, die mit dem elektronischen System verknüpft ist.A system for displaying a transition from a gesture-based input to a touch surface, comprising: a detection monitor coupled to a recognition device to detect the transition; and an alarm transmitter for alerting an output device based on the recognition, wherein the gesture-based input is a contactless interface associated with an electronic system, and a touch interface is a contact interface associated with the electronic system. System nach Anspruch 1, wobei das Erkennungsgerät ein Videoaufnahmegerät ist.The system of claim 1, wherein the recognition device is a video capture device. System nach Anspruch 2, wobei das Videoaufnahmegerät einen vorgegebenen Bereich überwacht, der die Touch-Oberfläche umgibt.The system of claim 2, wherein the video capture device monitors a predetermined area surrounding the touch surface. System nach Anspruch 1, wobei der Übergang als Reaktion auf das Positionieren eines Körperglieds, das mit der gestenbasierten Eingabe verknüpft ist, in einem vorgegebenen Abstand von der Touch-Oberfläche erkannt wird.The system of claim 1, wherein the transition is detected in response to the positioning of a body member associated with the gesture-based input at a predetermined distance from the touch surface. System nach Anspruch 1, das ferner einen Alarmfunktionsabrufer umfasst, um einen Alarmtyp abzurufen, wobei der Alarmtyp mit dem Ausgabegerät verknüpft ist.The system of claim 1, further comprising an alert handler to retrieve an alert type, the alert type associated with the dispenser. System nach Anspruch 5, wobei der Alarmtyp als eine haptische Reaktion definiert ist.The system of claim 5, wherein the alarm type is defined as a haptic response. System nach Anspruch 5, wobei der Alarmtyp als ein Audiogeräusch definiert ist.The system of claim 5, wherein the alarm type is defined as an audio noise. System nach Anspruch 5, wobei der Alarmtyp als ein visueller Hinweis definiert ist.The system of claim 5, wherein the alert type is defined as a visual cue. System nach Anspruch 8, wobei der visuelle Hinweis eine beleuchtete Markierung auf der Touch-Oberfläche ist.The system of claim 8, wherein the visual indication is an illuminated mark on the touch surface. System nach Anspruch 8, wobei der visuelle Hinweis ein projiziertes Licht auf einem mit der gestenbasierten Eingabe verknüpften Körperglied ist.The system of claim 8, wherein the visual indication is a projected light on a body member associated with the gesture-based input. Verfahren zum Anzeigen eines Übergangs von einer gestenbasierten Eingabe zu einer Touch-Oberfläche, das Folgendes umfasst: Erkennen, dass ein Körperglied, das mit der gestenbasierten Eingabe verknüpft ist, von einer kontaktlosen Position in eine Kontaktposition übergeht, wobei die kontaktlose Position mit der gestenbasierten Eingabe verknüpft ist und die Kontaktposition mit der Touch-Oberfläche verknüpft ist; und Übertragen einer Alarmfunktion basierend auf dem Erkennen, wobei wenigstens eins vom Erkennen und Übertragen auf einem Prozessor ausgeführt wird.A method of displaying a transition from a gesture-based input to a touch surface, comprising: Recognizing that a body member associated with the gesture-based input transitions from a non-contact position to a contact position, wherein the non-contact position is associated with the gesture-based input and the contact position is associated with the touch surface; and Transmitting an alarm based on the detection, wherein at least one of recognizing and transmitting is performed on a processor. Verfahren nach Anspruch 11, wobei das Erkennen durch ein Videoaufnahmegerät ausgeführt wird.The method of claim 11, wherein the recognition is performed by a video capture device. Verfahren nach Anspruch 12, wobei das Videoaufnahmegerät einen vorgegebenen Bereich überwacht, der die Touch-Oberfläche umgibt.The method of claim 12, wherein the video capture device monitors a predetermined area surrounding the touch surface. Verfahren nach Anspruch 11, wobei der Übergang als Reaktion auf das Positionieren in einem vorgegebenen Abstand von der Touch-Oberfläche erkannt wird.The method of claim 11, wherein the transition is detected in response to the positioning a predetermined distance from the touch surface. Verfahren nach Anspruch 1, das ferner das Abrufen eines Alarmfunktionsabrufers umfasst, um einen Alarmtyp abzurufen, wobei der Alarmtyp mit der übertragenen Alarmfunktion verknüpft ist.The method of claim 1, further comprising retrieving an alert function retriever to retrieve an alert type, wherein the alert type is associated with the transmitted alert function. Verfahren nach Anspruch 15, wobei der Alarmtyp als eine haptische Reaktion definiert ist. The method of claim 15, wherein the alarm type is defined as a haptic response. Verfahren nach Anspruch 15, wobei der Alarmtyp als ein Audiogeräusch definiert ist.The method of claim 15, wherein the alarm type is defined as an audio noise. Verfahren nach Anspruch 15, wobei der Alarmtyp als ein visueller Hinweis definiert ist.The method of claim 15, wherein the alert type is defined as a visual cue. Verfahren nach Anspruch 18, wobei der visuelle Hinweis eine beleuchtete Markierung auf der Touch-Oberfläche ist.The method of claim 18, wherein the visual indication is an illuminated mark on the touch surface. Verfahren nach Anspruch 18, wobei der visuelle Hinweis ein projiziertes Licht auf einem mit der gestenbasierten Eingabe verknüpften Körperglied ist.The method of claim 18, wherein the visual indication is a projected light on a body member associated with the gesture-based input.
DE102014119419.5A 2013-12-26 2014-12-22 Display a transition from gesture-based input to touch surfaces Withdrawn DE102014119419A1 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201361920993P 2013-12-26 2013-12-26
US61/920,993 2013-12-26
US14/555,194 US9875019B2 (en) 2013-12-26 2014-11-26 Indicating a transition from gesture based inputs to touch surfaces
US14/555,194 2014-11-26

Publications (1)

Publication Number Publication Date
DE102014119419A1 true DE102014119419A1 (en) 2015-07-02

Family

ID=53372227

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102014119419.5A Withdrawn DE102014119419A1 (en) 2013-12-26 2014-12-22 Display a transition from gesture-based input to touch surfaces

Country Status (1)

Country Link
DE (1) DE102014119419A1 (en)

Similar Documents

Publication Publication Date Title
US20150185845A1 (en) Providing tactle feedback for gesture based inputs
DE112013004801T5 (en) Multimodal touch screen emulator
DE202017104403U1 (en) Detect the user movement area for virtual reality user interfaces
DE102015122513A1 (en) Autonomous driving interface
DE102015106814A1 (en) Data transmission based on identifying information from input devices
DE112018002775T5 (en) METHOD AND DEVICE FOR DETECTING PLANES AND / OR QUADTREES FOR USE AS A VIRTUAL SUBSTRATE
DE202016001024U1 (en) Navigation user interface
DE102013220203A1 (en) System and method for manipulating a user interface in the vehicle using "finger valleys"
DE102011117012A1 (en) DETECTING SLIDING MOVEMENTS OF SEVERAL FINGERS USING FINGERPRINTS FOR GENERATING VARIOUS EVENTS
DE202008000261U1 (en) Multiple Berührungsdatenfussionssystem
DE102019122932A1 (en) TECHNIQUES FOR CONNECTING AN INPUT DEVICE TO A TOUCHSCREEN COMPUTING DEVICE
US20150187143A1 (en) Rendering a virtual representation of a hand
DE202017105614U1 (en) Systems and computer program products for a touchscreen user interface of a collaborative editing tool
DE112011105171T5 (en) Blocking user content based on location
DE102016225554A1 (en) IMPROVING THE ACCURACY OF TOUCH-SENSITIVE DEVICES
DE102013225744A1 (en) SYSTEM AND METHOD FOR EFFECTIVE RANGE DETECTION OF A HANDGESTE
DE102015108004A1 (en) Presenting a user interface on a first device based on detecting a second device in an environment of the first device
DE102020007191A1 (en) Machine learning for digital image selection among object variants
DE102012020607B4 (en) A motor vehicle with a gesture control device and method for controlling a selection element
DE102016106072A1 (en) Source detection of vehicle passenger inputs
DE102019107549A1 (en) Message location based on body location
DE102013000071B4 (en) Synchronizing payload data between a motor vehicle and a mobile terminal
DE102017121342A1 (en) DISPLAY CONTROL DEVICE, DISPLAY CONTROL SYSTEM AND DISPLAY CONTROL METHOD
DE102015101827A1 (en) Providing a multimodal single action interface
DE102017112039A1 (en) INTERRUPTIVE DISPLAY ON AN INDICATION

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: MERH-IP MATIAS ERNY REICHL HOFFMANN PATENTANWA, DE

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee