Nothing Special   »   [go: up one dir, main page]

DE112014002687T5 - Berührungserkennung am rahmenrand - Google Patents

Berührungserkennung am rahmenrand Download PDF

Info

Publication number
DE112014002687T5
DE112014002687T5 DE112014002687.5T DE112014002687T DE112014002687T5 DE 112014002687 T5 DE112014002687 T5 DE 112014002687T5 DE 112014002687 T DE112014002687 T DE 112014002687T DE 112014002687 T5 DE112014002687 T5 DE 112014002687T5
Authority
DE
Germany
Prior art keywords
contact
touch
api
thumb
major axis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE112014002687.5T
Other languages
English (en)
Inventor
Wayne Carl Westerman
Ari Y. BENBASAT
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Inc filed Critical Apple Inc
Publication of DE112014002687T5 publication Critical patent/DE112014002687T5/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • G06F3/04186Touch location disambiguation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • G06F3/0446Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means using a grid-like structure of electrodes in at least two directions, e.g. using row and column electrodes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04108Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Diese Offenbarung behandelt ein Verfahren zum Extrapolieren von Näheinformationen, um eine Randspalte oder -zeile von Berührungsknoten (auch als Berührungspixel bezeichnet) zu erzeugen und anschließend eine Ellipse an die Kontaktstelle einschließlich der extrapolierten Rand-Berührungsknoten anzupassen. Zusätzlich kann ein Kontakt basierend sowohl auf seiner Hauptachse als auch auf seiner Distanz zu einer Kante der berührungssensiblen Fläche als Daumen identifiziert werden.

Description

  • Gebiet der Offenbarung
  • Diese Offenbarung behandelt allgemein elektronische Einrichtungen mit Fähigkeit zur Berührungserkennung.
  • Hintergrund der Offenbarung
  • Bei einem System mit berührungssensiblen System kann ein Nahbild von einer berührungssensiblen Fläche erhalten werden, und das Bild kann in eine Vielzahl von Patches bzw. Flecken segmentiert werden, wobei jedes Patch bzw. jeder Flecken einem Kontakt an oder in der Nähe der berührungssensiblen Fläche entspricht. An jeden der Vielzahl von Flecken kann eine Ellipse angepasst werden. Die Parameter der Ellipse können zum Identifizieren der Kontaktstellen und zur Erzeugung von Eingaben verwendet werden. Wenn eine Kontaktstelle jedoch in der Nähe eines Nahbilds ist, stellt eine angepasste Ellipse möglicherweise nicht das abgetastete Berührungsobjekt dar, von dem ein Teil hinter dem Rand der berührungssensiblen Fläche sein kann.
  • Zusammenfassung der Offenbarung
  • Diese Offenbarung behandelt ein Verfahren zum Extrapolieren von Näheinformationen, um eine Randspalte oder -zeile von Berührungsknoten (auch als Berührungspixel bezeichnet) zu erzeugen und anschließend eine Ellipse an die Kontaktstelle einschließlich der extrapolierten Rand-Berührungsknoten anzupassen. Zusätzlich kann ein Kontakt basierend sowohl auf seiner Hauptachse als auch auf seiner Distanz zu einer Kante der berührungssensiblen Fläche als Daumen identifiziert werden.
  • Kurze Beschreibung der Zeichnungen
  • 1A und 1B stellen beispielhafte Nahbilder einschließlich extrapolierter Randknoten gemäß Beispielen der Offenbarung dar.
  • 2 stellt ein beispielhaftes Verfahren zum Extrapolieren von Randknoten zum Anpassen einer Ellipse gemäß Beispielen der Offenbarung dar.
  • 3 stellt ein Diagramm der Hauptachse eines Kontakts gegen die Distanz von einer Kante einer berührungssensiblen Fläche gemäß Beispielen der Offenbarung dar.
  • 4 stellt ein beispielhaftes Verfahren zum Identifizieren eines Kontakts als Daumen gemäß Beispielen der Offenbarung dar.
  • 5 ist ein Blockdiagramm mit der Darstellung einer beispielhaften API-Architektur, die bei einigen Beispielen der Offenbarung eingesetzt werden kann.
  • 6 stellt einen beispielhaften Software-Stack einer API gemäß Beispielen der Offenbarung dar.
  • 7 ist ein Blockdiagramm mit der Darstellung von beispielhaften Interaktionen zwischen dem Touchscreen und den anderen Komponenten der Einrichtung gemäß Beispielen der Offenbarung.
  • 8 ist ein Blockdiagramm mit der Darstellung einer beispielhaften Systemarchitektur, die bei beliebigen portablen oder nicht portablen Einrichtungen gemäß Beispielen der Offenbarung eingesetzt werden kann.
  • Detaillierte Beschreibung
  • In der folgenden Beschreibung von Beispielen wird auf die beigefügten Zeichnungen Bezug genommen, die Bestandteil der Beschreibung sind und in denen zur Veranschaulichung spezifische Beispiele gezeigt sind, die umgesetzt werden können. Selbstverständlich können andere Beispiele verwendet und strukturelle Änderungen vorgenommen werden, ohne vom Schutzumfang der offengelegten Beispiele abzuweichen.
  • Obwohl hierin offengelegte Beispiele hier primär anhand der kapazitiven Berührungs- und Naherkennung beschrieben und dargestellt sein können, sind die Beispiele selbstverständlich nicht diesbezüglich eingeschränkt, sondern auch auf andere Technologien der Berührungserkennung anwendbar, einschließlich derer, die ausschließlich Kraft erkennen und/oder resistive Berührungserkennung verwenden. Beispielsweise kann ein „Nahbild” entsprechend der Erörterung hierin ein Abbild der Kapazität oder des Widerstands und/oder neben anderen Möglichkeiten ein Abbild der Kraft sein. Zudem können die hierin offengelegten Verfahren, obwohl Beispiele primär anhand von Spalten erörtert werden, auch basierend auf Zeilen verwendet werden.
  • Bei einem berührungssensiblen System kann ein Nahbild von einer berührungssensiblen Fläche erhalten werden, und das Bild kann in eine Vielzahl von Flecken segmentiert werden, wobei jeder Flecken einem Kontakt an oder in der Nähe der berührungssensiblen Fläche entspricht. An jeden der Vielzahl von Flecken kann eine Ellipse angepasst werden. Die Parameter der Ellipse können zum Identifizieren der Kontaktstellen und zur Erzeugung von Eingaben verwendet werden. Beispielsweise kann eine Kontaktstelle auf der Basis einer Länge einer Hauptachse der angepassten Ellipse als Daumen identifiziert werden. Wenn eine Kontaktstelle jedoch in der Nähe eines Nahbilds ist, stellt eine angepasste Ellipse möglicherweise nicht das abgetastete Berührungsobjekt dar, von dem ein Teil hinter dem Rand der berührungssensiblen Fläche sein kann.
  • 1A und 1B zeigen ein Verfahren zum Extrapolieren von Näheinformationen, um eine Randspalte oder -zeile von Berührungsknoten (auch als Berührungspixel bezeichnet) zu erzeugen und anschließend eine Ellipse an die Kontaktstelle einschließlich der extrapolierten Rand-Berührungsknoten anzupassen.
  • In 1A ist ein Umriss eines Daumens gezeigt, und die Berührungsknoten der Kontaktstelle, die dem Daumen entsprechen, sind in der Randspalte C1 und der benachbarten Spalte C2 gezeigt. Die Schwerpunkte y1 und y2 der Spalten C1 bzw. C2 können berechnet und extrapoliert werden, um y0, einen extrapolierten Schwerpunkt für eine Randspalte C0, zu bestimmen. Die Berührungsknoten in Spalte C1 des Daumenfleckens können in Spalte C0 kopiert und verschoben werden, sodass der Schwerpunkt bei y0 liegt. Zusätzlich können die Summen Sum1 und Sum2 der Berührungsknoten in Spalte C1 bzw. C2 berechnet und extrapoliert werden, um Sum0 zu bestimmen, und die in Spalte C0 kopierten Berührungsknoten können auf der Basis der extrapolierten Sum0 entsprechend skaliert werden. Bei einigen Beispielen können die Berührungsknoten in Spalte C0 weiter nach unten skaliert werden (in diesem Fall 1/3), um Unsicherheiten bei der Extrapolation zu berücksichtigen.
  • In 1B ist der Algorithmus anhand eines Nahbilds der Kapazität dargestellt und beschrieben. Das heißt, dass jeder Berührungsknoten ein Kapazitätswert ist, der die Nähe eines Kontakts zum betreffenden Berührungsknoten darstellt. 1B zeigt bei (1) auch, wie ein Fingerabdruck, der die Kante der berührungssensiblen Fläche überschneidet, ein irreführendes Nahbild erzeugen kann. Bei (2a)–(4) ist der Umriss des eigentlichen Fingerabdrucks als gepunktete Linie dargestellt. Nach dem Extrapolieren der Randpixel gibt die bei (4) als durchgehende Linie geschätzte Ellipse den bei (1) gezeigten tatsächlichen Fingerabdruck genauer wieder.
  • 1B zeigt auch eine geschätzte triviale Ellipse 100 von den anfänglichen Berührungsknoten ohne Extrapolation, eine geschätzte extrapolierte Ellipse 102 von den Berührungsknoten einschließlich der über die Extrapolation hinzugefügten zusätzlichen Randknoten und den Umriss des tatsächlichen Fingerabdrucks 104. Die triviale Ellipse 100 hat eine kürzere Hauptachse und eine längere Nebenachse und ihre Orientierungspunkte sind näher an der Spitze des Nahbilds als die der Ellipse des Umrisses des tatsächlichen Fingerabdrucks 104. Dagegen hat die extrapolierte Ellipse 102 eine längere Hauptachse als die triviale Ellipse 100, und ihre Ausrichtung ist viel näher an der Ausrichtung des tatsächlichen Fingerabdrucks 104. Wie ersichtlich ist, ermöglicht die Berücksichtigung der extrapolierten Randknoten eine geschätzte Ellipse mit genaueren Parametern in Bezug auf das abgetastete Berührungsobjekt.
  • 2 stellt ein beispielhaftes Verfahren zum Extrapolieren von Randknoten zum Anpassen einer Ellipse gemäß Beispielen der Offenbarung dar. Ein Nahbild kann erhalten und in eine Vielzahl von Flecken (200) segmentiert werden. Ein erster Flecken der Vielzahl kann einen oder mehrere Berührungsknoten in einer Kantenspalte des Nahbilds aufweisen. Zusätzlich kann der erste Flecken der Vielzahl einen oder mehrere Berührungsknoten in Spalte neben der Kantenspalte aufweisen.
  • Ein Schwerpunkt der Kantenspalte des einen oder der mehreren Berührungsknoten des ersten Fleckens in der Kantenspalte kann bestimmt werden (202). Eine Berechnung des Schwerpunkts ist ähnlich der Berechnung eines Masseschwerpunkts. Beispielsweise kann ein Schwerpunkt als gewichteter Durchschnitt der Positionen des einen oder der mehreren Berührungsknoten berechnet werden, wobei jede Position mit dem relativen Näherungswert des Berührungsknotens an der betreffenden Position gewichtet wird. Ein Schwerpunkt einer benachbarten Spalte des einen oder der mehreren Berührungsknoten des ersten Fleckens in der benachbarten Spalte kann auf ähnliche Weise bestimmt werden (204).
  • Der eine oder die mehreren Berührungsknoten des ersten Fleckens in der Kantenspalte können in eine Randspalte kopiert und um eine Extrapolation des Schwerpunkts der Kantenspalte und des Schwerpunkts der benachbarten Spalte versetzt werden (206). Bei einigen Beispielen können die Schwerpunkte durch Subtrahieren des Schwerpunkts der benachbarten Spalte vom Schwerpunkt der Kantenspalte extrapoliert werden, um einen Versatzwert zu erhalten. Die in die Randspalte kopierten Berührungsknoten können anschließend auf der Basis des Versatzwerts verschoben werden. Bei einigen Beispielen kann der Versatzwert eine Ganzzahl sein, oder er kann auf eine Ganzzahl abgerundet sein, sodass jeder der Berührungsknoten auf der Basis des Versatzwerts trivial verschoben werden kann.
  • Bei einigen Beispielen kann der Versatzwert auch keine Ganzzahl sein, wobei das Verschieben der kopierten Berührungsknoten in die Randspalte das Interpolieren der Berührungsknoten auf der Basis des Versatzwerts einschließt. Falls der Versatzwert beispielsweise 0,6 ist, können für jeden Berührungsknoten 60% des Näherungswerts des Berührungsknotens bis zum nächsten Berührungsknoten verschoben werden, und 40% des Näherungswerts können im Berührungsknoten verbleiben. Die verbleibenden 40% können zu den 60% des unteren Berührungsknotens addiert werden, der nach oben verschoben wird. Bei einigen Beispielen können andere Verfahren der Interpolation von Berührungsknoten auf der Basis eines nicht ganzzahligen Versatzwerts verwendet werden.
  • Der eine oder die mehreren Berührungsknoten des ersten Fleckens in der Kantenspalte können summiert werden, um eine Kantensumme zu erhalten. Dies kann das Summieren der Näherungswerte des einen oder der mehreren Berührungsknoten einschließen. Auf ähnliche Weise können der eine oder die mehreren Berührungsknoten des ersten Fleckens in der benachbarten Spalte summiert werden, um eine benachbarte Summe zu erhalten. Die Berührungsknoten in der Randspalte können anschließend auf der Basis einer Extrapolation der Kantensumme und der benachbarten Summe skaliert werden (208). Die Berührungsknoten in der Randspalte können skaliert werden, sodass die Summe der Näherungswerte der Berührungsknoten in der Randspalte gleich der Extrapolation der Kantensumme und der benachbarten Summe ist. Bei einigen Beispielen kann die Extrapolation eine lineare Extrapolation des Kurvenverlaufs der benachbarten Summe zur Kantensumme sein. Bei anderen Beispielen kann die Extrapolation eine logistische Extrapolation des Kurvenverlaufs der benachbarten Summe zur Kantensumme sein, wie z. B. eine Extrapolation auf der Basis einer Sigmoid-Funktion.
  • Eine Ellipse kann an den ersten Flecken einschließlich der Berührungsknoten der Randspalte angepasst werden (210). Bei einigen Beispielen kann das Anpassen einer Ellipse das Bestimmen der Parameter der Ellipse einschließen, wie z. B. eine Hauptachse, einer Nebenachse und einem Ausrichtungswinkel der Ellipse.
  • Wie weiter oben erörtert, kann ein Kontakt auf der Basis der Länge der Hauptachse der an den Kontakt angepassten Ellipse als Daumen identifiziert werden. Ein Kontakt, der die Kante der berührungssensiblen Fläche überragt, kann jedoch eine kürzere Hauptachse haben, sodass es gegebenenfalls nicht möglich ist, ihn als Daumen zu identifizieren, bis sich der größte Teil des Kontakts auf die berührungssensible Fläche bewegt.
  • 3 stellt ein Diagramm einer Hauptachse eines Kontakts gegen die Distanz von einer Kante einer berührungssensiblen Fläche dar. Wenn ein Kontakt genau auf der Kante der berührungssensiblen Fläche liegt, ist die Hauptachse des Kontakts sehr kurz, doch bei der Bewegung des Kontakts von der Kante, wobei ein größerer Teil des Kontakts die Fläche berührt, erhöht sich die Länge der Hauptachse, bis sie sich bei der tatsächlichen Länge der Hauptachse des vollständigen Kontakts stabilisiert. Die gepunktete Linie 300 stellt eine mögliche Schwellenlänge der Hauptachse dar, oberhalb derer der Kontakt als Daumen identifiziert wird. Die Kurve 302 stellt die Beziehung zwischen Hauptachse und Distanz von der Kante für einen allgemeinen Fingerkontakt dar. Die Kurve 306 stellt die Beziehung zwischen Hauptachse und Distanz von der Kante für einen Daumenkontakt dar.
  • Die Kurve 304 gibt ein Referenz-Daumenprofil wieder, das zum Identifizieren eines Kontakts als Daumen verwendet werden kann. Die Hauptachse und die Distanz von der Kante können für einen Kontakt über eine Reihe von Zeitschritten überwacht werden, und die Fläche zwischen der Kurve für einen Kontakt und dem Referenz-Daumenprofil 304 kann integriert und akkumuliert werden. Wenn der integrierte Wert positiv bleibt, wie dies bei Kurve 306 der Fall wäre, kann der dazugehörige Kontakt als Daumen identifiziert werden. Wenn der integrierte Wert negativ bleibt, wie dies bei Kurve 302 der Fall wäre, kann bestimmt werden, dass der dazugehörige Kontakt kein Daumen ist. Dieses Verfahren kann hinreichend robust sein, denn selbst, wenn ein Nicht-Daumen-Kontakt nahe an der Kante eine ungewöhnlich lange Hauptachse hat, nimmt die Hauptachse bei der Bewegung von der Kante weg langsam zu, und es akkumuliert sich eine ausreichende negative Fläche, sodass der Kontakt nicht als Daumen identifiziert wird. Bei einigen Beispielen kann der integrierte Wert akkumuliert werden und der Kontakt kann sich nicht identifizieren lassen, bis, neben anderen Möglichkeiten, eine Zeitschwelle oder eine Distanzschwelle von der Kante überschritten ist.
  • 4 stellt ein beispielhaftes Verfahren zum Identifizieren eines Kontakts als Daumen dar, auf der Basis der Hauptachse des Kontakts und der Distanz des Kontakts von einer Kante der berührungssensiblen Fläche. Eine Hauptachse eines Kontakts und eine Distanz des Kontakts von der Kante der berührungssensiblen Fläche können erhalten werden (400).
  • Auf der Basis eines Daumenprofils kann eine Referenz-Hauptachse eines Daumenkontakts an der erhaltenen Distanz bestimmt werden (402). Ein Daumenprofil kann entsprechend der Darstellung in 3 einfach eine Abbildung von Distanzen zu Hauptachswerten 3. Die Bestimmung der Referenz-Hauptachse kann das Erhalten der Referenz-Hauptachse aus dem Daumenprofil auf der Basis der erhaltenen Distanz des Kontakts von der Kante der berührungssensiblen Fläche einschließen.
  • Der Kontakt kann auf der Basis der Referenz-Hauptachse und der Hauptachse des Kontakts als Daumen identifiziert werden (404). Beispielsweise können die Referenz-Hauptachse und die Hauptachse des Kontakts verwendet werden, um die Fläche zwischen einer Kurve für den Kontakt und einer Kurve für das Daumenprofil zu integrieren, wie dies mit Bezug auf 3 beschrieben ist. Wenn der integrierte Wert positiv ist, kann der Kontakt als Daumen identifiziert werden.
  • Bei einigen Beispielen kann die Referenz-Hauptachse von der Hauptachse des Kontakts subtrahiert werden, um eine Achsendifferenz zu erhalten. Bei einem Beispiel kann der Kontakt als Daumen identifiziert werden, wenn die Achsendifferenz positiv ist. Bei anderen Beispielen kann die Achsendifferenz zu einer Summe von Achsendifferenzen aus vorangegangenen Zeitschritten addiert werden. Der Kontakt kann als Daumen identifiziert werden, wenn die Summe der Achsendifferenzen positiv ist.
  • Die oben erörterten Beispiele können in einer oder mehreren Anwendungs-Programmierschnittstellen (API) implementiert werden. Eine API ist eine durch eine Programmcode-Komponente oder Hardwarekomponente (im Folgenden „API-Implementierungskomponente”) implementierte Schnittstelle, die es einer anderen Programmcode-Komponente (im Folgenden „API-Aufrufkomponente”) ermöglicht, auf eine oder mehrere Funktionen, Verfahren, Prozeduren, Datenstrukturen, Klassen und/oder andere durch die API-Implementierungskomponente bereitgestellte Dienste zuzugreifen und sie zu nutzen. Eine API kann einen oder mehrere Parameter definieren, die zwischen der API-Aufrufkomponente und der API-Implementierungskomponente weitergegeben werden.
  • Die vorstehend beschriebenen Merkmale können als Teil einer Anwendungsprogrammschnittstelle (API) implementiert sein, die deren Übernahme in unterschiedlichen Anwendungen (z. B. Tabellenkalkulationsanwendungen) ermöglichen kann, wobei die Touchscreen-Eingabe als Eingabemechanismus verwendet wird. Eine API kann es einem Entwickler einer API-Aufrufkomponente (der ein Entwickler eines Dritten sein kann) ermöglichen, angegebene Merkmale wie die weiter oben beschriebenen, die durch eine API-Implementierungskomponente bereitgestellt werden, zu forcieren. Es kann eine einzelne API-Aufrufkomponente oder mehr als eine derartige Komponente geben. Bei einer API kann es sich um eine Quellcode-Schnittstelle handeln, die ein Computersystem oder eine Programmbibliothek bereitstellt, um Dienstanforderungen einer Softwareanwendung zu unterstützen. Ein Betriebssystem (OS) kann mehrere APIs haben, um es unter dem OS laufenden Anwendungen zu ermöglichen, eine oder mehrere dieser APIs aufrufen, und ein Dienst (wie z. B. eine Programmbibliothek) kann mehrere APIs haben, um es einer Anwendung, die den Dienst verwendet, zu ermöglichen, eine oder mehrere dieser APIs aufzurufen. Eine API kann mittels einer Programmiersprache ausgedrückt sein, die bei der Erstellung einer Anwendung interpretiert oder kompiliert wird.
  • Bei einigen Beispielen kann die API-Implementierungskomponente mehr als eine API bereitstellen, wobei jede eine unterschiedliche Sicht der durch die API-Implementierungskomponente implementierten Funktionalität bereitstellt, oder mit unterschiedlichen Aspekten, die auf unterschiedliche Aspekte der durch die API-Implementierungskomponente implementierten Funktionalität zugreifen. Beispielsweise kann eine API einer API-Implementierungskomponente eine erste Gruppe von Funktionen bereitstellen, und sie kann Entwicklern von Dritten offenstehen, und eine andere API der API-Implementierungskomponente kann verborgen (nicht offengelegt) sein und eine Untermenge der ersten Funktionsgruppe bereitstellen und auch eine weitere Gruppe von Funktionen bereitstellen, wie z. B. Test- oder Debugging-Funktionen, die sich nicht in der ersten Funktionsgruppe finden. Bei anderen Beispielen kann die API-Implementierungskomponente selbst über eine zugrundeliegende API eine oder mehrere Komponenten aufrufen und somit sowohl eine API-Aufrufkomponente als auch eine API-Implementierungskomponente sein.
  • Eine API definiert die Sprache und die Parameter, die API-Aufrufkomponenten verwenden, wenn sie auf festgelegte Funktionen der API-Implementierungskomponente zugreifen und diese nutzen. Beispielsweise greift eine API-Aufrufkomponente durch einen oder mehrere API-Aufrufe oder -Abrufe (beispielsweise als Teil von Funktions- oder Methodenaufrufen) auf die angegebenen Merkmale der API-Implementierungskomponente zu, die durch die API exponiert werden, und leitet Daten- und Steuerinformationen unter Verwendung von Parametern über die API-Aufrufe oder -Abrufe weiter. Die API-Implementierungskomponente kann als Reaktion auf einen API-Aufruf von einer API-Aufrufkomponente einen Wert durch die API ausgeben. Während die API die Syntax und das Ergebnis eines API-Aufrufs definiert (z. B. wie der API-Aufruf aufzurufen ist und was der API-Aufruf tut), legt die API gegebenenfalls nicht offen, wie der API-Aufruf die durch den API-Aufruf festgelegte Funktion erreicht. Verschiedene API-Aufrufe werden über die eine oder die mehreren Anwendungsprogrammierschnittstellen zwischen der aufrufenden API-Aufrufkomponente und einer API-Implementierungskomponente übermittelt. Die Übermittlung der API-Aufrufe kann die Ausgabe, die Initiierung, den Aufruf, den Abruf, den Empfang, die Rückmeldung oder die Beantwortung der Funktionsaufrufe oder Meldungen einschließen; das heißt, dass die Übermittlung Vorgänge entweder mittels der API-Aufrufkomponente oder über die API-Implementierungskomponente beschreiben kann. Die Funktionsaufrufe oder sonstigen Abrufe der API können einen oder mehrere Parameter durch eine Parameterliste oder eine andere Struktur senden oder empfangen. Ein Parameter kann eine Konstante, ein Schlüssel, eine Datenstruktur, ein Objekt, eine Objektklasse, eine Variable, ein Datentyp, ein Zeiger, ein Array, eine Liste oder ein Zeiger auf eine Funktion oder ein Verfahren oder eine Art des Verweises auf Daten oder ein sonstiges über die API zu übermittelndes Objekt sein.
  • Weiter können Datentypen oder -klassen durch die API bereitgestellt und durch die API-Implementierungskomponente implementiert werden. Die API-Aufrufkomponente kann somit Variablen erklären, Zeiger verwenden, konstante Werte derartiger Typen oder Klassen verwenden oder instantiieren, indem in der API bereitgestellte Definitionen verwendet werden.
  • Allgemein kann eine API verwendet werden, um auf von der API-Implementierungskomponente bereitgestellte Dienste oder Daten zuzugreifen oder um die Ausführung von durch die API-Implementierungskomponente bereitgestellten Vorgängen oder Berechnungen zu initiieren. Beispielsweise kann es sich bei der API-Implementierungskomponente und der API-Aufrufkomponente jeweils um ein Betriebssystem, eine Bibliothek, einen Gerätetreiber, eine API, ein Anwendungsprogramm oder ein anderes Modul handeln (es versteht sich, dass es sich bei der API-Implementierungskomponente und der API-Aufrufkomponente um dieselben oder sich voneinander unterscheidende Typen von Modulen handeln kann). API-Implementierungskomponenten können in einigen Fällen zumindest teilweise in Firmware, Mikrocode oder anderer Hardwarelogik eingebettet sein. Bei einigen Beispielen kann es eine API einem Client-Programm ermöglichen, die durch eine Bibliothek eines Software Development Kit (SDK) bereitgestellten Dienste zu nutzen. Bei anderen Beispielen kann eine Anwendung oder ein anderes Client-Programm eine durch ein Application Framework bereitgestellte API verwenden. Bei diesen Beispielen kann die Anwendung oder das Client-Programm Aufrufe von Funktionen oder Verfahren enthalten, die durch den SDK und die API bereitgestellt werden, oder in der SDK definierte und durch die API bereitgestellte Datentypen oder Objekte verwenden. Ein Application Framework kann bei diesen Beispielen eine Hauptereignisschleife für ein Programm bereitstellen, die auf verschiedene durch das Framework definierte Ereignisse reagiert. Die API ermöglicht es der Anwendung, die Ereignisse und die Reaktionen auf die Ereignisse unter Verwendung des Application Framework anzugeben. Bei einigen Implementierungen kann ein API-Aufruf an eine Anwendung die Möglichkeiten oder den Zustand einer Hardwareeinrichtung melden, einschließlich derjenigen, die sich auf Aspekte beziehen wie Eingabemöglichkeiten und Zustand, Ausgabemöglichkeiten und Zustand, Verarbeitungsmöglichkeit, Stromstatus, Speicherkapazität, Kommunikationsmöglichkeit usw., und die API kann teilweise durch Firmware, Mikrocode oder sonstige niedrige Logik implementiert sein, die teilweise auf der Hardwarekomponente ausgeführt wird.
  • Bei der API-Aufrufkomponente kann es sich um eine lokale Komponente (d. h. auf demselben Datenverarbeitungssystem wie die API-Implementierungskomponente) oder eine entfernt angeordnete Komponente (d. h. auf einem anderen Datenverarbeitungssystem als die API-Implementierungskomponente) handeln, die mit der API-Implementierungskomponente durch die API über ein Netzwerk kommuniziert. Es versteht sich, dass eine API-Implementierungskomponente auch als API-Aufrufkomponente fungieren kann (d. h., dass sie API-Aufrufe zu einer durch eine unterschiedliche API-Implementierungskomponente exponierten API absetzen kann) und dass eine API-Aufrufkomponente auch als API-Implementierungskomponente fungieren kann, indem eine API implementiert wird, die gegenüber einer unterschiedlichen API-Aufrufkomponente exponiert ist.
  • Die API kann es mehreren API-Aufrufkomponenten, die in unterschiedlichen Programmiersprachen geschrieben sind, ermöglichen, mit der API-Implementierungskomponente zu kommunizieren (somit kann die API Merkmale zum Übersetzen von Aufrufen und Ausgaben zwischen der API-Implementierungskomponente und der API-Aufrufkomponente einschließen); die API kann jedoch mithilfe einer spezifischen Programmiersprache implementiert sein. Eine API-Aufrufkomponente kann bei einem Beispiel APIs von unterschiedlichen Providern aufrufen, wie z. B. eine Gruppe von APIs von einem OS-Provider und eine andere Gruppe von APIs von einem Plug-in-Provider und eine weitere Gruppe von APIs von einem anderen Provider (z. B. dem Provider einer Softwarebibliothek) oder dem Erzeuger der anderen API-Gruppe.
  • 5 ist ein Blockdiagramm mit der Darstellung einer beispielhaften API-Architektur, die bei einigen Beispielen der Offenbarung eingesetzt werden kann. Wie in 5 gezeigt ist, enthält die API-Architektur 500 die API-Implementierungskomponente 510 (z. B. ein Betriebssystem, eine Bibliothek, einen Gerätetreiber, eine API, ein Anwendungsprogramm oder ein anderes Modul), welche die API 520 implementiert. Die API 520 legt eine oder mehrere Funktionen, Verfahren, Klassen, Objekte, Protokolle, Datenstrukturen, Formate und/oder andere Merkmale der API-Implementierungskomponente fest, die durch die API-Aufrufkomponente 530 verwendet werden können. Die API 520 kann mindestens eine Aufrufkonvention festlegen, die vorgibt, wie eine Funktion in der API-Implementierungskomponente Parameter von der API-Aufrufkomponente empfängt und wie die Funktion ein Ergebnis an die API-Aufrufkomponente ausgibt. Die API-Aufrufkomponente 530 (z. B. ein Betriebssystem, eine Bibliothek, ein Gerätetreiber, eine API, ein Anwendungsprogramm oder ein anderes Modul) nimmt durch die API 520 API-Aufrufe vor, um auf die Funktionen der API-Implementierungskomponente 510, die durch die API 520. festgelegt sind, zuzugreifen und diese zu verwenden. Die API-Implementierungskomponente 510 kann als Reaktion auf einen API-Aufruf einen Wert durch die API 520 zur API-Aufrufkomponente 530 ausgeben.
  • Es ist ersichtlich, dass die API-Implementierungskomponente 510 zusätzliche Funktionen, Verfahren, Klassen, Datenstrukturen und/oder andere Merkmale einschließen kann, die nicht durch die API 520 festgelegt sind und die für die API-Aufrufkomponente 530 nicht verfügbar sind. Es versteht sich, dass sich die API-Aufrufkomponente 530 auf demselben System wie die API-Implementierungskomponente 510 befinden oder entfernt angeordnet sein kann und dass sie auf die API-Implementierungskomponente 510 unter Verwendung der API 520 über ein Netzwerk zugreift. Während 5 eine einzige API-Aufrufkomponente 530 veranschaulicht, die mit der API 520 interagiert, versteht es sich, dass weitere API-Aufrufkomponenten, die in anderen Sprachen als die API-Aufrufkomponente 530 (oder in derselben Sprache) geschrieben sein können, die API 520 verwenden können.
  • Die API-Implementierungskomponente 510, die API 520 und die API-Aufrufkomponente 530 können auf einem nichtflüchtigen maschinenlesbaren Speichermedium gespeichert sein, das einen beliebigen Mechanismus zum Speichern von Informationen in einer Form einschließt, die durch eine Maschine (z. B. einen Computer oder ein anderes Datenverarbeitungssystem) lesbar ist. Zum Beispiel schließt ein maschinenlesbares Medium magnetische Platten, optische Platten, Direktzugriffsspeicher, Nur-Lese-Speicher, Flash-Speichervorrichtungen usw. ein.
  • Bei dem in 6 gezeigten beispielhaften Software-Stack können Anwendungen Aufrufe von Diensten A oder B unter Verwendung von mehreren Dienst-APIs und einem Betriebssystem (OS) und unter Verwendung mehrerer OS-APIs vornehmen. Der Dienst A und der Dienst B können unter Verwendung mehrerer OS-APIs Aufrufe des OS vornehmen.
  • Es ist zu beachten, dass der Dienst 2 zwei APIs besitzt, von denen eine (Dienst 2 API 1) Aufrufe von Anwendung 1 empfängt und Werte an sie ausgibt und die andere (Dienst 2 API 2) Aufrufe von Anwendung 2 empfängt und Werte an diese ausgibt. Der Dienst 1 (bei dem es sich zum Beispiel um eine Softwarebibliothek handeln kann) nimmt Aufrufe von OS-API 1 vor und empfängt von dieser ausgegebene Werte, und Dienst 2 (bei dem es sich zum Beispiel um eine Softwarebibliothek handeln kann) nimmt Aufrufe sowohl von OS-API 1 als auch von OS-API 2 vor und empfängt von diesen ausgegebene Werte. Die Anwendung 2 nimmt Aufrufe von OS-API 2 vor und empfängt von dieser ausgegebene Werte.
  • 7 ist ein Blockdiagramm mit der Darstellung von beispielhaften Interaktionen zwischen dem Touchscreen und den anderen Komponenten der Einrichtung. Beschriebene Beispiele können die berührungssensible I/O-Einrichtung 1001 einschließen, die Eingaben für die Interaktion mit dem Computersystem 1003 über den drahtgebundenen oder drahtlosen Kanal 1002 empfangen kann. Die berührungssensible I/O-Einrichtung 1001 kann verwendet werden, um Benutzereingaben an das Computersystem 1003 anstelle von oder in Kombination mit anderen Eingabevorrichtungen, wie einer Tastatur, Maus, usw. bereitzustellen. Eine oder mehrere I/O-Einrichtungen 1001 können verwendet werden, um Benutzereingaben an das Computersystem 1003 bereitzustellen. Die berührungssensible I/O-Einrichtung 1001 kann ein Bestandteil des Computersystems 1003 sein (z. B. Touchscreen auf einem Smartphone oder Tablet-PC), oder sie kann in Bezug auf das Computersystem 1003 separat sein.
  • Die berührungssensible I/O-Einrichtung 1001 kann ein berührungssensibles Panel einschließen, das ganz oder teilweise transparent, halbtransparent, nichttransparent, lichtundurchlässig oder eine beliebige Kombination daraus ist. Die berührungssensible I/O-Einrichtung 1001 kann ausgeführt sein als Touchscreen, als ein als Touchpad funktionierender Touchscreen (z. B. als Touchscreen, der das Touchpad eines Laptops ersetzt), als Touchscreen oder Touchpad in Kombination oder Einheit mit einer anderen Eingabevorrichtung (z. B. als Touchscreen oder Touchpad mit Anordnung auf einer Tastatur) oder als beliebiges mehrdimensionales Objekt, das eine berührungssensible Fläche zum Empfangen von Berührungseingaben aufweist.
  • In einem Beispiel kann die berührungssensible I/O-Einrichtung 1001, die als Touchscreen ausgeführt ist, ein transparentes und/oder halbtransparentes berührungssensibles Panel aufweisen, das teilweise oder vollständig über mindestens einem Abschnitt einer Anzeige angeordnet ist. Gemäß diesem Beispiel arbeitet die berührungssensible I/O-Einrichtung 1001 so, dass sie grafische Daten, die von dem Computersystem 1003 (und/oder einer anderen Quelle) übertragen werden, anzeigt und auch Benutzereingaben empfängt. Bei anderen Beispielen kann die berührungssensible I/O-Einrichtung 1001 als ein integrierter Touchscreen ausgeführt sein, in dem berührungssensible Komponenten/Vorrichtungen in die Anzeigekomponenten/-einrichtungen integriert sind. Bei noch weiteren Beispielen kann ein Touchscreen als ergänzender oder zusätzlicher Anzeigebildschirm zum Anzeigen ergänzender oder der gleichen grafischen Daten wie bei der primären Anzeige und zum Empfangen von Berührungseingabe verwendet werden.
  • Die berührungssensible I/O-Einrichtung 1001 kann so konfiguriert sein, dass sie die Stelle einer oder mehrerer Berührungen oder Quasiberührungen an der Einrichtung 1001 erkennt auf der Grundlage kapazitiver, resistiver, optischer, akustischer, induktiver, mechanischer, chemischer Messungen oder anderer messbarer Erscheinungen in Bezug auf das Auftreten der einen oder der mehreren Berührungen oder Quasiberührungen in der Näher der Einrichtung 1001. Software, Hardware, Firmware oder eine Kombination daraus kann verwendet werden, um die Messungen der erkannten Berührungen zu identifizieren und eine oder mehrere Gesten zu verfolgen. Eine Geste kann stationären oder nichtstationären, einzelnen oder mehreren Berührungen oder Quasiberührungen an der berührungssensiblen I/O-Einrichtung 1001 entsprechen. Eine Geste kann durch das Bewegen von einem oder mehreren Fingern oder anderen Objekten auf eine bestimmte Weise auf der berührungssensiblen I/O-Einrichtung 1001 ausgeführt werden, wie z. B. Antippen, Drücken, Schwenken, Wischen, Drehen, Ändern der Orientierung, Drücken mit unterschiedlichem Druck und dergleichen, zu im Wesentlichen derselben Zeit, zusammenhängend oder konsekutiv. Eine Geste kann ohne diesbezügliche Einschränkung gekennzeichnet sein durch eine Bewegung des Anstoßens, Gleitens, Wischens, Drehens, Biegens, Ziehens oder Antippens zwischen oder mit einem beliebigen anderen Finger oder Fingern. Eine einzelne Geste kann mit einer oder mehreren Händen durch einen oder mehrere Benutzer oder eine beliebige Kombination daraus ausgeführt werden.
  • Das Computersystem 1003 kann eine Anzeige mit grafischen Daten ansteuern, um eine grafische Benutzerschnittstelle (GUI) anzuzeigen. Die GUI kann so konfiguriert sein, dass sie Berührungseingaben über die berührungssensible I/O-Einrichtung 1001 empfängt. Die als Touchscreen ausgeführte berührungssensible I/O-Einrichtung 1001 kann die GUI anzeigen. Alternativ kann die GUI auf einer Anzeige angezeigt werden, die von der berührungssensiblen I/O-Einrichtung 1001 separat ist. Die GUI kann grafische Elemente umfassen, die an bestimmten Stellen innerhalb der Schnittstelle angezeigt werden. Die grafischen Elemente können, ohne jedoch darauf beschränkt zu sein, eine Vielfalt von angezeigten virtuellen Eingabevorrichtungen einschließen, einschließlich virtueller Scrollräder, einer virtuellen Tastatur, virtueller Knäufe, virtueller Tasten, einer virtuellen UI und dergleichen. Ein Benutzer kann Gesten an einer oder mehreren bestimmten Stellen auf der berührungssensiblen I/O-Einrichtung 1001 ausführen, welche mit den grafischen Elementen der GUI assoziiert sein können. Bei anderen Beispielen kann der Benutzer Gesten an einer oder mehreren Stellen ausführen, die unabhängig von den Positionen der grafischen Elemente der GUI sind. Gesten, die auf der berührungssensiblen I/O-Einrichtung 1001 ausgeführt werden, können direkt oder indirekt grafische Elemente, wie Cursor, Symbole, Mediendateien, Listen, Text, Bilder insgesamt oder teilweise oder Ähnliches innerhalb der GUI bearbeiten, steuern, modifizieren, bewegen, aktivieren, initiieren oder allgemein beeinflussen. Zum Beispiel kann ein Benutzer bei einem Touchscreen durch das Ausführen einer Geste über dem grafischen Element auf dem Touchscreen direkt mit einem grafischen Element interagieren. Alternativ stellt ein Touchpad allgemein indirekte Interaktion bereit. Gesten können auch nicht angezeigte GUI-Elemente beeinflussen (z. B. hervorrufen, dass Benutzerschnittstellen angezeigt werden), oder sie können andere Aktionen innerhalb des Computersystems 1003 beeinflussen (z. B. einen Zustand oder Modus einer GUI, einer Anwendung oder eines Betriebssystems beeinflussen). Gesten können auf einer berührungssensiblen I/O-Einrichtung 1001 im Zusammenhang mit einem angezeigten Cursor ausgeführt werden oder nicht. Wenn zum Beispiel Gesten auf einem Touchpad ausgeführt werden, kann ein Cursor (oder Zeiger) auf einem Anzeigebildschirm oder Touchscreen angezeigt werden, und der Cursor kann über Berührungseingaben auf dem Touchpad gesteuert werden, um mit grafischen Objekten auf dem Anzeigebildschirm zu interagieren. Bei anderen Beispielen, in welchen Gesten direkt auf einem Touchscreen ausgeführt werden, kann ein Benutzer direkt mit Objekten auf dem Touchscreen interagieren, und zwar mit oder ohne Anzeige eines Cursors oder Zeigers auf dem Touchscreen.
  • Für den Benutzer kann über den Kommunikationskanal 1002 infolge von oder auf der Grundlage von Berührungen oder Quasiberührungen auf der berührungssensiblen I/O-Einrichtung 1001 eine Rückmeldung bereitgestellt werden. Die Rückmeldung kann optisch, mechanisch, elektrisch, olfaktorisch, akustisch oder auf ähnliche Weise und in beliebiger Kombination daraus und auf variable oder nicht variable Weise übermittelt werden.
  • Die Aufmerksamkeit wird nun auf Beispiele einer Systemarchitektur gerichtet, die innerhalb einer tragbaren oder nicht tragbaren Vorrichtung ausgeführt werden kann, einschließlich, jedoch nicht beschränkt auf eine Kommunikationseinrichtung (z. B. Mobiltelefon, Smartphone), eine Multimedia-Einrichtung (z. B. MP3-Player, TV, Radio), einen tragbaren oder Handheld-Computer (z. B. Tablet, Netbook, Laptop), einen Desktop-Computer, einen All-In-One-Desktop, ein Peripheriegerät oder ein beliebiges anderes System oder Gerät, das dazu eingerichtet werden kann, die Systemarchitektur 2000 einzuschließen, einschließlich Kombinationen von zwei oder mehr dieser Gerätetypen. 8 ist ein Blockdiagramm eines Beispiels des Systems 2000, das generell ein oder mehrere computerlesbare Medien 2001, ein Verarbeitungssystem 2004, ein I/O-Subsystem 2006, eine Hochfrequenz-(HF)-Schaltung, eine Audioschaltung 2010 und eine Blickerfassungsschaltung 2011 aufweist. Diese Komponenten können über eine(n) oder mehrere Kommunikationsbusse oder Signalleitungen 2003 gekoppelt sein.
  • Es ist ersichtlich, dass die in 8 gezeigte Architektur nur eine beispielhafte Architektur von System 2000 ist und dass das System 2000 mehr oder weniger Komponenten als dargestellt oder eine andere Konfiguration von Komponenten aufweisen kann. Die verschiedenen in 8 gezeigten Komponenten können in Hardware, Software, Firmware oder beliebigen Kombinationen daraus implementiert werden, einschließlich einer oder mehrerer Signalverarbeitungs- und/oder anwendungsspezifischer integrierter Schaltungen.
  • Die HF-Schaltung 2008 wird verwendet, um Informationen über eine drahtlose Verbindung oder ein drahtloses Netzwerk an eine oder mehrere andere Vorrichtungen zu senden oder von dort zu empfangen, und schließt eine bereits bekannte Schaltung zum Ausführen dieser Funktion ein. Die HF-Schaltung 2008 und die Audioschaltung 2010 sind mit dem Verarbeitungssystem 2004 über die Peripherieschnittstelle 2016 gekoppelt. Die Schnittstelle 2016 weist verschiedene bekannte Komponenten zum Herstellen und Aufrechterhalten von Kommunikation zwischen Peripheriegeräten und Verarbeitungssystem 2004 auf. Die Audioschaltung 2010 ist mit dem Audio-Lautsprecher 2050 und dem Mikrofon 2052 gekoppelt und weist eine bereits bekannte Schaltung zum Verarbeiten von Stimmsignalen auf, die von der Schnittstelle 2016 empfangen werden, damit ein Benutzer in Echtzeit mit anderen Benutzern kommunizieren kann. Bei einigen Beispielen weist die Audioschaltung 2010 eine Kopfhörerbuchse (nicht dargestellt) auf.
  • Die Peripheriegeräteschnittstelle 2016 verbindet die Eingabe- und Ausgabe-Peripheriegeräte des Systems mit dem Prozessor 2018 und dem computerlesbaren Medium 2001. Einer oder mehrere Prozessoren 2018 kommunizieren mit einem oder mehreren computerlesbaren Medien 2001 über den Controller 2020. Das computerlesbare Medium 2001 kann jede Vorrichtung oder jedes Medium sein, die bzw. das Code und/oder Daten zur Verwendung von einem oder mehreren Prozessoren 2018 speichern kann. Das Medium 2001 kann eine Speicherhierarchie aufweisen, einschließlich, aber ohne diesbezügliche Einschränkung, eines Cache, eines Hauptspeichers und eines sekundären Speichers. Die Speicherhierarchie kann mit jeder Kombination von RAM (z. B. SRAM, DRAM, DDRAM), ROM, FLASH, magnetischen und/oder optischen Speichereinrichtungen, wie z. B. Laufwerken, Magnetband, CDs (Compact Disks) und DVDs (Digital Video Discs), implementiert werden. Das Medium 2001 kann auch ein Übertragungsmedium zum Übertragen informationstragender Signale aufweisen, die Computeranweisungen oder Daten angeben (mit oder ohne Trägerwelle, auf der die Signale moduliert sind). Zum Beispiel kann das Übertragungsmedium ein Kommunikationsnetzwerk aufweisen, einschließlich, jedoch ohne diesbezügliche Einschränkung, des Internets (auch als World Wide Web bezeichnet), (eines) Intranet(s), lokaler Netzwerke (LANs), Wide Local Area Networks (WLANs), Speichernetzwerke (SANs), Metropolitan Area Networks (MANs) und dergleichen.
  • Ein oder mehrere Prozessoren 2018 führen verschiedene Softwarekomponenten aus, die im Medium 2001 gespeichert sind, um verschiedene Funktionen für das System 2000 durchzuführen. Bei einigen Beispielen weisen die Softwarekomponenten ein Betriebssystem 2022 auf sowie ein Kommunikationsmodul (oder eine Gruppe von Anweisungen) 2024, ein Verarbeitungsmodul für Berührungen 2026, ein Grafikmodul (oder eine Gruppe von Anweisungen) 2028 und eine oder mehrere Anwendungen (oder eine Gruppe von Anweisungen) 2030. Jedes dieser Module und jede der vorstehend genannten Anwendungen entspricht einer Gruppe von Anweisungen zum Ausführen von einer oder mehreren vorstehend beschriebenen Funktionen und der Verfahren, die in dieser Anmeldung beschrieben sind (z. B. der computerimplementierten Verfahren und anderer Informationsverarbeitungsverfahren, die hierin beschrieben sind). Diese Module (d. h. Anweisungsgruppen) müssen nicht als separate Softwareprogramme, -verfahren oder -module implementiert werden, und deshalb können verschiedene Teilmengen dieser Module in verschiedenen Ausführungsformen kombiniert oder anderweitig umgeordnet werden. Bei einigen Beispielen kann das Medium 2001 eine Untermenge der weiter oben angegebenen Module und Datenstrukturen speichern. Außerdem kann das Medium 2001 zusätzliche Module und Datenstrukturen, die vorstehend nicht beschrieben sind, speichern.
  • Das Betriebssystem 2022 weist verschiedene Vorgehensweisen, Anweisungsgruppen, Softwarekomponenten und/oder Treiber zum Steuern und Verwalten allgemeiner System-Tasks auf (z. B. Speicherverwaltung, Speichereinrichtungssteuerung, Stromverwaltung usw.) und erleichtert die Kommunikation zwischen verschiedenen Hardware- und Softwarekomponenten.
  • Das Kommunikationsmodul 2024 erleichtert die Kommunikation mit anderen Vorrichtungen über einen oder mehrere externe Ports 2036 oder über die HF-Schaltung 2008, und es weist verschiedene Softwarekomponenten zur Verarbeitung von Daten auf, die von der HF-Schaltung 2008 und/oder dem externen Port 2036 empfangen wurden.
  • Das Grafikmodul 2028 weist verschiedene bekannte Softwarekomponenten zum Rendern, Animieren und Anzeigen grafischer Objekte auf einer Anzeigeoberfläche auf. Bei Beispielen, in denen die berührungssensible I/O-Einrichtung 2012 eine berührungssensible Anzeige ist (z. B. ein Touchscreen), weist das Grafikmodul 2028 Komponenten zum Rendern, Anzeigen und Animieren von Objekten auf der berührungssensiblen Anzeige auf.
  • Eine oder mehrere Anwendungen 2030 können beliebige Anwendungen einschließen, die auf dem System 2000 installiert sind, einschließlich, ohne diesbezügliche Einschränkung, eines Browsers, eines Adressbuchs, einer Kontaktliste, E-Mail, Nachrichtensofortversand, Textverarbeitung, Tastaturemulation, Widgets, JAVA-aktivierter Anwendungen, Verschlüsselung, digitaler Rechteverwaltung, Spracherkennung, Sprachreplikation, Standortbestimmungsfunktion (wie der vom globalen Positionsbestimmungssystem (GPS) bereitgestellten Funktion), eines Musikspielers usw.
  • Das Verarbeitungsmodul für Berührung 2026 weist verschiedene Softwarekomponenten zum Durchführen verschiedener Aufgaben im Zusammenhang mit der berührungssensiblen I/O-Einrichtung 2012 auf, einschließlich, jedoch ohne diesbezügliche Einschränkung, des Empfangens und Verarbeitens von Berührungseingabe, die von der I/O-Einrichtung 2012 über den berührungssensiblen I/O-Einrichtungs-Controller 2032 empfangen wird.
  • Das I/O-Subsystem 2006 ist mit der berührungssensiblen I/O-Einrichtung 2012 und einer oder mehreren anderen I/O-Einrichtungen 2014 zum Steuern oder Ausführen verschiedener Funktionen gekoppelt. Die berührungssensible I/O-Einrichtung 2012 kommuniziert mit dem Verarbeitungssystem 2004 über den berührungssensiblen-I/O-Einrichtungs-Controller 2032, der verschiedene Komponenten zum Verarbeiten von Berührungseingaben der Benutzer aufweist (z. B. Scan-Hardware). Ein oder mehrere andere Eingabecontroller 2034 empfangen/senden elektrische Signale von/an andere(n) I/O-Einrichtungen 2014.
  • Andere I/O-Einrichtungen 2014 können physische Tasten, Wählscheiben, Schiebeschalter, Stifte, Tastaturen, Touchpads, zusätzliche Anzeigebildschirme oder beliebige Kombinationen daraus einschließen.
  • Bei Ausführung als Touchscreen zeigt die berührungssensible I/O-Einrichtung 2012 dem Benutzer eine visuelle Ausgabe in einer GUI an. Die visuelle Ausgabe kann Text, Grafiken, Videoinformationen und beliebige Kombinationen daraus einschließen. Einige oder alle visuellen Ausgaben können Objekten der Benutzerschnittstelle entsprechen. Die berührungssensible-I/O-Einrichtung 2012 bildet eine berührungssensible Oberfläche, die Berührungseingabe vom Benutzer annimmt. Die berührungssensible I/O-Einrichtung 2012 und der Touchscreen-Controller 2032 (zusammen mit zugehörigen Modulen und/oder Gruppen von Anweisungen im Medium 2001) erkennen und verfolgen Berührungen oder Quasiberührungen (und jede Bewegung oder Freigabe der Berührung) an der berührungssensiblen I/O-Einrichtung 2012 und wandeln die erkannte Berührungseingabe in Interaktion mit grafischen Objekten um, wie z. B. mit einem oder mehreren Objekten der Benutzerschnittstelle. Wenn die Vorrichtung 2012 als Touchscreen ausgeführt ist, kann der Benutzer direkt mit grafischen Objekten interagieren, die auf dem Touchscreen angezeigt werden. Alternativ kann der Benutzer, wenn die Vorrichtung 2012 als berührungssensible Einrichtung ausgeführt ist, die kein Touchscreen ist (z. B. als Touchpad), indirekt mit grafischen Objekten interagieren, die auf einem separaten Anzeigebildschirm angezeigt werden, der als I/O-Gerät 2014 ausgeführt ist.
  • Die berührungssensible I/O-Einrichtung 2012 kann der für Mehrfachberührung sensiblen Oberfläche entsprechen, die in den folgenden US-Patenten beschrieben ist: 6323846 (Westerman et al.), 6570557 (Westerman et al.) und/oder 6677932 (Westerman) und/oder US-Patentveröffentlichung 2002/0015024 A1 , die jeweils hiermit durch Bezugnahme übernommen werden.
  • Bei Beispielen, in denen die berührungssensible I/O-Einrichtung 2012 ein Touchscreen ist, kann der Touchscreen LCD-(Flüssigkristallanzeige)-Technologie, LPD-(lichtemittierende Polymeranzeige)-Technologie, OLED (organische LED) oder OEL (organische Elektrolumineszenz) verwenden, obwohl andere Anzeigetechnologien in anderen Ausführungsformen verwendet werden können.
  • Rückmeldung kann von der berührungssensiblen I/O-Einrichtung 2012 bereitgestellt werden auf der Grundlage der Berührungseingabe des Benutzers sowie von einem oder mehreren Zuständen mit Bezug auf die Anzeige und/oder das Computersystem. Rückmeldungen können optisch (z. B. als Lichtsignal oder angezeigtes Bild) oder mechanisch (z. B. durch haptische Rückmeldung, Berührungsrückmeldung, Kraftrückmeldung oder Ähnliches), elektrisch (z. B. durch elektrische Stimulation), olfaktorisch, akustisch (z. B. durch einen Piepton oder Ähnliches) oder auf ähnliche Weise oder mit beliebigen Kombinationen daraus und auf variable oder nicht variable Weise übertragen werden.
  • Das System 2000 weist auch ein Stromsystem 2044 zur Versorgung der verschiedenen Hardwarekomponenten mit Strom auf und kann ein Stromverwaltungssystem, eine oder mehrere Stromquellen, ein Wiederaufladesystem, eine Stromausfallerkennungsschaltung, einen Leistungsumwandler oder Wechselrichter, eine Stromstatusanzeige und beliebige andere Komponenten aufweisen, die in der Regel mit der Erzeugung, Verwaltung und Verteilung von Strom in tragbaren Einrichtungen assoziiert sind.
  • Bei einigen Beispielen können die Peripheriegeräteschnittstelle 2016, ein oder mehrere Prozessoren 2018 und der Speichercontroller 2020 auf einem einzelnen Chip implementiert sein, wie z. B. im Verarbeitungssystem 2004. Bei einigen anderen Beispielen können sie auf separaten Chips implementiert sein.
  • Beispiele der Offenbarung können beim besseren Erkennen und Identifizieren von Kontaktflecken nahe einer Kante einer berührungssensiblen Fläche vorteilhaft sein und dabei eine elektronische Einrichtung mit einer berührungssensiblen Fläche so einsetzen, dass sie intuitiver und weniger hinderlich zu bedienen ist.
  • Obwohl die offengelegten Beispiele vollständig mit Bezug auf die beigefügten Zeichnungen beschrieben wurden, ist zu beachten, dass verschiedene Abänderungen und Modifikationen für Fachleute auf diesem Gebiet offensichtlich werden. Derartige Abänderungen und Modifikationen sind so aufzufassen, dass sie vom Schutzumfang der offengelegten Beispiele entsprechend der Definition in den beigefügten Patentansprüchen umfasst sind.

Claims (10)

  1. Verfahren einer Computereinrichtung einschließlich einer berührungssensiblen Fläche, wobei das Verfahren Folgendes umfasst: Erhalten einer Hauptachse eines Kontakts auf oder in der Nähe der berührungssensiblen Fläche; Erhalten einer Distanz des Kontakts von einer Kante der berührungssensiblen Fläche; basierend auf einem Daumenprofil Bestimmen einer Referenz-Hauptachse eines Daumenkontakts an der erhaltenen Distanz; und Identifizieren des Kontakts als Daumen auf der Basis der Referenz-Hauptachse und der Hauptachse des Kontakts.
  2. Verfahren nach Anspruch 1, das weiter das Subtrahieren der Referenz-Hauptachse von der Hauptachse des Kontakts umfasst, um eine Achsendifferenz zu erhalten; wobei das Identifizieren des Kontakts als Daumen auf der Basis der Referenz-Hauptachse und der Hauptachse des Kontakts das Identifizieren des Kontakts als Daumen basierend auf der Achsendifferenz einschließt.
  3. Verfahren nach Anspruch 2, das weiter das Addieren der Achsendifferenz zu einer Summe von Achsendifferenzen aus vorangegangenen Zeitschritten umfasst; wobei das Identifizieren des Kontakts als Daumen auf der Basis der Achsendifferenz das Identifizieren des Kontakts als Daumen basierend auf der Summe von Achsendifferenzen einschließt.
  4. Verfahren nach Anspruch 3, das weiter das Bestimmen umfasst, dass die Summe von Achsendifferenzen positiv ist; wobei das Identifizieren des Kontakts als Daumen auf der Basis der Summe von Achsendifferenzen das Identifizieren des Kontakts als Daumen basierend auf der Bestimmung einschließt, dass die Summe von Achsendifferenzen positiv ist.
  5. Verfahren nach Anspruch 1–4, wobei der Kontakt als Daumen identifiziert wird, nachdem eine ab dem Ansetzen des Kontakts gemessene Zeitschwelle überschritten ist.
  6. Verfahren nach Anspruch 1–5, wobei der Kontakt als Daumen identifiziert wird, nachdem der Kontakt eine Distanzschwelle von der Kante der berührungssensiblen Fläche erreicht hat.
  7. Elektronische Einrichtung, umfassend: eine berührungssensible Fläche; einen Prozessor zur Ausführung von Anweisungen; und einen Speicher, gekoppelt mit dem Prozessor, zum Speichern von Anweisungen, die bei Ausführung durch den Prozessor den Prozessor veranlassen, Vorgänge durchzuführen, um eine Anwendungsprogrammierschnittstelle (API) zu erzeugen, die es einer API-Aufrufkomponente ermöglicht, ein Verfahren der elektronischen Einrichtung auszuführen, wobei das Verfahren Folgendes umfasst: Erhalten einer Hauptachse eines Kontakts auf oder in der Nähe der berührungssensiblen Fläche; Erhalten einer Distanz des Kontakts von einer Kante der berührungssensiblen Fläche; basierend auf einem Daumenprofil Bestimmen einer Referenz-Hauptachse eines Daumenkontakts an der erhaltenen Distanz; und Identifizieren des Kontakts als Daumen auf der Basis der Referenz-Hauptachse und der Hauptachse des Kontakts.
  8. Elektronische Einrichtung nach Anspruch 7, wobei die Anweisungen die elektronische Einrichtung ferner veranlassen, das Verfahren nach einem der Ansprüche 2–6 auszuführen.
  9. Nichtflüchtiges computerlesbares Medium, wobei das computerlesbare Medium Anweisungen umfasst, die bei Ausführung ein Verfahren einer Computereinrichtung einschließlich einer berührungssensiblen Fläche durchführen, wobei das Verfahren Folgendes umfasst: Erhalten einer Hauptachse eines Kontakts auf oder in der Nähe der berührungssensiblen Fläche; Erhalten einer Distanz des Kontakts von einer Kante der berührungssensiblen Fläche; basierend auf einem Daumenprofil Bestimmen einer Referenz-Hauptachse eines Daumenkontakts an der erhaltenen Distanz; und Identifizieren des Kontakts als Daumen auf der Basis der Referenz-Hauptachse und der Hauptachse des Kontakts.
  10. Computerlesbares Medium nach Anspruch 9, wobei die Anweisungen, wenn sie durch den Prozessor der Computereinrichtung ausgeführt werden, die Einrichtung veranlassen, das Verfahren nach einem der Ansprüche 2–6 auszuführen.
DE112014002687.5T 2013-06-07 2014-05-01 Berührungserkennung am rahmenrand Withdrawn DE112014002687T5 (de)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201361832703P 2013-06-07 2013-06-07
US61/832,703 2013-06-07
US14/192,536 US9477331B2 (en) 2013-06-07 2014-02-27 Touch detection at bezel edge
US14/192,536 2014-02-27
PCT/US2014/036447 WO2014197142A1 (en) 2013-06-07 2014-05-01 Touch detection at bezel edge

Publications (1)

Publication Number Publication Date
DE112014002687T5 true DE112014002687T5 (de) 2016-03-31

Family

ID=52005051

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112014002687.5T Withdrawn DE112014002687T5 (de) 2013-06-07 2014-05-01 Berührungserkennung am rahmenrand

Country Status (8)

Country Link
US (2) US9477331B2 (de)
EP (1) EP2987061B1 (de)
KR (1) KR101756579B1 (de)
CN (1) CN105283828B (de)
AU (1) AU2014275440B2 (de)
DE (1) DE112014002687T5 (de)
HK (1) HK1219150A1 (de)
WO (1) WO2014197142A1 (de)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9477331B2 (en) 2013-06-07 2016-10-25 Apple Inc. Touch detection at bezel edge
US10809893B2 (en) * 2013-08-09 2020-10-20 Insyde Software Corp. System and method for re-sizing and re-positioning application windows in a touch-based computing device
US9727235B2 (en) * 2013-12-12 2017-08-08 Lenovo (Singapore) Pte. Ltd. Switching an interface mode using an input gesture
US9754347B2 (en) 2014-03-10 2017-09-05 Sony Corporation Method and device for simulating a wide field of view
US9804717B2 (en) 2015-03-11 2017-10-31 Synaptics Incorporated Input sensing and exclusion
CN104731504A (zh) * 2015-03-30 2015-06-24 努比亚技术有限公司 基于无边框终端的应用控制方法及装置
CN108027683A (zh) 2015-07-15 2018-05-11 互联电子公司 力传感边框触摸界面
US20170185287A1 (en) * 2015-12-23 2017-06-29 Nuance Communications, Inc. Adapting a virtual keyboard in the presence of static contact events
US10466839B2 (en) 2016-03-30 2019-11-05 Synaptics Incorporated Dynamic differential algorithm for side touch signals
US10078406B2 (en) 2016-03-31 2018-09-18 Synaptics Incorporated Capacitive side position extrapolation
KR102316024B1 (ko) * 2017-03-02 2021-10-26 삼성전자주식회사 디스플레이 장치 및 디스플레이 장치의 사용자 인터페이스 표시 방법
CN108762557A (zh) * 2018-05-22 2018-11-06 北京集创北方科技股份有限公司 一种触摸检测方法和计算机可读存储介质
KR102581974B1 (ko) * 2018-07-31 2023-09-22 삼성디스플레이 주식회사 압력 센서 및 이를 포함하는 표시 장치
WO2020171510A1 (ko) 2019-02-19 2020-08-27 삼성전자 주식회사 터치 회로를 포함하는 전자 장치, 및 그 동작 방법

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5483261A (en) 1992-02-14 1996-01-09 Itu Research, Inc. Graphical input controller and method with rear screen image detection
US5488204A (en) 1992-06-08 1996-01-30 Synaptics, Incorporated Paintbrush stylus for capacitive touch sensor pad
US5880411A (en) 1992-06-08 1999-03-09 Synaptics, Incorporated Object position detector with edge motion feature and gesture recognition
US5825352A (en) 1996-01-04 1998-10-20 Logitech, Inc. Multiple fingers contact sensing method for emulating mouse buttons and mouse operations on a touch sensor pad
US5835079A (en) 1996-06-13 1998-11-10 International Business Machines Corporation Virtual pointing device for touchscreens
US6310610B1 (en) 1997-12-04 2001-10-30 Nortel Networks Limited Intelligent touch display
US8479122B2 (en) 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US7663607B2 (en) 2004-05-06 2010-02-16 Apple Inc. Multipoint touchscreen
EP1717680A3 (de) 1998-01-26 2010-03-24 Apple Inc. Verfahren und Vorrichtung zur Integration von manuellen Eingaben
US6188391B1 (en) 1998-07-09 2001-02-13 Synaptics, Inc. Two-layer capacitive touchpad and method of making same
JP4542637B2 (ja) 1998-11-25 2010-09-15 セイコーエプソン株式会社 携帯情報機器及び情報記憶媒体
US20020015064A1 (en) 2000-08-07 2002-02-07 Robotham John S. Gesture-based user interface to multi-level and multi-modal sets of bit-maps
US6677932B1 (en) 2001-01-28 2004-01-13 Finger Works, Inc. System and method for recognizing touch typing under limited tactile feedback conditions
US6570557B1 (en) 2001-02-10 2003-05-27 Finger Works, Inc. Multi-touch system and method for emulating modifier keys via fingertip chords
JP3800984B2 (ja) 2001-05-21 2006-07-26 ソニー株式会社 ユーザ入力装置
JP2003173237A (ja) 2001-09-28 2003-06-20 Ricoh Co Ltd 情報入出力システム、プログラム及び記憶媒体
US6690387B2 (en) 2001-12-28 2004-02-10 Koninklijke Philips Electronics N.V. Touch-screen image scrolling system and method
US11275405B2 (en) 2005-03-04 2022-03-15 Apple Inc. Multi-functional hand-held device
CN101356493A (zh) * 2006-09-06 2009-01-28 苹果公司 用于照片管理的便携式电子装置
US7855718B2 (en) 2007-01-03 2010-12-21 Apple Inc. Multi-touch input discrimination
US7643010B2 (en) 2007-01-03 2010-01-05 Apple Inc. Peripheral pixel noise reduction
US7916126B2 (en) * 2007-06-13 2011-03-29 Apple Inc. Bottom-up watershed dataflow method and region-specific segmentation based on historic data to identify patches on a touch sensor panel
US20090174679A1 (en) * 2008-01-04 2009-07-09 Wayne Carl Westerman Selective Rejection of Touch Contacts in an Edge Region of a Touch Surface
US8704775B2 (en) * 2008-11-11 2014-04-22 Adobe Systems Incorporated Biometric adjustments for touchscreens
US8154529B2 (en) * 2009-05-14 2012-04-10 Atmel Corporation Two-dimensional touch sensors
TW201118698A (en) 2009-11-27 2011-06-01 Ite Tech Inc Posistion apparatus for touch device and posistion method thereof
US8922499B2 (en) * 2010-07-26 2014-12-30 Apple Inc. Touch input transitions
US20120032891A1 (en) 2010-08-03 2012-02-09 Nima Parivar Device, Method, and Graphical User Interface with Enhanced Touch Targeting
US8593418B2 (en) 2010-08-08 2013-11-26 Qualcomm Incorporated Method and system for adjusting display content
EP2603844B1 (de) 2010-08-12 2020-05-20 Google LLC Fingeridentifizierung auf einem touchscreen
US8674956B2 (en) 2011-06-13 2014-03-18 Chimei Innolux Corporation In-cell touch sensor touch area enhancing algorithm
KR20130030167A (ko) 2011-09-16 2013-03-26 주식회사 아이피시티 사용자 입력 감지 장치 및 이를 포함하는 전자 장치
US8810535B2 (en) * 2011-10-18 2014-08-19 Blackberry Limited Electronic device and method of controlling same
US9477331B2 (en) 2013-06-07 2016-10-25 Apple Inc. Touch detection at bezel edge

Also Published As

Publication number Publication date
CN105283828B (zh) 2018-02-23
HK1219150A1 (zh) 2017-03-24
WO2014197142A1 (en) 2014-12-11
US20170031511A1 (en) 2017-02-02
AU2014275440A1 (en) 2015-12-24
EP2987061B1 (de) 2019-06-26
CN105283828A (zh) 2016-01-27
US9477331B2 (en) 2016-10-25
AU2014275440B2 (en) 2017-03-30
EP2987061A1 (de) 2016-02-24
KR20160013211A (ko) 2016-02-03
US10185432B2 (en) 2019-01-22
US20140362001A1 (en) 2014-12-11
KR101756579B1 (ko) 2017-07-10

Similar Documents

Publication Publication Date Title
DE112014002687T5 (de) Berührungserkennung am rahmenrand
DE112013003261B4 (de) Biometrisch initiierte Kommunikation
DE112016001105T5 (de) Reagieren von konkurrierenden Vorrichtungen auf Sprachauslöser
DE202014004544U1 (de) Vorrichtung und graphische Benutzerschnittstelle zum Bereitstellen von Navigations- und Suchfunktionalitäten
DE202016001516U1 (de) Vorrichtungen und grafische Benutzerschnittstellen zur Interaktion mit einem Steuerobjekt, während ein weiteres Objekt verschoben wird
DE112013002412T5 (de) Vorrichtung, Verfahren und grafische Benutzeroberfläche zum Bereitstellen von Rückmeldung für das Wechseln von Aktivierungszuständen eines Benutzerschnittstellenobjekts
DE202011110334U1 (de) System zum Orthogonales Ziehen auf Scrollbalken
DE112009001281T5 (de) Navigieren zwischen Aktivitäten in einem Computergerät
DE202013012233U1 (de) Vorrichtung und grafische Benutzerschnittstelle zum Anzeigen zusätzlicher Informationen in Antwort auf einen Benutzerkontakt
DE112012006165T5 (de) Touchscreen-Anwenderschnittstelle mit Spracheingabe
DE202008000269U1 (de) Tragbare elektronische Vorrichtung
DE202014004572U1 (de) Vorrichtung und grafische Benutzerschnittstelle zum Schalten zwischen Kameraschnittstellen
DE112013003258T5 (de) Anmeldung unter Verwendung eines synthetischen Fingerabdruckbildes und Fingerabdruck-Erfassungssystems
DE112011103173T5 (de) Übergangsansicht auf einer tragbaren elektronischen Vorrichtung
DE112011101209T5 (de) Warnmeldungs-Anzeige auf einer tragbaren elektronischen Vorrichtung
DE112010002760T5 (de) Benutzerschnittstelle
DE102014010217A1 (de) Dynamische Informationsanpassung für ein Computergerät mit mehreren Leistungsmodi
DE112011105933T5 (de) Verfahren und Vorrichtungen zum dynamischen Anpassen einer virtuellen Tastatur
US10282219B2 (en) Consolidated orthogonal guide creation
DE112013004614T5 (de) Gestentastatur mit Gestenannullierung
DE102014117614A1 (de) Wechseln eines Schnittstellenmodus mittels einer Eingabegeste
DE112016002384T5 (de) Hilfsschicht mit automatisierter Extraktion
WO2018010316A1 (zh) 桌面页面管理的方法及装置
US20140267438A1 (en) Scaling an image having text
US9552132B2 (en) Application program preview interface and operation method thereof

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06F0003041000

Ipc: G06F0003044000

R120 Application withdrawn or ip right abandoned