Nothing Special   »   [go: up one dir, main page]

CN107491186A - 用于屏幕的手写键盘 - Google Patents

用于屏幕的手写键盘 Download PDF

Info

Publication number
CN107491186A
CN107491186A CN201710424212.6A CN201710424212A CN107491186A CN 107491186 A CN107491186 A CN 107491186A CN 201710424212 A CN201710424212 A CN 201710424212A CN 107491186 A CN107491186 A CN 107491186A
Authority
CN
China
Prior art keywords
stroke
text
display
group
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710424212.6A
Other languages
English (en)
Other versions
CN107491186B (zh
Inventor
R·S·狄克勋
I·乔德里
B·W·格里芬
T·S·乔恩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Computer Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Computer Inc filed Critical Apple Computer Inc
Priority to CN202110452880.6A priority Critical patent/CN113157113B/zh
Priority to CN202110446637.3A priority patent/CN113190126A/zh
Priority to CN201711258408.9A priority patent/CN108089727B/zh
Publication of CN107491186A publication Critical patent/CN107491186A/zh
Application granted granted Critical
Publication of CN107491186B publication Critical patent/CN107491186B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • G06F3/0237Character input methods using prediction or retrieval techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0362Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 1D translations or rotations of an operating part of the device, e.g. scroll wheels, sliders, knobs, rollers or belts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/04166Details of scanning methods, e.g. sampling time, grouping of sub areas or time sharing with display driving
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/274Converting codes to words; Guess-ahead of partial word inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/32Digital ink

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Character Discrimination (AREA)
  • Telephone Function (AREA)
  • Position Input By Displaying (AREA)

Abstract

本发明题为“用于屏幕的手写键盘”。本公开整体涉及在触敏表面上进行手写。在一些示例中,响应于可旋转输入机构来查看并选择在触敏表面上输入的文本建议笔画。在一些示例中,基于触敏表面上的随后输入的笔画来修订从触敏表面上的一组笔画确定的文本。在一些示例中,基于该笔画和前一笔画之间的时间来确定是否在一组笔画中包括该笔画。在一些示例中,中断基于一组笔画来确定文本,以基于该组笔画和第二笔画来确定修订的文本。

Description

用于屏幕的手写键盘
技术领域
本公开整体涉及计算机用户界面,并且更具体地涉及用于在小屏幕上 进行手写的技术。
背景技术
可穿戴电子设备常常具有用于显示信息并允许与电子设备和其上所存 储的内容进行最小量的交互的显示屏。
发明内容
这些可穿戴设备中的一些可穿戴设备包括触敏表面,但屏幕的尺寸很 小,使得难以在设备上直接输入文本。其他数据输入方法诸如口述也是可 能的,但也具有缺点。在进行消息传送的情况下,仅在有限数量的预定义 消息之一适用当前状况时,有一些用途的预定义消息才是适当的。
然而,使用电子设备在小屏幕上进行手写的一些技术通常麻烦并且效 率低下。例如,一些现有技术使用复杂并且耗时的用户界面,其可包括多 次按键按压或击键。现有技术需要比所需更多的时间,从而浪费用户时间 和设备能量。这后一考虑在电池驱动的设备中是特别重要的。
因此,本技术为电子设备提供了更快、更有效的方法和界面,以用于 在小屏幕上进行手写。此类方法和界面任选地补充或替换用于在小屏幕上 进行手写的其他方法。此类方法和界面减少了对用户所造成的认知负担并 且产生更有效的人机界面。对于电池驱动的计算设备,此类方法和界面节 省功率并且增加电池两次充电之间的时间间隔。例如,下文描述的技术通 过如下方式实现了更有效地识别通过触敏表面输入进行的手写:允许手动 和自动修订已被识别的文本,智能收集和处理笔画输入,以及识别何时笔 画输入属于当前字符或属于下一个字符。
根据一个实施方案,在具有触敏表面、显示器、可旋转输入机构和一 个或多个处理器的便携式电子设备处:在包括消息区域和笔画输入区域的 显示器上显示用户输入界面;在笔画输入区域中的触敏表面上接收第一组 笔画;基于第一组笔画来确定第一文本;在消息区域中的显示器上显示第 一文本;基于第一文本来确定一个或多个建议,其中该一个或多个建议包 括对第一文本的一个或多个改变;在确定该一个或多个建议之后,经由可旋转输入机构来接收用户输入;响应于用户输入:显示一个或多个建议中 的至少一个建议;以及显示用于指示一个或多个建议中的所选择的建议的 选择指示符;在显示至少一个建议或一个或多个建议和选择指示符之后, 利用对所选择的建议的显示来替代对第一文本的显示。
公开了存储一个或多个程序的暂态计算机可读存储介质的实施方案, 该一个或多个程序被配置为由具有触敏表面、显示器和可旋转输入机构的 便携式电子设备的一个或多个处理器执行,该一个或多个程序包括用于进 行以下操作的指令:在包括消息区域和笔画输入区域的显示器上显示用户 输入界面;在笔画输入区域中的触敏表面上接收第一组笔画;基于第一组 笔画来确定第一文本;在消息区域中的显示器上显示第一文本;基于第一 文本来确定一个或多个建议,其中该一个或多个建议包括对第一文本的一 个或多个改变;在确定该一个或多个建议之后,经由可旋转输入机构来接 收用户输入;响应于用户输入:显示一个或多个建议中的至少一个建议; 以及显示用于指示一个或多个建议中的所选择的建议的选择指示符;在显 示至少一个建议或一个或多个建议和选择指示符之后,利用对所选择的建 议的显示来替代对第一文本的显示。
根据一个实施方案,在具有触敏表面、显示器、可旋转输入机构和一 个或多个处理器的电子设备处:在包括消息区域和笔画输入区域的显示器 上显示用户输入界面;在笔画输入区域中的触敏表面上接收第一组笔画; 基于第一组笔画来确定第一文本;在消息区域中显示第一文本;在接收到 第一组笔画并且显示第一文本之后,在笔画输入区域中的触敏表面上接收 第二组笔画;基于第一组笔画和第二组笔画来确定修订的第一文本;以及利用修订的第一文本来替代对第一文本的显示。
公开了存储一个或多个程序的暂态计算机可读存储介质的实施方案, 该一个或多个程序被配置为由具有触敏表面、显示器和可旋转输入机构的 电子设备的一个或多个处理器执行,该一个或多个程序包括用于进行以下 操作的指令:在包括消息区域和笔画输入区域的显示器上显示用户输入界 面;在笔画输入区域中的触敏表面上接收第一组笔画;基于第一组笔画来 确定第一文本;在消息区域中显示第一文本;在接收到第一组笔画并且显 示第一文本之后,在笔画输入区域中的触敏表面上接收第二组笔画;基于 第一组笔画和第二组笔画来确定修订的第一文本;以及利用修订的第一文 本来替代对第一文本的显示。
根据一个实施方案,在具有触敏表面、显示器、可旋转输入机构和一 个或多个处理器的电子设备处:在包括消息区域和笔画输入区域的显示器 上显示用户输入界面;在笔画输入区域中的触敏表面上接收第一组笔画; 开始基于第一组笔画来确定第一文本;不在消息区域中显示第一文本,在 接收到第一组笔画之后,在笔画输入区域中的触敏表面上接收第二组笔 画;基于第一组笔画和第二组笔画来确定修订的第一文本;以及在消息区 域中显示修订的第一文本。
公开了存储一个或多个程序的暂态计算机可读存储介质的实施方案, 该一个或多个程序被配置为由具有触敏表面、显示器和可旋转输入机构的 电子设备的一个或多个处理器执行,该一个或多个程序包括用于进行以下 操作的指令:在包括消息区域和笔画输入区域的显示器上显示用户输入界 面;在笔画输入区域中的触敏表面上接收第一组笔画;开始基于第一组笔 画来确定第一文本;不在消息区域中显示第一文本,在接收到第一组笔画 之后,在笔画输入区域中的触敏表面上接收第二组笔画;基于第一组笔画 和第二组笔画来确定修订的第一文本;以及在消息区域中显示修订的第一 文本。
根据一个实施方案,在具有触敏表面、显示器、可旋转输入机构和一 个或多个处理器的电子设备处:在包括消息区域和笔画输入区域的显示器 上显示用户输入界面;在笔画输入区域中的触敏表面上接收第一笔画;在 接收到第一笔画之后的第一时间,在触敏表面上接收第二笔画,其中第二 笔画与第一笔画不同;确定第一时间是否超过阈值时间;根据确定第一时 间超过阈值时间,基于第一笔画但不基于第二笔画来确定第一字符;根据确定第一时间小于阈值时间,基于第一笔画和第二笔画来确定第一字符; 以及在消息区域中显示第一字符。
公开了存储一个或多个程序的暂态计算机可读存储介质的实施方案, 该一个或多个程序被配置为由具有触敏表面、显示器和可旋转输入机构的 电子设备的一个或多个处理器执行,该一个或多个程序包括用于进行以下 操作的指令:在包括消息区域和笔画输入区域的显示器上显示用户输入界 面;在笔画输入区域中的触敏表面上接收第一笔画;在接收到第一笔画之 后的第一时间,在触敏表面上接收第二笔画,其中第二笔画与第一笔画不 同;确定第一时间是否超过阈值时间;根据确定第一时间超过阈值时间, 基于第一笔画但不基于第二笔画来确定第一字符;根据确定第一时间小于 阈值时间,基于第一笔画和第二笔画来确定第一字符;以及在消息区域中 显示第一字符。
用于执行这些功能的可执行指令任选地被包括在被配置用于由一个或 多个处理器执行的非暂态计算机可读存储介质或其他计算机程序产品中。 用于执行这些功能的可执行指令任选地被包括在被配置用于由一个或多个 处理器执行的暂态计算机可读存储介质或其他计算机程序产品中。
因此,为设备提供了更快、更有效的方法和界面以用于在小屏幕上进 行手写,由此提高了此类设备的有效性、效率和用户满意度。此类方法和 界面可补充或替换用于在小屏幕上进行手写的其他方法。
附图说明
为了更好地理解各种所描述的实施方案,应当结合以下附图参考以下 具体实施方式,在附图中类似的附图标号在所有附图中指示对应的部件。
图1A是示出了根据一些实施方案的具有触敏显示器的便携式多功能 设备的框图。
图1B是示出了根据一些实施方案的用于事件处理的示例性部件的框 图。
图2示出了根据一些实施方案具有触摸屏的便携式多功能设备。
图3是根据一些实施方案的具有显示器和触敏表面的示例性多功能设 备的框图。
图4A示出了根据一些实施方案的便携式多功能设备上的应用程序的 菜单的示例性用户界面。
图4B示出了根据一些实施方案的具有与显示器分开的触敏表面的多功 能设备的示例性用户界面。
图5A示出了根据一些实施方案的个人电子设备。
图5B是示出了根据一些实施方案的个人电子设备的框图。
图6A-图6R示出了用于在屏幕上进行手写的示例性用户界面。
图7是示出了用于在触敏表面上进行手写的方法的流程图。
图8示出了电子设备的示例性功能框图。
图9A-图9I示出了用于在屏幕上进行手写的示例性用户界面。
图10是示出了用于在触敏表面上进行手写的方法的流程图。
图11示出了电子设备的示例性功能框图。
图12A-图12L示出了用于在屏幕上进行手写的示例性用户界面。
图13是示出了用于在触敏表面上进行手写的方法的流程图。
图14示出了电子设备的示例性功能框图。
图15A-图15J示出了用于在屏幕上进行手写的示例性用户界面。
图16是示出了用于在触敏表面上进行手写的方法的流程图。
图17示出了电子设备的示例性功能框图。
具体实施方式
下文的描述阐述了示例性方法、参数等。然而,应当认识到,此类描 述并非旨在限制本公开的范围,而是作为对示例性实施方案的描述来提 供。
存在对提供有效的方法和界面以用于在小屏幕上进行手写的电子设备 的需要。例如,具有小的触敏表面的可穿戴设备允许访问和导航一些内容 和数据,但这些屏幕当前在直接输入文本数据时难以使用。本文描述的技 术能够向触敏表面尤其是具有小尺寸的触敏表面上提供更好的手写输入。 此类技术可减轻在小屏幕上输入手写时的用户的认知负担,由此提高生产 效率。此外,此类技术可减少本来浪费在冗余用户输入上的处理器功率和 电池功率。
下面,图1A-图1B、图2、图3、图4A-图4B和图5A-图5B提供了用 于执行用于管理事件通知的技术的示例性设备的描述。图6A-图6R示出了 用于管理事件通知的示例性用户界面。图7是示出了根据一些实施方案的 管理事件通知的方法的流程图。图6A-图6R中的用户界面用于示出包括图 7中的过程的下文描述的过程。
图9A-图9I示出了用于管理事件通知的示例性用户界面。图10是示出 了根据一些实施方案的管理事件通知的方法的流程图。图9A-图9I中的用 户界面用于示出包括图10中的过程的下文描述的过程。
图12A-图12L示出了用于管理事件通知的示例性用户界面。图13是 示出了根据一些实施方案的管理事件通知的方法的流程图。图12A-图12L 中的用户界面用于示出包括图13中的过程的下文描述的过程。
图15A-图15J示出了用于管理事件通知的示例性用户界面。图16是示 出了根据一些实施方案的管理事件通知的方法的流程图。图15A-图15J中 的用户界面用于示出包括图16中的过程的下文描述的过程。
尽管以下描述使用术语“第一”、“第二”等来描述各种元件,但这 些元件不应受术语的限制。这些术语只是用于将一个元素与另一元素区分 开。例如,第一触摸可被命名为第二触摸并且类似地第二触摸可被命名为 第一触摸,而不脱离各种所述实施方案的范围。第一触摸和第二触摸两者 都是触摸,但是它们不是同一触摸。
在本文中对各种所描述的实施方案的描述中所使用的术语只是为了描 述特定实施方案的目的,而并非旨在进行限制。如在对各种所述实施方案 的描述和所附权利要求书中所使用的那样,单数形式“一个”(“a”“an”) “所述”旨在也包括复数形式,除非上下文另外明确地指示。还应当理 解,本文中所使用的术语“和/或”是指并且涵盖相关联地列出的项目中的 一个或多个项目的任何和全部可能的组合。还应当理解,术语“包括”(“includes”,“including”,“comprises”和/或“comprising”)当在 本说明书中使用时是指定存在所陈述的特征、整数、步骤、操作、元素和/ 或部件,但是并不排除存在或添加一个或多个其他特征、整数、步骤、操 作、元素、部件和/或其分组。
根据上下文,术语“如果”任选地被解释为意思是“当...时” (“when”或“upon”)或“响应于确定”或“响应于检测到”。类似 地,根据上下文,短语“如果确定...”或“如果检测到[所陈述的条件或事 件]”任选地被解释为意思是“在确定...时”或“响应于确定...”或“在检 测到[所陈述的条件或事件]时”或“响应于检测到[所陈述的条件或事 件]”。
描述了电子设备、用于此类设备的用户界面,以及用于使用此类设备 的相关联过程的实施方案。在一些实施方案中,该设备是还包含其他功能 诸如PDA和/或音乐播放器功能的便携式通信设备,诸如移动电话。便携式 多功能设备的示例性实施方案包括但不限于来自Apple Inc.(Cupertino, California)的设备、iPod 设备和设备。任选地使用其他 便携式电子设备,诸如具有触敏表面(例如,触摸屏显示器和/或触摸板) 的膝上型电脑或平板电脑。还应当理解,在一些实施方案中,该设备并非 便携式通信设备,而是具有触敏表面(例如,触摸屏显示器和/或触摸板) 的台式计算机。
在下面的论述中,描述了一种包括显示器和触敏表面的电子设备。然 而,应当理解,该电子设备任选地包括一个或多个其他物理用户界面设 备,诸如物理键盘、鼠标和/或操纵杆。
该设备通常支持各种应用程序,诸如以下应用程序中的一个或多个应 用程序:绘图应用程序、呈现应用程序、文字处理应用程序、网站创建应 用程序、盘编辑应用程序、电子表格应用程序、游戏应用程序、电话应用 程序、视频会议应用程序、电子邮件应用程序、即时消息应用程序、健身 支持应用程序、照片管理应用程序、数字相机应用程序、数字视频摄像机 应用程序、网页浏览应用程序、数字音乐播放器应用程序、和/或数字视频 播放器应用程序。
在设备上执行的各种应用程序任选地使用至少一个共用物理用户界面 设备,诸如触敏表面。触敏表面的一种或多种功能以及被显示在设备上的 对应信息任选地从一种应用程序调整和/或变化至下一种应用程序和/或在相 应应用程序内被调整和/或变化。这样,设备的共用物理架构(诸如触敏表 面)任选地利用对于用户而言直观且清楚的用户界面来支持各种应用程 序。
现在关注具有触敏显示器的便携式设备的实施方案。图1A是示出了 根据一些实施方案的具有触敏显示系统112的便携式多功能设备100的框 图。触敏显示器112有时为了方便被叫做“触摸屏”,并且有时可被称为 或被叫做“触敏显示器系统”。设备100包括存储器102(其任选地包括一 个或多个计算机可读存储介质)、存储器控制器122、一个或多个处理单元 (CPU)120、外围设备接口118、RF电路108、音频电路110、扬声器111、 麦克风113、输入/输出(I/O)子系统106、其他输入控制设备116、和外部端 口124。设备100任选地包括一个或多个光学传感器164。设备100任选地 包括用于检测设备100(例如,触敏表面,诸如设备100的触敏显示系统 112)上的接触的强度的一个或多个接触强度传感器165。设备100任选地 包括用于在设备100上生成触觉输出的一个或多个触觉输出发生器167(例 如,在触敏表面诸如设备100的触敏显示系统112或设备300的触摸板355 上生成触觉输出)。这些部件任选地通过一个或多个通信总线或信号线103 进行通信。
如在本说明书和权利要求书中所使用的,术语触敏表面上的接触的 “强度”是指触敏表面上的接触(例如,手指接触)的力或压力(每单位 面积的力),或是指触敏表面上的接触的力或压力的替代物(代用物)。 接触的强度具有值范围,该值范围包括至少四个不同的值并且更典型地包 括上百个不同的值(例如至少256个)。接触的强度任选地使用各种方法 和各种传感器或传感器的组合来确定(或测量)。例如,在触敏表面下方 或相邻于触敏表面的一个或多个力传感器任选地用于测量触敏表面上的不 同点处的力。在一些具体实施中,来自多个力传感器的力测量被合并(例 如,加权平均),以确定估计的接触力。类似地,触笔的压敏顶端任选地 用于确定触笔在触敏表面上的压力。另选地,在触敏表面上检测到的接触 面积的大小和/或其变化、邻近接触的触敏表面的电容和/或其变化,和/或 邻近接触的触敏表面的电阻和/或其变化任选地被用作触敏表面上的接触的 力或压力的替代物。在一些具体实施中,接触力或压力的替代测量直接用 于确定是否已超过强度阈值(例如,强度阈值以与替代测量对应的单位进 行描述)。在一些具体实施中,接触力或压力的替代物测量被转换成估计 的力或压力,并且估计的力或压力用于确定是否已超过强度阈值(例如, 强度阈值是以压力的单位进行测量的压力阈值)。使用接触的强度作为用 户输入的属性允许用户访问用户在实际面积有限的尺寸更小的设备上本来 不可访问的附加设备功能,该尺寸更小的设备用于(例如在触敏显示器 上)显示示能表示和/或接收用户输入(例如经由触敏显示器、触敏表面或 物理控件/机械控件,诸如旋钮或按钮)。
如本说明书和权利要求书中所使用的,术语“触觉输出”是指将由用 户通过用户的触摸感检测到的设备相对于设备的先前位置的物理位移、设 备的部件(例如,触敏表面)相对于设备的另一个部件(例如,外壳)的 物理位移、或部件相对于设备的质心的位移。例如,在设备或设备的部件 与用户对触摸敏感的表面(例如,手指、手掌或用户手部的其他部分)接 触的情况下,通过物理位移生成的触觉输出将由用户解释为触感,该触感 对应于设备或设备的部件的物理特征的所感知的变化。例如,触敏表面 (例如,触敏显示器或触控板)的移动任选地由用户解释为对物理致动按 钮的“按下点击”或“松开点击”。在一些情况下,用户将感觉到触感, 诸如“按下点击”或“松开点击”,即使在通过用户的移动而物理地被按 压(例如,被移位)的与触敏表面相关联的物理致动按钮没有移动时。作 为另一个示例,即使在触敏表面的光滑度无变化时,触敏表面的移动也会 任选地由用户解释为或感测为触敏表面的“粗糙度”。虽然由用户对触摸 的此类解释将受到用户的个体化感官知觉的限制,但是存在触摸的许多感 官知觉是大多数用户共有的。因此,当触觉输出被描述为对应于用户的特 定感官知觉(例如“松开点击”、“按下点击”、“粗糙度”)时,除非 另外陈述,否则所生成的触觉输出对应于设备或其部件的物理位移,该物 理位移将生成典型(或普通)用户的所描述的感官知觉。
应当理解,设备100仅是一种便携式多功能设备的一个示例,并且设 备100任选地具有比所示出的更多或更少的部件,任选地组合两个或更多 个部件,或者任选地具有这些部件的不同配置或布置。图1A中所示的各种 部件以硬件、软件、或硬件与软件两者的组合来实现,其包括一个或多个 信号处理电路和/或专用集成电路。
存储器102任选地包括高速随机存取存储器,并且任选地还包括非易 失性存储器,诸如一个或多个磁盘存储设备、闪存存储器设备、或其他非 易失性固态存储器设备。存储器控制器122任选地控制设备100的其他部 件访问存储器102。
外围设备接口118可用于将设备的输入外围设备和输出外围设备耦接 至CPU 120和存储器102。一个或多个处理器120运行或执行被存储在存 储器102中的各种软件程序和/或指令集,以执行设备100的各种功能并处 理数据。在一些实施方案中,外围设备接口118、CPU 120和存储器控制器122任选地被实现在单个芯片诸如芯片104上。在一些其他实施方案中,它 们任选地被实现在独立的芯片上。
RF(射频)电路108接收和发送也被叫做电磁信号的射频信号。RF电 路108将电信号转换为电磁信号/将电磁信号转换为电信号,并且经由电磁 信号来与通信网络以及其他通信设备进行通信。RF电路108任选地包括用 于执行这些功能的熟知的电路,包括但不限于天线系统、RF收发器、一个 或多个放大器、调谐器、一个或多个振荡器、数字信号处理器、编解码芯 片组、用户身份模块(SIM)卡、存储器等等。RF电路108任选地通过无线 通信来与网络以及其他设备进行通信,该网络为诸如互联网(也被称为万 维网(WWW))、内联网、和/或无线网络(诸如蜂窝电话网络、无线局域网 (LAN)和/或城域网(MAN))。RF电路108任选地包括用于检测近场通信 (NFC)场的熟知的电路,诸如通过近程通信无线电部件来进行检测。无线通 信任选地使用多种通信标准、协议和技术中的任一者,包括但不限于全球 移动通信系统(GSM)、增强型数据GSM环境(EDGE)、高速下行链路分组接 入(HSDPA)、高速上行链路分组接入(HSUPA)、演进、纯数据(EV-DO)、 HSPA、HSPA+、双单元HSPA(DC-HSPDA)、长期演进(LTE)、近场通信 (NFC)、宽带码分多址(W-CDMA)、码分多址(CDMA)、时分多址 (TDMA)、蓝牙、蓝牙低功耗、无线保真(Wi-Fi)(例如,IEEE 802.11a、 IEEE 802.11b、IEEE 802.11g、IEEE 802.11n和/或IEEE 802.11ac)、互联网 协议语音(VoIP)、Wi-MAX、电子邮件协议(例如,互联网消息访问协议 (IMAP)和/或邮局协议(POP))、即时消息(例如,可扩展消息处理和存在 协议(XMPP)、用于即时消息和存在利用扩展的会话发起协议(SIMPLE)、即 时消息和存在服务(IMPS))和/或短消息服务(SMS),或者包括在本文档提 交日期时还未开发出的通信协议的任何其他适当的通信协议。
音频电路110、扬声器111和麦克风113提供用户与设备100之间的音 频接口。音频电路110从外围设备接口118接收音频数据,将音频数据转 换为电信号,并将电信号传输到扬声器111。扬声器111将电信号转换为人 类可听见的声波。音频电路110还接收由麦克风113根据声波转换的电信 号。音频电路110将电信号转换为音频数据,并将音频数据传输到外围设 备接口118以用于处理。音频数据任选地由外围设备接口118检索自和/或 传输至存储器102和/或RF电路108。在一些实施方案中,音频电路110还 包括耳麦插孔(例如,图2中的212)。耳麦插孔提供音频电路110和可移 除的音频输入/输出外围设备之间的接口,该可移除的音频输入/输出外围设 备诸如仅输出的耳机或者具有输出(例如,单耳耳机或双耳耳机)和输入 (例如,麦克风)两者的耳麦。
I/O子系统106将设备100上的输入/输出外围设备诸如触摸屏112和 其他输入控制设备116耦接至外围设备接口118。I/O子系统106任选地包 括显示控制器156、光学传感器控制器158、强度传感器控制器159、触觉 反馈控制器161、和用于其他输入或控制设备的一个或多个输入控制器 160。该一个或多个输入控制器160从其他输入控制设备116接收电信号/将 电信号发送到其他输入控制设备116。其他输入控制设备116任选地包括物 理按钮(例如,下压按钮、摇臂按钮等)、拨号盘、滑动开关、操纵杆、 点击轮等等。在一些另选的实施方案中,一个或多个输入控制器160任选 地耦接至以下各项中的任一者(或不耦接至以下各项中的任一者):键 盘、红外线端口、USB端口、以及指针设备诸如鼠标。一个或多个按钮 (例如,图2中的208)任选地包括用于扬声器111和/或麦克风113的音 量控制的增大/减小按钮。一个或多个按钮任选地包括下压按钮(例如,图 2中的206)。
快速按下下压按钮任选地解除对触摸屏112的锁定或者任选地开始使 用触摸屏上的手势来对设备进行解锁的过程,如于2005年12月23日提交 的名称为“Unlocking aDevice by Performing Gestures on an Unlock Image” 的美国专利申请11/322,549,即美国专利No.7,657,849中所述的,上述美 国专利申请全文以引用方式并入本文。更长地按下下压按钮(例如206)任 选地使设备100开机或关机。按钮的一个或多个的功能任选地是可由用户 定制的。触摸屏112用于实现虚拟按钮或软按钮以及一个或多个软键盘。
触敏显示器112提供设备和用户之间的输入接口和输出接口。显示控 制器156从触摸屏112接收电信号和/或将电信号发送至触摸屏112。触摸 屏112向用户显示视觉输出。视觉输出任选地包括图形、文本、图标、视 频、和它们的任何组合(统称为“图形”)。在一些实施方案中,一些视 觉输出或全部的视觉输出任选地对应于用户界面对象。
触摸屏112具有基于触觉和/或触觉接触来接受来自用户的输入的触敏 表面、传感器、或传感器组。触摸屏112和显示控制器156(与存储器102 中的任何相关联的模块和/或指令集一起)检测触摸屏112上的接触(和该 接触的任何移动或中断),并且将所检测到的接触转换为与被显示在触摸 屏112上的用户界面对象(例如,一个或多个软键、图标、网页、或图 像)的交互。在一个示例性实施方案中,触摸屏112和用户之间的接触点 对应于用户的手指。
触摸屏112任选地使用LCD(液晶显示器)技术、LPD(发光聚合物 显示器)技术、或LED(发光二极管)技术,尽管在其他实施方案中使用 了其他显示技术。触摸屏112和显示控制器156任选地使用目前已知或以 后将开发的多种触摸感测技术中的任何触摸感测技术以及其他接近传感器 阵列或用于确定与触摸屏112接触的一个或多个点的其他元素来检测接触 及其任何移动或中断,该多种触摸感测技术包括但不限于电容性、电阻 性、红外和表面声波技术。在一个示例性实施方案中,使用投射式互电容 感测技术,诸如在AppleInc.(Cupertino,California)的和iPod 中发现的技术。
触摸屏112的一些实施方案中的触敏显示器任选地类似于在以下美国 专利中所述的多点触敏触摸板:6,323,846(Westerman等人)、6,570,557 (Westerman等人)和/或6,677,932(Westerman);和/或美国专利公开 2002/0015024A1,这些专利申请中的每个专利申请全文以引用方式并入本 文。然而,触摸屏112显示来自设备100的视觉输出,而触敏触摸板不提 供视觉输出。
触摸屏112的一些实施方案中的触敏显示器在以下专利申请中进行描 述:(1)于2006年5月2日提交的标题为“Multipoint Touch Surface Controller”的美国专利申请No.11/381,313;(2)于2004年5月6日提交的 标题为“Multipoint Touchscreen”的美国专利申请No.10/840,862;(3)于 2004年7月30日提交的标题为“Gestures For TouchSensitive Input Devices”的美国专利申请No.10/903,964;(4)于2005年1月31日提交的标 题为“Gestures For Touch Sensitive Input Devices”的美国专利申请No. 11/048,264;(5)于2005年1月18日提交的标题为“Mode-Based Graphical User Interfaces ForTouch Sensitive Input Devices”的美国专利申请No. 11/038,590;(6)于2005年9月16日提交的标题为“Virtual Input Device Placement On A Touch Screen User Interface”的美国专利申请No. 11/228,758;(7)于2005年9月16日提交的标题为“Operation Of AComputer With A Touch Screen Interface”的美国专利申请No.11/228,700; (8)于2005年9月16日提交的标题为“Activating Virtual Keys Of A Touch- Screen VirtualKeyboard”的美国专利申请No.11/228,737;以及(9)于2006 年3月3日提交的标题为“Multi-Functional Hand-Held Device”的美国专利 申请No.11/367,749。所有这些专利申请全文以引用方式并入本文。
触摸屏112任选地具有超过100dpi的视频分辨率。在一些实施方案 中,触摸屏具有约160dpi的视频分辨率。用户任选地使用任何合适的物体 或附加物诸如触笔、手指等等来与触摸屏112接触。在一些实施方案中, 将用户界面设计用于主要与基于手指的接触和手势一起工作,由于手指在 触摸屏上的接触面积较大,因此这可能不如基于触笔的输入那样精确。在 一些实施方案中,设备将基于手指的粗略输入转化为精确的指针/光标位置 或命令,以用于执行用户所期望的动作。
在一些实施方案中,除了触摸屏之外,设备100任选地包括用于激活 或去激活特定功能的触摸板(未示出)。在一些实施方案中,触摸板是设 备的触敏区域,该触敏区域与触摸屏不同,其不显示视觉输出。触摸板任 选地是与触摸屏112分开的触敏表面,或者是由触摸屏形成的触敏表面的 延伸。
设备100还包括用于为各种部件供电的电力系统162。电力系统162任 选地包括电力管理系统、一个或多个电源(例如,电池、交流电(AC))、 再充电系统、电力故障检测电路、功率转换器或逆变器、电力状态指示器 (例如,发光二极管(LED))、和与便携式设备中电力的生成、管理和分配 相关联的任何其他部件。
设备100任选地还包括一个或多个光学传感器164。图1A示出了耦接 至I/O子系统106中的光学传感器控制器158的光学传感器。光学传感器 164任选地包括电荷耦合器件(CCD)或互补金属氧化物半导体(CMOS)光电 晶体管。光学传感器164从环境接收通过一个或多个透镜而投射的光,并 且将光转换为表示图像的数据。结合成像模块143(也叫做相机模块),光 学传感器164任选地捕获静态图像或视频。在一些实施方案中,光学传感 器位于设备100的与设备的前部上的触摸屏显示器112相背对的后部上, 使得触摸屏显示器能够用作用于静态图像和/或视频图像采集的取景器。在 一些实施方案中,光学传感器位于设备的前部,使得在用户在触摸屏显示 器上查看其他视频会议参与者时任选地获取该用户的图像,以用于视频会 议。在一些实施方案中,光学传感器164的位置可由用户改变(例如通过 旋转设备外壳中的透镜和传感器),使得单个光学传感器164与触摸屏显 示器一起使用,以用于视频会议和静态图像和/或视频图像采集两者。
设备100任选地还包括一个或多个接触强度传感器165。图1A示出了 耦接至I/O子系统106中的强度传感器控制器159的接触强度传感器。接触 强度传感器165任选地包括一个或多个压阻应变仪、电容式力传感器、电 气力传感器、压电力传感器、光学力传感器、电容式触敏表面、或其他强 度传感器(例如,用于测量触敏表面上的接触的力(或压力)的传感 器)。接触强度传感器165从环境接收接触强度信息(例如,压力信息或 压力信息的代用物)。在一些实施方案中,至少一个接触强度传感器与触 敏表面(例如,触敏显示系统112)并置排列或邻近。在一些实施方案中, 至少一个接触强度传感器位于设备100的与位于设备100的前部上的触摸 屏显示器112相背对的后部上。
设备100任选地还包括一个或多个接近传感器166。图1A示出了耦接 至外围设备接口118的接近传感器166。另选地,接近传感器166任选地耦 接至I/O子系统106中的输入控制器160。接近传感器166任选地如以下美 国专利申请中所述的那样执行:No.11/241,839,标题为“Proximity Detector In Handheld Device”;No.11/240,788,标题为“Proximity Detector In Handheld Device”;No.11/620,702,标题为“Using AmbientLight Sensor To Augment Proximity Sensor Output”;No.11/586,862,标题为“Automated Response To And Sensing Of User Activity In Portable Devices”;以及No.11/638,251,标题为“Methods And Systems For Automatic Configuration OfPeripherals”,这些美国专利申请全文以引用方 式并入本文。在一些实施方案中,当多功能设备被置于用户的耳朵附近时 (例如,当用户正在进行电话呼叫时),接近传感器关闭并且禁用触摸屏 112。
设备100任选地还包括一个或多个触觉输出发生器167。图1A示出了 耦接至I/O子系统106中的触觉反馈控制器161的触觉输出发生器。触觉输 出发生器167任选地包括一个或多个电声设备诸如扬声器或其他音频部 件;和/或用于将能量转换成线性运动的机电设备诸如电机、螺线管、电活 性聚合物、压电致动器、静电致动器、或其他触觉输出生成部件(例如, 用于将电信号转换成设备上的触觉输出的部件)。接触强度传感器165从 触觉反馈模块133接收触觉反馈生成指令,并且在设备100上生成能够由 设备100的用户感觉到的触觉输出。在一些实施方案中,至少一个触觉输 出发生器与触敏表面(例如,触敏显示系统112)并置排列或邻近,并且任 选地通过竖直地(例如,向设备100的表面内/外)或侧向地(例如,在与 设备100的表面相同的平面中向后和向前)移动触敏表面来生成触觉输 出。在一些实施方案中,至少一个触觉输出发生器传感器位于设备100的 与位于设备100的前部上的触摸屏显示器112相背对的后部上。
设备100任选地还包括一个或多个加速度计168。图1A示出了耦接至 外围设备接口118的加速度计168。另选地,加速度计168任选地耦接至 I/O子系统106中的输入控制器160。加速度计168任选地如以下美国专利 公开中所述的那样执行:No.20050190059,标题为“Acceleration-based Theft Detection System for Portable Electronic Devices”和No.20060017692, 标题为“Methods And Apparatuses For Operating A PortableDevice Based On An Accelerometer”,这两个美国专利公开均全文以引用方式并入本文。在 一些实施方案中,信息基于对从一个或多个加速度计所接收的数据的分析 而在触摸屏显示器上以纵向视图或横向视图被显示。设备100任选地除了 一个或多个加速度计168之外还包括用于获取关于设备100的位置和取向 (例如,纵向或横向)的信息的磁力仪(未示出)和GPS(或GLONASS 或其他全球导航系统)接收器(未示出)。
在一些实施方案中,被存储在存储器102中的软件部件包括操作系统 126、通信模块(或指令集)128、接触/运动模块(或指令集)130、图形模 块(或指令集)132、文本输入模块(或指令集)134、全球定位系统(GPS) 模块(或指令集)135、以及应用程序(或指令集)136。此外,在一些实 施方案中,存储器102(图1A)或370(图3)存储设备/全局内部状态157,如图1A和图3中所示的。设备/全局内部状态157包括以下各项中的 一者或多者:活动应用程序状态,该活动应用程序状态用于指示哪些应用 程序(如果有的话)当前是活动的;显示状态,该显示状态用于指示什么 应用程序、视图或其他信息占据触摸屏显示器112的各个区域;传感器状 态,该传感器状态包括从设备的各个传感器和输入控制设备116获取的信 息;以及关于设备位置和/或姿态的位置信息。
操作系统126(例如,Darwin、RTXC、LINUX、UNIX、OS X、 iOS、WINDOWS、或嵌入式操作系统诸如VxWorks)包括用于控制和管理 一般系统任务(例如,存储器管理、存储设备控制、功率管理等)的各种 软件部件和/或驱动程序,并且促进各种硬件部件和软件部件之间的通信。
通信模块128促进通过一个或多个外部端口124与其他设备进行通 信,并且还包括用于处理由RF电路108和/或外部端口124所接收的数据 的各种软件部件。外部端口124(例如,通用串行总线(USB)、火线等)适 于直接耦接至其他设备或通过网络(例如,互联网、无线LAN等)间接耦 接。在一些实施方案中,外部端口是与(Apple Inc.的商标)设备上所 使用的30针连接器相同的或类似的和/或与其兼容的多针(例如,30针) 连接器。
接触/运动模块130任选地检测与触摸屏112(结合显示器控制器 156)和其他触敏设备(例如,触摸板或物理点击轮)的接触。接触/运动模 块130包括各种软件部件以用于执行与接触检测相关的各种操作,诸如确 定是否已发生接触(例如,检测手指按下事件)、确定接触的强度(例 如,接触的力或压力,或者接触的力或压力的替代物)、确定是否存在接触的移动并跟踪在触敏表面上的移动(例如,检测一个或多个手指拖动事 件)、以及确定接触是否已停止(例如,检测手指抬起事件或者接触中 断)。接触/运动模块130从触敏表面接收接触数据。确定接触点的移动任 选地包括确定接触点的速率(量值)、速度(量值和方向)、和/或加速度 (量值和/或方向的改变),该接触点的移动由一系列接触数据来表示。这些操作任选地被应用于单点接触(例如,单指接触)或者多点同时接触 (例如,“多点触摸”/多个手指接触)。在一些实施方案中,接触/运动模 块130和显示控制器156检测触摸板上的接触。
在一些实施方案中,接触/运动模块130使用一组一个或多个强度阈值 来确定操作是否已由用户执行(例如,确定用户是否已“点击”图标)。 在一些实施方案中,根据软件参数来确定强度阈值的至少一个子集(例 如,强度阈值不是由特定物理致动器的激活阈值来确定的,并且可在不改 变设备100的物理硬件的情况下被调节)。例如,在不改变触控板或触摸 屏显示器硬件的情况下,触控板或触摸屏的鼠标“点击”阈值可被设置为 预定义的阈值的大范围中的任一个阈值。另外,在一些具体实施中,向设 备的用户提供用于调节一组强度阈值中的一个或多个强度阈值(例如,通 过调节各个强度阈值和/或通过利用对“强度”参数的系统级点击来一次调 节多个强度阈值)的软件设置。
接触/运动模块130任选地检测用户进行的手势输入。触敏表面上的不 同手势具有不同的接触图案(例如,所检测到的接触的不同的运动、定时 和/或强度)。因此,任选地通过检测特定接触图案来检测手势。例如,检 测手指轻击手势包括检测手指按下事件,然后在与手指按下事件相同的位 置(或基本上相同的位置)处(例如,在图标的位置处)检测手指抬起 (抬离)事件。作为另一个示例,在触敏表面上检测手指轻扫手势包括检 测手指按下事件,然后检测一个或多个手指拖动事件,并且随后检测手指 抬起(抬离)事件。
图形模块132包括用于在触摸屏112或其他显示器上呈现和显示图形 的各种已知的软件部件,包括用于改变所显示的图形的视觉冲击(例如, 亮度、透明度、饱和度、对比度、或其他视觉属性)的部件。如本文所 用,术语“图形”包括可被显示至用户的任何对象,其非限制性地包括文 本、网页、图标(诸如包括软键的用户界面对象)、数字图像、视频、动画等。
在一些实施方案中,图形模块132存储用于表示将要使用的图形的数 据。每个图形任选地被分配有对应的代码。图形模块132从应用程序等接 收指定将要显示的图形的一个或多个代码,在必要的情况下还接收坐标数 据和其他图形属性数据,并且然后生成屏幕图像数据,以输出至显示控制 器156。
触觉反馈模块133包括用于生成指令的各种软件部件,这些指令由一 个或多个触觉输出发生器167用于响应于与设备100的用户交互而在设备 100上的一个或多个位置处产生触觉输出。
任选地作为图形模块132的部件的文本输入模块134提供用于在各种 应用程序(例如,联系人137、电子邮件140、IM 141、浏览器147、和需 要文本输入的任何其他应用程序)中输入文本的软键盘。
GPS模块135确定设备的位置并提供该信息以用于各种应用程序(例 如,提供至电话138以用于基于位置的拨号、提供至相机143作为图片/视 频元数据,以及提供至提供基于位置的服务的应用程序,诸如天气桌面小 程序、本地黄页桌面小程序、和地图/导航桌面小程序)。
应用程序136任选地包括以下模块(或指令集)或者其子集或超集:
·联系人模块137(有时叫做通讯录或联系人列表);
·电话模块138;
·视频会议模块139;
·电子邮件客户端模块140;
·即时消息(IM)模块141;
·健身支持模块142;
·用于静态图像和/或视频图像的相机模块143;
·图像管理模块144;
·视频播放器模块;
·音乐播放器模块;
·浏览器模块147;
·日历模块148;
·桌面小程序模块149,其任选地包括以下各项中的一者或多者:天 气桌面小程序149-1、股市桌面小程序149-2、计算器桌面小程序 149-3、闹钟桌面小程序149-4、词典桌面小程序149-5、和由用户 获取的其他桌面小程序,以及用户创建的桌面小程序149-6;
·用于形成用户创建的桌面小程序149-6的桌面小程序创建器模块 150;
·搜索模块151;
·视频和音乐播放器模块152,其合并视频播放器模块和音乐播放器 模块;
·记事本模块153;
·地图模块154;和/或
·在线视频模块155。
任选地被存储在存储器102中的其他应用程序136的示例包括其他文 字处理应用程序、其他图像编辑应用程序、绘图应用程序、呈现应用程 序、支持JAVA的应用程序、加密、数字权益管理、语音识别、和语音复 制。
结合触摸屏112、显示控制器156、接触/运动模块130、图形模块132 和文本输入模块134,联系人模块137任选地用于管理通讯录或联系人列表 (例如,被存储在存储器102或存储器370中的联系人模块137的应用程 序内部状态192中),包括:将一个或多个姓名添加至通讯录;从通讯录 中删除一个或多个姓名;使一个或多个电话号码、一个或多个电子邮件地 址、一个或多个物理地址或其他信息与姓名关联;将图像与姓名关联;对 姓名进行分类和排序;提供电话号码或电子邮件地址,以发起和/或促进通 过电话138、视频会议模块139、电子邮件140或IM 141进行的通信等 等。
结合RF电路108、音频电路110、扬声器111、麦克风113、触摸屏 112、显示控制器156、接触/运动模块130、图形模块132和文本输入模块 134,电话模块138任选地用于输入与电话号码对应的字符序列、访问联系 人模块137中的一个或多个电话号码、修改已输入的电话号码、拨打相应 的电话号码、进行会话、以及当会话完成时断开或挂断。如上所述,无线 通信任选地使用多种通信标准、协议和技术中的任一者。
结合RF电路108、音频电路110、扬声器111、麦克风113、触摸屏 112、显示控制器156、光学传感器164、光学传感器控制器158、接触/运 动模块130、图形模块132、文本输入模块134、联系人模块137和电话模 块138,视频会议模块139包括根据用户指令来发起、执行和终止用户与一 个或多个其他参与方之间的视频会议的可执行指令。
结合RF电路108、触摸屏112、显示控制器156、接触/运动模块 130、图形模块132和文本输入模块134,电子邮件客户端模块140包括响 应于用户指令来创建、发送、接收和管理电子邮件的可执行指令。结合图 像管理模块144,电子邮件客户端模块140使得非常容易创建和发送具有由 相机模块143拍摄的静态图像或视频图像的电子邮件。
结合RF电路108、触摸屏112、显示控制器156、接触/运动模块 130、图形模块132和文本输入模块134,即时消息模块141包括用于以下 操作的可执行指令:输入与即时消息对应的字符序列、修改先前输入的字 符、传输相应即时消息(例如,使用短消息服务(SMS)或多媒体消息服务(MMS)协议以用于基于电话的即时消息或者使用XMPP、SIMPLE或IMPS 以用于基于互联网的即时消息)、接收即时消息以及查看所接收的即时消 息。在一些实施方案中,所传输和/或接收的即时消息任选地包括图形、照 片、音频文件、视频文件、和/或MMS和/或增强消息服务(EMS)中所支持 的其他附件。如本文所用,“即时消息”是指基于电话的消息(例如,使 用SMS或MMS发送的消息)和基于互联网的消息(例如,使用XMPP、 SIMPLE、或IMPS发送的消息)两者。
结合RF电路108、触摸屏112、显示控制器156、接触/运动模块 130、图形模块132、文本输入模块134、GPS模块135、地图模块154和音 乐播放器模块,健身支持模块142包括用于以下操作的可执行指令:创建 健身(例如具有时间、距离、和/或卡路里燃烧目标);与健身传感器(运 动设备)进行通信;接收健身传感器数据;校准用于监视健身的传感器; 选择健身音乐并进行播放;以及显示、存储和传输健身数据。
结合触摸屏112、显示控制器156、一个或多个光学传感器164、光学 传感器控制器158、接触/运动模块130、图形模块132和图像管理模块 144,相机模块143包括用于捕获静态图像或视频(包括视频流)并且将它 们存储到存储器102中、修改静态图像或视频的特征、或从存储器102删 除静态图像或视频的可执行指令。
结合触摸屏112、显示控制器156、接触/运动模块130、图形模块 132、文本输入模块134和相机模块143,图像管理模块144包括用于排 列、修改(例如,编辑)、或以其他方式操控、加标签、删除、呈现(例 如,在数字幻灯片或相册中)以及存储静态图像和/或视频图像的可执行指 令。
结合RF电路108、触摸屏112、显示控制器156、接触/运动模块 130、图形模块132和文本输入模块134,浏览器模块147包括用于根据用 户指令来浏览互联网(包括搜索、链接至、接收和显示网页或其部分以及 链接至网页的附件和其他文件)的可执行指令。
结合RF电路108、触摸屏112、显示控制器156、接触/运动模块 130、图形模块132、文本输入模块134、电子邮件客户端模块140和浏览 器模块147,日历模块148包括用于根据用户指令来创建、显示、修改和存 储日历以及与日历相关联的数据(例如,日历条目、待办事项等)的可执 行指令。
结合RF电路108、触摸屏112、显示控制器156、接触/运动模块 130、图形模块132、文本输入模块134和浏览器模块147,桌面小程序模 块149是任选地由用户下载和使用的微型应用程序(例如,天气桌面小程 序149-1、股市桌面小程序149-2、计算器桌面小程序149-3、闹钟桌面小程 序149-4、和词典桌面小程序149-5)或由用户创建的微型应用程序(例如,用户创建的桌面小程序149-6)。在一些实施方案中,桌面小程序包括 HTML(超文本标记语言)文件、CSS(层叠样式表)文件和JavaScript文 件。在一些实施方案中,桌面小程序包括XML(可扩展标记语言)文件和 JavaScript文件(例如,Yahoo!桌面小程序)。
结合RF电路108、触摸屏112、显示控制器156、接触/运动模块 130、图形模块132、文本输入模块134和浏览器模块147,桌面小程序创 建器模块150任选地被用户用于创建桌面小程序(例如,将网页的用户指 定部分转为桌面小程序)。
结合触摸屏112、显示控制器156、接触/运动模块130、图形模块132 和文本输入模块134,搜索模块151包括用于根据用户指令来搜索存储器 102中的匹配一个或多个搜索条件(例如,一个或多个用户指定的搜索词) 的文本、音乐、声音、图像、视频、和/或其他文件的可执行指令。
结合触摸屏112、显示控制器156、接触/运动模块130、图形模块 132、音频电路110、扬声器111、RF电路108和浏览器模块147,视频和 音乐播放器模块152包括允许用户下载和回放以一种或多种文件格式诸如 MP3或AAC文件存储的所录制的音乐和其他声音文件的可执行指令,以及 显示、呈现或以其他方式回放视频(例如,在触摸屏112上或在经由外部 端口124连接的外部显示器上)的可执行指令。在一些实施方案中,设备 100任选地包括MP3播放器诸如iPod(Apple Inc.的商标)的功能。
结合触摸屏112、显示控制器156、接触/运动模块130、图形模块132 和文本输入模块134,记事本模块153包括根据用户指令来创建和管理记事 本、待办事项等的可执行指令。
结合RF电路108、触摸屏112、显示控制器156、接触/运动模块 130、图形模块132、文本输入模块134、GPS模块135和浏览器模块147, 地图模块154任选地用于根据用户指令来接收、显示、修改和存储地图和 与地图相关联的数据(例如,驾驶方向、与特定位置处或附近的商店以及 其他兴趣点有关的数据、以及其他基于位置的数据)。
结合触摸屏112、显示控制器156、接触/运动模块130、图形模块 132、音频电路110、扬声器111、RF电路108、文本输入模块134、电子 邮件客户端模块140和浏览器模块147,在线视频模块155包括允许用户访 问、浏览、接收(例如,流式接收和/或下载)、回放(例如,在触摸屏上 或在经由外部端口124连接的外部显示器上)、发送具有到特定在线视频 的链接的电子邮件,以及以其他方式管理一种或多种文件格式诸如H.264 的在线视频的指令。在一些实施方案中,即时消息模块141而不是电子邮 件客户端模块140用于发送至特定在线视频的链接。在线视频应用程序的 附加描述可在于2007年6月20日提交的标题为“Portable Multifunction Device,Method,and Graphical User Interface forPlaying Online Videos”的美 国临时专利申请No.60/936,562和于2007年12月31日提交的标题为 “Portable Multifunction Device,Method,and Graphical User Interfacefor Playing Online Videos”的美国专利申请No.11/968,067中找到,这两个专 利申请的内容全文以引用方式并入本文。
以上所识别的每个模块和应用程序对应于用于执行上述一种或多种功 能以及在本专利申请中所描述的方法(例如,本文中所描述的计算机实现 的方法和其他信息处理方法)的一组可执行指令。这些模块(例如,指令 集)不必以独立的软件程序、过程或模块实现,因此这些模块的各种子集 任选地在各种实施方案中组合或以其他方式重新布置。例如,视频播放器 模块任选地与音乐播放器模块组合成单个模块(例如,图1A中的视频和音乐播放器模块152)。在一些实施方案中,存储器102任选地存储上述模块 和数据结构的子集。此外,存储器102任选地存储上面未描述的附加模块 和数据结构。
在一些实施方案中,设备100是这样一种设备:该设备上的预定义的 一组功能的操作唯一地通过触摸屏和/或触摸板来执行。通过使用触摸屏和/ 或触摸板作为用于设备100的操作的主要输入控制设备,任选地减少设备 100上的物理输入控制设备(诸如下压按钮、拨号盘等等)的数量。
唯一地通过触摸屏和/或触摸板执行的该预定义的一组功能任选地包括 在用户界面之间的导航。在一些实施方案中,当用户触摸触摸板时,将设 备100从设备100上显示的任何用户界面导航到主菜单、home菜单、或根 菜单。在此类实施方案中,使用触摸板来实现“菜单按钮”。在一些其他 实施方案中,菜单按钮是物理下压按钮或者其他物理输入控制设备,而不 是触摸板。
图1B是示出了根据一些实施方案的用于事件处理的示例性部件的框 图。在一些实施方案中,存储器102(图1A)或存储器370(图3)包括事 件分类器170(例如,在操作系统126中)、以及相应的应用程序136-1 (例如,前述应用程序137-151、155、380-390中的任一个应用程序)。
事件分类器170接收事件信息并确定要将事件信息递送到的应用程序 136-1和应用程序136-1的应用程序视图191。事件分类器170包括事件监 视器171和事件分配器模块174。在一些实施方案中,应用程序136-1包括 应用程序内部状态192,该应用程序内部状态指示当应用程序是活动的或正 在执行时被显示在触敏显示器112上的一个或多个当前应用程序视图。在 一些实施方案中,设备/全局内部状态157被事件分类器170用于确定哪个(哪些)应用程序当前是活动的,并且应用程序内部状态192被事件分类 器170用于确定要将事件信息递送到的应用程序视图191。
在一些实施方案中,应用程序内部状态192包括附加信息,诸如以下 各项中的一者或多者:当应用程序136-1恢复执行时将被使用的恢复信息、 指示正被应用程序136-1显示的信息或准备好用于被应用程序136-1显示的 信息的用户界面状态信息、用于使得用户能够返回到应用程序136-1的前一 状态或视图的状态队列、以及用户采取的先前动作的重复/撤销队列。
事件监视器171从外围设备接口118接收事件信息。事件信息包括关 于子事件(例如,触敏显示器112上的作为多点触摸手势的一部分的用户 触摸)的信息。外围设备接口118传输其从I/O子系统106或传感器(诸如 接近传感器166、一个或多个加速度计168和/或麦克风113(通过音频电路 110))接收的信息。外围设备接口118从I/O子系统106接收的信息包括 来自触敏显示器112或触敏表面的信息。
在一些实施方案中,事件监视器171以预先确定的间隔来向外围设备 接口118发送请求。作为响应,外围设备接口118传输事件信息。在其他 实施方案中,外围设备接口118仅当存在显著事件(例如,接收到高于预 先确定的噪声阈值的输入和/或接收到超过预先确定的持续时间的输入)时 才传输事件信息。
在一些实施方案中,事件分类器170还包括命中视图确定模块172和/ 或活动事件识别器确定模块173。
命中视图确定模块172提供用于在触敏显示器112显示多于一个视图 时确定子事件已发生在一个或多个视图内的哪个位置的软件程序。视图由 用户可在显示器上查看的控件和其他元素组成。
与应用程序相关联的用户界面的另一个方面是一组视图,在本文中有 时也被称为应用程序视图或用户界面窗口,其中信息被显示并且基于触摸 的手势发生。在其中检测到触摸的(相应应用程序的)应用程序视图任选 地对应于在应用程序的程序化或视图分级结构内的程序化水平。例如,在 其中检测到触摸的最低水平视图任选地被称为命中视图,并且被认为是正 确输入的事件集任选地至少部分地基于初始触摸的命中视图来确定,该初 始触摸开始基于触摸的手势。
命中视图确定模块172接收与基于接触的手势的子事件相关的信息。 当应用程序具有在分级结构中组织的多个视图时,命中视图确定模块172 将命中视图识别为应对子事件进行处理的分级结构中的最低视图。在大多 数情况下,命中视图是发起子事件(例如,形成事件或潜在事件的子事件 序列中的第一子事件)在其中发生的最低水平视图。一旦命中视图被命中 视图确定模块172识别,命中视图便通常接收与其被识别为命中视图所针 对的同一触摸或输入源相关的所有子事件。
活动事件识别器确定模块173确定视图分级结构内的哪个或哪些视图 应当接收特定的子事件序列。在一些实施方案中,活动事件识别器确定模 块173确定仅命中视图才应接收特定子事件序列。在其他实施方案中,活 动事件识别器确定模块173确定包括子事件的物理位置的所有视图是活跃 参与的视图,并且因此确定所有活跃参与的视图应接收特定子事件序列。 在其他实施方案中,即使触摸子事件完全被局限到与一个特定视图相关联 的区域,分级结构中的更高的视图将仍然保持为活跃参与的视图。
事件分配器模块174将事件信息分配到事件识别器(例如,事件识别 器180)。在包括活动事件识别器确定模块173的实施方案中,事件分配器 模块174将事件信息递送到由活动事件识别器确定模块173确定的事件识 别器。在一些实施方案中,事件分配器模块174在事件队列中存储事件信 息,该事件信息由相应事件接收器182进行检索。
在一些实施方案中,操作系统126包括事件分类器170。另选地,应 用程序136-1包括事件分类器170。在其他实施方案中,事件分类器170是 独立的模块,或者是被存储在存储器102中的另一个模块(诸如接触/运动 模块130)的一部分。
在一些实施方案中,应用程序136-1包括多个事件处理程序190和一 个或多个应用程序视图191,该一个或多个应用程序视图中的每个应用程序 视图包括用于处理发生在应用程序的用户界面的相应视图内的触摸事件的 指令。应用程序136-1的每个应用程序视图191包括一个或多个事件识别器 180。通常,相应应用程序视图191包括多个事件识别器180。在其他实施 方案中,事件识别器180中的一个或多个事件识别器是独立模块的一部分,该独立模块诸如用户界面工具包(未示出)或应用程序136-1从中继承 方法和其他属性的更高水平的对象。在一些实施方案中,相应事件处理程 序190包括以下各项中的一者或多者:数据更新器176、对象更新器177、 GUI更新器178、和/或从事件分类器170所接收的事件数据179。事件处理 程序190任选地利用或调用数据更新器176、对象更新器177或GUI更新 器178,以更新应用程序内部状态192。另选地,应用程序视图191中的一 个或多个应用程序视图包括一个或多个相应事件处理程序190。另外,在一 些实施方案中,数据更新器176、对象更新器177和GUI更新器178中的 一者或多者被包括在相应应用程序视图191中。
相应的事件识别器180从事件分类器170接收事件信息(例如,事件 数据179),并且从该事件信息识别事件。事件识别器180包括事件接收器 182和事件比较器184。在一些实施方案中,事件识别器180还包括元数据 183和事件递送指令188(其任选地包括子事件递送指令)的至少一个子 集。
事件接收器182从事件分类器170接收事件信息。事件信息包括关于 子事件(例如触摸或触摸移动)的信息。根据子事件,事件信息还包括附 加信息诸如子事件的位置。当子事件涉及触摸的运动时,事件信息任选地 还包括子事件的速率和方向。在一些实施方案中,事件包括设备从一个取 向旋转到另一个取向(例如,从纵向取向旋转到横向取向,或反之亦 然),并且事件信息包括关于设备的当前取向(也被称为设备姿态)的对 应信息。
事件比较器184将事件信息与预定义的事件或子事件定义进行比较, 并且基于该比较来确定事件或子事件,或者确定或更新事件或子事件的状 态。在一些实施方案中,事件比较器184包括事件定义186。事件定义186 包含事件的定义(例如,预定义的子事件序列),例如事件1(187-1)、事 件2(187-2)、以及其他事件。在一些实施方案中,事件187中的子事件包 括例如触摸开始、触摸结束、触摸移动、触摸取消、和多点触摸。在一个 示例中,事件1(187-1)的定义是显示对象上的双击。例如,双击包括所显 示的对象上的预先确定时长的第一次触摸(触摸开始)、预先确定时长的 第一次抬起(触摸结束)、所显示的对象上的预先确定时长的第二次触摸 (触摸开始)、以及预先确定时长的第二次抬起(触摸结束)。在另一个 示例中,事件2(187-2)的定义是显示对象上的拖动。例如,拖动包括所显 示的对象上的预先确定时长的触摸(或接触)、触摸在触敏显示器112上 的移动、以及触摸的抬起(触摸结束)。在一些实施方案中,事件还包括 用于一个或多个相关联的事件处理程序190的信息。
在一些实施方案中,事件定义187包括用于相应用户界面对象的事件 的定义。在一些实施方案中,事件比较器184执行命中测试,以确定哪个 用户界面对象与子事件相关联。例如,在应用程序视图(其中在触摸显示 器112上显示三个用户界面对象)中,当在触敏显示器112上检测到触摸 时,事件比较器184执行命中测试,以确定这三个用户界面对象中的哪个 用户界面对象与触摸(子事件)相关联。如果每个显示对象与相应的事件 处理程序190相关联,则事件比较器使用该命中测试的结果来确定哪个事 件处理程序190应当被激活。例如,事件比较器184选择与子事件和触发 该命中测试的对象相关联的事件处理程序。
在一些实施方案中,相应事件187的定义还包括延迟动作,该延迟动 作将延迟事件信息的递送,直到已确定子事件的序列是否确实对应于或不 对应于事件识别器的事件类型之后。
当相应事件识别器180确定子事件系列不与事件定义186中的任何事 件匹配时,该相应事件识别器180进入事件不可能、事件失败或事件结束 状态,在此之后忽略基于触摸的手势的后续子事件。在这种情况下,对于 命中视图保持活动的其他事件识别器(如果有的话)继续跟踪和处理正在 进行的基于触摸的手势的子事件。
在一些实施方案中,相应事件识别器180包括具有指示事件递送系统 应当如何执行对主动参与的事件识别器的子事件递送的可配置属性、标志 和/或列表的元数据183。在一些实施方案中,元数据183包括指示事件识 别器彼此如何交互或如何能够交互的可配置属性、标志和/或列表。在一些 实施方案中,元数据183包括指示子事件是否递送到视图或程序化分级结 构中的不同层级的可配置属性、标志和/或列表。
在一些实施方案中,当事件的一个或多个特定的子事件被识别时,相 应的事件识别器180激活与事件相关联的事件处理程序190。在一些实施方 案中,相应事件识别器180将与事件相关联的事件信息递送到事件处理程 序190。激活事件处理程序190不同于将子事件发送(和延期发送)到相应 命中视图。在一些实施方案中,事件识别器180抛出与所识别的事件相关 联的标志,并且与该标志相关联的事件处理程序190获取该标志并执行预定义的过程。
在一些实施方案中,事件递送指令188包括子事件递送指令,该子事 件递送指令递送关于子事件的事件信息而无需激活事件处理程序。相反, 子事件递送指令将事件信息递送到与子事件串相关联的事件处理程序或递 送到活跃参与的视图。与子事件序列或与活跃参与的视图相关联的事件处 理程序接收事件信息并执行预先确定的过程。
在一些实施方案中,数据更新器176创建和更新在应用程序136-1中 所使用的数据。例如,数据更新器176在对联系人模块137中使用的电话 号码进行更新,或者对视频播放器模块中所使用的视频文件进行存储。在 一些实施方案中,对象更新器177创建和更新在应用程序136-1中使用的对 象。例如,对象更新器177创建新用户界面对象或更新用户界面对象的位 置。GUI更新器178更新GUI。例如,GUI更新器178准备显示信息,并 且将显示信息发送到图形模块132以用于触敏显示器上的显示。
在一些实施方案中,一个或多个事件处理程序190包括或具有对数据 更新器176、对象更新器177和GUI更新器178的访问权限。在一些实施 方案中,数据更新器176、对象更新器177和GUI更新器178被包括在相 应应用程序136-1或应用程序视图191的单个模块中。在其他实施方案中, 它们被包括在两个或更多个软件模块中。
应当理解,上述关于触敏显示器上的用户触摸的事件处理的论述还适 用于利用输入设备来操作多功能设备100的其他形式的用户输入,并不是 所有用户输入都是在触摸屏上发起的。例如,任选地与单次或多次键盘按 压或保持结合的鼠标移动和鼠标按钮按压;触摸板上的接触移动,诸如轻 击、拖动、滚动等;触笔输入;设备的移动;口头指令;所检测到的眼睛 移动;生物特征输入;和/或作为与子事件对应的输入的用于定义要识别的 事件的其任意的组合。
图2示出了根据一些实施方案的具有触摸屏112的便携式多功能设备 100。触摸屏任选地在用户界面(UI)200内显示一个或多个图形。在该实施 方案中以及在下文中描述的其他实施方案中,用户能够通过例如利用一个 或多个手指202(在附图中没有按比例绘制)或者利用一个或多个触笔203 (在附图中没有按比例绘制)在图形上作出手势来选择这些图形中的一个 或多个图形。在一些实施方案中,当用户中断与一个或多个图形的接触 时,将发生对一个或多个图形的选择。在一些实施方案中,手势任选地包 括一次或多次轻击、一次或多次轻扫(从左向右、从右向左、向上和/或向 下)和/或已与设备100发生接触的手指的滚动(从右向左、从左向右、向 上和/或向下)。在一些具体实施中或在一些情况下,不经意地与图形接触 不会选择图形。例如,当与选择对应的手势是轻击时,在应用程序图标上 方扫动的轻扫手势任选地不会选择相应应用程序。
设备100任选地还包括一个或多个物理按钮,诸如“home”或菜单按 钮204。如前所述,菜单按钮204任选地用于导航到任选地在设备100上被 执行的一组应用程序中的任何应用程序136。另选地,在一些实施方案中, 菜单按钮被实现为被显示在触摸屏112上的GUI中的软键。
在一些实施方案中,设备100包括触摸屏112、菜单按钮204、用于使 设备通电/断电和用于锁定设备的下压按钮206、一个或多个音量调节按钮 208、用户身份模块(SIM)卡槽210、耳麦插孔212、和对接/充电外部端口 124。下压按钮206被任选地用于:通过按下按钮并使按钮在下压状态保持 预先确定的时间间隔来使设备通电/断电;通过按下按钮并在经过预先确定 的时间间隔之前释放按钮来锁定设备;和/或对设备进行解锁或发起解锁过程。在另选的实施方案中,设备100还通过麦克风113来接受用于激活或 去激活某些功能的语音输入。设备100还任选地包括用于检测触摸屏112 上的接触的强度的一个或多个接触强度传感器165,和/或用于为设备100 的用户生成触觉输出的一个或多个触觉输出发生器167。
图3是根据一些实施方案的具有显示器和触敏表面的示例性多功能设 备的框图。设备300不必是便携式的。在一些实施方案中,设备300是膝 上型电脑、台式计算机、平板电脑、多媒体播放器设备、导航设备、教育 设备(诸如儿童学习玩具)、游戏系统、或控制设备(例如,家用控制器 或工业用控制器)。设备300通常包括一个或多个处理单元(CPU)310、一个或多个网络或其他通信接口360、存储器370、和用于使这些部件互连的 一个或多个通信总线320。通信总线320任选地包括使系统部件互连并且控 制系统部件之间的通信的电路系统(有时叫做芯片组)。设备300包括具 有显示器340的输入/输出(I/O)接口330,该显示器通常为触摸屏显示器。 I/O接口330还任选地包括键盘和/或鼠标(或其他指向设备)350和触摸板 355、用于在设备300上生成触觉输出的触觉输出发生器357(例如,类似 于以上参考图1A所述的一个或多个触觉输出发生器167)、传感器359 (例如,光学传感器、加速度传感器、接近传感器、触敏传感器、和/或类 似于以上参考图1A所述的一个或多个接触强度传感器165的接触强度传感 器)。存储器370包括高速随机存取存储器,诸如DRAM、SRAM、DDRRAM或其他随机存取固态存储器设备,并且任选地包括非易失性存储器, 诸如一个或多个磁盘存储设备、光盘存储设备、闪存存储器设备、或其他 非易失性固态存储设备。存储器370任选地包括远离一个或多个CPU 310 定位的一个或多个存储设备。在一些实施方案中,存储器370存储与在便 携式多功能设备100(图1A)的存储器102中所存储的程序、模块和数据 结构类似的程序、模块和数据结构,或它们的子组。此外,存储器370任 选地存储在便携式多功能设备100的存储器102中不存在的附加程序、模 块和数据结构。例如,设备300的存储器370任选地存储绘图模块380、呈 现模块382、文字处理模块384、网站创建模块386、盘编辑模块388、和/ 或电子表格模块390,而便携式多功能设备100(图1A)的存储器102任 选地不存储这些模块。
图3中上述所识别的元件的每个元件任选地被存储在一个或多个先前 提到的存储器设备中。上述模块中的每个模块对应于用于执行上述功能的 指令集。上述模块或程序(例如,指令集)不必被实现为单独的软件程 序、过程或模块,并且因此这些模块的各种子集任选地在各种实施方案中 被组合或以其他方式重新布置。在一些实施方案中,存储器370任选地存 储上述模块和数据结构的子集。此外,存储器370任选地存储上面未描述 的附加模块和数据结构。
现在将注意力转到可在例如便携式多功能设备100上实现的用户界面 的实施方案。
图4A示出了根据一些实施方案的用于便携式多功能设备100上的应用 程序的菜单的示例性用户界面。类似的用户界面任选地在设备300上实 现。在一些实施方案中,用户界面400包括以下元素或者其子集或超集:
·一个或多个无线通信(诸如蜂窝信号和Wi-Fi信号)的一个或多个 信号强度指示符402;
·时间404;
·蓝牙指示符405;
·电池状态指示符406;
·具有常用应用程序图标的托盘408,图标诸如:
○电话模块138的被标记为“电话”的图标416,该图标416任 选地包括未接来电或语音留言的数量的指示符414;
○电子邮件客户端模块140的被标记为“邮件”的图标418,该 图标418任选地包括未读电子邮件的数量的指示符410;
○浏览器模块147的被标记为“浏览器”的图标420;和
○视频和音乐播放器模块152(也被称为iPod(Apple Inc.的商 标)模块152)的被标记为“iPod”的图标422;以及
·其他应用程序的图标,图标诸如:
○IM模块141的被标记为“消息”的图标424;
○日历模块148的被标记为“日历”的图标426;
○图像管理模块144的被标记为“照片”的图标428;
○相机模块143的被标记为“相机”的图标430;
○在线视频模块155的被标记为“在线视频”的图标432;
○股市桌面小程序149-2的被标记为“股市”的图标434;
○地图模块154的被标记为“地图”的图标436;
○天气桌面小程序149-1的被标记为“天气”的图标438;
○闹钟桌面小程序149-4的被标记为“时钟”的图标440;
○健身支持模块142的被标记为“健身支持”的图标442;
○记事本模块153的被标记为“记事本”的图标444;以及
○用于设置应用程序或模块的被标记为“设置”的图标446,该 图标446提供对设备100及其各种应用程序136的设置的访 问。
应当指出的是,图4A中示出的图标标签仅是示例性的。例如,视频 和音乐播放器模块152的图标422被标记有“音乐”或“音乐播放器”。 其他标签任选地用于各种应用程序图标。在一些实施方案中,相应应用程 序图标的标签包括与该相应应用程序图标对应的应用程序的名称。在一些 实施方案中,特定应用程序图标的标签不同于与该特定应用程序图标对应 的应用程序的名称。
图4B示出了具有与显示器450(例如,触摸屏显示器112)分开的触 敏表面451(例如,图3的平板电脑或触摸板355)的设备(例如,图3的 设备300)上的示例性用户界面。设备300还任选地包括用于检测触敏表面 451上的接触的强度的一个或多个接触强度传感器(例如,传感器359中的 一个或多个传感器),和/或用于为设备300的用户生成触觉输出的一个或 多个触觉输出发生器357。
尽管将参考触摸屏显示器112(其中组合了触敏表面和显示器)上的 输入随后给出示例中的一些示例,但是在一些实施方案中,设备检测与显 示器分开的触敏表面上的输入,如图4B中所示。在一些实施方案中,触敏 表面(例如,图4B中的451)具有与显示器(例如,450)上的主轴(例 如,图4B中的453)对应的主轴(例如,图4B中的452)。根据这些实施方案,设备检测在与显示器上的相应位置对应的位置(例如,在图4B中, 460对应于468并且462对应于470)处与触敏表面451的接触(例如,图 4B中的460和462)。这样,在触敏表面(例如,图4B中的451)与多功 能设备的显示器(图4B中的450)分开时,由设备在触敏表面上检测到的 用户输入(例如,接触460和462、以及它们的移动)被该设备用于操控显 示器上的用户界面。应当理解,类似的方法任选地用于本文所述的其他用 户界面。
另外,虽然主要是参考手指输入(例如,手指接触、手指轻击手势、 手指轻扫手势)来给出下面的示例,但是应当理解,在一些实施方案中, 这些手指输入中的一个或多个手指输入由来自另一个输入设备的输入(例 如,基于鼠标的输入或触笔输入)替换。例如,轻扫手势任选地由鼠标点 击(例如,而不是接触),之后是光标沿着轻扫的路径的移动(例如,而 不是接触的移动)来替代。作为另一个示例,轻击手势任选地由在光标位 于轻击手势的位置上方时的鼠标点击(例如,而不是对接触的检测,之后 是终止检测接触)来替代。类似地,当同时检测到多个用户输入时,应当 理解的是,多个计算机鼠标任选地被同时使用,或鼠标和手指接触任选地 被同时使用。
图5A示出了示例性个人电子设备500。设备500包括主体502。在一 些实施方案中,设备500可包括针对设备100和300(例如,图1A-图 4B)所述的特征中的一些或全部特征。在一些实施方案中,设备500具有 在下文中被称为触摸屏504的触敏显示屏504。作为触摸屏504的替代或补 充,设备500具有显示器和触敏表面。与设备100和300的情况一样,在 一些实施方案中,触摸屏504(或触敏表面)任选地包括用于检测所施加的 接触(例如,触摸)的强度的一个或多个强度传感器。触摸屏504(或触敏 表面)的一个或多个强度传感器可提供表示触摸的强度的输出数据。设备 500的用户界面可基于触摸强度来对触摸作出响应,这意味着不同强度的触 摸可调用设备500上的不同的用户界面操作。
例如,可在如下相关专利申请中找到用于检测和处理触摸强度的示例 性技术:于2013年5月8日提交的标题为“Device,Method,and Graphical User Interface forDisplaying User Interface Objects Corresponding to an Application”的国际专利申请No.PCT/US2013/040061,发布为WIPO专利 公开No.WO/2013/169849;以及于2013年11月11日提交的标题为 “Device,Method,and Graphical User Interface forTransitioning Between Touch Input to Display Output Relationships”的国际专利申请No. PCT/US2013/069483,发布为WIPO专利公开No.WO/2014/105276,这两 个专利申请中的每个专利申请全文以引用方式并入本文。
在一些实施方案中,设备500具有一个或多个输入机构506和508。输 入机构506和508(如果包括的话)可以是物理形式的。物理输入机构的示 例包括下压按钮和可旋转机构。在一些实施方案中,设备500具有一个或 多个附接机构。此类附接机构(如果包括的话)可允许将设备500与例如 帽子、眼镜、耳环、项链、衬衣、夹克、手镯、表带、手链、裤子、皮带、鞋子、钱包、背包等附接。这些附接机构允许用户穿戴设备500。
图5B示出了示例性个人电子设备500。在一些实施方案中,设备500 可包括相对于图1A、图1B和图3所述的部件中的一些或全部部件。设备 500具有将I/O部分514与一个或多个计算机处理器516和存储器518操作 性地耦接的总线512。I/O部分514可连接到显示器504,该显示器可具有 触敏部件522并且任选地具有强度传感器524(例如,接触强度传感器)。 此外,I/O部分514可与通信单元530连接,以用于使用Wi-Fi、蓝牙、近 场通信(NFC)、蜂窝和/或其他无线通信技术来接收应用程序和操作系统数 据。设备500可包括输入机构506和/或508。例如,输入机构506任选地 是可旋转输入设备或者可按压输入设备以及可旋转输入设备。在一些实施 方案中,可旋转输入设备是可经由与一个或多个手指的交互而旋转的冠状 物、旋钮、环、或滚轮。可旋转输入设备可被安装在设备500的侧面,如 图5A中所示,或者在其他位置,诸如被集成在显示器504上或周围。在一 些示例中,输入机构508任选地是按钮。
在一些示例中,输入机构508任选地是麦克风。个人电子设备500任 选地包括各种传感器,诸如GPS传感器532、加速度计534、定向传感器 540(例如,罗盘)、陀螺仪536、运动传感器538和/或其组合,所有这些 设备均可操作性地连接到I/O部分514。
个人电子设备500的存储器518可包括用于存储计算机可执行指令的 一个或多个非暂态计算机可读存储介质,该可执行指令当由一个或多个计 算机处理器516执行时例如可使得计算机处理器执行下述技术,该技术包 括方法700(图7)、1000(图10)、1300(图13)和1600(图16)。个 人电子设备500不限于图5B的部件和配置,而是可包括多种配置中的其他 部件或附加部件。
如本文所用,术语“示能表示”是指任选在设备100、300和/或500 (图1、图3和图5)的显示屏上显示的用户交互式图形用户界面对象。例 如,图像(例如,图标)、按钮和文本(例如,超链接)任选地各自构成 示能表示。
如本文所用,术语“焦点选择器”是指指示用户正在与其进行交互的 用户界面的当前部分的输入元件。在包括光标或其他位置标记的一些具体 实施中,光标充当“焦点选择器”,使得当光标在特定用户界面元素(例 如,按钮、窗口、滑块或其他用户界面元素)上方时在触敏表面(例如, 图3中的触摸板355或图4B中的触敏表面451)上检测到输入(例如,按 压输入)的情况下,该特定用户界面元素根据所检测到的输入而被调节。 在包括能够实现与触摸屏显示器上的用户界面元素的直接交互的触摸屏显 示器(例如,图1A中的触敏显示系统112或图4A中的触摸屏112)的一 些具体实施中,触摸屏上的所检测到的接触充当“焦点选择器”,使得当 在触摸屏显示器上在特定用户界面元素(例如,按钮、窗口、滑块或其他 用户界面元素)的位置处检测到输入(例如,由接触进行的按压输入) 时,该特定用户界面元素根据所检测到的输入而被调节。在一些具体实施 中,焦点从用户界面的一个区域移动到用户界面的另一个区域,而无需光 标的对应移动或触摸屏显示器上的接触的移动(例如,通过使用制表键或 箭头键来将焦点从一个按钮移动到另一个按钮);在这些具体实施中,焦 点选择器根据用户界面的不同区域之间的焦点的移动而移动。不考虑焦点 选择器所采取的具体形式,焦点选择器通常是由用户控制的以便递送与用 户界面的用户预期的交互(例如,通过向设备指示用户界面的用户期望与 其进行交互的元素)的用户界面元素(或触摸屏显示器上的接触)。例 如,在触敏表面(例如,触摸板或触摸屏)上检测到按压输入时,焦点选 择器(例如,光标、接触或选择框)在相应按钮上方的位置将指示用户期 望激活相应按钮(而不是在设备的显示器上示出的其他用户界面元素)。
如说明书和权利要求中所使用的,接触的“特征强度”这一术语是指 基于接触的一个或多个强度的接触的特征。在一些实施方案中,特征强度 基于多个强度样本。特征强度任选地基于相对于预定义事件(例如,在检 测到接触之后,在检测到接触抬起之前,在检测到接触开始移动之前或之 后,在检测到接触结束之前,在检测到接触的强度增大之前或之后和/或在 检测到接触的强度减小之前或之后)而言在预先确定的时间段(例如,0.05秒、0.1秒、0.2秒、0.5秒、1秒、2秒、5秒、10秒)期间采集的预定义数 量的强度样本或一组强度样本。接触的特征强度任选地基于以下各项中的 一者或多者:接触强度的最大值、接触强度的均值、接触强度的平均值、 接触强度的前10%处的值、接触强度的半最大值、接触强度的90%最大值 等。在一些实施方案中,在确定特征强度时使用接触的持续时间(例如,在特征强度是接触的强度在时间上的平均值时)。在一些实施方案中,将 特征强度与一组一个或多个强度阈值进行比较,以确定用户是否已执行操 作。例如,该组一个或多个强度阈值任选地包括第一强度阈值和第二强度 阈值。在该示例中,特征强度未超过第一阈值的接触导致第一操作,特征 强度超过第一强度阈值但未超过第二强度阈值的接触导致第二操作,并且 特征强度超过第二阈值的接触导致第三操作。在一些实施方案中,使用特 征强度与一个或多个阈值之间的比较来确定是否要执行一个或多个操作 (例如,是执行相应操作还是放弃执行相应操作),而不是用于确定执行 第一操作还是第二操作。
在一些实施方案中,识别手势的一部分以用于确定特征强度。例如, 触敏表面任选地接收连续的轻扫接触,该连续的轻扫接触从起始位置过渡 并到达结束位置,在该结束位置处,接触的强度增加。在该示例中,接触 在结束位置处的特征强度任选地仅基于连续轻扫接触的一部分,而不是整 个轻扫接触(例如,仅结束位置处的轻扫接触的一部分)。在一些实施方 案中,在确定接触的特征强度之前任选地向轻扫手势的强度应用平滑化算法。例如,该平滑化算法任选地包括以下各项中的一者或多者:不加权滑 动平均平滑化算法、三角平滑化算法、中值滤波器平滑化算法、和/或指数 平滑化算法。在一些情况下,这些平滑化算法消除了轻扫接触的强度中的 窄的尖峰或凹陷,以实现确定特征强度的目的。
任选地相对于一个或多个强度阈值诸如接触检测强度阈值、轻按压强 度阈值、深按压强度阈值和/或一个或多个其他强度阈值来表征触敏表面上 的接触的强度。在一些实施方案中,轻按压强度阈值对应于这样的强度: 在该强度下设备将执行通常与点击物理鼠标的按钮或触控板相关联的操 作。在一些实施方案中,深按压强度阈值对应于这样的强度:在该强度下 设备将执行与通常与点击物理鼠标或触控板的按钮相关联的操作不同的操 作。在一些实施方案中,当检测到特征强度低于轻按压强度阈值(例如, 并且高于标称接触检测强度阈值,比标称接触检测强度阈值低的接触不再 被检测到)的接触时,设备将根据接触在触敏表面上的移动来移动焦点选 择器,而不执行与轻按压强度阈值或深按压强度阈值相关联的操作。一般 来讲,除非另有陈述,否则这些强度阈值在不同组的用户界面附图之间是 一致的。
接触的特征强度从低于轻按压强度阈值的强度增大到介于轻按压强度 阈值与深按压强度阈值之间的强度有时被称为“轻按压”输入。接触的特 征强度从低于深按压强度阈值的强度增大到高于深按压强度阈值的强度有 时被称为“深按压”输入。接触的特征强度从低于接触检测强度阈值的强 度增大到介于接触检测强度阈值与轻按压强度阈值之间的强度有时被称为 检测到触摸表面上的接触。接触的特征强度从高于接触检测强度阈值的强 度减小到低于接触检测强度阈值的强度有时被称为检测到接触从触摸表面 抬起。在一些实施方案中,接触检测强度阈值为零。在一些实施方案中, 接触检测强度阈值大于零。
在本文中所述的一些实施方案中,响应于检测到包括相应按压输入的 手势,或响应于检测到利用相应接触(或多个接触)执行的相应按压输入 来执行一个或多个操作,其中至少部分地基于检测到该接触(或多个接 触)的强度增加到大于按压输入强度阈值而检测相应的按压输入。在一些 实施方案中,响应于检测到相应接触的强度增大到高于按压输入强度阈值 (例如,相应按压输入的“向下冲程”)来执行相应操作。在一些实施方 案中,按压输入包括相应接触的强度增大到高于按压输入强度阈值以及该 接触的强度随后减小到低于按压输入强度阈值,并且响应于检测到相应接 触的强度随后减小到低于按压输入阈值(例如,相应按压输入的“向上冲 程”)来执行相应操作。
在一些实施方案中,设备采用强度滞后以避免有时称为“抖动”的意 外输入,其中设备限定或选择与按压输入强度阈值具有预定义关系的滞后 强度阈值(例如,滞后强度阈值比按压输入强度阈值低X个强度单位,或 滞后强度阈值是按压输入强度阈值的75%、90%、或某个合理的比例)。 因此,在一些实施方案中,按压输入包括相应接触的强度增大到高于按压 输入强度阈值以及该接触的强度随后减小到低于对应于按压输入强度阈值的滞后强度阈值,并且响应于检测到相应接触的强度随后减小到低于滞后 强度阈值(例如,相应按压输入的“向上冲程”)来执行相应操作。类似 地,在一些实施方案中,仅在设备检测到接触强度从等于或低于滞后强度 阈值的强度增大到等于或高于按压输入强度阈值的强度并且任选地接触强 度随后减小到等于或低于滞后强度的强度时才检测到按压输入,并且响应 于检测到按压输入(例如,根据环境,接触强度增大或接触强度减小)来 执行相应操作。
为了便于解释,任选地,响应于检测到以下各种情况中的任一种情况 而触发对响应于与按压输入强度阈值相关联的按压输入或响应于包括按压 输入的手势而执行的操作的描述:接触的强度增大到高于按压输入强度阈 值、接触的强度从低于滞后强度阈值的强度增大到高于按压输入强度阈值 的强度、接触的强度减小到低于按压输入强度阈值、和/或接触的强度减小 到低于与按压输入强度阈值对应的滞后强度阈值。另外,在将操作描述为 响应于检测到接触的强度减小到低于按压输入强度阈值而执行的示例中, 任选地响应于检测到接触的强度减小到低于对应于并且小于按压输入强度 阈值的滞后强度阈值来执行操作。
现在将注意力转到在电子设备(诸如便携式多功能设备100、设备300 或设备500)上实现的用户界面(“UI”)以及相关联的过程的实施方 案。
图6A-图6R示出了根据一些实施方案的用于在屏幕上进行手写的示例 性用户界面。这些附图中的用户界面被用于示出包括图7中的过程的下文 描述的过程。
图6A示出了电子设备600,其变型包括上述设备100、300或500的 一些或所有部件。例如,电子设备600包括显示器601,在一些情况下,其 对应于设备300的显示器340或设备500的显示器504。在一些示例中,触 敏表面被集成到显示器601中。电子设备600还包括可旋转输入设备602, 在一些情况下,其对应于电子设备500的输入机构506。
在图6A中,电子设备600正在显示器601上显示手写界面610。手写 界面610包括笔画输入区域608(由点线框表示)和消息区域609(由虚线 框表示)。由电子设备600的一个或多个处理器分析在笔画输入区域608 中输入的用户笔画,以确定笔画所表示的文本。然后在消息区域609中显 示所确定的文本。图6A描绘了部分交叠的笔画输入区域608和消息区域609。在一些情况下,笔画输入区域608和消息区域609完全交叠,共享公 共边界但不交叠,分开一定距离,或具有某种其他空间配置。
手写界面610还包括用于指示输入文本完成的示能表示603;用于取 消在手写界面610的当前示例中进一步输入文本的示能表示604;用于进入 口述模式以接收音频输入的示能表示605;用于删除已输入的文本的示能表 示607;以及用于向当前文本中输入空格的示能表示606。在一些情况下, 选择示能表示603使得来自消息区域的文本返回到发起手写界面610的程 序。例如,如果消息应用程序发起了手写界面610,那么选择示能表示603将使消息区域的文本返回到消息应用程序。
图6B描绘了路径611,其表示用户的手指触摸显示器和笔画输入区域 608中的触敏表面的路径。路径611包括指示用户手指遵循的方向的箭头。 尽管图6B示出了从用户手指生成的路径611,但在其他情况下,使用其他 物体诸如触笔或一个物体。
图6C描绘了对笔画表示612的显示,这是基于触敏表面对用户手指沿 图6B的路径611触摸触敏表面的响应的输出而生成的。笔画表示612被显 示为一系列点和部分点。笔画表示612的其他外观也是可能的。在一些情 况下,笔画表示612的显示强度基于检测到该笔画表示的时间。
图6D示出了电子设备600分析与笔画表示612对应的笔画以确定用于 表示笔画的文本的结果。在这种情况下,确定笔画以表示文本614(字母 “h”),其现在出现在消息区域609中。笔画表示612不再被显示在笔画 输入区域608中。在一些情况下,在已分析出现于笔画输入区域608中的 笔画表示以确定对应文本之后,不再显示它们。在一些情况下,出现于笔 画输入区域608中的笔画表示经由动画方式例如在分析对应笔画时过渡到 消息区域609中的文本。
图6E与图6D相同,只是为了清晰起见,去除了消息区域609和笔画 输入区域608的框。电子设备600的其余附图(图6E-图6R、图9A-图 9I、图12A-图12L和图15A-图15J)不包括标志消息区域609和笔画输入 区域608的视觉框。然而,在这些图中描绘的电子设备600应仍被视为具 有与图6A-图6D相同的消息区域和笔画输入区域。
图6F描绘了已被识别的笔画之后的手写界面610,已基于所识别的笔 画来确定文本614,并且已确定针对文本614的由指示符616指示的一组一 个或多个建议。在一些情况下,确定针对文本614(或消息区域内的其他文 本)的该组一个或多个消息基于各种因素和技术,诸如n元模型、消息的 上下文、文本的似然自动校正、文本的似然自动完成、用于生成文本614 的笔画、设备的上下文、或其他因素。
在图6G中,响应于在输入设备602上接收到输入(例如,滚动或旋转 输入),电子设备600显示包含针对消息区域中的文本的一个或多个建议 622的建议框620。在一些情况下,一个或多个建议622是针对消息区域中 的文本的一组建议中的部分(或全部)建议。在这种情况下,如文本指示 618所示的,该建议针对文本“h”,其为消息区域中仅有的文本。在一些 情况下,如下所述,仅针对消息区域中给出的文本的一部分来显示建议 框。指示符624指示当前选择的建议,该建议初始是为其生成该组一个或 多个建议622的初始文本。状态条626表示该组一个或多个建议中的当前 选择的建议的位置(即,指示符624的位置),并在移动指示符624以及 选择新建议时被更新。
图6H示出了设备600对经由输入设备602接收附加用户输入(例如, 滚动输入或旋转输入)的响应。电子设备600响应于用户输入来将指示符 624向下移动若干个建议。更新消息区域618,以指示当前选择的建议 “hello”。还更新状态条626,以反映指示符624在该组一个或多个建议 622中的位置。
图6I描绘了电子设备600对选择建议“hello”的响应。电子设备600 更新消息区域,以包括所选择的建议。在一些情况下,响应于输入设备602 不再接收用户输入(例如,不再接收滚动输入或旋转输入)而进行选择。 在其他情况下,响应于其他用户输入诸如激活按钮、按下输入设备602、触 敏表面上的手势或其他用户输入而进行选择。存在指示符616,从而指示有 一组一个或多个建议可用于消息区域的文本。响应于接收到附加用户输入(例如,附加滚动输入),可再次显示建议框620和该组一个或多个建议 622(图6G)。在一些实施方案中,在建议框中生成并显示基于消息区域 中给出的新文本的新的一组一个或多个建议。
图6J描绘了具有笔画表示628的手写界面610。在接收到与笔画对应 的输入之后示出手写界面610,但在分析笔画以确定对应文本和建议之前生 成笔画表示628,这是通过缺少建议指示符(例如,图6I的指示符616)来 指示的。
图6K描绘了已分析与笔画表示628对应的笔画并已确定对应文本之后 的手写界面610。在这种情况下,与笔画表示628对应的笔画的对应文本是 被显示在消息区域中的字母“w”。空格将前一个文本(“hello”)与新的 文本(“w”)分开。在一些情况下,响应于用户输入选择示能表示606来 呈现空格。在其他情况下,响应于电子设备600在例如确定“hello”是完 整字词之后自动插入空格而呈现该空格。指示符616指示还有一组一个或 多个建议可用于消息区域中的文本。
在图6L中,响应于经由输入设备602接收到输入(例如,滚动输入或 旋转输入),电子设备600显示包含针对消息区域中的文本的一组一个或 多个建议的建议框632。在这种情况下,如文本指示630所示的,该建议针 对为消息区域中的由文本指示630突出显示的文本的一部分的文本“w”。
图6M描绘了在电子设备600已处理在触敏表面上接收的很多附加笔 画并已在消息区域中确定和显示对应文本之后,电子设备600显示手写界 面610。指示符634指示有附加文本可用,但没有被显示。在一些实施方案 中,响应于用户输入诸如消息区域上的轻扫手势,查看并访问附加文本。
图6N示出了响应于电子设备600经由输入设备602接收到用户输入 (例如,滚动输入)而显示的手写界面610。建议框636包括针对文本 “do”的一组建议,如文本指示638所示的。除了以“do”开始的字词之 外,建议框636中的该组建议包括针对狗的表情符号。
图6O示出了在电子设备600经由输入设备602接收到进一步的用户输 入(例如,滚动输入)之后的手写界面610。用户输入导致建议框636中的 该组建议的移动,使得狗的表情符号是当前的选择。手写界面610已相应 地将框指示638中的文本更新为狗表情符号。
图6P描绘了电子设备600(例如,响应于用户输入)从建议框636选 择狗表情符号建议之后的手写界面610(图6O)。例如,在电子设备600 停止经由输入设备602接收用户输入时,电子设备600根据建议框636的 识别狗表情符号的选择指示符来选择狗表情符号。消息区域已被更新,以 包括狗表情符号。
图6Q描绘了接收到与笔画表示640和642对应的两个附加笔画之后的 手写界面610。与笔画表示640对应的T笔画首先被接收,如相对于笔画表 示642(对应于稍晚接收的笔画)而言淡出的外观所示的。如果输入与笔画 表示640和642对应的笔画之间的时间小于阈值时间,则任选地将与笔画 表示640和642对应的笔画一起作为同一组的一部分来分析。然而,如果 笔画被一定量的时间分开,则将每个笔画作为不同组的部分单独分析。如 图6Q所示,在笔画输入区域中的基本上相同的位置中输入对应有笔画表示 640和642的笔画,因为它们是交叠的。
图6R描绘了已分析了与笔画表示640和642对应的笔画以产生文本 “to”之后的手写界面610。在一些情况下,无论与笔画表示640和642对 应的笔画是一起分析还是单独分析,这个文本都将是相同的。在一些情况 下,这个文本取决于与笔画表示640和642对应的笔画是一起分析还是单 独分析。
图7是示出了根据一些实施方案的用于使用电子设备来在触敏表面上 进行手写的方法的流程图。在具有显示器、触敏表面和可旋转输入设备的 设备(例如,100,300,500)处执行方法700。方法700中的一些操作任选地 被组合,一些操作的次序任选地被改变并且一些操作任选地被省略。
如下所述,方法700提供了一种用于在触敏表面上进行手写的直观方 式。该方法减少了用户对在触敏表面上进行手写的认知负担,从而创建更 有效的人机界面。对于电池驱动的计算设备,使得用户能够更快且更有效 地在触敏表面上输入手写节省了功率并且增加了电池两次充电之间的时间 间隔。
电子设备在显示器上显示(702)包括消息区域(例如,609)和笔画输 入区域(例如,608)(例如,显示器和触敏表面的检测并显示经由手指、 触笔或其他物体从用户接收的笔画的区域)的用户输入界面(例如, 610)。在一些示例中,消息区域(例如,609)和笔画输入区域(例如, 608)是部分交叠的。在一些示例中,消息区域完全在笔画输入区域(例 如,608)内。在一些示例中,消息区域和笔画输入区域(例如,608)共 享边界,但不彼此交叠。在一些示例中,消息区域和笔画输入区域(例 如,608)是分开的。在一些示例中,触敏表面小于2in×2in、小于 1.5in×1.5in、或小于1in×1in。
电子设备在笔画输入区域(例如,608)中的触敏表面上接收(704)第 一组笔画(例如,对应于笔画表示612)(例如,一个或多个连续笔画,其 中每个笔画表示字母或字母的一部分)。在一些示例中,第一组笔画表示 一个字母、多个字母、一个字词、或多个字词。在一些示例中,显示器在 接收笔画时向用户提供第一组笔画的笔画的位置和形状的反馈(例如,对 图6C的笔画表示612的显示)。
电子设备基于第一组笔画(例如,对应于笔画表示612)来确定(706) 第一文本(例如,字母、多个字母、字词、或多个字词)。在一些示例 中,该确定可进一步基于在第一组笔画之前接收的笔画、电子设备的上下 文(例如,一天中的时间、位置、当前活动、日历、该消息要发往的 人)、或其他信息。
电子设备在消息区域(例如,图6E)中的显示器上显示(708)第一文本 (例如,614)。在一些示例中,电子设备在显示第一文本之前显示第一组 笔画。在一些示例中,电子设备将对第一组笔画的显示经由动画过渡到对 第一组文本的显示。在一些示例中,在电子设备基于第一组笔画来确定第 一文本时进行动画显示。
电子设备基于第一文本(例如,614)来确定(710)一个或多个建议 (例如,622),其中一个或多个建议(例如,622)包括对第一文本的一 个或多个改变(例如,改变可实现建议的完成、校正、或预测)。在一些 示例中,一个或多个建议包括针对第一文本的建议拼写校正。在一些示例 中,一个或多个建议包括对第一文本的建议完成。在一些示例中,一个或多个建议包括对跟随在第一文本之后的附加字词的预测。
在电子设备确定(712)一个或多个建议(例如,622)之后,电子设备 经由可旋转输入机构(例如,602)来接收用户输入。在一些示例中,可旋 转输入机构是冠状物、旋钮、环、或轮。在一些示例中,旋转轴垂直于显 示器的平面。在一些示例中,旋转轴平行于显示器的平面或被包含在显示 器的平面内。在一些示例中,可旋转输入机构位于显示器的侧面上。在一 些示例中,可旋转输入机构位于显示器周围。
电子设备响应于用户输入(714)(例如,经由输入设备602接收到的用 户输入)来显示(716)一个或多个建议中的至少一个建议(例如,建议框 620中的建议622)并显示(718)用于指示一个或多个建议(例如,622)中 的所选择的建议的选择指示符(例如,624)。在一些示例中,在周围的图 形元素中显示一个或多个建议中的至少一个建议。在一些示例中,响应于 用户输入在显示一个或多个建议中的至少一个建议之后立即停止,电子设 备停止显示一个或多个建议中的至少一个建议。在一些示例中,选择指示 符位于所选择的建议的一侧。在一些示例中,选择指示符围绕一个或多个 建议。在一些示例中,选择指示符与所选择的建议集成在一起,诸如改变 所选择的建议的颜色或通过其他方式改变外观。
在电子设备显示一个或多个建议(例如,622)中的至少一个建议和选 择指示符(例如,624)之后,电子设备利用对所选择的建议的显示来替换 (720)对消息区域中的第一文本的显示(例如,图6G与图6H)。在一些示 例中,响应于选择指示符向新的建议移动而进行替换。
根据一些实施方案,响应于确定一个或多个建议,电子设备显示有一 个或多个建议可用的指示(例如,616)。在一些示例中,首先在对第一文 本的第一次显示时显示该指示。在一些示例中,该指示与可旋转输入机构 (例如,602)相邻,使得响应于对与可旋转输入机构相邻的指示的显示 (例如,图6F的比较指示符616和图6G中的旋转的位置和取向)而将用 户吸引到可旋转输入机构,甚至吸引旋转该可旋转输入机构。
根据一些实施方案,进一步响应于接收到用户输入,该电子设备确定 用户输入的特征(例如,停止用户输入之后的时间)是否满足第一标准。 根据确定满足建议界面中止标准,该电子设备停止显示与一个或多个建议 (例如,622)对应的图形界面(例如,620)。
根据一些实施方案,响应于经由可旋转输入机构(例如,输入设备 602)继续接收到用户输入,该电子设备将选择指示符(例如,624)从一 个或多个建议的第一建议移动到第二建议(例如,图6G和图6H)。
根据一些实施方案,对一个或多个建议的显示包括第一文本、以及第 一文本上方的一个或多个大写建议、和第一文本下方的一个或多个小写建 议(例如,图6G、图6L、图6N)。
根据一些实施方案,一个或多个建议包括自动完成建议(例如,基于 第一文本建议完整的字词)或自动校正建议(例如,针对第一文本的拼写 或语法校正)。
根据一些实施方案,一个或多个建议包括基于第一文本而识别的表情 符号(例如,图6O)。在一些示例中,第一文本描述表情符号表示的项目 (例如,第一文本“狗”产生狗的表情符号建议或第一文本“:)”产生愉 快面部表情符号建议)。在一些示例中,第一文本更一般地描述表情符号 的特征(例如,第一文本“愉快”产生愉快面部表情符号建议)。
根据一些实施方案,一个或多个建议是使用n元模型来确定的。
根据一些实施方案,在电子设备接收到第一组笔画之前,该电子设备 在笔画输入区域中接收第二组笔画(例如,来自前一字词或来自同一字词 的前面字母的笔画)。该电子设备基于第二组笔画来确定第二文本。确定 一个或多个建议进一步基于第二文本(例如,在分析第一组笔画以确定第 一文本时使用第二文本的上下文)。
根据一些实施方案,响应于接收到第一组笔画的至少一部分,该电子 设备在笔画输入区域中显示第一组笔画的图形表示(例如,图6C和图 6J)。
根据一些实施方案,该电子设备在笔画输入区域中接收第一笔画。在 自接收到第一笔画以来已经过某时间段之后,该电子设备在笔画输入区域 中接收第二笔画。根据确定该段时间超过阈值,该电子设备在第一组笔画 中包括第一笔画和第二笔画。根据确定该段时间时未超过阈值,该电子设 备在第一组笔画中包括第一笔画并从第一组笔画中排除第二笔画(例如, 图6Q)。
根据一些实施方案,第一文本包括多个字符(例如,图6Q和图 6R)。
根据一些实施方案,第一文本是单个字符(例如,图6D)。
根据一些实施方案,该电子设备在笔画输入区域中的位置处收第三笔 画(例如,640)。该电子设备在笔画输入区域中的基本上相同的位置处在 笔画输入区域中接收第四笔画(例如,642),其中第三笔画和第四笔画两 者被包括在第一组笔画中(例如,图6Q)。
根据一些实施方案,第一组笔画是单个连续笔画(例如,612)。
根据一些实施方案,第一组笔画包括多个分立的笔画(例如, 640,642)。
根据一些实施方案,用户输入界面包括多个示能表示(例如,603- 607),其包括与音频输入(例如,605)对应的示能表示。响应于电子设 备接收到选择与音频输入对应的示能表示(例如,605)的用户输入,该电 子设备显示音频输入界面以接收口述输入。
根据一些实施方案,该电子设备与对一个或多个建议(例如,622)中 的至少一个建议的显示和对选择指示符(例如,624)的显示一起显示滚动 指示符(例如,626),其中滚动指示符的尺寸基于一个或多个建议的数 量,并且该滚动指示符的位置基于选择指示符在一个或多个建议的数量内 的位置(例如,图6G与图6H)。
根据一些实施方案,在利用对所选择的建议的显示来替换对第一文本 的显示之后,该电子设备停止显示一个或多个建议中的至少一个建议(例 如,6I)。在停止显示一个或多个建议中的至少一个建议之后,该电子设 备经由可旋转输入机构(例如,602)来接收附加用户输入。响应于接收到 附加用户输入:该电子设备显示一个或多个建议中的至少一个附加建议, 并显示选择指示符(例如,如果再次接收到用户输入,则显示同一组建 议)。
应当注意,上面相对于方法700所述的过程(例如图7)的详情也以 类似方式适用于下文所述的方法。例如,方法1000(图10)、方法1300 (图13)和方法1600(图16)任选地包括上面参考方法700所述的各种方 法的一个或多个特征。例如,方法1000、1300和1600可以包括方法700 作为文本输入和建议的一部分,以补充这些方法的过程。为了简明起见, 这些详情在下文中不再重复。
根据一些实施方案,图8示出了根据各种所述实施方案的原理进行配 置的电子设备800的示例性功能框图。根据一些实施方案,电子设备800 的功能块被配置为执行上文所述的技术。设备800的功能块任选地由执行 各种所述示例的原理的硬件、软件或硬件和软件的组合来实现。本领域的 技术人员应当理解,图8中所述的功能块任选地被组合或被分离为子块, 以便实现各种所述示例的原理。因此,本文的描述任选地支持本文所述的 功能块的任何可能的组合或分离或进一步限定。
如图8中所示,电子设备800包括显示单元802、触敏表面单元804、 可旋转输入机构单元806、以及耦接至显示单元802、触敏表面单元804、 可旋转输入机构单元806的处理单元808。在一些实施方案中,该处理单元 808包括显示启用单元810、接收单元812、确定单元814、和包括单元 816。
该处理单元808被配置为:在包括消息区域和笔画输入区域的显示单 元802上启用对用户输入界面的显示(例如,使用显示启用单元810);在 笔画输入区域中的触敏表面单元804上接收第一组笔画(例如,使用接收 单元812);基于第一组笔画来确定第一文本(例如,使用确定单元 814);在消息区域中的显示单元上启用对第一文本的显示(例如,使用显 示启用单元810);基于第一文本来确定一个或多个建议(例如,使用确定 单元814),其中一个或多个建议包括对第一文本的一个或多个改变;在确 定一个或多个建议之后,经由可旋转输入机构单元806来接收用户输入 (例如,使用接收单元812);响应于接收到用户输入:启用对一个或多个 建议中的至少一个建议的显示(例如,使用显示启用单元810);以及启用 对用于指示一个或多个建议中的所选择的建议的选择指示符的显示(例 如,使用显示启用单元810);以及在使得能够显示至少一个建议或一个或 多个建议和选择指示符之后,利用对所选择的建议的显示来替代对第一文 本的显示(例如,使用显示启用单元810)。
在一些实施方案中,该处理单元808被进一步配置为:响应于确定一 个或多个建议,启用对有一个或多个建议可用的指示的显示(例如,使用 显示启用单元810)。
在一些实施方案中,该处理单元808被进一步配置为:进一步响应于 接收到用户输入,确定用户输入的特征是否满足第一标准(例如,使用确 定单元814);根据确定满足建议界面中止标准,停止启用对与一个或多个 建议对应的图形界面的显示(例如,使用显示启用单元810)。
在一些实施方案中,该处理单元808被进一步配置为:响应于经由可 旋转输入机构单元806继续接收用户输入,将选择指示符从一个或多个建 议的第一建议移动到第二建议(例如,使用显示启用单元810)。
在一些实施方案中,启用对一个或多个建议的显示包括第一文本、以 及第一文本上方的一个或多个大写建议、和第一文本下方的一个或多个小 写建议(例如,使用显示启用单元810)。
在一些实施方案中,一个或多个建议包括自动完成建议或自动校正建 议。
在一些实施方案中,一个或多个建议包括基于第一文本而识别的表情 符号。
在一些实施方案中,一个或多个建议是使用n元模型来确定的。
在一些实施方案中,该处理单元808被进一步配置为:在接收到第一 组笔画之前,在笔画输入区域中接收第二组笔画(例如,使用接收单元 812);基于第二组笔画来确定第二文本(例如,使用确定单元814),其 中确定一个或多个建议进一步基于第二文本。
在一些实施方案中,该处理单元808被进一步配置为:响应于接收到 第一组笔画的至少一部分,在笔画输入区域中启用对第一组笔画的图形表 示的显示(例如,使用显示启用单元810)。
在一些实施方案中,该处理单元808被进一步配置为:在笔画输入区 域中接收第一笔画(例如,使用接收单元812);在自接收到第一笔画以来 已经过某时间段之后,在笔画输入区域中接收第二笔画(例如,使用接收 单元812);根据确定该段时间超过阈值,第一组笔画中包括第一笔画和第 二笔画(例如,使用包括单元816)在;根据确定该段时间时未超过阈值, 在第一组笔画中包括第一笔画(例如,使用包括单元816)而从第一组笔画 中排除第二笔画。
在一些实施方案中,第一文本包括多个字符。
在一些实施方案中,第一文本是单个字符。
在一些实施方案中,该处理单元808被进一步配置为:在笔画输入区 域中的位置处接收第三笔画(例如,使用接收单元812);在笔画输入区域 中的基本上相同的位置处在笔画输入区域中接收第四笔画(例如,使用接 收单元812),其中第三笔画和第四笔画两者被包括在第一组笔画中。
在一些实施方案中,第一组笔画是单个连续笔画。
在一些实施方案中,第一组笔画包括多个分立的笔画。
在一些实施方案中,用户输入界面包括多个示能表示,该多个示能表 示包括与音频输入对应的示能表示,该处理单元808被进一步配置为:响 应于接收到用于选择与音频输入对应的示能表示的用户输入,在显示单元802上启用对音频输入界面的显示以接收口述输入(例如,使用显示启用单 元810)。
在一些实施方案中,该处理单元808被进一步配置为:(例如,使用 显示启用单元810)与对一个或多个建议中的至少一个建议的显示和对选择 指示符的显示一起启用对滚动指示符的显示,其中滚动指示符的尺寸基于 一个或多个建议的数量,并且该滚动指示符的位置基于选择指示符在一个 或多个建议的数量内的位置。
在一些实施方案中,该处理单元808被进一步配置为:在利用对所选 择的建议的显示来替换对第一文本的显示之后:停止启用对一个或多个建 议中的至少一个建议的显示(例如,使用显示启用单元810);在停止启用 对一个或多个建议中的至少一个建议的显示之后(例如,使用显示启用单 元810),经由可旋转输入机构单元来接收附加用户输入(例如,使用接收 单元812);响应于接收到附加用户输入:在显示单元802上启用对一个或 多个建议中的至少一个附加建议的显示(例如,使用显示启用单元810); 并在显示单元802上启用对选择指示符的显示(例如,使用显示启用单元 810)。
以上参考图7描述的操作任选地由图1A-图1B或者图8中描绘的部件 来实现。例如,接收操作704任选地由事件分类器170、事件识别器180和 事件处理程序190来实现。事件分类器170中的事件监视器171检测触敏 显示器112上的接触,并且事件分配器模块174将事件信息递送到应用程 序136-1。应用程序136-1的相应事件识别器180将事件信息与相应事件定 义186进行比较,并且确定触敏表面上的第一位置处的第一接触是否对应 于预定义的事件或子事件,诸如对用户界面上的示能表示的激活。当检测 到相应的预定义事件或子事件时,事件识别器180激活与对该事件或子事 件的检测相关联的事件处理程序190。事件处理程序190任选地利用或调用 数据更新器176或对象更新器177以更新应用程序内部状态192。在一些实 施方案中,事件处理程序190访问相应GUI更新器178,以更新由应用程 序显示的内容。类似地,本领域的普通技术人员会清楚地知道可如何基于 图1A-图1B中描绘的部件来实现其他过程。
图9A-图9I示出了根据一些实施方案的用于在屏幕上进行手写的示例 性用户界面。这些附图中的用户界面被用于示出包括图10中的过程的下文 描述的过程。
图9A示出了显示手写界面610的电子设备600,已相对于图6A-图6R 对其进行了描述。电子设备600已在笔画输入区域中接收到与笔画表示900 对应的笔画。笔画的表示被显示于显示器上,但对与笔画表示900对应的 笔画进行分析以确定第一文本尚未完成。
图9B描绘了电子设备600在笔画输入区域中接收与笔画表示902对应 的笔画之后的手写界面610。笔画表示900淡出。在一些情况下,电子设备 600根据自接收笔画以来的时间而淡出笔画的表示。因此,与笔画表示902 对应的最近接收的笔画与笔画表示900相比更暗。在笔画输入区域上的基 本上相同的位置中输入与笔画表示900和902对应的笔画。
图9C描绘了电子设备600在笔画输入区域中的接收到与笔画表示904 对应的笔画之后的手写界面610。笔画表示900与其在图9B中外观相比更 暗。笔画表示902也淡出。与最近接收的笔画对应的笔画表示904是三个 笔画表示中最暗的。在笔画输入区域中的与笔画900基本上相同的位置中 输入与笔画表示902和904对应的笔画。
图9D描绘了电子设备600已分析第一组笔画(例如,与笔画表示 900,902和904对应的笔画),确定对应的文本为“neo”,并在消息区域 中显示该文本之后的手写界面610。图9D中的手写界面610在消息区域中 显示文本之后还接收到与笔画表示906对应的笔画。响应于接收到新笔 画,该电子设备基于第一组笔画和第二组笔画而确定修订的文本(与笔画表示906对应的笔画)。
图9E描绘了电子设备600已分析第一组笔画和第二组笔画,确定笔画 对应于文本“need”并在消息区域中利用新的对应文本来替代先前在消息 区域中确定的文本之后的手写界面610。这些附图(图9A-图9E)描绘了 电子设备考虑到新接收的笔画如何能够重新分析已分析过的笔画。此类过 程可基于后续接收的笔画来辅助对一组笔画进行消歧。该电子设备不需要 考虑其是否已接收到针对特定字词的所有笔画或附加笔画是否可能有助于正确分析笔画。图9F-图9I描绘了基于后续接收的笔画来将这一概念应用 于修订作为单个字符的文本。
图9F描绘了在电子设备600已接收到与笔画表示908对应的笔画(例 如,基本垂直的笔画)之后的手写界面610。电子设备600尚未针与笔画表 示908对应的笔画来确定对应的文本。
图9G描绘了在电子设备600已确定由与笔画表示908对应的笔画组成 的该组笔画对应于“l”(“L”的小写)之后的手写界面610。在消息区域 中显示对应的文本。
图9H描绘了在电子设备600已接收到与笔画表示910对应的笔画之后 的手写界面610。电子设备600尚未针对该笔画来确定对应的文本。
图9I描绘了在电子设备600已基于与笔画表示908对应的笔画来确定 针对消息区域的新文本并随后接收与笔画表示910对应的笔画之后的手写 界面610。与笔画表示910对应的笔画被确定为点,其对应于与笔画表示 908对应的基本垂直笔画(例如,与其配对),并利用“i”来替代“l”。
用于确定相对于字词的图9A-图9E中所示以及相对于单个字母的图 9F-图9I中所示的修顶文本的过程可基于接收第一组笔画和第二组笔画之间 经过的时间段。如果该段时间超过阈值,则独立于第一组笔画来分析第二 组笔画并且基于对第一组笔画和第二组笔画的分析而不修订与第一组笔画 对应的文本。如果该段时间时未超过阈值,则与第一组笔画一起分析第二 组笔画,并可产生针对第一组笔画的修订的文本。
在确定修订的文本时还可考虑设备的上下文。例如,在确定修订的文 本时可考虑电子设备的位置、一天中的时间、电子设备的模式、和与电子 设备相关联的其他因素。
图10是示出了根据一些实施方案的用于使用电子设备在触敏表面上进 行手写的方法的流程图。在具有显示器、触敏表面和可旋转输入设备的设 备(例如,100,300,500)处执行方法1000。方法1000中的一些操作任选地 被组合,一些操作的次序任选地被改变,并且一些操作任选地被省略。
如下所述,方法1000提供了一种用于在触敏表面上进行手写的直观方 式。该方法减少了用户对在触敏表面上进行手写的认知负担,从而创建更 有效的人机界面。对于电池驱动的计算设备,使得用户能够更快且更有效 地在触敏表面上输入手写节省了功率并且增加了电池两次充电之间的时间 间隔。
电子设备在显示器上显示(1002)包括消息区域(例如,609)和笔画输 入区域(例如,608)(例如,显示器和触敏表面的检测并显示经由手指、 触笔或其他物体从用户接收的笔画的区域)的用户输入界面(例如, 610)。在一些示例中,消息区域和笔画输入区域是部分交叠的。在一些示 例中,消息区域完全在笔画输入区域内。在一些示例中,消息区域和笔画 输入区域共享边界,但不彼此交叠。在一些示例中,消息区域和笔画输入 区域是分开的。在一些示例中,触敏表面小于2in×2in、小于1.5in×1.5in、 或小于1in×1in。
电子设备在笔画输入区域(例如,608)中的触敏表面上接收(1004)第 一组笔画(例如,900,902,904)(例如,一个或多个连续笔画,其中每个 笔画表示字母或字母的一部分)。在一些示例中,第一组笔画表示一个字 母、多个字母、一个字词、或多个字词。在一些示例中,显示器在接收笔 画时向用户提供第一组笔画的笔画的位置和形状的反馈(例如,对图9C的 笔画900,902,904的显示)。在一些示例中,对第一组笔画的显示基于接收 到每个笔画之后的时间,诸如笔画随时间淡出(例如,对图9C的笔画 900,902,904的显示)。
电子设备基于第一组笔画(例如,笔画900,902,904)来确定(1006)第 一文本(例如,字母、多个字母、字词、或多个字词)。在一些示例中, 该确定可进一步基于在第一组笔画之前接收到的笔画。根据一些实施方 案,该电子设备基于电子设备在确定修订的第一文本时的当前上下文(例 如,时间、位置、当前活动、日历、消息指向的人)来确定修订的第一文 本。
电子设备在消息区域(例如,图9D)中的显示器上显示(1008)第一文 本(例如,905)。在一些示例中,电子设备在显示第一文本之前显示第一 组笔画(例如,图9C)。在一些示例中,电子设备将对第一组笔画的显示 经由动画过渡到对第一组文本的显示。在一些示例中,在电子设备基于第 一组笔画来确定第一文本时进行动画显示。
该电子设备在接收第一组笔画(例如,笔画900,902,904)并显示第一 文本(例如,905)之后,在笔画输入区域中的触敏表面上接收(1010)第二 组笔画(例如,906)。在一些示例中,第二组笔画表示字母的一部分、一 个字母、多个字母、一个字词、或多个字词。根据一些实施方案,该电子 设备在电子设备接收到第二组笔画之前显示第一文本。
该电子设备基于第一组(例如,900,902,904)和第二组笔画(例如, 906)来确定(1012)修订的第一文本(例如,907)。根据一些实施方案,在 自接收到第一组笔画以来的某时间段之后接收到第二组笔画,其中基于第 一组笔画和第二组笔画来确定修订的第一文本是根据确定该段时间低于阈 值来进行的。
该电子设备利用修订的第一文本(例如,图9E)来替代(1014)对第一 文本的显示(例如,图9D)。根据一些实施方案,在电子设备接收到第二 组笔画之后并且在电子设备显示修订的第一文本之后,该电子设备在笔画 输入区域中的触敏表面上接收第三组笔画。该电子设备基于第三组笔画来 确定第二文本。该电子设备与修订的第一文本一起显示第二文本。
根据一些实施方案,第一组笔画是单个连续笔画,并且第一文本是单 个字符(例如,图9F或图9G)。
根据一些实施方案,第二组笔画是单个连续笔画(例如,图9D或图 9H)。
根据一些实施方案,修订的第一文本与第一文本的不同仅在于单个字 符(例如,比较图9G和图9I)。
根据一些实施方案,修订的第一文本与第一文本的不同仅在于修订的 第一文本或第一文本的最后一个字符(例如,比较图9G和图9I)。
根据一些实施方案,图11示出了根据各种所述实施方案的原理进行配 置的电子设备1100的示例性功能框图。根据一些实施方案,电子设备1100 的功能块被配置为执行上文所述的技术。设备1100的功能块任选地由执行 各种所述示例的原理的硬件、软件或硬件和软件的组合来实现。本领域的 技术人员应当理解,图11中所述的功能块任选地被组合或被分离为子块, 以便实现各种所述示例的原理。因此,本文的描述任选地支持本文所述的功能块的任何可能的组合或分离或进一步限定。
如图11中所示,电子设备1100包括显示单元1102、触敏表面单元 1104、可旋转输入机构单元1106、以及耦接至显示单元1102、触敏表面单 元1104、可旋转输入机构单元1106的处理单元1108。在一些实施方案 中,该处理单元1108包括显示启用单元1110、接收单元1112、和确定单 元814。
该处理单元1108被配置为:在包括消息区域和笔画输入区域的显示单 元1102上启用对用户输入界面的显示(例如,使用显示启用单元);在笔 画输入区域中的触敏表面上接收第一组笔画(例如,使用接收单元 1112);基于第一组笔画来确定第一文本(例如,使用确定单元 1114);)在消息区域中启用对第一文本的显示(例如,使用显示启用单 元1110;)在接收到第一组笔画并显示第一文本之后在笔画输入区域中的 触敏表面上接收第二组笔画(例如,使用接收单元1112;基于第一组笔画 和第二组笔画来确定修订的第一文本(例如,使用确定单元1114);以及 与修订的第一文本一起启用对第一文本的显示(例如,使用显示启用单元 1110)。
在一些实施方案中,在自接收第一组笔画以来的某时间段之后接收第 二组笔画,并且基于第一组笔画和第二组笔画来确定修订的第一文本是根 据确定该段时间低于阈值来进行的。
在一些实施方案中,在接收到第二组笔画之前启用对第一文本的显 示。
在一些实施方案中,确定修订的第一文本进一步基于在确定修订的第 一文本时的便携式电子设备的当前上下文。
在一些实施方案中,该处理单元1108被进一步配置为:在接收到第二 组笔画之后并且在启用对修订的第一文本的显示之后,在笔画输入区域中 的触敏表面上接收第三组笔画(例如,使用接收单元1112);基于第三组 笔画来确定第二文本(例如,使用确定单元1114);以及与修订的第一文 本一起启用对第二文本的显示(例如,使用显示启用单元1110)。
在一些实施方案中,第一组笔画是单个连续笔画,并且第一文本是单 个字符。
在一些实施方案中,第二组笔画是单个连续笔画。
在一些实施方案中,修订的第一文本与第一文本的不同仅在于单个字 符。
在一些实施方案中,修订的第一文本与第一文本的不同仅在于修订的 第一文本或第一文本的最后一个字符。
以上参考图10描述的操作任选地由图1A-图1B或图11中描绘的部件 来实现。例如,接收操作1004任选地由事件分类器170、事件识别器180 和事件处理程序190来实现。事件分类器170中的事件监视器171检测触 敏显示器112上的接触,并且事件分配器模块174将事件信息递送到应用 程序136-1。应用程序136-1的相应事件识别器180将事件信息与相应事件 定义186进行比较,并且确定触敏表面上的第一位置处的第一接触是否对 应于预定义的事件或子事件,诸如对用户界面上的示能表示的激活。当检 测到相应的预定义事件或子事件时,事件识别器180激活与对该事件或子 事件的检测相关联的事件处理程序190。事件处理程序190任选地利用或调 用数据更新器176或对象更新器177以更新应用程序内部状态192。在一些 实施方案中,事件处理程序190访问相应GUI更新器178,以更新由应用程序显示的内容。类似地,本领域的普通技术人员会清楚地知道可如何基 于图1A-图1B中描绘的部件来实现其他过程。
图12A-图12L示出了根据一些实施方案的用于在屏幕上进行手写的示 例性用户界面。这些附图中的用户界面被用于示出包括图13中的过程的下 文描述的过程。
图12A-图12H描绘了使用电子设备600利用多个笔画在触敏表面上输 入字词“going”的步骤,同时电子设备600在有笔画可用时完整地处理该 笔画。相反,图12I-图12L描绘了使用电子设备600利用多个笔画在触敏 表面上输入字词“going”的步骤,同时电子设备600在笔画可用时对其进 行处理,但中断对前面笔画的分析,以在新笔画可用时重新开始利用新笔 画进行分析。在一些情况下,这后一过程相对于前一过程提供了益处。
图12A描绘了在电子设备600接收到笔画1200之后的手写界面610。 图12B描绘了电子设备600分析与笔画表示1200对应的笔画的结果(文本 1201)。图12C描绘了在电子设备600接收到与笔画表示1202对应的笔画 和与笔画表示1204对应的笔画之后的手写界面610。图12D描绘了电子设 备600已开始处理与笔画表示1202和1204对应的笔画之后但在电子设备 600已确定针对笔画的对应文本之前的手写界面610。在图12D中,通过不 再显示笔画表示来指示与笔画表示1202和1204对应的笔画正在被处理的 事实。然而,这种行为是示例性的,并非在所有情况下都是真实的。图 12D描绘了电子设备600还已接收到笔画1206。即,电子设备600在开始 处理与笔画表示1202和1204对应的笔画之后但在电子设备600确定针对 笔画的对应文本之前,接收与该笔画表示1206对应的笔画。图12E描绘了 完成分析与笔画表示1202和1204对应的笔画并开始分析与笔画表示1206 对应的笔画之后但在电子设备600完成分析与笔画表示1206对应的笔画之 前的电子设备600。图12F描绘了完成分析与笔画表示1206对应的笔画之 后的电子设备600。最后,在图12G中,电子设备600接收最后的笔画 (与笔画表示1208对应的笔画)并对其进行处理。结果在图12H中被示为 文本1201。因为电子设备600在笔画变得可用时处理笔画以使其完成,所 以文本1201是正确的,这是由于电子设备600没有在所有笔画可用时的所 有笔画的完整上下文。即使电子设备600已获取图12H中的正确文本,但 其可能会一直执行过多或冗余的处理,因为其正在确定文本而无需访问所 有笔画的完整上下文。
相反,在图12I-图12L中,输入相同的笔画并在笔画可用时开始处 理。然而,电子设备600在每次有新笔画可用时停止处理当前组的笔画。 例如,图12I描绘了电子设备600已接收到两个笔画,即与笔画表示1200 和1202对应的笔画。图12J描绘了电子设备600已开始处理与笔画表示 1200和1202对应的笔画(例如,通过不再显示笔画表示1200和1202来指示,但未必对于所有实施方案都是这样)但在接收到与笔画表示1204和 1206对应的笔画时尚未确定对应的文本。在这种情况下,响应于接收到与 笔画表示1204和1206对应的笔画(或甚至仅仅与第一次输入的笔画表示 1204对应的笔画),电子设备600停止处理与笔画表示1200和1202对应 的该组笔画,向该组笔画添加与笔画表示1204和1206对应的笔画,并继续处理该组笔画。图12K描绘输入最终笔画,即与笔画表示1208对应的笔 画。类似于输入与笔画表示1204和1206对应的笔画时,因为电子设备600 在接收到笔画1208时仍然在处理该组笔画,所以电子设备600停止处理, 向该组笔画添加与笔画表示1208对应的笔画,并继续处理该组笔画。在一 些情况下,在向该组笔画添加新笔画时,电子设备600重置/重新开始其分 析,但并非在所有实施方案中都是这样。
图13是示出了根据一些实施方案的用于使用电子设备来在触敏表面上 进行手写的方法的流程图。在具有显示器、触敏表面和可旋转输入设备的 设备(例如,100,300,500)处执行方法1300。方法1300中的一些操作任选 地被组合,一些操作的次序任选地被改变,并且一些操作任选地被省略。
如下所述,方法1300提供了一种用于在触敏表面上进行手写的直观方 式。该方法减少了用户对在触敏表面上进行手写的认知负担,从而创建更 有效的人机界面。对于电池驱动的计算设备,使得用户能够更快且更有效 地在触敏表面上输入手写节省了功率并且增加了电池两次充电之间的时间 间隔。
电子设备在显示器上显示(1302)包括消息区域(例如,609)和笔画输 入区域(例如,608)(例如,显示器和触敏表面上的检测并显示经由手 指、触笔或其他物体从用户接收的笔画的区域)的用户输入界面(例如, 610)。在一些示例中,消息区域和笔画输入区域是部分交叠的。在一些示 例中,消息区域完全在笔画输入区域内。在一些示例中,消息区域和笔画 输入区域共享边界,但不彼此交叠。在一些示例中,消息区域和笔画输入 区域是分开的。在一些示例中,触敏表面小于2in×2in、小于1.5in×1.5in、 或小于1in×1in。
电子设备在笔画输入区域(例如,608)中的触敏表面上接收(1304)第 一组笔画(例如,1200,1202,1204)(例如,一个或多个连续笔画,其中每 个笔画表示字母或字母的一部分)。在一些示例中,第一组笔画表示一个 字母、多个字母、一个字词、或多个字词。在一些示例中,显示器在接收 到笔画时向用户提供第一组笔画的笔画的位置和形状的反馈(例如,对笔 画1200,1202,1204的显示)。
电子设备基于第一组笔画(例如,笔画1200,1202,1204)开始(1306)确 定第一文本(例如,字母、多个字母、字词、或多个字词)。在一些示例 中,该确定可进一步基于在第一组笔画之前接收到的笔画、电子设备的上 下文(例如,一天中的时间、位置、当前活动、日历、该消息要发往的 人)、或其他信息。
电子设备在笔画输入区域(例如,608)中的触敏表面上接收(1308)第 二组笔画(例如,1206)(例如,一个或多个连续笔画,其中每个笔画表 示字母或字母的一部分),而无需在消息区域中显示第一文本(例如,图 12J)。在一些示例中,第二组笔画表示字母的一部分、一个字母、多个字 母、一个字词、或多个字词。在一些示例中,显示器在接收到笔画时向用 户提供第一组笔画的笔画的位置和形状的反馈(例如,笔画1206的显 示)。根据一些实施方案,该电子设备在接收到第二组笔画之前基于第一 组笔画来确定第一文本。
该电子设备基于第一组笔画和第二组笔画来确定修订的第一文本(例 如,文本1208)。
该电子设备在消息区域中显示修订的第一文本(例如,文本1208)。
根据一些实施方案,该修订的第一文本包括第一字符,并且其中第一 字符不基于第二组笔画(例如,第一字符为“G”,并且不基于笔画 1206)。
根据一些实施方案,修订的第一文本包括多个字符,并且多个字符基 于第一组笔画(例如,测试包括基于第一组笔画1200和1202的 “Go”)。
根据一些实施方案,修订的第一文本包括第二字符,并且其中第二字 符不基于第一组笔画(例如,第二字符为不基于第一组笔画,即笔画1200 和1202的“i”)。
根据一些实施方案,修订的第一文本是单个字词(例如,文本 1208)。
根据一些实施方案,在笔画输入区域上的与笔画输入区域中的输入第 二组笔画(例如,1206或1208)的位置基本上相同的位置中输入第一组笔 画(例如,1200和1202)。
根据一些实施方案,修订的第一文本包括基于第一组笔画的形状的第 一部分以及由第二组笔画提供的上下文(例如,第一组笔画的形状为“n” 或“h”,但基于校正字母所沿形状其为有歧义的,该上下文在确定对应字 母为“n”时提供了第二笔画,因为第二组笔画的对应文本是“ight”)。
根据一些实施方案,修订的第一文本包括基于第二组笔画的形状的第 一部分以及由第一组笔画提供的上下文(例如,第二组笔画的形状为“n” 或“h”,但基于校正字母所沿形状其为有歧义的,该上下文在确定对应字 母为“n”时提供了第一笔画,因为第一组笔画的对应文本是“tur”)。
根据一些实施方案,图14示出了根据各种所述实施方案的原理进行配 置的电子设备1400的示例性功能框图。根据一些实施方案,电子设备1400 的功能块被配置为执行上文所述的技术。设备1400的功能块任选地由执行 各种所述示例的原理的硬件、软件或硬件和软件的组合来实现。本领域的 技术人员应当理解,图14中所述的功能块任选地被组合或被分离为子块, 以便实现各种所述示例的原理。因此,本文的描述任选地支持本文所述的功能块的任何可能的组合或分离或进一步限定。
如图14中所示,电子设备1400包括显示单元1402、触敏表面单元 1404、可旋转输入机构单元1406、以及耦接至显示单元1402、触敏表面单 元1404、可旋转输入机构单元1406的处理单元1408。在一些实施方案 中,该处理单元1408包括显示启用单元1410、接收单元1412、和确定单 元1414。
该处理单元1408被配置为:在包括消息区域和笔画输入区域的显示器 1402上启用对用户输入界面的显示(例如,使用显示启用单元1410);在 笔画输入区域中的触敏表面上接收第一组笔画(例如,使用接收单元 1412);)开始基于第一组笔画来确定第一文本(例如,使用确定单元 1414;不在消息区域中启用对第一文本的显示,在接收第一组笔画之后在 笔画输入区域中的触敏表面上接收第二组笔画(例如,使用接收单元 1412);基于第一组笔画和第二组笔画来确定修订的第一文本(例如,使 用确定单元1414);以及在消息区域中启用对修订的第一文本的显示(例 如,使用显示启用单元1410)。
在一些实施方案中,该修订的第一文本包括第一字符,并且其中第一 字符不基于第二组笔画。
在一些实施方案中,该修订的第一文本包括多个字符,并且其中多个 字符基于第一组笔画。
在一些实施方案中,该修订的第一文本包括第二字符,并且其中第二 字符不基于第一组笔画。
在一些实施方案中,该修订的第一文本是单个字符。
在一些实施方案中,该修订的第一文本是单个字词。
在一些实施方案中,在笔画输入区域上的与笔画输入区域中的输入第 二组笔画的位置基本上相同的位置中输入第一组笔画。
在一些实施方案中,该处理单元1408被进一步配置为:在接收到第二 组笔画之前基于第一组笔画来确定第一文本(例如,使用确定单元 1414)。
在一些实施方案中,该修订的第一文本包括基于第一组笔画的形状的 第一部分和由第二组笔画提供的上下文。
在一些实施方案中,该修订的第一文本包括基于第二组笔画的形状的 第一部分和由第一组笔画提供的上下文。
以上参考图13描述的操作任选地由图1A-1B或图14中描绘的部件来 实现。例如,接收操作1304任选地由事件分类器170、事件识别器180和 事件处理程序190来实现。事件分类器170中的事件监视器171检测触敏 显示器112上的接触,并且事件分配器模块174将事件信息递送到应用程 序136-1。应用程序136-1的相应事件识别器180将事件信息与相应事件定 义186进行比较,并且确定触敏表面上的第一位置处的第一接触是否对应 于预定义的事件或子事件,诸如对用户界面上的示能表示的激活。当检测 到相应的预定义事件或子事件时,事件识别器180激活与对该事件或子事 件的检测相关联的事件处理程序190。事件处理程序190任选地利用或调用 数据更新器176或对象更新器177以更新应用程序内部状态192。在一些实 施方案中,事件处理程序190访问相应GUI更新器178,以更新由应用程序显示的内容。类似地,本领域的普通技术人员会清楚地知道可如何基于 图1A-图1B中描绘的部件来实现其他过程。
图15A-图15J示出了根据一些实施方案的用于在屏幕上进行手写的示 例性用户界面。这些附图中的用户界面被用于示出包括图16中的过程的下 文描述的过程。
图15A示出了在电子设备600接收到与笔画组表示1502对应的该组笔 画之后的手写界面610,其包括与笔画表示1503对应的笔画以及与笔画表 示1504对应的笔画,它们分别是要在图15A中接收的最后两个笔画。笔画 组表示1502表示象形字符(例如,简体中文字符)。因为交叠的象形字符 可能包含很多笔画并且难以分析(例如,参见图15E仅两个交叠象形字符 的示例),电子设备600基于接收到笔画之间的时间在已接收到针对象形 字符的所有笔画时确定对应的象形字符。
相对于与笔画表示1503和1504对应的笔画,确定笔画之间的时间 (例如,完成与笔画表示1503对应的笔画时的时间到开始与笔画表示1504 对应的笔画时的时间)是否超过阈值。如果该时间未超过阈值,则在同一 组中将与笔画表示1503和1504对应的笔画一起包括在内,如图15A所 示。
如果下一笔画(即,与图15B的笔画表示1506对应的笔画)和与笔画 表示1504对应的笔画之间的时间超过阈值,则将与笔画组表示1502对应 的该组笔画作为一组一起分析,而没有与笔画表示1506对应的笔画,从而 确定对应的象形字符1508。与笔画表示1506对应的笔画将被添加到针对图 15C中所示的后续字符的该组笔画(与图15C的笔画组表示1510对应的该 组笔画)。这种方法还相对于图16被描述,使得电子设备600能够通过避 免同时处理多个象形字符而节省了电池功率。
这种技术还可用于对表示语音学字符以及象形字符的笔画进行消歧。 例如,图15F描绘了在电子设备600接收到文本1514和与笔画表示1516 对应的笔画之后的手写界面610。在图15G中,接收后续笔画,即与笔画 表示1518对应的笔画。基于与笔画表示1516对应的笔画和与笔画表示 1518对应的笔画之间的时间,电子设备600可确定与笔画表示1516和1518对应的笔画是否意图是字母“k”以拼写字词“cook”(图H的文本 1516)或与笔画表示1516和1518对应的笔画是否是两个独立字符并且意 图是拼写“cool”(图15J的文本1520)。
如果笔画之间的时间超过阈值,电子设备600将与笔画表示1516和 1518对应的笔画作为不同字符的部分进行处理,如图15H中所示的。与笔 画表示1518对应的笔画然后可被独立分析,以例如产生作为字词“car”的 一部分的字母“c”(图15H的文本1518)。如果笔画之间的时间时未超 过阈值,则将笔画1516和1518作为同一字符的一部分处理,如图15J中所 示的。
图16是示出了根据一些实施方案的用于使用电子设备来在触敏表面上 进行手写的方法的流程图。在具有显示器、触敏表面和可旋转输入设备的 设备(例如,100,300,500)处执行方法1600。方法1600中的一些操作任选 地被组合,一些操作的次序任选地被改变,并且一些操作任选地被省略。
如下所述,方法1600提供了一种用于在触敏表面上进行手写的直观方 式。该方法减少了用户对在触敏表面上进行手写的认知负担,从而创建更 有效的人机界面。对于电池驱动的计算设备,使得用户能够更快且更有效 地在触敏表面上输入手写节省了功率并且增加了电池两次充电之间的时间 间隔。
电子设备在显示器上显示(1602)包括消息区域(例如,609)和笔画输 入区域(例如,608)(例如,显示器和触敏表面上的检测并显示经由手 指、触笔或其他物体从用户接收的笔画的区域)的用户输入界面(例如, 610)。在一些示例中,消息区域和笔画输入区域是部分交叠的。在一些示 例中,消息区域完全在笔画输入区域内。在一些示例中,消息区域和笔画 输入区域共享边界,但不彼此交叠。在一些示例中,消息区域和笔画输入 区域是分开的。在一些示例中,触敏表面小于2in×2in、小于1.5in×1.5in、 或小于1in×1in。
该电子设备在笔画输入区域中的触敏表面上接收(1604)第一笔画(例 如,笔画1504)。在一些示例中,第一笔画是多个笔画中的最新笔画。
该电子设备在接收第一笔画之后的第一时间在触敏表面上接收(1606) 第二笔画(例如,1506)。第二笔画与第一笔画不同(例如,第一笔画和 第二笔画不相同并且不是相同笔画的不同部分)。
该电子设备确定(1608)第一时间是否超过阈值时间(例如,从笔画 1504结束到笔画1506开始的时间是否大于阈值)。
根据该电子设备确定第一时间超过阈值,该电子设备基于第一笔画 (例如,1504)但不基于第二笔画(例如,1506)来确定(1610)第一字符 (例如,字符1508)。
根据电子设备确定第一时间(例如,使用笔画1503作为第一笔画,笔 画1504作为第二笔画)小于阈值时间,基于第一笔画(例如,1503)和第 二笔画(例如,1504)(例如,除该组笔画1502的其他笔画之外)来确定 (1612)第一字符(例如,字符1508)。
电子设备在消息区域中显示(1614)第一字符(例如,字符1508)。
根据一些实施方案,该电子设备进一步根据确定第一时间超过阈值时 间,基于第二笔画(例如,1506)来确定第二字符(例如,字符1512)。 该电子设备在消息区域中与第一字符一起显示第二字符(例如,字符 1512)。
根据一些实施方案,对第一字符和第二字符的显示由空格分开(例 如,图15I)。
根据一些实施方案,第一字符是语音学字符(例如,图15H和图 15J)。
根据一些实施方案,第一字符是象形字符(例如,字符1508)。
根据一些实施方案,图17示出了根据各种所述实施方案的原理进行配 置的电子设备1700的示例性功能框图。根据一些实施方案,电子设备1700 的功能块被配置为执行上文所述的技术。设备1700的功能块任选地由执行 各种所述示例的原理的硬件、软件或硬件和软件的组合来实现。本领域的 技术人员应当理解,图17中所述的功能块任选地被组合或被分离为子块, 以便实现各种所述示例的原理。因此,本文的描述任选地支持本文所述的功能块的任何可能的组合或分离或进一步限定。
如图17中所示,电子设备1700包括显示单元1702、触敏表面单元 1704、可旋转输入机构单元1706、以及耦接至显示单元1702、触敏表面单 元1704、可旋转输入机构1706的处理单元1708。在一些实施方案中,该 处理单元1708包括显示启用单元1710、接收单元1712、和确定单元 1714。
该处理单元1708被配置为:在包括消息区域和笔画输入区域的显示单 元1702上启用对用户输入界面的显示(例如,使用显示启用单元1710); 在笔画输入区域中的触敏表面单元1704上接收第一笔画(例如,使用接收 单元1712);在接收到第一笔画之后的第一时间,在触敏表面单元1704上 接收第二笔画(例如,使用接收单元1712),其中第二笔画与第一笔画不 同;确定第一时间是否超过阈值时间(例如,使用确定单元1714);根据 确定第一时间超过阈值时间,基于第一笔画但不基于第二笔画来确定第一 字符(例如,使用确定单元1714);根据确定第一时间小于阈值时间,基 于第一笔画和第二笔画来确定第一字符(例如,使用确定单元1714);以 及在消息区域中启用对第一字符的显示(例如,使用显示启用单元 1710)。
在一些实施方案中,该处理单元1708被进一步配置为:进一步根据确 定第一时间超过阈值时间,基于第二笔画来确定第二字符(例如,使用确 定单元1714);以及在消息区域中与第一字符一起启用对第二字符的显示 (例如,使用显示启用单元1710)。
在一些实施方案中,对第一字符和第二字符的显示由空格分开。
在一些实施方案中,该处理单元1708被进一步配置为:确定与第一字 符相关联的上下文(例如,使用确定单元1714);进一步基于上下文来确 定第二字符(例如,使用确定单元1714)。
在一些实施方案中,第一字符是语音学字符。
在一些实施方案中,第一字符是象形字符。
以上参考图16描述的操作任选地由图1A-图1B或者图17中描绘的部 件来实现。例如,接收操作1604任选地由事件分类器170、事件识别器 180和事件处理程序190来实现。事件分类器170中的事件监视器171检测 触敏显示器112上的接触,并且事件分配器模块174将事件信息递送到应 用程序136-1。应用程序136-1的相应事件识别器180将事件信息与相应事 件定义186进行比较,并且确定触敏表面上的第一位置处的第一接触是否 对应于预定义的事件或子事件,诸如对用户界面上的示能表示的激活。当 检测到相应的预定义事件或子事件时,事件识别器180激活与对该事件或 子事件的检测相关联的事件处理程序190。事件处理程序190任选地利用或 调用数据更新器176或对象更新器177以更新应用程序内部状态192。在一 些实施方案中,事件处理程序190访问相应GUI更新器178,以更新由应 用程序显示的内容。类似地,本领域的普通技术人员会清楚地知道可如何 基于图1A-图1B中描绘的部件来实现其他过程。
为了解释的目的,前面的描述是通过参考具体实施方案来进行描述 的。然而,上面的例示性论述并非旨在是穷尽的或将本发明限制为所公开 的精确形式。根据以上教导内容,很多修改形式和变型形式都是可能的。 选择并描述这些实施方案是为了最好地解释这些技术的原理及其实际应 用。本领域的其他技术人员由此能够最好地利用这些技术以及具有适合于 所设想的特定用途的各种修改的各种实施方案。
虽然参照附图对本公开以及示例进行了全面的描述,但应当注意,各 种变化和修改对于本领域内的技术人员而言将变得显而易见。应当理解, 此类变化和修改被认为被包括在由权利要求书所限定的本公开和示例的范 围内。

Claims (58)

1.一种方法,包括:
在具有触敏表面、显示器、可旋转输入机构和一个或多个处理器的便携式电子设备处:
在包括消息区域和笔画输入区域的所述显示器上显示用户输入界面;
在所述笔画输入区域中的所述触敏表面上接收第一组笔画;
基于所述第一组笔画来确定第一文本;
在所述消息区域中的所述显示器上显示所述第一文本;
基于所述第一文本来确定一个或多个建议,其中所述一个或多个建议包括对所述第一文本的一个或多个改变;
在确定所述一个或多个建议之后,经由所述可旋转输入机构来接收用户输入;
响应于所述用户输入:
显示所述一个或多个建议中的至少一个建议;以及
显示用于指示所述一个或多个建议中的所选择的建议的选择指示符;以及
在显示所述至少一个建议或所述一个或多个建议以及所述选择指示符之后,利用对所选择的建议的显示来替代对所述第一文本的显示。
2.根据权利要求1所述的方法,还包括:
响应于确定所述一个或多个建议,显示所述一个或多个建议可用的指示。
3.根据权利要求1或2所述的方法,还包括:
进一步响应于接收到所述用户输入,确定所述用户输入的特征是否满足第一标准;
根据确定满足建议界面中止标准,停止显示与所述一个或多个建议对应的图形界面。
4.根据权利要求1或权利要求2中任一项所述的方法:
响应于经由所述可旋转输入机构继续接收所述用户输入,将所述选择指示符从所述一个或多个建议中的第一建议移动到第二建议。
5.根据权利要求1至4中任一项所述的方法,其中对所述一个或多个建议的所述显示包括所述第一文本、和所述第一文本上方的一个或多个大写建议、以及所述第一文本下方的一个或多个小写建议。
6.根据权利要求1至5中任一项所述的方法,其中所述一个或多个建议包括自动完成建议或自动校正建议。
7.根据权利要求1至6中任一项所述的方法,其中所述一个或多个建议包括基于所述第一文本而识别的表情符号。
8.根据权利要求1至7中任一项所述的方法,其中所述一个或多个建议是使用n元模型来确定的。
9.根据权利要求1至8中任一项所述的方法:
在接收到所述第一组笔画之前,在所述笔画输入区域中接收第二组笔画;
基于所述第二组笔画来确定第二文本,其中确定所述一个或多个建议进一步基于所述第二文本。
10.根据权利要求1至9中任一项所述的方法,还包括:
响应于接收到所述第一组笔画的至少一部分,在所述笔画输入区域中显示所述第一组笔画的图形表示。
11.根据权利要求1至10中任一项所述的方法,还包括:
在所述笔画输入区域中接收第一笔画;
在自接收到所述第一笔画以来已经过某时间段之后,在所述笔画输入区域中接收第二笔画;
根据确定所述时间段时未超过阈值,在所述第一组笔画中包括所述第一笔画和所述第二笔画;
根据确定所述时间段超过阈值,在所述第一组笔画中包括所述第一笔画并从所述第一组笔画中排除所述第二笔画。
12.根据权利要求1至11中任一项所述的方法,其中所述第一文本包括多个字符。
13.根据权利要求1至11中任一项所述的方法,其中所述第一文本是单个字符。
14.根据权利要求1至13中任一项所述的方法,还包括:
在所述笔画输入区域中的位置处接收第三笔画;
在所述笔画输入区域中的基本上相同的位置处在所述笔画输入区域中接收第四笔画,其中所述第三笔画和所述第四笔画两者被包括在所述第一组笔画中。
15.根据权利要求1至10、12或13中任一项所述的方法,其中所述第一组笔画是单个连续笔画。
16.根据权利要求1至14中任一项所述的方法,其中所述第一组笔画包括多个分立的笔画。
17.根据权利要求1至16中任一项所述的方法,其中所述用户输入界面包括多个示能表示,所述多个示能表示包括与音频输入对应的示能表示,所述方法还包括:
响应于接收到用于选择与音频输入对应的所述示能表示的用户输入,显示音频输入界面以接收口述输入。
18.根据权利要求1至17中任一项所述的方法,还包括:
与对所述一个或多个建议中的所述至少一个建议的所述显示和对所述选择指示符的所述显示一起显示滚动指示符,其中所述滚动指示符的尺寸基于一个或多个建议的数量,并且所述滚动指示符的位置基于所述选择指示符在所述一个或多个建议的数量内的位置。
19.根据权利要求1至18中任一项所述的方法,还包括:
在利用对所选择的建议的显示来替代对所述第一文本的显示之后:
停止显示所述一个或多个建议中的所述至少一个建议;以及
在停止显示所述一个或多个建议中的所述至少一个建议之后,经由所述可旋转输入机构来接收附加用户输入;
响应于接收到所述附加用户输入:
显示所述一个或多个建议中的至少一个附加建议;以及
显示所述选择指示符。
20.一种存储一个或多个程序的非暂态计算机可读存储介质,所述一个或多个程序被配置为由具有触敏表面、显示器和可旋转输入机构的便携式设备的一个或多个处理器执行,所述一个或多个程序包括用于进行以下操作的指令:
在包括消息区域和笔画输入区域的所述显示器上显示用户输入界面;
在所述笔画输入区域中的所述触敏表面上接收第一组笔画;
基于所述第一组笔画来确定第一文本;
在所述消息区域中的所述显示器上显示所述第一文本;
基于所述第一文本来确定一个或多个建议,其中所述一个或多个建议包括对所述第一文本的一个或多个改变;
在确定所述一个或多个建议之后,经由所述可旋转输入机构来接收用户输入;
响应于所述用户输入:
显示所述一个或多个建议中的至少一个建议;以及
显示用于指示所述一个或多个建议中的所选择的建议的选择指示符;以及
在显示所述至少一个建议或所述一个或多个建议以及所述选择指示符之后,利用对所选择的建议的显示来替代对所述第一文本的显示。
21.根据权利要求20所述的非暂态计算机可读存储介质,所述一个或多个程序还包括用于进行以下操作的指令:
响应于确定所述一个或多个建议,显示所述一个或多个建议可用的指示。
22.根据权利要求20所述的非暂态计算机可读存储介质,所述一个或多个程序还包括用于进行以下操作的指令:
进一步响应于接收到所述用户输入,确定所述用户输入的特征是否满足第一标准;
根据确定满足建议界面中止标准,停止显示与所述一个或多个建议对应的图形界面。
23.根据权利要求20所述的非暂态计算机可读存储介质,所述一个或多个程序还包括用于进行以下操作的指令:
响应于经由所述可旋转输入机构继续接收所述用户输入,将所述选择指示符从所述一个或多个建议中的第一建议移动到第二建议。
24.根据权利要求20所述的非暂态计算机可读存储介质,其中对所述一个或多个建议的所述显示包括所述第一文本、和所述第一文本上方的一个或多个大写建议、以及所述第一文本下方的一个或多个小写建议。
25.根据权利要求20所述的非暂态计算机可读存储介质,其中所述一个或多个建议包括自动完成建议或自动校正建议。
26.根据权利要求20所述的非暂态计算机可读存储介质,其中所述一个或多个建议包括基于所述第一文本而识别的表情符号。
27.根据权利要求20所述的非暂态计算机可读存储介质,其中所述一个或多个建议是使用n元模型来确定的。
28.根据权利要求20所述的非暂态计算机可读存储介质,所述一个或多个程序还包括用于进行以下操作的指令:
在接收到所述第一组笔画之前,在所述笔画输入区域中接收第二组笔画;
基于所述第二组笔画来确定第二文本,其中确定所述一个或多个建议进一步基于所述第二文本。
29.根据权利要求20所述的非暂态计算机可读存储介质,所述一个或多个程序还包括用于进行以下操作的指令:
响应于接收到所述第一组笔画的至少一部分,在所述笔画输入区域中显示所述第一组笔画的图形表示。
30.根据权利要求20所述的非暂态计算机可读存储介质,所述一个或多个程序还包括用于进行以下操作的指令:
在所述笔画输入区域中接收第一笔画;
在自接收到所述第一笔画以来已经过某时间段之后,在所述笔画输入区域中接收第二笔画;
根据确定所述时间段时未超过阈值,在所述第一组笔画中包括所述第一笔画和所述第二笔画;
根据确定所述时间段超过阈值,在所述第一组笔画中包括所述第一笔画并从所述第一组笔画中排除所述第二笔画。
31.根据权利要求20所述的非暂态计算机可读存储介质,其中所述第一文本包括多个字符。
32.根据权利要求20所述的非暂态计算机可读存储介质,其中所述第一文本是单个字符。
33.根据权利要求20所述的非暂态计算机可读存储介质,所述一个或多个程序还包括用于进行以下操作的指令:
在所述笔画输入区域中的位置处接收第三笔画;
在所述笔画输入区域中的基本上相同的位置处在所述笔画输入区域中接收第四笔画,其中所述第三笔画和所述第四笔画两者被包括在所述第一组笔画中。
34.根据权利要求20所述的非暂态计算机可读存储介质,其中所述第一组笔画是单个连续笔画。
35.根据权利要求20所述的非暂态计算机可读存储介质,其中所述第一组笔画包括多个分立的笔画。
36.根据权利要求20所述的非暂态计算机可读存储介质,其中所述用户输入界面包括多个示能表示,所述多个示能表示包括与音频输入对应的示能表示,所述方法还包括:
响应于接收到用于选择与音频输入对应的所述示能表示的用户输入,显示音频输入界面以接收口述输入。
37.根据权利要求20所述的非暂态计算机可读存储介质,所述一个或多个程序还包括用于进行以下操作的指令:
与对所述一个或多个建议中的所述至少一个建议的所述显示和对所述选择指示符的所述显示一起显示滚动指示符,其中所述滚动指示符的尺寸基于一个或多个建议的数量,并且所述滚动指示符的位置基于所述选择指示符在所述一个或多个建议的数量内的位置。
38.根据权利要求20所述的非暂态计算机可读存储介质,所述一个或多个程序还包括用于进行以下操作的指令:
在利用对所选择的建议的显示来替代对所述第一文本的显示之后:
停止显示所述一个或多个建议中的所述至少一个建议;以及
在停止显示所述一个或多个建议中的所述至少一个建议之后,经由所述可旋转输入机构来接收附加用户输入;
响应于接收到所述附加用户输入:
显示所述一个或多个建议中的至少一个附加建议;以及
显示所述选择指示符。
39.一种电子设备,包括:
触敏表面;
显示器;
可旋转输入机构;
一个或多个处理器;和
存储器,所述存储器存储被配置为由所述一个或多个处理器执行的一个或多个程序,所述一个或多个程序包括用于进行以下操作的指令:
在包括消息区域和笔画输入区域的所述显示器上显示用户输入界面;
在所述笔画输入区域中的所述触敏表面上接收第一组笔画;
基于所述第一组笔画来确定第一文本;
在所述消息区域中的所述显示器上显示所述第一文本;
基于所述第一文本来确定一个或多个建议,其中所述一个或多个建议包括对所述第一文本的一个或多个改变;
在确定所述一个或多个建议之后,经由所述可旋转输入机构来接收用户输入;
响应于所述用户输入:
显示所述一个或多个建议中的至少一个建议;以及
显示用于指示所述一个或多个建议中的所选择的建议的选择指示符;以及
在显示所述至少一个建议或所述一个或多个建议以及所述选择指示符之后,利用对所选择的建议的显示来替代对所述第一文本的显示。
40.根据权利要求39所述的电子设备,所述一个或多个程序还包括用于进行以下操作的指令:
响应于确定所述一个或多个建议,显示所述一个或多个建议可用的指示。
41.根据权利要求39所述的电子设备,所述一个或多个程序还包括用于进行以下操作的指令:
进一步响应于接收到所述用户输入,确定所述用户输入的特征是否满足第一标准;
根据确定满足建议界面中止标准,停止显示与所述一个或多个建议对应的图形界面。
42.根据权利要求39所述的电子设备,所述一个或多个程序还包括用于进行以下操作的指令:
响应于经由所述可旋转输入机构继续接收所述用户输入,将所述选择指示符从所述一个或多个建议中的第一建议移动到第二建议。
43.根据权利要求39所述的电子设备,其中对所述一个或多个建议的所述显示包括所述第一文本、和所述第一文本上方的一个或多个大写建议、以及所述第一文本下方的一个或多个小写建议。
44.根据权利要求39所述的电子设备,其中所述一个或多个建议包括自动完成建议或自动校正建议。
45.根据权利要求39所述的电子设备,其中所述一个或多个建议包括基于所述第一文本而识别的表情符号。
46.根据权利要求38所述的电子设备,其中所述一个或多个建议是使用n元模型来确定的。
47.根据权利要求39所述的电子设备,所述一个或多个程序还包括用于进行以下操作的指令:
在接收到所述第一组笔画之前,在所述笔画输入区域中接收第二组笔画;
基于所述第二组笔画来确定第二文本,其中确定所述一个或多个建议进一步基于所述第二文本。
48.根据权利要求39所述的电子设备,所述一个或多个程序还包括用于进行以下操作的指令:
响应于接收到所述第一组笔画的至少一部分,在所述笔画输入区域中显示所述第一组笔画的图形表示。
49.根据权利要求39所述的电子设备,所述一个或多个程序还包括用于进行以下操作的指令:
在所述笔画输入区域中接收第一笔画;
在自接收到所述第一笔画以来已经过某时间段之后,在所述笔画输入区域中接收第二笔画;
根据确定所述时间段时未超过阈值,在所述第一组笔画中包括所述第一笔画和所述第二笔画;
根据确定所述时间段超过阈值,在所述第一组笔画中包括所述第一笔画并从所述第一组笔画中排除所述第二笔画。
50.根据权利要求39所述的电子设备,其中所述第一文本包括多个字符。
51.根据权利要求39所述的电子设备,其中所述第一文本是单个字符。
52.根据权利要求39所述的电子设备,所述一个或多个程序还包括用于进行以下操作的指令:
在所述笔画输入区域中的位置处接收第三笔画;
在所述笔画输入区域中的基本上相同的位置处在所述笔画输入区域中接收第四笔画,其中所述第三笔画和所述第四笔画两者被包括在所述第一组笔画中。
53.根据权利要求39所述的电子设备,其中所述第一组笔画是单个连续笔画。
54.根据权利要求39所述的电子设备,其中所述第一组笔画包括多个分立的笔画。
55.根据权利要求39所述的电子设备,其中所述用户输入界面包括多个示能表示,所述多个示能表示包括与音频输入对应的示能表示,所述方法还包括:
响应于接收到用于选择与音频输入对应的所述示能表示的用户输入,显示音频输入界面以接收口述输入。
56.根据权利要求39所述的电子设备,所述一个或多个程序还包括用于进行以下操作的指令:
与对所述一个或多个建议中的所述至少一个建议的所述显示和对所述选择指示符的所述显示一起显示滚动指示符,其中所述滚动指示符的尺寸基于一个或多个建议的数量,并且所述滚动指示符的位置基于所述选择指示符在所述一个或多个建议的数量内的位置。
57.根据权利要求39所述的电子设备,所述一个或多个程序还包括用于进行以下操作的指令:
在利用对所选择的建议的显示来替代对所述第一文本的显示之后:
停止显示所述一个或多个建议中的所述至少一个建议;以及
在停止显示所述一个或多个建议中的所述至少一个建议之后,经由所述可旋转输入机构来接收附加用户输入;
响应于接收到所述附加用户输入:
显示所述一个或多个建议中的至少一个附加建议;以及
显示所述选择指示符。
58.一种电子设备,包括:
触敏表面;
显示器;
可旋转输入机构;和
用于执行根据权利要求1至19中任一项所述的方法的装置。
CN201710424212.6A 2016-06-12 2017-06-07 用于屏幕的手写键盘 Active CN107491186B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202110452880.6A CN113157113B (zh) 2016-06-12 2017-06-07 用于屏幕的手写键盘
CN202110446637.3A CN113190126A (zh) 2016-06-12 2017-06-07 用于屏幕的手写键盘
CN201711258408.9A CN108089727B (zh) 2016-06-12 2017-06-07 用于屏幕的手写键盘

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201662349111P 2016-06-12 2016-06-12
US62/349,111 2016-06-12

Related Child Applications (3)

Application Number Title Priority Date Filing Date
CN202110452880.6A Division CN113157113B (zh) 2016-06-12 2017-06-07 用于屏幕的手写键盘
CN201711258408.9A Division CN108089727B (zh) 2016-06-12 2017-06-07 用于屏幕的手写键盘
CN202110446637.3A Division CN113190126A (zh) 2016-06-12 2017-06-07 用于屏幕的手写键盘

Publications (2)

Publication Number Publication Date
CN107491186A true CN107491186A (zh) 2017-12-19
CN107491186B CN107491186B (zh) 2021-05-07

Family

ID=59054982

Family Applications (4)

Application Number Title Priority Date Filing Date
CN202110446637.3A Pending CN113190126A (zh) 2016-06-12 2017-06-07 用于屏幕的手写键盘
CN201710424212.6A Active CN107491186B (zh) 2016-06-12 2017-06-07 用于屏幕的手写键盘
CN202110452880.6A Active CN113157113B (zh) 2016-06-12 2017-06-07 用于屏幕的手写键盘
CN201711258408.9A Active CN108089727B (zh) 2016-06-12 2017-06-07 用于屏幕的手写键盘

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN202110446637.3A Pending CN113190126A (zh) 2016-06-12 2017-06-07 用于屏幕的手写键盘

Family Applications After (2)

Application Number Title Priority Date Filing Date
CN202110452880.6A Active CN113157113B (zh) 2016-06-12 2017-06-07 用于屏幕的手写键盘
CN201711258408.9A Active CN108089727B (zh) 2016-06-12 2017-06-07 用于屏幕的手写键盘

Country Status (7)

Country Link
US (6) US10228846B2 (zh)
EP (3) EP3255528B1 (zh)
JP (4) JP6495376B2 (zh)
KR (4) KR101978883B1 (zh)
CN (4) CN113190126A (zh)
AU (4) AU2017203816C1 (zh)
DK (2) DK179374B1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112204509A (zh) * 2018-06-01 2021-01-08 苹果公司 用于与触笔进行交互的电子设备的设备、方法和图形用户界面

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8074172B2 (en) 2007-01-05 2011-12-06 Apple Inc. Method, system, and graphical user interface for providing word recommendations
US9898187B2 (en) 2013-06-09 2018-02-20 Apple Inc. Managing real-time handwriting recognition
US20170236318A1 (en) * 2016-02-15 2017-08-17 Microsoft Technology Licensing, Llc Animated Digital Ink
USD798893S1 (en) * 2016-06-11 2017-10-03 Apple Inc. Display screen or portion thereof with animated graphical user interface
DK179374B1 (en) 2016-06-12 2018-05-28 Apple Inc Handwriting keyboard for monitors
DE102016007357A1 (de) * 2016-06-15 2017-12-21 GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) Kraftfahrzeugeinrichtung mit einer bewegbaren Fensterscheibe, Kraftfahrzeug mit einer solchen Kraftfahrzeugeinrichtung und Verfahren zum Betrieb einer solchen Kraftfahrzeugeinrichtung
US10546061B2 (en) * 2016-08-17 2020-01-28 Microsoft Technology Licensing, Llc Predicting terms by using model chunks
USD868081S1 (en) * 2016-08-26 2019-11-26 Samsung Electronics Co., Ltd. Display screen or portion thereof with transitional graphical user interface
US10533362B2 (en) 2017-06-16 2020-01-14 GM Global Technology Operations LLC Systems and methods for memory and touch position window
WO2019022567A2 (en) * 2017-07-27 2019-01-31 Samsung Electronics Co., Ltd. METHOD FOR AUTOMATICALLY PROVIDING AUTOMATIC COMPLETION SUGGESTIONS BASED ON GESTURES AND ASSOCIATED ELECTRONIC DEVICE
US10810467B2 (en) * 2017-11-17 2020-10-20 Hong Kong Applied Science and Technology Research Institute Company Limited Flexible integrating recognition and semantic processing
KR20190091914A (ko) 2018-01-30 2019-08-07 최원호 온스크린 키보드 제공 방법 및 이를 수행하는 컴퓨팅 디바이스
US20190318652A1 (en) * 2018-04-13 2019-10-17 Microsoft Technology Licensing, Llc Use of intelligent scaffolding to teach gesture-based ink interactions
KR20200100379A (ko) * 2019-02-18 2020-08-26 삼성전자주식회사 전자 장치의 단축 기능 제공 방법 및 이를 사용하는 전자 장치
US11194467B2 (en) 2019-06-01 2021-12-07 Apple Inc. Keyboard management user interfaces
USD931896S1 (en) * 2019-11-20 2021-09-28 Beijing Zhangdianzishi Technology Co., Ltd. Display screen or portion thereof with an animated graphical user interface
KR102120324B1 (ko) 2020-02-13 2020-06-08 최원호 온스크린 키보드 제공 방법 및 이를 수행하는 컴퓨팅 디바이스
KR20230017538A (ko) * 2021-07-28 2023-02-06 삼성전자주식회사 전자 장치 및 필기 인식 방법

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020019731A1 (en) * 2000-05-12 2002-02-14 Toshiyuki Masui Portable terminal, method for inputting the information, method and apparatus for dictionary retrieval and medium
US6636163B1 (en) * 1999-07-22 2003-10-21 Matsushita Electric Industrial Co., Ltd. Numeric key-based chinese address inputting method
WO2008005304A2 (en) * 2006-07-06 2008-01-10 Synaptics Incorporated A method and apparatus for recognition of handwritten symbols
CN101123044A (zh) * 2007-09-13 2008-02-13 无敌科技(西安)有限公司 汉字书写学习方法
EP2031485A1 (en) * 2007-08-31 2009-03-04 Research In Motion Limited Handheld electronic device and associated method providing disambiguation of an ambiguous object during editing and selectively providing prediction of future characters
CN102449640A (zh) * 2009-03-30 2012-05-09 辛纳普蒂克斯公司 识别手写单词
US20120216113A1 (en) * 2011-02-18 2012-08-23 Google Inc. Touch gestures for text-entry operations
WO2015094587A1 (en) * 2013-12-17 2015-06-25 Microsoft Technology Licensing, Llc User interface for overlapping handwritten text input
US20150248235A1 (en) * 2014-02-28 2015-09-03 Samsung Electronics Company, Ltd. Text input on an interactive display
US20150294145A1 (en) * 2012-10-19 2015-10-15 Audi Ag Motor vehicle having an input device for handwriting recognition
CN105247540A (zh) * 2013-06-09 2016-01-13 苹果公司 管理实时手写识别
US20160019201A1 (en) * 2014-07-18 2016-01-21 Lenovo (Singapore) Pte, Ltd. Tone mark based text suggestions for chinese or japanese characters or words

Family Cites Families (326)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3859005A (en) 1973-08-13 1975-01-07 Albert L Huebner Erosion reduction in wet turbines
JPS5827551B2 (ja) 1979-05-18 1983-06-10 日本電信電話株式会社 オンライン手書き文字認識方式
JPH0614372B2 (ja) 1984-01-23 1994-02-23 日本電信電話株式会社 文字読取方法
JPS60217477A (ja) 1984-04-12 1985-10-31 Toshiba Corp 手書き文字認識装置
JPS61272890A (ja) 1985-05-29 1986-12-03 Canon Inc 手書文字認識装置
US4826405A (en) 1985-10-15 1989-05-02 Aeroquip Corporation Fan blade fabrication system
US5031225A (en) 1987-12-09 1991-07-09 Ricoh Company, Ltd. Character recognition method for recognizing character in an arbitrary rotation position
WO1990008505A1 (en) 1989-01-24 1990-08-09 Dolphin Imaging Systems Inc. Method and apparatus for generating cephalometric images
JP2881866B2 (ja) 1989-11-30 1999-04-12 ソニー株式会社 手書き文字の認識方法及び装置
USRE34476E (en) 1990-05-14 1993-12-14 Norwood Donald D Hybrid information management system for handwriting and text
US5138304A (en) 1990-08-02 1992-08-11 Hewlett-Packard Company Projected image light pen
US5347295A (en) 1990-10-31 1994-09-13 Go Corporation Control of a computer through a position-sensed stylus
JP2718485B2 (ja) 1990-11-29 1998-02-25 株式会社リコー 文字認識方法
DE69129364T2 (de) 1991-02-01 1998-10-22 Philips Electronics Nv Vorrichtung zur interaktiven Behandlung von Objekten
JP3190074B2 (ja) 1991-09-11 2001-07-16 株式会社東芝 手書き入力装置
US5544257A (en) 1992-01-08 1996-08-06 International Business Machines Corporation Continuous parameter hidden Markov model approach to automatic handwriting recognition
US5652806A (en) 1992-01-10 1997-07-29 Compaq Computer Corporation Input device with data targeting to determine an entry field for a block of stroke data
US5347477A (en) 1992-01-28 1994-09-13 Jack Lee Pen-based form computer
US5583543A (en) 1992-11-05 1996-12-10 Sharp Kabushiki Kaisha Pen input processing apparatus
US5502803A (en) 1993-01-18 1996-03-26 Sharp Kabushiki Kaisha Information processing apparatus having a gesture editing function
US5491758A (en) * 1993-01-27 1996-02-13 International Business Machines Corporation Automatic handwriting recognition using both static and dynamic parameters
US6011865A (en) 1993-05-12 2000-01-04 International Business Machines Corporation Hybrid on-line handwriting recognition and optical character recognition system
DE69315990T2 (de) 1993-07-01 1998-07-02 Ibm Mustererkennung durch Erzeugung und Benutzung zonenweiser Merkmale und Anti-Merkmale
CA2124505C (en) 1993-07-21 2000-01-04 William A. S. Buxton User interface having simultaneously movable tools and cursor
US5710831A (en) 1993-07-30 1998-01-20 Apple Computer, Inc. Method for correcting handwriting on a pen-based computer
JP3353954B2 (ja) 1993-08-13 2002-12-09 ソニー株式会社 手書き入力表示方法および手書き入力表示装置
US5500937A (en) 1993-09-08 1996-03-19 Apple Computer, Inc. Method and apparatus for editing an inked object while simultaneously displaying its recognized object
US5438631A (en) 1993-10-12 1995-08-01 Dai; Xiao-Wei Handwriting and character recognition system
JPH07160827A (ja) 1993-12-09 1995-06-23 Matsushita Electric Ind Co Ltd 手書きストローク編集装置及び方法
JPH07200723A (ja) 1993-12-29 1995-08-04 Canon Inc 文字認識方法及び装置
US5687254A (en) 1994-06-06 1997-11-11 Xerox Corporation Searching and Matching unrecognized handwriting
JPH0855182A (ja) 1994-06-10 1996-02-27 Nippon Steel Corp 手書き文字入力装置
US5812697A (en) 1994-06-10 1998-09-22 Nippon Steel Corporation Method and apparatus for recognizing hand-written characters using a weighting dictionary
JP3486459B2 (ja) 1994-06-21 2004-01-13 キヤノン株式会社 電子情報機器及びその制御方法
JPH0816313A (ja) 1994-07-04 1996-01-19 Sanyo Electric Co Ltd 手書き入力方法及び装置
US5737443A (en) 1994-11-14 1998-04-07 Motorola, Inc. Method of joining handwritten input
WO1996015507A1 (en) 1994-11-14 1996-05-23 Motorola Inc. Method of splitting handwritten input
JP2944439B2 (ja) 1994-12-27 1999-09-06 シャープ株式会社 手書き文字入力装置および方法
JP2939147B2 (ja) 1994-12-29 1999-08-25 シャープ株式会社 手書き文字入力表示装置および方法
JPH08228275A (ja) 1995-02-22 1996-09-03 Canon Inc ファクシミリ装置
JP3333362B2 (ja) 1995-04-11 2002-10-15 株式会社日立製作所 文字入力装置
US6016147A (en) 1995-05-08 2000-01-18 Autodesk, Inc. Method and system for interactively determining and displaying geometric relationships between three dimensional objects based on predetermined geometric constraints and position of an input device
JPH08314608A (ja) 1995-05-15 1996-11-29 Wacom Co Ltd デジタイザ、デジタイザ用の補助装置及びデジタイザシステム
TW338815B (en) 1995-06-05 1998-08-21 Motorola Inc Method and apparatus for character recognition of handwritten input
US5991441A (en) 1995-06-07 1999-11-23 Wang Laboratories, Inc. Real time handwriting recognition system
JP3437347B2 (ja) 1995-09-08 2003-08-18 キヤノン株式会社 文字認識装置及びその方法及びコンピュータ
US5902968A (en) 1996-02-20 1999-05-11 Ricoh Company, Ltd. Pen-shaped handwriting input apparatus using accelerometers and gyroscopes and an associated operational device for determining pen movement
US5828999A (en) 1996-05-06 1998-10-27 Apple Computer, Inc. Method and system for deriving a large-span semantic language model for large-vocabulary recognition systems
JPH09319829A (ja) 1996-06-03 1997-12-12 Nec Corp オンライン文字認識装置
US5796867A (en) 1996-06-12 1998-08-18 Industrial Technology Research Institute Stroke-number-free and stroke-order-free on-line Chinese character recognition method
US5864635A (en) 1996-06-14 1999-01-26 International Business Machines Corporation Distinguishing gestures from handwriting in a pen based computer by stroke analysis
US5862256A (en) 1996-06-14 1999-01-19 International Business Machines Corporation Distinguishing gestures from handwriting in a pen based computer by size discrimination
JPH1091346A (ja) * 1996-09-10 1998-04-10 Sharp Corp 手書き入力装置及び手書き入力装置制御プログラムを記憶した媒体
US5926566A (en) 1996-11-15 1999-07-20 Synaptics, Inc. Incremental ideographic character input method
JP4115568B2 (ja) 1996-12-18 2008-07-09 シャープ株式会社 文章入力装置
US5953541A (en) 1997-01-24 1999-09-14 Tegic Communications, Inc. Disambiguating system for disambiguating ambiguous input sequences by displaying objects associated with the generated input sequences in the order of decreasing frequency of use
JPH10307675A (ja) 1997-05-01 1998-11-17 Hitachi Ltd 手書き文字認識方法及び装置
JP3006545B2 (ja) 1997-06-09 2000-02-07 日本電気株式会社 オンライン文字認識装置
KR100595911B1 (ko) 1998-01-26 2006-07-07 웨인 웨스터만 수동 입력 통합 방법 및 장치
US6340967B1 (en) * 1998-04-24 2002-01-22 Natural Input Solutions Inc. Pen based edit correction interface method and apparatus
WO1999064982A1 (en) 1998-06-09 1999-12-16 Kent Ridge Digital Labs A recognition process
US6408092B1 (en) 1998-08-31 2002-06-18 Adobe Systems Incorporated Handwritten input in a restricted area
JP3775461B2 (ja) 1998-12-03 2006-05-17 セイコーエプソン株式会社 印字装置、その印字方法及び記録媒体
US8938688B2 (en) 1998-12-04 2015-01-20 Nuance Communications, Inc. Contextual prediction of user words and user actions
US7881936B2 (en) 1998-12-04 2011-02-01 Tegic Communications, Inc. Multimodal disambiguation of speech recognition
US7030863B2 (en) 2000-05-26 2006-04-18 America Online, Incorporated Virtual keyboard system with automatic correction
US6970599B2 (en) 2002-07-25 2005-11-29 America Online, Inc. Chinese character handwriting recognition system
CA2392446C (en) 1999-05-27 2009-07-14 America Online Incorporated Keyboard system with automatic correction
US6707942B1 (en) * 2000-03-01 2004-03-16 Palm Source, Inc. Method and apparatus for using pressure information for improved computer controlled handwriting recognition, data entry and user authentication
US6760580B2 (en) 2000-03-06 2004-07-06 America Online, Incorporated Facilitating instant messaging outside of user-defined buddy group in a wireless and non-wireless environment
JP4663903B2 (ja) 2000-04-20 2011-04-06 パナソニック株式会社 手書き文字認識装置及び手書き文字認識プログラム並びに手書き文字認識プログラムを記録したコンピュータ読み取り可能な記録媒体
US7177797B1 (en) 2000-08-31 2007-02-13 Semantic Compaction Systems Linguistic retrieval system and method
US7688306B2 (en) 2000-10-02 2010-03-30 Apple Inc. Methods and apparatuses for operating a portable device based on an accelerometer
US7218226B2 (en) 2004-03-01 2007-05-15 Apple Inc. Acceleration-based theft detection system for portable electronic devices
CA2323856A1 (en) 2000-10-18 2002-04-18 602531 British Columbia Ltd. Method, system and media for entering data in a personal computing device
AU2002230766A1 (en) 2000-11-08 2002-05-21 New York University System, process and software arrangement for recognizing handwritten characters
AU2002226886A1 (en) 2000-11-09 2002-05-21 Change Tools, Inc. A user definable interface system, method and computer program product
US6912308B2 (en) * 2000-12-01 2005-06-28 Targus Communications Corp. Apparatus and method for automatic form recognition and pagination
US6677932B1 (en) 2001-01-28 2004-01-13 Finger Works, Inc. System and method for recognizing touch typing under limited tactile feedback conditions
US20020107896A1 (en) 2001-02-02 2002-08-08 Abraham Ronai Patent application drafting assistance tool
US6570557B1 (en) 2001-02-10 2003-05-27 Finger Works, Inc. Multi-touch system and method for emulating modifier keys via fingertip chords
US7020917B1 (en) 2001-03-12 2006-04-04 Steris Corporation Radiolucent surgical table with low shadow accessory interface profile
US7730401B2 (en) 2001-05-16 2010-06-01 Synaptics Incorporated Touch screen with user interface enhancement
US20050024341A1 (en) 2001-05-16 2005-02-03 Synaptics, Inc. Touch screen with user interface enhancement
US6690364B1 (en) 2001-05-31 2004-02-10 Palm Source, Inc. Method and system for on screen text correction via pen interface
AUPR687701A0 (en) 2001-08-08 2001-08-30 Litster, Gregory John Method of and apparatus for selecting symbols in ideographic languages
US6661409B2 (en) * 2001-08-22 2003-12-09 Motorola, Inc. Automatically scrolling handwritten input user interface for personal digital assistants and the like
US7202857B2 (en) * 2001-08-29 2007-04-10 Microsoft Corporation Manual controlled scrolling
US6952284B2 (en) 2001-08-31 2005-10-04 International Business Machines Corporation Manually operated digital printing device
US7286141B2 (en) 2001-08-31 2007-10-23 Fuji Xerox Co., Ltd. Systems and methods for generating and controlling temporary digital ink
AUPR824301A0 (en) 2001-10-15 2001-11-08 Silverbrook Research Pty. Ltd. Methods and systems (npw001)
US7113172B2 (en) 2001-11-09 2006-09-26 Lifescan, Inc. Alphanumeric keypad and display system and method
JP2003162687A (ja) 2001-11-28 2003-06-06 Toshiba Corp 手書き文字入力装置、手書き文字認識プログラム
JP4212270B2 (ja) 2001-12-07 2009-01-21 シャープ株式会社 文字入力装置、文字入力方法および文字を入力するためのプログラム
JP4050055B2 (ja) 2002-01-10 2008-02-20 株式会社リコー 手書き文字一括変換装置、手書き文字一括変換方法およびプログラム
US20030197736A1 (en) 2002-01-16 2003-10-23 Murphy Michael W. User interface for character entry using a minimum number of selection keys
US20030149978A1 (en) 2002-02-07 2003-08-07 Bruce Plotnick System and method for using a personal digital assistant as an electronic program guide
US7016529B2 (en) 2002-03-15 2006-03-21 Microsoft Corporation System and method facilitating pattern recognition
US20030193481A1 (en) 2002-04-12 2003-10-16 Alexander Sokolsky Touch-sensitive input overlay for graphical user interface
US6986106B2 (en) 2002-05-13 2006-01-10 Microsoft Corporation Correction widget
JP2004213269A (ja) 2002-12-27 2004-07-29 Toshiba Corp 文字入力装置
US7382358B2 (en) 2003-01-16 2008-06-03 Forword Input, Inc. System and method for continuous stroke word-based text input
JP4611031B2 (ja) * 2003-01-30 2011-01-12 富士通株式会社 手書き入力装置及び方法
US7490296B2 (en) * 2003-01-31 2009-02-10 Microsoft Corporation Utility object for specialized data entry
JP3903016B2 (ja) * 2003-02-13 2007-04-11 株式会社ジャストシステム 手書き文字認識装置及び方法、並びにプログラム
SG135918A1 (en) * 2003-03-03 2007-10-29 Xrgomics Pte Ltd Unambiguous text input method for touch screens and reduced keyboard systems
US20040183833A1 (en) 2003-03-19 2004-09-23 Chua Yong Tong Keyboard error reduction method and apparatus
US7729542B2 (en) 2003-04-04 2010-06-01 Carnegie Mellon University Using edges and corners for character input
US8479112B2 (en) 2003-05-13 2013-07-02 Microsoft Corporation Multiple input language selection
EP1652310A4 (en) 2003-07-17 2007-11-14 Xrgomics Pte Ltd METHOD FOR ENTERING TEXT BY CHOOSING LETTERS AND WORDS FOR REDUCED KEYBOARDS AND KEYBOARD SYSTEMS
US7571111B2 (en) 2004-03-29 2009-08-04 United Parcel Service Of America, Inc. Computer system for monitoring actual performance to standards in real time
JP2005341387A (ja) 2004-05-28 2005-12-08 Nokia Corp リアルタイムコミュニケーションシステム、及びリアルタイムコミュニケーションに用いる送受信装置及び方法
JP2005341411A (ja) * 2004-05-28 2005-12-08 Matsushita Electric Ind Co Ltd ユーザインタフェース装置
US7764837B2 (en) 2004-09-01 2010-07-27 Hewlett-Packard Development Company, L.P. System, method, and apparatus for continuous character recognition
US7443386B2 (en) 2004-11-01 2008-10-28 Nokia Corporation Mobile phone and method
US7669149B2 (en) * 2004-12-30 2010-02-23 Sap Ag Matching user interface elements to screen reader functions
US8552984B2 (en) 2005-01-13 2013-10-08 602531 British Columbia Ltd. Method, system, apparatus and computer-readable media for directing input associated with keyboard-type device
JP5037491B2 (ja) * 2005-04-25 2012-09-26 テジック コミュニケーションズ インク 与えられた(1つ以上の)文字の全数より少ない数の文字、若しくは、その文字の字画の全数より少ない数の字画、又はその両方を供給することによる、表意言語の句の省略された手書き入力
US20060246955A1 (en) 2005-05-02 2006-11-02 Mikko Nirhamo Mobile communication device and method therefor
JP2006323502A (ja) 2005-05-17 2006-11-30 Canon Inc 情報処理装置及びその制御方法、プログラム
US7886233B2 (en) 2005-05-23 2011-02-08 Nokia Corporation Electronic text input involving word completion functionality for predicting word candidates for partial word inputs
US7496547B2 (en) 2005-06-02 2009-02-24 Microsoft Corporation Handwriting recognition using a comparative neural network
US20070016862A1 (en) * 2005-07-15 2007-01-18 Microth, Inc. Input guessing systems, methods, and computer program products
US7873356B2 (en) 2005-09-16 2011-01-18 Microsoft Corporation Search interface for mobile devices
US7634137B2 (en) 2005-10-14 2009-12-15 Microsoft Corporation Unfolded convolution for fast feature extraction
US7646913B2 (en) 2005-12-19 2010-01-12 Microsoft Corporation Allograph based writer adaptation for handwritten character recognition
US7657849B2 (en) 2005-12-23 2010-02-02 Apple Inc. Unlocking a device by performing gestures on an unlock image
DE102006037156A1 (de) 2006-03-22 2007-09-27 Volkswagen Ag Interaktive Bedienvorrichtung und Verfahren zum Betreiben der interaktiven Bedienvorrichtung
JP4762070B2 (ja) 2006-07-19 2011-08-31 富士通株式会社 手書き入力装置、手書き入力方法、及びコンピュータプログラム
US7720316B2 (en) 2006-09-05 2010-05-18 Microsoft Corporation Constraint-based correction of handwriting recognition errors
US8564544B2 (en) * 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
US8843754B2 (en) 2006-09-15 2014-09-23 Identity Metrics, Inc. Continuous user identification and situation analysis with identification of anonymous users through behaviormetrics
KR100859010B1 (ko) 2006-11-01 2008-09-18 노키아 코포레이션 필기 인식을 위한 장치 및 방법
US8074172B2 (en) 2007-01-05 2011-12-06 Apple Inc. Method, system, and graphical user interface for providing word recommendations
US7885456B2 (en) 2007-03-29 2011-02-08 Microsoft Corporation Symbol graph generation in handwritten mathematical expression recognition
US8457946B2 (en) * 2007-04-26 2013-06-04 Microsoft Corporation Recognition architecture for generating Asian characters
CN101311887A (zh) 2007-05-21 2008-11-26 刘恩新 一种计算机手写输入系统及输入方法和编辑方法
US8018441B2 (en) * 2007-06-11 2011-09-13 Samsung Electronics Co., Ltd. Character input apparatus and method for automatically switching input mode in terminal having touch screen
US7983478B2 (en) 2007-08-10 2011-07-19 Microsoft Corporation Hidden markov model based handwriting/calligraphy generation
JP2009110092A (ja) 2007-10-26 2009-05-21 Alps Electric Co Ltd 入力処理装置
US8010901B1 (en) 2007-10-26 2011-08-30 Sesh, Inc. System and method for automated synchronized co-browsing
US7502017B1 (en) 2007-11-20 2009-03-10 International Business Machines Corporation Handwriting recognizer user interface methods
CN101178633A (zh) 2007-12-13 2008-05-14 深圳华为通信技术有限公司 一种手写屏错误纠正的方法、系统及装置
US8116569B2 (en) 2007-12-21 2012-02-14 Microsoft Corporation Inline handwriting recognition and correction
US8908973B2 (en) 2008-03-04 2014-12-09 Apple Inc. Handwritten character recognition interface
US8650507B2 (en) * 2008-03-04 2014-02-11 Apple Inc. Selecting of text using gestures
US8610672B2 (en) 2008-04-10 2013-12-17 Nokia Corporation Device and method for stroke based graphic input
US9508059B2 (en) * 2008-04-25 2016-11-29 T-Mobile Usa, Inc. Messaging device having a graphical user interface for initiating communication to recipients
US8341184B2 (en) * 2008-05-07 2012-12-25 Smooth Productions Inc. Communications network system and service provider
JP2009288873A (ja) 2008-05-27 2009-12-10 Ntt Docomo Inc 携帯端末及び文字入力方法
JP2009289188A (ja) 2008-05-30 2009-12-10 Nec Corp 文字入力装置、文字入力方法および文字入力用プログラム
US9355090B2 (en) 2008-05-30 2016-05-31 Apple Inc. Identification of candidate characters for text input
US8073680B2 (en) 2008-06-26 2011-12-06 Microsoft Corporation Language detection service
US8213914B2 (en) * 2008-08-04 2012-07-03 Lg Electronics Inc. Mobile terminal capable of providing web browsing function and method of controlling the mobile terminal
CN101676838B (zh) 2008-09-16 2012-05-23 夏普株式会社 输入装置
US20100104189A1 (en) 2008-10-23 2010-04-29 Aravamudhan Bharath Handwriting Identification Method, Program And Electronic Device
US8584031B2 (en) 2008-11-19 2013-11-12 Apple Inc. Portable touch screen device, method, and graphical user interface for using emoji characters
US8370737B2 (en) 2008-12-27 2013-02-05 Flash Networks, Ltd Method and system for inserting data in a web page that is transmitted to a handheld device
US20100166314A1 (en) 2008-12-30 2010-07-01 Microsoft Corporation Segment Sequence-Based Handwritten Expression Recognition
US8294680B2 (en) * 2009-03-27 2012-10-23 Sony Mobile Communications Ab System and method for touch-based text entry
US10191654B2 (en) * 2009-03-30 2019-01-29 Touchtype Limited System and method for inputting text into electronic devices
US8111911B2 (en) 2009-04-27 2012-02-07 King Abdulaziz City For Science And Technology System and methods for arabic text recognition based on effective arabic text feature extraction
US9009612B2 (en) * 2009-06-07 2015-04-14 Apple Inc. Devices, methods, and graphical user interfaces for accessibility using a touch-sensitive surface
CN101930545A (zh) 2009-06-24 2010-12-29 夏普株式会社 手写识别方法和设备
US8391613B2 (en) 2009-06-30 2013-03-05 Oracle America, Inc. Statistical online character recognition
JP2011065623A (ja) 2009-08-21 2011-03-31 Sharp Corp 情報検索装置、情報検索装置の制御方法
WO2011024282A1 (ja) 2009-08-27 2011-03-03 株式会社 東芝 情報検索装置
TWI490734B (zh) 2009-11-23 2015-07-01 Htc Corp 動態調整手寫輸入之等待時間的方法、電子設備及其相關電腦程式產品
KR101623213B1 (ko) * 2009-12-24 2016-05-31 삼성전자주식회사 펜 입력 장치 및 방법
EP2367097B1 (en) * 2010-03-19 2017-11-22 BlackBerry Limited Portable electronic device and method of controlling same
US8310461B2 (en) 2010-05-13 2012-11-13 Nuance Communications Inc. Method and apparatus for on-top writing
US8930360B2 (en) 2010-05-28 2015-01-06 Yahoo! Inc. System and method for online handwriting recognition in web queries
CN101893987A (zh) 2010-06-01 2010-11-24 华南理工大学 一种电子设备的手写输入方法
TW201201113A (en) 2010-06-22 2012-01-01 Sharp Kk Handwriting recognition method and device
CN101894266A (zh) 2010-06-30 2010-11-24 北京捷通华声语音技术有限公司 一种手写识别方法及系统
KR101486174B1 (ko) 2010-08-24 2015-01-23 노키아 코포레이션 중첩된 수기의 획들을 하나 이상의 그룹으로 분할하는 방법 및 장치
KR101780440B1 (ko) * 2010-08-30 2017-09-22 삼성전자 주식회사 멀티 터치에 따른 리스트 데이터 출력 제어 방법 및 이를 지원하는 휴대 단말기
JP2012079252A (ja) * 2010-10-06 2012-04-19 Fujitsu Ltd 情報端末装置、文字入力方法および文字入力プログラム
TW201216124A (en) 2010-10-12 2012-04-16 Inventec Corp Multi-block handwriting system and method thereof
US8635061B2 (en) 2010-10-14 2014-01-21 Microsoft Corporation Language identification in multilingual text
JP2012108871A (ja) 2010-10-26 2012-06-07 Nec Corp 情報処理装置およびその手書き入力処理方法
US8547354B2 (en) 2010-11-05 2013-10-01 Apple Inc. Device, method, and graphical user interface for manipulating soft keyboards
US8587547B2 (en) 2010-11-05 2013-11-19 Apple Inc. Device, method, and graphical user interface for manipulating soft keyboards
WO2012071730A1 (en) 2010-12-02 2012-06-07 Nokia Corporation Method, apparatus, and computer program product for overlapped handwriting
CN102156608B (zh) * 2010-12-10 2013-07-24 上海合合信息科技发展有限公司 多字符连续书写的手写输入方法
JP5305545B2 (ja) 2011-01-06 2013-10-02 パナソニック株式会社 手書き文字入力装置および携帯端末
US8922489B2 (en) * 2011-03-24 2014-12-30 Microsoft Corporation Text input using key and gesture information
JP5550598B2 (ja) 2011-03-31 2014-07-16 パナソニック株式会社 手書き文字入力装置
JP5862659B2 (ja) 2011-04-11 2016-02-16 日本電気株式会社 情報入力装置
WO2012143948A2 (en) * 2011-04-18 2012-10-26 Jeswill Hitech Solutions Pvt. Ltd. Method and apparatus for processing content written in an application form using an e-pen
JP2012238295A (ja) 2011-04-27 2012-12-06 Panasonic Corp 手書き文字入力装置及び手書き文字入力方法
CN102135838A (zh) 2011-05-05 2011-07-27 汉王科技股份有限公司 分区输入手写字符串的方法和系统
JP5644658B2 (ja) 2011-05-10 2014-12-24 富士通株式会社 情報処理装置、入力制御方法および入力制御プログラム
CN102722240A (zh) * 2011-05-18 2012-10-10 北京大学深圳研究生院 一种文字信息输入系统、手写输入设备及方法
US8977059B2 (en) 2011-06-03 2015-03-10 Apple Inc. Integrating feature extraction via local sequential embedding for automatic handwriting recognition
EP3522075A1 (en) 2011-06-13 2019-08-07 Google LLC Character recognition for overlapping textual user input
US8094941B1 (en) * 2011-06-13 2012-01-10 Google Inc. Character recognition for overlapping textual user input
US20130002553A1 (en) 2011-06-29 2013-01-03 Nokia Corporation Character entry apparatus and associated methods
US9417754B2 (en) * 2011-08-05 2016-08-16 P4tents1, LLC User interface system, method, and computer program product
US8959430B1 (en) 2011-09-21 2015-02-17 Amazon Technologies, Inc. Facilitating selection of keys related to a selected key
CN102455911B (zh) 2011-09-29 2014-10-22 北京壹人壹本信息科技有限公司 手写输入显示装置及控制方法
WO2013048880A1 (en) 2011-09-30 2013-04-04 Apple Inc. Automatically adapting user interfaces for hands-free interaction
JP5330478B2 (ja) 2011-10-14 2013-10-30 株式会社エヌ・ティ・ティ・ドコモ 入力支援装置、プログラム及び絵文字の入力支援方法
JP2013089131A (ja) 2011-10-20 2013-05-13 Kyocera Corp 装置、方法及びプログラム
KR101978687B1 (ko) * 2011-11-15 2019-05-16 삼성전자주식회사 터치스크린 단말기에서 문자 입력 방법 및 장치
JP6003047B2 (ja) 2011-11-24 2016-10-05 富士ゼロックス株式会社 画像処理装置及び画像処理プログラム
KR101338397B1 (ko) 2011-11-28 2013-12-10 장경호 사용자 고유의 필적 생성 시스템 및 그 방법
CN103186235B (zh) 2011-12-31 2015-11-25 北大方正集团有限公司 一种手写输入的处理方法及装置
CN102566933A (zh) 2011-12-31 2012-07-11 广东步步高电子工业有限公司 一种全屏手写有效区分命令手势和字符的方法
KR20130089486A (ko) * 2012-02-02 2013-08-12 삼성전자주식회사 휴대단말기의 키 입력 방법 및 장치
KR101898202B1 (ko) 2012-02-09 2018-09-12 삼성전자주식회사 필기 인식을 위한 필기 입력 가이드 장치 및 방법
US9928651B2 (en) * 2012-02-21 2018-03-27 Mahesh Babu Mariappan Overlaid virtual playground and overlaid virtual information delivery platform for restaurants, catering businesses and other businesses using menu cards, pizza boxes, salt and pepper shakers, and other objects
US8971623B2 (en) 2012-03-06 2015-03-03 Apple Inc. Overlaid user interface tools for applying effects to image
US8977042B2 (en) * 2012-03-23 2015-03-10 Microsoft Corporation Rotation-free recognition of handwritten characters
CN103365446A (zh) * 2012-03-28 2013-10-23 联想(北京)有限公司 一种手写输入方法及装置
JP2013206141A (ja) 2012-03-28 2013-10-07 Panasonic Corp 文字入力装置、文字入力方法、及び文字入力プログラム
CN104350459B (zh) * 2012-03-30 2017-08-04 诺基亚技术有限公司 用户接口、关联装置和方法
US8881269B2 (en) * 2012-03-31 2014-11-04 Apple Inc. Device, method, and graphical user interface for integrating recognition of handwriting gestures with a screen reader
WO2013169849A2 (en) 2012-05-09 2013-11-14 Industries Llc Yknots Device, method, and graphical user interface for displaying user interface objects corresponding to an application
CN104395860B (zh) * 2012-05-09 2018-06-22 苹果公司 用于确定计算设备中的反馈的阈值
US9489571B2 (en) 2012-05-17 2016-11-08 Sharp Kabushiki Kaisha Display control device, recording medium and display device control method
JP5248696B1 (ja) 2012-05-25 2013-07-31 株式会社東芝 電子機器、手書き文書作成方法、及び手書き文書作成プログラム
KR102021048B1 (ko) * 2012-07-31 2019-09-11 삼성전자주식회사 사용자 입력을 제어하기 위한 방법 및 그 전자 장치
US20140035823A1 (en) * 2012-08-01 2014-02-06 Apple Inc. Dynamic Context-Based Language Determination
US9141200B2 (en) * 2012-08-01 2015-09-22 Apple Inc. Device, method, and graphical user interface for entering characters
JP2014056389A (ja) * 2012-09-12 2014-03-27 Panasonic Corp 文字認識装置、文字認識方法及びプログラム
US10254952B2 (en) 2012-09-26 2019-04-09 Google Llc Progress display of handwriting input
JP6003492B2 (ja) 2012-10-01 2016-10-05 富士ゼロックス株式会社 文字認識装置及びプログラム
US20140098038A1 (en) 2012-10-10 2014-04-10 Microsoft Corporation Multi-function configurable haptic device
US9547375B2 (en) 2012-10-10 2017-01-17 Microsoft Technology Licensing, Llc Split virtual keyboard on a mobile computing device
US9304683B2 (en) 2012-10-10 2016-04-05 Microsoft Technology Licensing, Llc Arced or slanted soft input panels
US9026428B2 (en) 2012-10-15 2015-05-05 Nuance Communications, Inc. Text/character input system, such as for use with touch screens on mobile phones
JP2014092902A (ja) * 2012-11-02 2014-05-19 Toshiba Corp 電子機器および手書き文書処理方法
JP2014102669A (ja) 2012-11-20 2014-06-05 Toshiba Corp 情報処理装置、情報処理方法およびプログラム
US20140160032A1 (en) 2012-12-07 2014-06-12 Microsoft Corporation Swipe Stroke Input and Continuous Handwriting
US9430133B2 (en) 2012-12-17 2016-08-30 Sap Se Career history exercise with stage card visualization
CN103049207B (zh) * 2012-12-27 2016-01-13 富泰华工业(深圳)有限公司 手写输入识别系统及方法
DE102013009375A1 (de) * 2012-12-28 2014-07-03 Volkswagen Aktiengesellschaft Verfahren zum Eingeben und Erkennen einer Zeichenkette
EP3435220B1 (en) 2012-12-29 2020-09-16 Apple Inc. Device, method and graphical user interface for transitioning between touch input to display output relationships
US9710462B2 (en) 2013-01-29 2017-07-18 Learning Sites, Inc. System and method for automatically translating an imaged surface of an object
JP5998964B2 (ja) 2013-01-31 2016-09-28 カシオ計算機株式会社 辞書情報表示装置、辞書情報表示方法、辞書情報表示プログラム、辞書情報表示システム、およびそのサーバ装置、端末装置
US20140245221A1 (en) 2013-02-25 2014-08-28 Apple Inc. Intelligent Scrolling In Digital Publications
US9858268B2 (en) * 2013-02-26 2018-01-02 International Business Machines Corporation Chinese name transliteration
US9069462B2 (en) * 2013-03-14 2015-06-30 Nuance Communications, Inc. Recognizing handwriting input using rotatable support lines
US9189157B2 (en) 2013-03-15 2015-11-17 Blackberry Limited Method and apparatus for word prediction selection
KR102078785B1 (ko) * 2013-03-15 2020-02-19 구글 엘엘씨 세계어들을 위한 가상 키보드 입력
JP6102374B2 (ja) 2013-03-15 2017-03-29 オムロン株式会社 読取文字訂正用のプログラムおよび文字読取装置
WO2014147712A1 (ja) * 2013-03-18 2014-09-25 株式会社 東芝 情報処理装置、情報処理方法及びプログラム
CN105283882B (zh) * 2013-04-12 2019-12-27 诺基亚技术有限公司 用于文本输入的装置及相关联的方法
US10027723B2 (en) * 2013-04-12 2018-07-17 Provenance Asset Group Llc Method and apparatus for initiating communication and sharing of content among a plurality of devices
JP6229303B2 (ja) 2013-05-16 2017-11-15 富士通株式会社 プログラム、情報処理装置および文字認識方法
JP2014235582A (ja) * 2013-06-03 2014-12-15 コニカミノルタ株式会社 操作制御プログラム及び操作制御方法並びに手書き入力装置
US20140363082A1 (en) 2013-06-09 2014-12-11 Apple Inc. Integrating stroke-distribution information into spatial feature extraction for automatic handwriting recognition
US20140361983A1 (en) 2013-06-09 2014-12-11 Apple Inc. Real-time stroke-order and stroke-direction independent handwriting recognition
US9898187B2 (en) 2013-06-09 2018-02-20 Apple Inc. Managing real-time handwriting recognition
US9495620B2 (en) 2013-06-09 2016-11-15 Apple Inc. Multi-script handwriting recognition using a universal recognizer
WO2014205648A1 (en) * 2013-06-25 2014-12-31 Nokia Corporation Handwriting recognition based on writing speed
KR102125212B1 (ko) * 2013-08-29 2020-07-08 삼성전자 주식회사 전자 필기 운용 방법 및 이를 지원하는 전자 장치
US10001817B2 (en) * 2013-09-03 2018-06-19 Apple Inc. User interface for manipulating user interface objects with magnetic properties
US10496276B2 (en) * 2013-09-24 2019-12-03 Microsoft Technology Licensing, Llc Quick tasks for on-screen keyboards
US20150100537A1 (en) * 2013-10-03 2015-04-09 Microsoft Corporation Emoji for Text Predictions
US20150116283A1 (en) 2013-10-24 2015-04-30 Livescribe Inc. Paper Strip Presentation Of Grouped Content
US9330331B2 (en) 2013-11-11 2016-05-03 Wipro Limited Systems and methods for offline character recognition
CN103677632A (zh) * 2013-11-19 2014-03-26 三星电子(中国)研发中心 一种虚拟键盘调整方法和移动终端
JP6189451B2 (ja) 2013-12-06 2017-08-30 株式会社東芝 手書き文書情報を処理するための電子機器および方法
JP2015114976A (ja) * 2013-12-13 2015-06-22 株式会社東芝 電子機器及び方法
US9411508B2 (en) * 2014-01-03 2016-08-09 Apple Inc. Continuous handwriting UI
JP2015148946A (ja) * 2014-02-06 2015-08-20 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
WO2015122885A1 (en) * 2014-02-12 2015-08-20 Bodhi Technology Ventures Llc Rejection of false turns of rotary inputs for electronic devices
US9286527B2 (en) * 2014-02-20 2016-03-15 Google Inc. Segmentation of an input by cut point classification
JP2015162088A (ja) 2014-02-27 2015-09-07 株式会社東芝 電子機器、方法及びプログラム
JP6270565B2 (ja) 2014-03-18 2018-01-31 株式会社東芝 電子機器および方法
US9158426B1 (en) * 2014-03-19 2015-10-13 Google Inc. Touch keyboard calibration
CN104951175A (zh) * 2014-03-25 2015-09-30 上海三旗通信科技股份有限公司 一种改进的手持设备上的手写多字输入法
US9524428B2 (en) 2014-04-28 2016-12-20 Lenovo (Singapore) Pte. Ltd. Automated handwriting input for entry fields
CN110221698B (zh) * 2014-06-24 2022-05-13 苹果公司 计算设备上的字符识别
JP6424506B2 (ja) * 2014-07-22 2018-11-21 ブラザー工業株式会社 データ処理装置およびデータ処理プログラム
US20160026730A1 (en) 2014-07-23 2016-01-28 Russell Hasan Html5-based document format with parts architecture
US10254948B2 (en) 2014-09-02 2019-04-09 Apple Inc. Reduced-size user interfaces for dynamically updated application overviews
US10613743B2 (en) 2014-09-02 2020-04-07 Apple Inc. User interface for receiving user input
US9940016B2 (en) 2014-09-13 2018-04-10 Microsoft Technology Licensing, Llc Disambiguation of keyboard input
JP6426417B2 (ja) 2014-09-26 2018-11-21 株式会社東芝 電子機器、方法及びプログラム
JP2016071819A (ja) 2014-10-02 2016-05-09 株式会社東芝 電子機器および方法
US20170352091A1 (en) * 2014-12-16 2017-12-07 Metail Limited Methods for generating a 3d virtual body model of a person combined with a 3d garment image, and related devices, systems and computer program products
KR200481600Y1 (ko) 2015-03-06 2016-10-19 대신정밀 주식회사 전자교탁
US9639184B2 (en) * 2015-03-19 2017-05-02 Apple Inc. Touch input cursor manipulation
US10509790B2 (en) * 2015-06-07 2019-12-17 Apple Inc. Electronic message searching
EP3308259A4 (en) 2015-06-12 2019-01-23 Nureva Inc. METHOD AND DEVICE FOR THE USE OF GESTURES VIA MULTIPLE DEVICES
CN104932826B (zh) * 2015-06-26 2018-10-12 联想(北京)有限公司 一种信息处理方法和电子设备
US10003938B2 (en) * 2015-08-14 2018-06-19 Apple Inc. Easy location sharing
US10445425B2 (en) * 2015-09-15 2019-10-15 Apple Inc. Emoji and canned responses
US10346510B2 (en) 2015-09-29 2019-07-09 Apple Inc. Device, method, and graphical user interface for providing handwriting support in document editing
US10643067B2 (en) 2015-10-19 2020-05-05 Myscript System and method of handwriting recognition in diagrams
US20170300559A1 (en) 2016-04-18 2017-10-19 Farzan Fallah Systems and Methods for Facilitating Data Entry into Electronic Devices
WO2017183035A1 (en) * 2016-04-20 2017-10-26 Avi Elazari Reduced keyboard disambiguating system and method thereof
US11262909B2 (en) 2016-06-02 2022-03-01 Myscript System and method for input recognition linguistic resource management
DK179374B1 (en) 2016-06-12 2018-05-28 Apple Inc Handwriting keyboard for monitors
US11580608B2 (en) * 2016-06-12 2023-02-14 Apple Inc. Managing contact information for communication applications
US10614607B2 (en) * 2016-06-12 2020-04-07 Apple Inc. Playback of handwritten message
KR102544780B1 (ko) * 2016-07-04 2023-06-19 삼성전자주식회사 필기 입력에 따른 사용자 인터페이스 제어 방법 및 이를 구현한 전자 장치
US20180024726A1 (en) * 2016-07-21 2018-01-25 Cives Consulting AS Personified Emoji
US20180047200A1 (en) * 2016-08-11 2018-02-15 Jibjab Media Inc. Combining user images and computer-generated illustrations to produce personalized animated digital avatars
US10109083B2 (en) 2016-08-12 2018-10-23 Adobe Systems Incorporated Local optimization for curvy brush stroke synthesis
CN117193617A (zh) * 2016-09-23 2023-12-08 苹果公司 头像创建和编辑
ES2828727T3 (es) 2016-10-25 2021-05-27 Ericsson Telefon Ab L M Dispositivo llevado por usuario y dispositivo táctil para la transmisión de datos ultrasónica
US20180121074A1 (en) 2016-10-28 2018-05-03 Microsoft Technology Licensing, Llc Freehand table manipulation
US10558341B2 (en) 2017-02-20 2020-02-11 Microsoft Technology Licensing, Llc Unified system for bimanual interactions on flexible representations of content
US20180329586A1 (en) 2017-05-15 2018-11-15 Apple Inc. Displaying a set of application views
DK179867B1 (en) * 2017-05-16 2019-08-06 Apple Inc. RECORDING AND SENDING EMOJI
KR102439054B1 (ko) * 2017-05-16 2022-09-02 애플 인크. 이모지 레코딩 및 전송
CN110720087B (zh) 2017-06-02 2023-04-04 苹果公司 用于注释内容的设备、方法和图形用户界面
US10430076B2 (en) 2017-12-18 2019-10-01 Motorola Solutions, Inc. Device and method for text entry using two axes at a display device
US10719969B2 (en) * 2018-06-03 2020-07-21 Apple Inc. Optimized avatar zones
US20200034025A1 (en) * 2018-07-26 2020-01-30 Lois Jean Brady Systems and methods for multisensory semiotic communications
US20200089402A1 (en) 2018-09-17 2020-03-19 Ca, Inc. Providing one or more new virtual keys in a virtual keyboard that each correspond to a predicted set of characters
US10600228B1 (en) 2018-10-14 2020-03-24 Adobe Inc. Automatic and interactive animation driven by change-based heuristics
US11107261B2 (en) * 2019-01-18 2021-08-31 Apple Inc. Virtual avatar animation based on facial feature movement
WO2020171385A1 (en) * 2019-02-19 2020-08-27 Samsung Electronics Co., Ltd. Electronic device supporting avatar recommendation and download
US11194467B2 (en) * 2019-06-01 2021-12-07 Apple Inc. Keyboard management user interfaces
US11188190B2 (en) * 2019-06-28 2021-11-30 Snap Inc. Generating animation overlays in a communication session
US20220301041A1 (en) * 2019-08-12 2022-09-22 Lg Electronics Inc. Virtual fitting provision device and provision method therefor
US20220350418A1 (en) * 2021-05-03 2022-11-03 Qiusheng Gao Composite computer keyboard
CN113763228B (zh) * 2020-06-01 2024-03-19 北京达佳互联信息技术有限公司 图像处理方法、装置、电子设备及存储介质
US11016577B2 (en) * 2020-07-20 2021-05-25 Shenzhen Ajazz Tongchuang Electronic Technology Co., Ltd. Keyboard for live streaming and method thereof
CN116710182A (zh) * 2020-12-31 2023-09-05 斯纳普公司 化身定制系统
CN116762103A (zh) * 2021-01-13 2023-09-15 三星电子株式会社 电子装置及在该电子装置中运行化身视频服务的方法

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6636163B1 (en) * 1999-07-22 2003-10-21 Matsushita Electric Industrial Co., Ltd. Numeric key-based chinese address inputting method
US20020019731A1 (en) * 2000-05-12 2002-02-14 Toshiyuki Masui Portable terminal, method for inputting the information, method and apparatus for dictionary retrieval and medium
WO2008005304A2 (en) * 2006-07-06 2008-01-10 Synaptics Incorporated A method and apparatus for recognition of handwritten symbols
EP2031485A1 (en) * 2007-08-31 2009-03-04 Research In Motion Limited Handheld electronic device and associated method providing disambiguation of an ambiguous object during editing and selectively providing prediction of future characters
CN101123044A (zh) * 2007-09-13 2008-02-13 无敌科技(西安)有限公司 汉字书写学习方法
CN102449640A (zh) * 2009-03-30 2012-05-09 辛纳普蒂克斯公司 识别手写单词
US20120216113A1 (en) * 2011-02-18 2012-08-23 Google Inc. Touch gestures for text-entry operations
US20150294145A1 (en) * 2012-10-19 2015-10-15 Audi Ag Motor vehicle having an input device for handwriting recognition
CN105247540A (zh) * 2013-06-09 2016-01-13 苹果公司 管理实时手写识别
WO2015094587A1 (en) * 2013-12-17 2015-06-25 Microsoft Technology Licensing, Llc User interface for overlapping handwritten text input
US20150248235A1 (en) * 2014-02-28 2015-09-03 Samsung Electronics Company, Ltd. Text input on an interactive display
US20160019201A1 (en) * 2014-07-18 2016-01-21 Lenovo (Singapore) Pte, Ltd. Tone mark based text suggestions for chinese or japanese characters or words

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112204509A (zh) * 2018-06-01 2021-01-08 苹果公司 用于与触笔进行交互的电子设备的设备、方法和图形用户界面

Also Published As

Publication number Publication date
EP3324274A1 (en) 2018-05-23
AU2020200191A1 (en) 2020-01-30
KR102072851B1 (ko) 2020-02-03
AU2017203816C1 (en) 2020-04-30
AU2020273352B2 (en) 2022-06-09
CN113190126A (zh) 2021-07-30
CN113157113B (zh) 2024-10-18
JP6997734B2 (ja) 2022-01-18
KR20210023946A (ko) 2021-03-04
AU2020200191B2 (en) 2020-12-10
KR20200013023A (ko) 2020-02-05
US20240272789A1 (en) 2024-08-15
US11941243B2 (en) 2024-03-26
CN108089727B (zh) 2021-05-18
US10228846B2 (en) 2019-03-12
KR102222143B1 (ko) 2021-03-04
CN113157113A (zh) 2021-07-23
DK201670624A1 (en) 2018-02-12
JP2017220231A (ja) 2017-12-14
KR20170140080A (ko) 2017-12-20
US20170357438A1 (en) 2017-12-14
AU2018260930A1 (en) 2018-11-29
DK179374B1 (en) 2018-05-28
JP2019175441A (ja) 2019-10-10
AU2018260930C1 (en) 2020-04-23
AU2017203816B2 (en) 2018-08-09
EP3557389B1 (en) 2022-07-27
US10466895B2 (en) 2019-11-05
JP2023093497A (ja) 2023-07-04
EP3255528B1 (en) 2019-05-01
JP7289820B2 (ja) 2023-06-12
CN108089727A (zh) 2018-05-29
EP3324274B1 (en) 2019-09-25
AU2017203816A1 (en) 2018-01-04
US20200057556A1 (en) 2020-02-20
JP2021064380A (ja) 2021-04-22
EP3557389A1 (en) 2019-10-23
US20190163359A1 (en) 2019-05-30
KR20190052667A (ko) 2019-05-16
KR101978883B1 (ko) 2019-05-15
US20230384926A1 (en) 2023-11-30
US10884617B2 (en) 2021-01-05
EP3255528A1 (en) 2017-12-13
US20210124485A1 (en) 2021-04-29
DK179329B1 (en) 2018-05-07
AU2020273352A1 (en) 2020-12-17
CN107491186B (zh) 2021-05-07
US11640237B2 (en) 2023-05-02
AU2018260930B2 (en) 2019-11-21
KR102342624B1 (ko) 2021-12-22
JP6495376B2 (ja) 2019-04-03
DK201670626A1 (en) 2018-01-02

Similar Documents

Publication Publication Date Title
CN107491186A (zh) 用于屏幕的手写键盘
CN206178562U (zh) 电子设备和信息处理装置
CN108351750B (zh) 用于处理与触摸输入相关联的强度信息的设备、方法、以及图形用户界面
CN105144037B (zh) 用于输入字符的设备、方法和图形用户界面
CN104471521B (zh) 用于针对改变用户界面对象的激活状态来提供反馈的设备、方法和图形用户界面
CN106605196B (zh) 远程相机用户界面
CN104903835B (zh) 用于针对多接触手势而放弃生成触觉输出的设备、方法和图形用户界面
CN105144057B (zh) 用于根据具有模拟三维特征的控制图标的外观变化来移动光标的设备、方法和图形用户界面
CN106462283B (zh) 计算设备上的字符识别
CN108762605B (zh) 设备配置用户界面
CN105264479B (zh) 用于对用户界面分级结构进行导航的设备、方法和图形用户界面
CN104487929B (zh) 用于响应于用户接触来显示附加信息的设备、方法和图形用户界面
CN104885050B (zh) 用于确定是滚动还是选择内容的设备、方法和图形用户界面
CN107491181A (zh) 语言输入的动态短语扩展
CN107430488A (zh) 基于活动的阈值和反馈
CN109690445A (zh) 特殊锁定模式用户界面
CN107924277A (zh) 用于通过物理手势操纵用户界面的设备、方法和图形用户界面
CN108140361A (zh) 观影模式
CN110209290A (zh) 使用表冠和传感器进行手势检测、列表导航和项目选择
CN107797658A (zh) 用于触觉混合的设备、方法和图形用户界面
CN107710131A (zh) 内容浏览用户界面
CN107250952A (zh) 用于处理触摸接触的强度的设备、方法和用户界面
CN109219796A (zh) 实时视频上的数字触摸
CN107408012A (zh) 使用可旋转输入机构来控制系统缩放放大率
CN107924264A (zh) 用于调节用户界面对象的设备、方法、和图形用户界面

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant