Nothing Special   »   [go: up one dir, main page]

JP7397899B2 - Devices, methods and graphical user interfaces for system-wide behavior of 3D models - Google Patents

Devices, methods and graphical user interfaces for system-wide behavior of 3D models Download PDF

Info

Publication number
JP7397899B2
JP7397899B2 JP2022036354A JP2022036354A JP7397899B2 JP 7397899 B2 JP7397899 B2 JP 7397899B2 JP 2022036354 A JP2022036354 A JP 2022036354A JP 2022036354 A JP2022036354 A JP 2022036354A JP 7397899 B2 JP7397899 B2 JP 7397899B2
Authority
JP
Japan
Prior art keywords
user interface
cameras
representation
displaying
touch
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022036354A
Other languages
Japanese (ja)
Other versions
JP2022091798A (en
Inventor
フィリップ ロッケル,
ジョナサン アール. ダスコラ,
ステファン オー. ルメイ,
ジェフリー, エム. フォークナー,
デイビッド, ジェイ. アッデイ,
デイビッド ルイ,
ジャンカルロ ヤークズ,
グラント, アール. ポール,
クレア, ティー. カセームセット,
リサ, ケイ. フォーセル,
ブラッドリー, ダブリュ. グリフィン,
エリザベス, キャロライン, ファーチェス クランフィル,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from DKPA201870346A external-priority patent/DK201870346A1/en
Application filed by Apple Inc filed Critical Apple Inc
Publication of JP2022091798A publication Critical patent/JP2022091798A/en
Priority to JP2023204027A priority Critical patent/JP2024026250A/en
Application granted granted Critical
Publication of JP7397899B2 publication Critical patent/JP7397899B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1643Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1686Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/014Force feedback applied to GUI
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/04Architectural design, interior design
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2012Colour editing, changing, or manipulating; Use of colour codes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2016Rotation, translation, scaling

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Architecture (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Telephone Function (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は、一般に、限定されるわけではないが様々な状況で仮想オブジェクトを表示する電子デバイスなど、仮想オブジェクトを表示する電子デバイスに関する。 TECHNICAL FIELD The present invention generally relates to electronic devices that display virtual objects, including but not limited to electronic devices that display virtual objects in a variety of situations.

拡張現実のためのコンピュータシステムの開発は、近年顕著に進んでいる。例示的な拡張現実環境は、物理的世界を置換又は強化する少なくともいくつかの仮想要素を含む。仮想/拡張現実環境と対話するには、コンピュータシステム及び他の電子コンピューティングデバイスのタッチ感知面などの入力デバイスを使用する。例示的なタッチ感知面としては、タッチパッド、タッチ感知遠隔制御装置、及びタッチスクリーンディスプレイが挙げられる。これらの表面を使用して、ディスプレイ上で、ユーザーインターフェース及びその中のオブジェクトを操作する。例示的なユーザーインターフェースオブジェクトは、デジタル画像、ビデオ、テキスト、アイコン、並びにボタン及びその他のグラフィックなどの制御要素を含む。 The development of computer systems for augmented reality has progressed significantly in recent years. An exemplary augmented reality environment includes at least some virtual elements that replace or enhance the physical world. Input devices, such as touch-sensitive surfaces on computer systems and other electronic computing devices, are used to interact with virtual/augmented reality environments. Exemplary touch-sensitive surfaces include touch pads, touch-sensitive remote controls, and touch screen displays. These surfaces are used to manipulate the user interface and objects therein on the display. Exemplary user interface objects include digital images, video, text, icons, and control elements such as buttons and other graphics.

しかし、少なくともいくつかの仮想要素を含む環境(例えばアプリケーション、拡張現実環境、混合現実環境、及び仮想現実環境)と対話する方法及びインターフェースは、煩雑で、非効率で、限定されたものである。例えば、拡張現実環境で仮想オブジェクトを向き及び位置決めするために一連の入力を使用すると、時間がかかり、かなりの認知上の負担がユーザーにかかり、仮想/拡張現実環境のエクスペリエンスが損なわれる。更に、これらの方法は、必要以上に時間がかかり、それによりエネルギーを浪費する。後者の問題は、バッテリ動作デバイスにおいては特に重要である。 However, methods and interfaces for interacting with environments that include at least some virtual elements (eg, applications, augmented reality environments, mixed reality environments, and virtual reality environments) are cumbersome, inefficient, and limited. For example, using a series of inputs to orient and position virtual objects in an augmented reality environment is time consuming and places a significant cognitive burden on the user, detracting from the experience of the virtual/augmented reality environment. Furthermore, these methods are unnecessarily time consuming, thereby wasting energy. The latter issue is particularly important in battery operated devices.

したがって、仮想オブジェクトと対話するための改善された方法及びインターフェースを備えたコンピュータシステムが必要とされている。このような方法及びインターフェースは、任意選択的に、仮想オブジェクトと対話するための従来の方法を補完する、又はこれらに取って代わるものである。このような方法及びインターフェースは、ユーザーからの入力の数、範囲、及び/又は種類を減少させ、より効率的な人間機械インターフェースを生成する。バッテリ動作デバイスでは、このような方法及びインターフェースにより、電力が節約され、バッテリの充電間の時間が長くなる。 Accordingly, there is a need for computer systems with improved methods and interfaces for interacting with virtual objects. Such methods and interfaces optionally complement or replace traditional methods for interacting with virtual objects. Such methods and interfaces reduce the number, scope, and/or type of input from the user, creating a more efficient human-machine interface. In battery operated devices, such methods and interfaces conserve power and increase the time between battery charges.

仮想オブジェクトと対話するためのインターフェース(例えば、拡張現実(AR)のためのユーザーインターフェース及び関連する非ARインターフェース)に関連する上記の不具合及びその他の問題は、開示するコンピュータシステムによって軽減又は解消される。いくつかの実施形態では、コンピュータシステムは、デスクトップコンピュータを含む。いくつかの実施形態では、コンピュータシステムは、ポータブルである(例えばノートブックコンピュータ、タブレットコンピュータ、又はハンドヘルドデバイスである)。いくつかの実施形態では、コンピュータシステムは、パーソナル電子デバイス(例えば腕時計などのウェアラブル電子デバイス)を含む。いくつかの実施形態では、コンピュータシステムは、タッチパッドを有する(かつ/又はこれと通信している)。いくつかの実施形態では、コンピュータシステムは、タッチ感知ディスプレイ(「タッチスクリーン」又は「タッチスクリーンディスプレイ」とも呼ばれる)を有する(かつ/又はこれと通信している)。いくつかの実施形態では、コンピュータシステムは、グラフィカルユーザーインターフェース(GUI)、1つ以上のプロセッサ、メモリ、及び複数の機能を実行するためのメモリに記憶された1つ以上のモジュール、プログラム、又は命令セットを有する。いくつかの実施形態では、ユーザーは、部分的には、タッチ感知面におけるスタイラス及び/又は指による接触及びジェスチャを通してGUIと対話する。いくつかの実施形態では、機能は、任意選択的に、ゲームプレイ、画像編集、描画、プレゼンティング、ワードプロセッシング、スプレッドシート作成、電話、ビデオ会議、電子メール、インスタントメッセージング、トレーニングサポート、デジタル写真撮影、デジタルビデオ撮影、ウェブブラウジング、デジタル音楽再生、メモ取り、及び/又はデジタルビデオ再生を含む。これらの機能を実行するための実行可能命令は、任意選択的に、非一時的コンピュータ可読記憶媒体、又は1つ以上のプロセッサによって実行されるように構成されたその他のコンピュータプログラム製品に含まれる。 The above deficiencies and other problems associated with interfaces for interacting with virtual objects (e.g., user interfaces for augmented reality (AR) and related non-AR interfaces) are reduced or eliminated by the disclosed computer system. . In some embodiments, the computer system includes a desktop computer. In some embodiments, the computer system is portable (eg, a notebook computer, tablet computer, or handheld device). In some embodiments, the computer system includes a personal electronic device (eg, a wearable electronic device such as a wristwatch). In some embodiments, the computer system has (and/or is in communication with) a touchpad. In some embodiments, the computer system has (and/or is in communication with) a touch-sensitive display (also referred to as a "touch screen" or "touch screen display"). In some embodiments, a computer system includes a graphical user interface (GUI), one or more processors, a memory, and one or more modules, programs, or instructions stored in the memory for performing multiple functions. Have a set. In some embodiments, the user interacts with the GUI, in part, through stylus and/or finger contacts and gestures on the touch-sensitive surface. In some embodiments, the functionality optionally includes gameplay, image editing, drawing, presenting, word processing, spreadsheet creation, phone calls, video conferencing, email, instant messaging, training support, and digital photography. , digital video recording, web browsing, digital music playback, note taking, and/or digital video playback. Executable instructions for performing these functions are optionally contained in a non-transitory computer-readable storage medium or other computer program product configured for execution by one or more processors.

いくつかの実施形態によれば、方法は、ディスプレイ、タッチ感知面、及び1つ以上のカメラを有するコンピュータシステムで実行される。この方法は、ディスプレイ上の第1のユーザーインターフェース領域に仮想オブジェクトの表現を表示することを含む。この方法は、また、ディスプレイ上の第1のユーザーインターフェース領域に仮想オブジェクトの第1の表現を表示している間に、ディスプレイ上における仮想オブジェクトの表現に対応したタッチ感知面上の場所で接触による第1の入力を検出することを含む。この方法は、また、接触による第1の入力を検出したことに応答して、接触による第1の入力が第1の基準を満足するとの判定にしたがって、第1のユーザーインターフェース領域の少なくとも一部分の表示を1つ以上のカメラの視野の表現で置き換えることを含む、ディスプレイに第2のユーザーインターフェース領域を表示することと、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に、仮想オブジェクトの表現を連続的に表示することと、を含む。 According to some embodiments, the method is performed on a computer system having a display, a touch-sensitive surface, and one or more cameras. The method includes displaying a representation of a virtual object in a first user interface area on a display. The method also includes, while displaying a first representation of the virtual object in a first user interface area on the display, a touch-sensitive surface at a location on the touch-sensitive surface corresponding to the representation of the virtual object on the display. The method includes detecting a first input. The method also includes, in response to detecting the first contact input, controlling the at least a portion of the first user interface area in accordance with a determination that the first contact input satisfies the first criteria. displaying a second user interface area on the display, including replacing the display with a representation of the field of view of the one or more cameras; and displaying the second user interface area from displaying the first user interface area. continuously displaying a representation of the virtual object while switching to the virtual object.

いくつかの実施形態によれば、方法は、ディスプレイ、タッチ感知面、及び1つ以上のカメラを有するコンピュータシステムで実行される。この方法は、ディスプレイ上の第1のユーザーインターフェース領域に仮想オブジェクトの第1の表現を表示することを含む。この方法は、また、ディスプレイ上の第1のユーザーインターフェース領域に仮想オブジェクトの第1の表現を表示している間に、ディスプレイ上の仮想オブジェクトの第1の表現に対応するタッチ感知面上の場所で第1の接触による第1の入力を検出することを含む。この方法は、また、第1の接触による第1の入力を検出したことに応答して、第1の接触による第1の入力が第1の基準を満足するとの判定にしたがって、第1のユーザーインターフェース領域とは異なる第2のユーザーインターフェース領域に仮想オブジェクトの第2の表現を表示することを含む。この方法は、また、第2のユーザーインターフェース領域に仮想オブジェクトの第2の表現を表示している間に、第2の入力を検出することと、第2の入力を検出したことに応答して、第2の入力が第2のユーザーインターフェース領域内で仮想オブジェクトを操作する要求に対応しているとの判定にしたがって、第2の入力に基づいて第2のユーザーインターフェース領域内で仮想オブジェクトの第2の表現の表示特性を変化させることと、第2の入力が拡張現実環境内に仮想オブジェクトを表示する要求に対応しているとの判定にしたがって、1つ以上のカメラの視野の表現とともに仮想オブジェクトの第3の表現を表示することと、を含む。 According to some embodiments, the method is performed on a computer system having a display, a touch-sensitive surface, and one or more cameras. The method includes displaying a first representation of a virtual object in a first user interface area on a display. The method also includes, while displaying a first representation of the virtual object in a first user interface area on the display, a location on the touch-sensitive surface corresponding to the first representation of the virtual object on the display. detecting a first input due to a first touch at the contact point. The method also includes, in response to detecting the first input due to the first contact, the first user according to a determination that the first input due to the first contact satisfies the first criterion. including displaying a second representation of the virtual object in a second user interface area that is different from the interface area. The method also includes detecting a second input while displaying a second representation of the virtual object in the second user interface area, and in response to detecting the second input. , determining that the second input corresponds to a request to manipulate a virtual object within the second user interface area; 2 and determining that the second input corresponds to a request to display a virtual object within an augmented reality environment. displaying a third representation of the object.

いくつかの実施形態によれば、方法は、ディスプレイ及びタッチ感知面を有するコンピュータシステムで実行される。この方法は、第1のユーザーインターフェースを表示する要求に応答して、第1のアイテムの表現とともに第1のユーザーインターフェースを表示することを含む。この方法は、また、第1のアイテムがそれぞれの仮想三次元オブジェクトに対応しているとの判定にしたがって、第1のアイテムが第1のそれぞれの仮想三次元オブジェクトに対応していることを示す視覚的な指示とともに第1のアイテムの表現を表示することを含む。この方法は、また、第1のアイテムがそれぞれの仮想三次元オブジェクトに対応していないとの判定にしたがって、視覚的な指示なしで第1のアイテムの表現を表示することを含む。この方法は、また、第1のアイテムの表現を表示した後で、第2のアイテムを含む第2のユーザーインターフェースを表示する要求を受信することを含む。この方法は、また、第2のユーザーインターフェースを表示する要求に応答して、第2のアイテムの表現とともに第2のユーザーインターフェースを表示することを含む。この方法は、また、第2のアイテムがそれぞれの仮想三次元オブジェクトに対応しているとの判定にしたがって、第2のアイテムが第2のそれぞれの仮想三次元オブジェクトに対応していることを示す視覚的な指示とともに第2のアイテムの表現を表示することを含む。この方法は、また、第2のアイテムがそれぞれの仮想三次元オブジェクトに対応していないとの判定にしたがって、視覚的な指示なしで第2のアイテムの表現を表示することを含む。 According to some embodiments, the method is performed on a computer system having a display and a touch sensitive surface. The method includes displaying the first user interface with a representation of the first item in response to a request to display the first user interface. The method also indicates that the first item corresponds to the first respective virtual three-dimensional object according to the determination that the first item corresponds to the respective virtual three-dimensional object. including displaying a representation of the first item with visual instructions. The method also includes displaying a representation of the first item without visual indication in accordance with the determination that the first item does not correspond to the respective virtual three-dimensional object. The method also includes, after displaying the representation of the first item, receiving a request to display a second user interface that includes a second item. The method also includes displaying the second user interface with the representation of the second item in response to the request to display the second user interface. The method also indicates that the second item corresponds to the second respective virtual three-dimensional object according to the determination that the second item corresponds to the respective virtual three-dimensional object. including displaying a representation of the second item with visual instructions. The method also includes displaying a representation of the second item without visual indication in accordance with the determination that the second item does not correspond to the respective virtual three-dimensional object.

いくつかの実施形態によれば、方法は、表示生成コンポーネント、1つ以上の入力デバイス、及び1つ以上のカメラを有するコンピュータシステムで実行される。この方法は、1つ以上のカメラの視野の少なくとも一部分を含む第1のユーザーインターフェース領域に仮想オブジェクトを表示する要求を受信することを含む。この方法は、また、仮想オブジェクトを第1のユーザーインターフェース領域に表示する要求に応答して、表示生成コンポーネントを介して第1のユーザーインターフェース領域に含まれる1つ以上のカメラの視野の少なくとも一部分の上に仮想オブジェクトの表現を表示することを含み、ここで、1つ以上のカメラの視野は、1つ以上のカメラが位置している物理的環境のビューである。仮想オブジェクトの表現を表示することは、オブジェクト配置基準が満足されていないとの判定にしたがって、仮想オブジェクトの表現を、第1の1組の視覚特性で、かつ物理的環境のうちのどの部分が1つ以上のカメラの視野内に表示されているかとは無関係の第1の向きで、表示することであり、オブジェクト配置基準が、満たされるためには、仮想オブジェクトの配置場所が1つ以上のカメラの視野内で特定されることを必要とする、こと、及びオブジェクト配置基準が満足されたとの判定にしたがって、仮想オブジェクトの表現を、第1の1組の視覚特性とは別個の第2の1組の視覚特性で、かつ1つ以上のカメラの視野内で検出された物理的環境内のプレーンに対応する第2の向きで、表示すること、を含む。 According to some embodiments, the method is performed on a computer system having a display generation component, one or more input devices, and one or more cameras. The method includes receiving a request to display a virtual object in a first user interface area that includes at least a portion of the field of view of one or more cameras. The method also includes, in response to a request to display a virtual object in the first user interface area, at least a portion of the field of view of the one or more cameras included in the first user interface area via the display generation component. displaying a representation of the virtual object on the display, wherein the field of view of the one or more cameras is a view of the physical environment in which the one or more cameras are located. Displaying the representation of the virtual object includes displaying the representation of the virtual object with the first set of visual characteristics and determining which portion of the physical environment is located in accordance with the determination that the object placement criterion is not satisfied. The virtual object must be displayed in a first orientation independent of whether it is displayed within the field of view of one or more cameras, and the object placement criterion is met if the virtual object is placed in one or more locations. locating the virtual object within the field of view of the camera, and upon determining that the object placement criterion is satisfied, the representation of the virtual object is determined by a second set of visual characteristics distinct from the first set of visual characteristics. displaying with a set of visual characteristics and a second orientation corresponding to a plane in the physical environment detected within the field of view of the one or more cameras.

いくつかの実施形態によれば、方法は、表示生成コンポーネント、1つ以上の入力デバイス、1つ以上のカメラ、及び1つ以上のカメラを含むデバイスの姿勢の変化を検出する1つ以上の姿勢センサを有するコンピュータシステムで実行される。この方法は、物理的環境の拡張現実ビューを1つ以上のカメラの視野の表現を含む第1のユーザーインターフェース領域に表示する要求を受信することを含む。この方法は、また、物理的環境の拡張現実ビューを表示する要求を受信したことに応答して、1つ以上のカメラの視野の表現を表示することと、物理的環境の拡張現実ビューについて較正基準が満足されていないとの判定にしたがって、物理的環境における1つ以上のカメラの移動にしたがって動的にアニメーション化された較正ユーザーインターフェースオブジェクトを表示することと、を含み、較正ユーザーインターフェースオブジェクトを表示することは、較正ユーザーインターフェースオブジェクトを表示している間に、1つ以上の姿勢センサを介して、物理的環境における1つ以上のカメラの姿勢の変化を検出することと、物理的環境における1つ以上のカメラの姿勢の変化を検出したことに応答して、物理的環境における1つ以上のカメラの姿勢の検出した変化にしたがって較正ユーザーインターフェースオブジェクトの少なくとも1つの表示パラメータを調整することと、を含む。この方法は、また、物理的環境における1つ以上のカメラの姿勢の検出した変化にしたがってディスプレイ上を移動する較正ユーザーインターフェースオブジェクトを表示している間に、較正基準が満たされたことを検出することを含む。この方法は、また、較正基準が満たされたことを検出したことに応答して、較正ユーザーインターフェースオブジェクトを表示することを停止することを含む。 According to some embodiments, a method includes a display generation component, one or more input devices, one or more cameras, and one or more poses for detecting a change in pose of a device including the one or more cameras. It is executed on a computer system with a sensor. The method includes receiving a request to display an augmented reality view of a physical environment in a first user interface area that includes a representation of the field of view of one or more cameras. The method also includes displaying a representation of the field of view of the one or more cameras in response to receiving a request to display an augmented reality view of the physical environment; displaying a calibration user interface object that is dynamically animated according to movement of the one or more cameras in the physical environment in accordance with the determination that the criterion is not satisfied; The displaying includes detecting, via the one or more pose sensors, a change in pose of the one or more cameras in the physical environment while displaying the calibrated user interface object; in response to detecting a change in the pose of the one or more cameras, adjusting at least one display parameter of the calibration user interface object according to the detected change in the pose of the one or more cameras in the physical environment; ,including. The method also detects that a calibration criterion is met while displaying a calibration user interface object that moves on the display according to a detected change in the pose of one or more cameras in a physical environment. Including. The method also includes ceasing to display the calibration user interface object in response to detecting that the calibration criteria have been met.

いくつかの実施形態によれば、表示生成コンポーネントと、タッチ感知面を含む1つ以上の入力デバイスとを有するコンピュータシステムで実行される。この方法は、表示生成コンポーネントによって、仮想三次元オブジェクトの第1の視点の表現を第1のユーザーインターフェース領域に表示することを含む。この方法は、また、仮想三次元オブジェクトの第1の視点の表現をディスプレイ上の第1のユーザーインターフェース領域に表示している間に、仮想三次元オブジェクトの第1の視点から視認不能である仮想三次元オブジェクトの部分を表示するために表示に対して仮想三次元オブジェクトを回転させる要求に対応した第1の入力を検出することを含む。この方法は、また、第1の入力を検出したことに応答して、第1の入力が三次元オブジェクトを第1の軸の周りで回転させる要求に対応しているとの判定にしたがって、仮想三次元オブジェクトを、第1の軸に対して、第1の入力の大きさに基づいて決定され、かつ第1の軸に対する閾値回転量を超える量の仮想三次元オブジェクトの回転を制約する移動に課される限界によって制約された量だけ、回転させることと、第1の入力が、第1の軸とは異なる第2の軸の周りで三次元オブジェクトを回転させる要求に対応しているとの判定にしたがって、仮想三次元オブジェクトを第2の軸に対して第1の入力の大きさに基づいて決定された量だけ回転させることと、を含み、それぞれの閾値を超える大きさを有する入力について、デバイスは、仮想三次元オブジェクトを第2の軸に対して閾値回転量を超える量だけ回転させる。 According to some embodiments, the computer system executes on a computer system having a display generation component and one or more input devices including a touch sensitive surface. The method includes displaying, by a display generation component, a first perspective representation of the virtual three-dimensional object in the first user interface area. The method also includes, while displaying a first perspective representation of the virtual three-dimensional object in a first user interface area on the display, a virtual three-dimensional object that is not visible from the first perspective of the virtual three-dimensional object. The method includes detecting a first input corresponding to a request to rotate the virtual three-dimensional object relative to the display to display a portion of the three-dimensional object. The method also includes, in response to detecting the first input, determining that the first input corresponds to a request to rotate the three-dimensional object about the first axis. moving the three-dimensional object with respect to the first axis to constrain rotation of the virtual three-dimensional object by an amount determined based on the magnitude of the first input and exceeding a threshold rotation amount with respect to the first axis; the first input corresponds to a request to rotate the three-dimensional object about a second axis different from the first axis; and rotating the virtual three-dimensional object relative to the second axis by an amount determined based on the magnitude of the first input in accordance with the determination, for each input having a magnitude that exceeds the threshold. , the device rotates the virtual three-dimensional object about the second axis by an amount that exceeds a threshold rotation amount.

いくつかの実施形態によれば、方法は、表示生成コンポーネント及びタッチ感知面を有するコンピュータシステムで実行される。この方法は、表示生成コンポーネントを介して、第1のジェスチャ認識基準を満たす入力に応答して実施される第1のオブジェクト操作挙動、及び第2のジェスチャ認識基準を満たす入力に応答して実行される第2のオブジェクト操作挙動を含む複数のオブジェクト操作挙動と関連付けられたユーザーインターフェースオブジェクトを含む第1のユーザーインターフェース領域を表示することを含む。この方法は、また、第1のユーザーインターフェース領域を表示する間に、タッチ感知面にわたる1つ以上の接触の移動を検出することを含む、ユーザーインターフェースオブジェクトに向けられた入力の第1の部分を検出することと、タッチ感知面において1つ以上の接触が検出されている間に、第1のジェスチャ認識基準と第2のジェスチャ認識基準の両方に関して1つ以上の接触の移動を評価することと、を含む。この方法は、また、入力の第1の部分を検出したことに応答して、入力の第1の部分に基づいてユーザーインターフェースオブジェクトの外観を更新することであり、入力の第1の部分が第2のジェスチャ認識基準を満たす前に第1のジェスチャ認識基準を満足するとの判定にしたがって、入力の第1の部分に基づいて第1のオブジェクト操作挙動にしたがってユーザーインターフェースオブジェクトの外観を変化させること、及び第2のジェスチャ認識基準の閾値を増大させることによって第2のジェスチャ認識基準を更新することと、入力が第1のジェスチャ認識基準を満たす前に第2のジェスチャ認識基準を満足するとの判定にしたがって、入力の第1の部分に基づいて第2のオブジェクト操作挙動にしたがってユーザーインターフェースオブジェクトの外観を変化させること、及び第1のジェスチャ認識基準の閾値を増大させることによって第1のジェスチャ認識基準を更新すること、を含む、ことを含む。 According to some embodiments, the method is performed on a computer system having a display generation component and a touch sensitive surface. The method includes, via a display generation component, a first object manipulation behavior performed in response to input satisfying a first gesture recognition criterion; and a first object manipulation behavior performed in response to input satisfying a second gesture recognition criterion. displaying a first user interface region that includes user interface objects associated with a plurality of object manipulation behaviors, including a second object manipulation behavior that includes a second object manipulation behavior; The method also includes detecting movement of one or more contacts across the touch-sensitive surface while displaying the first user interface area. detecting; and evaluating movement of the one or more contacts with respect to both a first gesture recognition criterion and a second gesture recognition criterion while the one or more contacts are detected at the touch-sensitive surface. ,including. The method also includes, in response to detecting the first portion of the input, updating the appearance of the user interface object based on the first portion of the input, wherein the first portion of the input is the first portion of the input. changing the appearance of the user interface object according to the first object manipulation behavior based on the first portion of the input in accordance with the determination that the first gesture recognition criterion is satisfied before the second gesture recognition criterion is satisfied; and updating the second gesture recognition criterion by increasing a threshold of the second gesture recognition criterion; and determining that the input satisfies the second gesture recognition criterion before satisfying the first gesture recognition criterion. Thus, changing the appearance of the user interface object according to the second object manipulation behavior based on the first portion of the input, and increasing the threshold of the first gesture recognition criterion. updating, including, including;

いくつかの実施形態によれば、方法は、表示生成コンポーネント、1つ以上の入力デバイス、1つ以上の音声出力生成器、及び1つ以上のカメラを有するコンピュータシステムで実行される。この方法は、表示生成コンポーネントを介して、1つ以上のカメラの視野の表現を含む第1のユーザーインターフェース領域に仮想オブジェクトの表現を表示することを含み、この表示することは、仮想オブジェクトの表現と、1つ以上のカメラの視野内でキャプチャされた物理的環境内で検出されたプレーンとの間の第1の空間的関係を維持することを含む。この方法は、また、1つ以上のカメラの視野を調整するデバイスの移動を検出することを含む。この方法は、また、1つ以上のカメラの視野を調整するデバイスの移動を検出したことに応答して、1つ以上のカメラの視野が調整されるにつれて、仮想オブジェクトと1つ以上のカメラの視野内で検出されるプレーンとの間の第1の空間的関係にしたがって、第1のユーザーインターフェース領域内の仮想オブジェクトの表現の表示を調整することと、デバイスの移動が仮想オブジェクトの閾値量より大きな量を1つ以上のカメラの視野の表示部分の外部に移動させるとの判定にしたがって、1つ以上の音声出力生成器を介して、第1の音声警報を生成することと、を含む。 According to some embodiments, the method is performed on a computer system having a display generation component, one or more input devices, one or more audio output generators, and one or more cameras. The method includes displaying, via a display generation component, a representation of the virtual object in a first user interface area that includes a representation of the field of view of the one or more cameras, the displaying comprising: displaying a representation of the virtual object. and a plane detected within a physical environment captured within a field of view of the one or more cameras. The method also includes detecting movement of the device that adjusts the field of view of the one or more cameras. The method also includes, in response to detecting movement of the device that adjusts the field of view of the one or more cameras, the virtual object and the one or more cameras as the field of view of the one or more cameras is adjusted. adjusting the display of the representation of the virtual object in the first user interface area according to a first spatial relationship with a plane detected in the field of view; and generating, via the one or more audio output generators, a first audio alert in accordance with the determination that the large amount moves outside of a viewing portion of the field of view of the one or more cameras.

いくつかの実施形態によれば、電子デバイスは、表示生成コンポーネントと、任意選択的な1つ以上の入力デバイスと、任意選択的な1つ以上のタッチ感知面と、任意選択的な1つ以上のカメラと、任意選択的なタッチ感知面との接触の強度を検出する1つ以上のセンサと、任意選択的な1つ以上の音声出力生成器と、任意選択的な1つ以上のデバイス向きセンサと、任意選択的な1つ以上の触知出力生成器と、任意選択的な姿勢の変化を検出する1つ以上の姿勢センサと、1つ以上のプロセッサと、1つ以上のプログラムを記憶したメモリとを含み、1つ以上のプログラムは、1つ以上のプロセッサによって実行されるように構成されており、1つ以上のプログラムは、本明細書に記載する方法のうちのいずれかの動作を実行する、又はその実行を引き起こす命令を含む。いくつかの実施形態によれば、コンピュータ可読記憶媒体は、命令を記憶しており、これらの命令は、表示生成コンポーネントと、任意選択的な1つ以上の入力デバイスと、任意選択的な1つ以上のタッチ感知面と、任意選択的な1つ以上のカメラと、任意選択的なタッチ感知面との接触の強度を検出する1つ以上のセンサと、任意選択的な1つ以上の音声出力生成器と、任意選択的な1つ以上のデバイス向きセンサと、任意選択的な1つ以上の触知出力生成器と、任意選択的な1つ以上の姿勢センサとを備えた電子デバイスによって実行されたときに、このデバイスに、本明細書に記載する方法のうちのいずれかの動作を実行させる、又はその実行を引き起こさせる。いくつかの実施形態によれば、表示生成コンポーネントと、任意選択的な1つ以上の入力デバイスと、任意選択的な1つ以上のタッチ感知面と、任意選択的な1つ以上のカメラと、任意選択的なタッチ感知面との接触の強度を検出する1つ以上のセンサと、任意選択的な1つ以上の音声出力生成器と、任意選択的な1つ以上のデバイス向きセンサと、任意選択的な1つ以上の触知出力生成器と、任意選択的な1つ以上の姿勢センサと、メモリと、メモリに記憶された1つ以上のプログラムを実行する1つ以上のプロセッサとを備えた電子デバイスのグラフィカルユーザーインターフェースは、本明細書に記載する方法のうちのいずれかに記載するように、入力に応答して更新される本明細書に記載する方法のいずれかで表示される要素のうちの1つ以上を含む。いくつかの実施形態によれば、電子デバイスは、表示生成コンポーネントと、任意選択的な1つ以上の入力デバイスと、任意選択的な1つ以上のタッチ感知面と、任意選択的な1つ以上のカメラと、任意選択的なタッチ感知面との接触の強度を検出する1つ以上のセンサと、任意選択的な1つ以上の音声出力生成器と、任意選択的な1つ以上のデバイス向きセンサと、任意選択的な1つ以上の触知出力生成器と、任意選択的な姿勢の変化を検出する1つ以上の姿勢センサと、本明細書に記載する方法のうちのいずれかの動作を実行する、又はその実行を引き起こす手段とを含む。いくつかの実施形態によれば、表示生成コンポーネントと、任意選択的な1つ以上の入力デバイスと、任意選択的な1つ以上のタッチ感知面と、任意選択的な1つ以上のカメラと、任意選択的なタッチ感知面との接触の強度を検出する1つ以上のセンサと、任意選択的な1つ以上の音声出力生成器と、任意選択的な1つ以上のデバイス向きセンサと、任意選択的な1つ以上の触知出力生成器と、任意選択的な姿勢の変化を検出する1つ以上の姿勢センサとを備えた電子デバイスで使用される情報処理装置は、本明細書に記載する方法のうちのいずれかの動作を実行する、又はその実行を引き起こす手段を含む。 According to some embodiments, an electronic device includes a display generation component, optionally one or more input devices, optionally one or more touch-sensitive surfaces, and optionally one or more touch-sensitive surfaces. one or more sensors for detecting intensity of contact with the camera, optionally one or more audio output generators, and optionally one or more device orientations for detecting intensity of contact with the touch-sensitive surface. a sensor, optionally one or more tactile output generators, optionally one or more posture sensors for detecting changes in posture, one or more processors, and one or more stored programs. one or more programs configured to be executed by one or more processors, the one or more programs configured to perform any of the methods described herein. Contains instructions that execute or cause the execution of. According to some embodiments, a computer-readable storage medium stores instructions that connect the display generation component, the optional one or more input devices, and the optional one or more input devices. the touch-sensitive surface, optionally one or more cameras, one or more sensors that detect the intensity of contact with the optional touch-sensitive surface, and optionally one or more audio outputs. performed by an electronic device comprising a generator, optionally one or more device orientation sensors, optionally one or more tactile output generators, and optionally one or more orientation sensors. causes the device to perform or cause the performance of any of the methods described herein. According to some embodiments, a display generation component, optionally one or more input devices, optionally one or more touch-sensitive surfaces, and optionally one or more cameras; optionally one or more sensors for detecting intensity of contact with the touch-sensitive surface; optionally one or more audio output generators; optionally one or more device orientation sensors; optionally one or more tactile output generators, optionally one or more posture sensors, a memory, and one or more processors for executing one or more programs stored in the memory. A graphical user interface of an electronic device provided with elements displayed in any of the ways described herein that is updated in response to input as described in any of the ways described herein. including one or more of the following. According to some embodiments, an electronic device includes a display generation component, optionally one or more input devices, optionally one or more touch-sensitive surfaces, and optionally one or more touch-sensitive surfaces. one or more sensors for detecting intensity of contact with the camera, optionally one or more audio output generators, and optionally one or more device orientations for detecting intensity of contact with the touch-sensitive surface. a sensor, optionally one or more tactile output generators, optionally one or more posture sensors that detect a change in posture, and operation of any of the methods described herein. or means for causing the execution. According to some embodiments, a display generation component, optionally one or more input devices, optionally one or more touch-sensitive surfaces, and optionally one or more cameras; optionally one or more sensors for detecting intensity of contact with the touch-sensitive surface; optionally one or more audio output generators; optionally one or more device orientation sensors; An information processing apparatus for use in an electronic device comprising one or more selective tactile output generators and optionally one or more posture sensors for detecting changes in posture is described herein. means for performing or causing the performance of any of the methods.

したがって、表示生成コンポーネントと、任意選択的な1つ以上の入力デバイスと、任意選択的な1つ以上のタッチ感知面と、任意選択的な1つ以上のカメラと、任意選択的なタッチ感知面との接触の強度を検出する1つ以上のセンサと、任意選択的な1つ以上の音声出力生成器と、任意選択的な1つ以上のデバイス向きセンサと、任意選択的な1つ以上の触知出力生成器と、任意選択的な1つ以上の姿勢センサとを備えた電子デバイスに、様々なコンテキストで仮想オブジェクトを表示するための改善された方法及びインターフェースが与えられ、これにより、これらのデバイスの有効性、効率、及びユーザー満足度が向上する。これらの方法及びインターフェースは、様々なコンテキストで仮想オブジェクトを表示する従来の方法を補完する、又はそれらに取って代わることができる。 Accordingly, a display generation component, an optional one or more input devices, an optional one or more touch-sensitive surfaces, an optional one or more cameras, and an optional touch-sensitive surface. one or more sensors for detecting the intensity of contact with the device; optionally one or more audio output generators; optionally one or more device orientation sensors; and optionally one or more device orientation sensors. An electronic device with a tactile output generator and optionally one or more pose sensors is provided with an improved method and interface for displaying virtual objects in a variety of contexts, thereby providing an improved method and interface for displaying virtual objects in a variety of contexts. device effectiveness, efficiency, and user satisfaction. These methods and interfaces can complement or replace traditional methods of displaying virtual objects in various contexts.

記載する様々な実施形態をより良好に理解するためには、以下で、全ての図面を通じて対応する部品を同じ参照番号で示す以下の図面と関連付けて、発明を実施するための形態を参照されたい。 For a better understanding of the various embodiments described, reference is made below to the Detailed Description of the Invention in conjunction with the following drawings in which corresponding parts are designated by the same reference numerals throughout all the drawings: .

いくつかの実施形態による、タッチ感知ディスプレイを備えたポータブル多機能デバイスを示すブロック図である。1 is a block diagram illustrating a portable multifunction device with a touch-sensitive display, according to some embodiments. FIG.

いくつかの実施形態による、イベントハンドリングのための例示的なコンポーネントを示すブロック図である。FIG. 2 is a block diagram illustrating example components for event handling, according to some embodiments.

いくつかの実施形態による、触知出力モジュールを示すブロック図である。FIG. 2 is a block diagram illustrating a tactile output module, according to some embodiments.

いくつかの実施形態による、タッチスクリーンを有するポータブル多機能デバイスを示す図である。1 illustrates a portable multifunction device with a touch screen, according to some embodiments. FIG.

いくつかの実施形態による、ディスプレイ及びタッチ感知面を備えた例示的な多機能デバイスを示すブロック図である。1 is a block diagram illustrating an example multifunction device with a display and a touch-sensitive surface, according to some embodiments. FIG.

いくつかの実施形態による、ポータブル多機能デバイス上のアプリケーションのメニューの例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface of a menu of applications on a portable multifunction device, according to some embodiments.

いくつかの実施形態による、ディスプレイと分離したタッチ感知面を備えた多機能デバイスの例示的なユーザーインターフェースを示す図である。FIG. 2 illustrates an example user interface of a multifunction device with a touch-sensitive surface separate from a display, according to some embodiments.

いくつかの実施形態による、動的強度閾値の例を示す図である。FIG. 3 is a diagram illustrating an example of a dynamic intensity threshold, according to some embodiments. いくつかの実施形態による、動的強度閾値の例を示す図である。FIG. 3 is a diagram illustrating an example of a dynamic intensity threshold, according to some embodiments. いくつかの実施形態による、動的強度閾値の例を示す図である。FIG. 3 is a diagram illustrating an example of a dynamic intensity threshold, according to some embodiments.

いくつかの実施形態にしたがって、サンプル触知出力パターンのセットを示す図である。FIG. 3 is a diagram illustrating a set of sample tactile output patterns, according to some embodiments. いくつかの実施形態にしたがって、サンプル触知出力パターンのセットを示す図である。FIG. 3 is a diagram illustrating a set of sample tactile output patterns, according to some embodiments. いくつかの実施形態にしたがって、サンプル触知出力パターンのセットを示す図である。FIG. 3 is a diagram illustrating a set of sample tactile output patterns, according to some embodiments. いくつかの実施形態にしたがって、サンプル触知出力パターンのセットを示す図である。FIG. 3 is a diagram illustrating a set of sample tactile output patterns, according to some embodiments. いくつかの実施形態にしたがって、サンプル触知出力パターンのセットを示す図である。FIG. 3 is a diagram illustrating a set of sample tactile output patterns, according to some embodiments. いくつかの実施形態にしたがって、サンプル触知出力パターンのセットを示す図である。FIG. 3 is a diagram illustrating a set of sample tactile output patterns, according to some embodiments.

いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that displays a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area, according to some embodiments; FIG. It is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that displays a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area, according to some embodiments; FIG. It is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that displays a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area, according to some embodiments; FIG. It is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that displays a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area, according to some embodiments; FIG. It is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that displays a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area, according to some embodiments; FIG. It is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that displays a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area, according to some embodiments; FIG. It is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that displays a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area, according to some embodiments; FIG. It is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that displays a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area, according to some embodiments; FIG. It is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that displays a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area, according to some embodiments; FIG. It is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that displays a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area, according to some embodiments; FIG. It is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that displays a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area, according to some embodiments; FIG. It is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that displays a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area, according to some embodiments; FIG. It is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that displays a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area, according to some embodiments; FIG. It is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that displays a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area, according to some embodiments; FIG. It is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that displays a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area, according to some embodiments; FIG. It is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that displays a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area, according to some embodiments; FIG. It is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that displays a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area, according to some embodiments; FIG. It is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that displays a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area, according to some embodiments; FIG. It is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that displays a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area, according to some embodiments; FIG. It is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that displays a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area, according to some embodiments; FIG. It is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that displays a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area, according to some embodiments; FIG. It is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that displays a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area, according to some embodiments; FIG. It is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that displays a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area, according to some embodiments; FIG. It is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that displays a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area, according to some embodiments; FIG. It is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that displays a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area, according to some embodiments; FIG. It is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that displays a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area, according to some embodiments; FIG. It is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that displays a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area, according to some embodiments; FIG. It is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that displays a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area, according to some embodiments; FIG. It is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that displays a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area, according to some embodiments; FIG. It is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that displays a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area, according to some embodiments; FIG. It is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that displays a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area, according to some embodiments; FIG. It is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that displays a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area, according to some embodiments; FIG. It is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that displays a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area, according to some embodiments; FIG. It is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that displays a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area, according to some embodiments; FIG. It is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that displays a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area, according to some embodiments; FIG. It is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that displays a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area, according to some embodiments; FIG. It is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that displays a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area, according to some embodiments; FIG. It is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that displays a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area, according to some embodiments; FIG. It is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that displays a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area, according to some embodiments; FIG. It is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that displays a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area, according to some embodiments; FIG. It is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that displays a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area, according to some embodiments; FIG. It is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that displays a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area, according to some embodiments; FIG. It is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that displays a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area, according to some embodiments; FIG. It is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that displays a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area, according to some embodiments; FIG. It is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that displays a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area, according to some embodiments; FIG. It is. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that displays a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area, according to some embodiments; FIG. It is.

いくつかの実施形態による、仮想オブジェクトの第1の表現を第1のユーザーインターフェース領域に表示し、仮想オブジェクトの第2の表現を第2のユーザーインターフェース領域に表示し、仮想オブジェクトの第3の表現を1つ以上のカメラの視野の表現とともに表示する、例示的なユーザーインターフェースを示す図である。A first representation of the virtual object is displayed in the first user interface area, a second representation of the virtual object is displayed in the second user interface area, and a third representation of the virtual object according to some embodiments. FIG. 3 is an illustration of an example user interface that displays an image along with a representation of the field of view of one or more cameras. いくつかの実施形態による、仮想オブジェクトの第1の表現を第1のユーザーインターフェース領域に表示し、仮想オブジェクトの第2の表現を第2のユーザーインターフェース領域に表示し、仮想オブジェクトの第3の表現を1つ以上のカメラの視野の表現とともに表示する、例示的なユーザーインターフェースを示す図である。A first representation of the virtual object is displayed in the first user interface area, a second representation of the virtual object is displayed in the second user interface area, and a third representation of the virtual object according to some embodiments. FIG. 3 is an illustration of an example user interface that displays an image along with a representation of the field of view of one or more cameras. いくつかの実施形態による、仮想オブジェクトの第1の表現を第1のユーザーインターフェース領域に表示し、仮想オブジェクトの第2の表現を第2のユーザーインターフェース領域に表示し、仮想オブジェクトの第3の表現を1つ以上のカメラの視野の表現とともに表示する、例示的なユーザーインターフェースを示す図である。A first representation of the virtual object is displayed in the first user interface area, a second representation of the virtual object is displayed in the second user interface area, and a third representation of the virtual object according to some embodiments. FIG. 3 is an illustration of an example user interface that displays an image along with a representation of the field of view of one or more cameras. いくつかの実施形態による、仮想オブジェクトの第1の表現を第1のユーザーインターフェース領域に表示し、仮想オブジェクトの第2の表現を第2のユーザーインターフェース領域に表示し、仮想オブジェクトの第3の表現を1つ以上のカメラの視野の表現とともに表示する、例示的なユーザーインターフェースを示す図である。A first representation of the virtual object is displayed in the first user interface area, a second representation of the virtual object is displayed in the second user interface area, and a third representation of the virtual object according to some embodiments. FIG. 3 is an illustration of an example user interface that displays an image along with a representation of the field of view of one or more cameras. いくつかの実施形態による、仮想オブジェクトの第1の表現を第1のユーザーインターフェース領域に表示し、仮想オブジェクトの第2の表現を第2のユーザーインターフェース領域に表示し、仮想オブジェクトの第3の表現を1つ以上のカメラの視野の表現とともに表示する、例示的なユーザーインターフェースを示す図である。A first representation of the virtual object is displayed in the first user interface area, a second representation of the virtual object is displayed in the second user interface area, and a third representation of the virtual object according to some embodiments. FIG. 3 is an illustration of an example user interface that displays an image along with a representation of the field of view of one or more cameras. いくつかの実施形態による、仮想オブジェクトの第1の表現を第1のユーザーインターフェース領域に表示し、仮想オブジェクトの第2の表現を第2のユーザーインターフェース領域に表示し、仮想オブジェクトの第3の表現を1つ以上のカメラの視野の表現とともに表示する、例示的なユーザーインターフェースを示す図である。A first representation of the virtual object is displayed in the first user interface area, a second representation of the virtual object is displayed in the second user interface area, and a third representation of the virtual object according to some embodiments. FIG. 3 is an illustration of an example user interface that displays an image along with a representation of the field of view of one or more cameras. いくつかの実施形態による、仮想オブジェクトの第1の表現を第1のユーザーインターフェース領域に表示し、仮想オブジェクトの第2の表現を第2のユーザーインターフェース領域に表示し、仮想オブジェクトの第3の表現を1つ以上のカメラの視野の表現とともに表示する、例示的なユーザーインターフェースを示す図である。A first representation of the virtual object is displayed in the first user interface area, a second representation of the virtual object is displayed in the second user interface area, and a third representation of the virtual object according to some embodiments. FIG. 3 is an illustration of an example user interface that displays an image along with a representation of the field of view of one or more cameras. いくつかの実施形態による、仮想オブジェクトの第1の表現を第1のユーザーインターフェース領域に表示し、仮想オブジェクトの第2の表現を第2のユーザーインターフェース領域に表示し、仮想オブジェクトの第3の表現を1つ以上のカメラの視野の表現とともに表示する、例示的なユーザーインターフェースを示す図である。A first representation of the virtual object is displayed in the first user interface area, a second representation of the virtual object is displayed in the second user interface area, and a third representation of the virtual object according to some embodiments. FIG. 3 is an illustration of an example user interface that displays an image along with a representation of the field of view of one or more cameras. いくつかの実施形態による、仮想オブジェクトの第1の表現を第1のユーザーインターフェース領域に表示し、仮想オブジェクトの第2の表現を第2のユーザーインターフェース領域に表示し、仮想オブジェクトの第3の表現を1つ以上のカメラの視野の表現とともに表示する、例示的なユーザーインターフェースを示す図である。A first representation of the virtual object is displayed in the first user interface area, a second representation of the virtual object is displayed in the second user interface area, and a third representation of the virtual object according to some embodiments. FIG. 3 is an illustration of an example user interface that displays an image along with a representation of the field of view of one or more cameras. いくつかの実施形態による、仮想オブジェクトの第1の表現を第1のユーザーインターフェース領域に表示し、仮想オブジェクトの第2の表現を第2のユーザーインターフェース領域に表示し、仮想オブジェクトの第3の表現を1つ以上のカメラの視野の表現とともに表示する、例示的なユーザーインターフェースを示す図である。A first representation of the virtual object is displayed in the first user interface area, a second representation of the virtual object is displayed in the second user interface area, and a third representation of the virtual object according to some embodiments. FIG. 3 is an illustration of an example user interface that displays an image along with a representation of the field of view of one or more cameras. いくつかの実施形態による、仮想オブジェクトの第1の表現を第1のユーザーインターフェース領域に表示し、仮想オブジェクトの第2の表現を第2のユーザーインターフェース領域に表示し、仮想オブジェクトの第3の表現を1つ以上のカメラの視野の表現とともに表示する、例示的なユーザーインターフェースを示す図である。A first representation of the virtual object is displayed in the first user interface area, a second representation of the virtual object is displayed in the second user interface area, and a third representation of the virtual object according to some embodiments. FIG. 3 is an illustration of an example user interface that displays an image along with a representation of the field of view of one or more cameras. いくつかの実施形態による、仮想オブジェクトの第1の表現を第1のユーザーインターフェース領域に表示し、仮想オブジェクトの第2の表現を第2のユーザーインターフェース領域に表示し、仮想オブジェクトの第3の表現を1つ以上のカメラの視野の表現とともに表示する、例示的なユーザーインターフェースを示す図である。A first representation of the virtual object is displayed in the first user interface area, a second representation of the virtual object is displayed in the second user interface area, and a third representation of the virtual object according to some embodiments. FIG. 3 is an illustration of an example user interface that displays an image along with a representation of the field of view of one or more cameras. いくつかの実施形態による、仮想オブジェクトの第1の表現を第1のユーザーインターフェース領域に表示し、仮想オブジェクトの第2の表現を第2のユーザーインターフェース領域に表示し、仮想オブジェクトの第3の表現を1つ以上のカメラの視野の表現とともに表示する、例示的なユーザーインターフェースを示す図である。A first representation of the virtual object is displayed in the first user interface area, a second representation of the virtual object is displayed in the second user interface area, and a third representation of the virtual object according to some embodiments. FIG. 3 is an illustration of an example user interface that displays an image along with a representation of the field of view of one or more cameras. いくつかの実施形態による、仮想オブジェクトの第1の表現を第1のユーザーインターフェース領域に表示し、仮想オブジェクトの第2の表現を第2のユーザーインターフェース領域に表示し、仮想オブジェクトの第3の表現を1つ以上のカメラの視野の表現とともに表示する、例示的なユーザーインターフェースを示す図である。A first representation of the virtual object is displayed in the first user interface area, a second representation of the virtual object is displayed in the second user interface area, and a third representation of the virtual object according to some embodiments. FIG. 3 is an illustration of an example user interface that displays an image along with a representation of the field of view of one or more cameras. いくつかの実施形態による、仮想オブジェクトの第1の表現を第1のユーザーインターフェース領域に表示し、仮想オブジェクトの第2の表現を第2のユーザーインターフェース領域に表示し、仮想オブジェクトの第3の表現を1つ以上のカメラの視野の表現とともに表示する、例示的なユーザーインターフェースを示す図である。A first representation of the virtual object is displayed in the first user interface area, a second representation of the virtual object is displayed in the second user interface area, and a third representation of the virtual object according to some embodiments. FIG. 3 is an illustration of an example user interface that displays an image along with a representation of the field of view of one or more cameras. いくつかの実施形態による、仮想オブジェクトの第1の表現を第1のユーザーインターフェース領域に表示し、仮想オブジェクトの第2の表現を第2のユーザーインターフェース領域に表示し、仮想オブジェクトの第3の表現を1つ以上のカメラの視野の表現とともに表示する、例示的なユーザーインターフェースを示す図である。A first representation of the virtual object is displayed in the first user interface area, a second representation of the virtual object is displayed in the second user interface area, and a third representation of the virtual object according to some embodiments. FIG. 3 is an illustration of an example user interface that displays an image along with a representation of the field of view of one or more cameras. いくつかの実施形態による、仮想オブジェクトの第1の表現を第1のユーザーインターフェース領域に表示し、仮想オブジェクトの第2の表現を第2のユーザーインターフェース領域に表示し、仮想オブジェクトの第3の表現を1つ以上のカメラの視野の表現とともに表示する、例示的なユーザーインターフェースを示す図である。A first representation of the virtual object is displayed in the first user interface area, a second representation of the virtual object is displayed in the second user interface area, and a third representation of the virtual object according to some embodiments. FIG. 3 is an illustration of an example user interface that displays an image along with a representation of the field of view of one or more cameras. いくつかの実施形態による、仮想オブジェクトの第1の表現を第1のユーザーインターフェース領域に表示し、仮想オブジェクトの第2の表現を第2のユーザーインターフェース領域に表示し、仮想オブジェクトの第3の表現を1つ以上のカメラの視野の表現とともに表示する、例示的なユーザーインターフェースを示す図である。A first representation of the virtual object is displayed in the first user interface area, a second representation of the virtual object is displayed in the second user interface area, and a third representation of the virtual object according to some embodiments. FIG. 3 is an illustration of an example user interface that displays an image along with a representation of the field of view of one or more cameras. いくつかの実施形態による、仮想オブジェクトの第1の表現を第1のユーザーインターフェース領域に表示し、仮想オブジェクトの第2の表現を第2のユーザーインターフェース領域に表示し、仮想オブジェクトの第3の表現を1つ以上のカメラの視野の表現とともに表示する、例示的なユーザーインターフェースを示す図である。A first representation of the virtual object is displayed in the first user interface area, a second representation of the virtual object is displayed in the second user interface area, and a third representation of the virtual object according to some embodiments. FIG. 3 is an illustration of an example user interface that displays an image along with a representation of the field of view of one or more cameras. いくつかの実施形態による、仮想オブジェクトの第1の表現を第1のユーザーインターフェース領域に表示し、仮想オブジェクトの第2の表現を第2のユーザーインターフェース領域に表示し、仮想オブジェクトの第3の表現を1つ以上のカメラの視野の表現とともに表示する、例示的なユーザーインターフェースを示す図である。A first representation of the virtual object is displayed in the first user interface area, a second representation of the virtual object is displayed in the second user interface area, and a third representation of the virtual object according to some embodiments. FIG. 3 is an illustration of an example user interface that displays an image along with a representation of the field of view of one or more cameras. いくつかの実施形態による、仮想オブジェクトの第1の表現を第1のユーザーインターフェース領域に表示し、仮想オブジェクトの第2の表現を第2のユーザーインターフェース領域に表示し、仮想オブジェクトの第3の表現を1つ以上のカメラの視野の表現とともに表示する、例示的なユーザーインターフェースを示す図である。A first representation of the virtual object is displayed in the first user interface area, a second representation of the virtual object is displayed in the second user interface area, and a third representation of the virtual object according to some embodiments. FIG. 3 is an illustration of an example user interface that displays an image along with a representation of the field of view of one or more cameras. いくつかの実施形態による、仮想オブジェクトの第1の表現を第1のユーザーインターフェース領域に表示し、仮想オブジェクトの第2の表現を第2のユーザーインターフェース領域に表示し、仮想オブジェクトの第3の表現を1つ以上のカメラの視野の表現とともに表示する、例示的なユーザーインターフェースを示す図である。A first representation of the virtual object is displayed in the first user interface area, a second representation of the virtual object is displayed in the second user interface area, and a third representation of the virtual object according to some embodiments. FIG. 3 is an illustration of an example user interface that displays an image along with a representation of the field of view of one or more cameras. いくつかの実施形態による、仮想オブジェクトの第1の表現を第1のユーザーインターフェース領域に表示し、仮想オブジェクトの第2の表現を第2のユーザーインターフェース領域に表示し、仮想オブジェクトの第3の表現を1つ以上のカメラの視野の表現とともに表示する、例示的なユーザーインターフェースを示す図である。A first representation of the virtual object is displayed in the first user interface area, a second representation of the virtual object is displayed in the second user interface area, and a third representation of the virtual object according to some embodiments. FIG. 3 is an illustration of an example user interface that displays an image along with a representation of the field of view of one or more cameras. いくつかの実施形態による、仮想オブジェクトの第1の表現を第1のユーザーインターフェース領域に表示し、仮想オブジェクトの第2の表現を第2のユーザーインターフェース領域に表示し、仮想オブジェクトの第3の表現を1つ以上のカメラの視野の表現とともに表示する、例示的なユーザーインターフェースを示す図である。A first representation of the virtual object is displayed in the first user interface area, a second representation of the virtual object is displayed in the second user interface area, and a third representation of the virtual object according to some embodiments. FIG. 3 is an illustration of an example user interface that displays an image along with a representation of the field of view of one or more cameras. いくつかの実施形態による、仮想オブジェクトの第1の表現を第1のユーザーインターフェース領域に表示し、仮想オブジェクトの第2の表現を第2のユーザーインターフェース領域に表示し、仮想オブジェクトの第3の表現を1つ以上のカメラの視野の表現とともに表示する、例示的なユーザーインターフェースを示す図である。A first representation of the virtual object is displayed in the first user interface area, a second representation of the virtual object is displayed in the second user interface area, and a third representation of the virtual object according to some embodiments. FIG. 3 is an illustration of an example user interface that displays an image along with a representation of the field of view of one or more cameras. いくつかの実施形態による、仮想オブジェクトの第1の表現を第1のユーザーインターフェース領域に表示し、仮想オブジェクトの第2の表現を第2のユーザーインターフェース領域に表示し、仮想オブジェクトの第3の表現を1つ以上のカメラの視野の表現とともに表示する、例示的なユーザーインターフェースを示す図である。A first representation of the virtual object is displayed in the first user interface area, a second representation of the virtual object is displayed in the second user interface area, and a third representation of the virtual object according to some embodiments. FIG. 3 is an illustration of an example user interface that displays an image along with a representation of the field of view of one or more cameras. いくつかの実施形態による、仮想オブジェクトの第1の表現を第1のユーザーインターフェース領域に表示し、仮想オブジェクトの第2の表現を第2のユーザーインターフェース領域に表示し、仮想オブジェクトの第3の表現を1つ以上のカメラの視野の表現とともに表示する、例示的なユーザーインターフェースを示す図である。A first representation of the virtual object is displayed in the first user interface area, a second representation of the virtual object is displayed in the second user interface area, and a third representation of the virtual object according to some embodiments. FIG. 3 is an illustration of an example user interface that displays an image along with a representation of the field of view of one or more cameras. いくつかの実施形態による、仮想オブジェクトの第1の表現を第1のユーザーインターフェース領域に表示し、仮想オブジェクトの第2の表現を第2のユーザーインターフェース領域に表示し、仮想オブジェクトの第3の表現を1つ以上のカメラの視野の表現とともに表示する、例示的なユーザーインターフェースを示す図である。A first representation of the virtual object is displayed in the first user interface area, a second representation of the virtual object is displayed in the second user interface area, and a third representation of the virtual object according to some embodiments. FIG. 3 is an illustration of an example user interface that displays an image along with a representation of the field of view of one or more cameras. いくつかの実施形態による、仮想オブジェクトの第1の表現を第1のユーザーインターフェース領域に表示し、仮想オブジェクトの第2の表現を第2のユーザーインターフェース領域に表示し、仮想オブジェクトの第3の表現を1つ以上のカメラの視野の表現とともに表示する、例示的なユーザーインターフェースを示す図である。A first representation of the virtual object is displayed in the first user interface area, a second representation of the virtual object is displayed in the second user interface area, and a third representation of the virtual object according to some embodiments. FIG. 3 is an illustration of an example user interface that displays an image along with a representation of the field of view of one or more cameras. いくつかの実施形態による、仮想オブジェクトの第1の表現を第1のユーザーインターフェース領域に表示し、仮想オブジェクトの第2の表現を第2のユーザーインターフェース領域に表示し、仮想オブジェクトの第3の表現を1つ以上のカメラの視野の表現とともに表示する、例示的なユーザーインターフェースを示す図である。A first representation of the virtual object is displayed in the first user interface area, a second representation of the virtual object is displayed in the second user interface area, and a third representation of the virtual object according to some embodiments. FIG. 3 is an illustration of an example user interface that displays an image along with a representation of the field of view of one or more cameras. いくつかの実施形態による、仮想オブジェクトの第1の表現を第1のユーザーインターフェース領域に表示し、仮想オブジェクトの第2の表現を第2のユーザーインターフェース領域に表示し、仮想オブジェクトの第3の表現を1つ以上のカメラの視野の表現とともに表示する、例示的なユーザーインターフェースを示す図である。A first representation of the virtual object is displayed in the first user interface area, a second representation of the virtual object is displayed in the second user interface area, and a third representation of the virtual object according to some embodiments. FIG. 3 is an illustration of an example user interface that displays an image along with a representation of the field of view of one or more cameras. いくつかの実施形態による、仮想オブジェクトの第1の表現を第1のユーザーインターフェース領域に表示し、仮想オブジェクトの第2の表現を第2のユーザーインターフェース領域に表示し、仮想オブジェクトの第3の表現を1つ以上のカメラの視野の表現とともに表示する、例示的なユーザーインターフェースを示す図である。A first representation of the virtual object is displayed in the first user interface area, a second representation of the virtual object is displayed in the second user interface area, and a third representation of the virtual object according to some embodiments. FIG. 3 is an illustration of an example user interface that displays an image along with a representation of the field of view of one or more cameras. いくつかの実施形態による、仮想オブジェクトの第1の表現を第1のユーザーインターフェース領域に表示し、仮想オブジェクトの第2の表現を第2のユーザーインターフェース領域に表示し、仮想オブジェクトの第3の表現を1つ以上のカメラの視野の表現とともに表示する、例示的なユーザーインターフェースを示す図である。A first representation of the virtual object is displayed in the first user interface area, a second representation of the virtual object is displayed in the second user interface area, and a third representation of the virtual object according to some embodiments. FIG. 3 is an illustration of an example user interface that displays an image along with a representation of the field of view of one or more cameras. いくつかの実施形態による、仮想オブジェクトの第1の表現を第1のユーザーインターフェース領域に表示し、仮想オブジェクトの第2の表現を第2のユーザーインターフェース領域に表示し、仮想オブジェクトの第3の表現を1つ以上のカメラの視野の表現とともに表示する、例示的なユーザーインターフェースを示す図である。A first representation of the virtual object is displayed in the first user interface area, a second representation of the virtual object is displayed in the second user interface area, and a third representation of the virtual object according to some embodiments. FIG. 3 is an illustration of an example user interface that displays an image along with a representation of the field of view of one or more cameras. いくつかの実施形態による、仮想オブジェクトの第1の表現を第1のユーザーインターフェース領域に表示し、仮想オブジェクトの第2の表現を第2のユーザーインターフェース領域に表示し、仮想オブジェクトの第3の表現を1つ以上のカメラの視野の表現とともに表示する、例示的なユーザーインターフェースを示す図である。A first representation of the virtual object is displayed in the first user interface area, a second representation of the virtual object is displayed in the second user interface area, and a third representation of the virtual object according to some embodiments. FIG. 3 is an illustration of an example user interface that displays an image along with a representation of the field of view of one or more cameras. いくつかの実施形態による、仮想オブジェクトの第1の表現を第1のユーザーインターフェース領域に表示し、仮想オブジェクトの第2の表現を第2のユーザーインターフェース領域に表示し、仮想オブジェクトの第3の表現を1つ以上のカメラの視野の表現とともに表示する、例示的なユーザーインターフェースを示す図である。A first representation of the virtual object is displayed in the first user interface area, a second representation of the virtual object is displayed in the second user interface area, and a third representation of the virtual object according to some embodiments. FIG. 3 is an illustration of an example user interface that displays an image along with a representation of the field of view of one or more cameras.

いくつかの実施形態による、アイテムが仮想三次元オブジェクトに対応していることを示す視覚的な指示とともにアイテムを表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface displaying an item with a visual indication that the item corresponds to a virtual three-dimensional object, according to some embodiments. いくつかの実施形態による、アイテムが仮想三次元オブジェクトに対応していることを示す視覚的な指示とともにアイテムを表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface displaying an item with a visual indication that the item corresponds to a virtual three-dimensional object, according to some embodiments. いくつかの実施形態による、アイテムが仮想三次元オブジェクトに対応していることを示す視覚的な指示とともにアイテムを表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface displaying an item with a visual indication that the item corresponds to a virtual three-dimensional object, according to some embodiments. いくつかの実施形態による、アイテムが仮想三次元オブジェクトに対応していることを示す視覚的な指示とともにアイテムを表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface displaying an item with a visual indication that the item corresponds to a virtual three-dimensional object, according to some embodiments. いくつかの実施形態による、アイテムが仮想三次元オブジェクトに対応していることを示す視覚的な指示とともにアイテムを表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface displaying an item with a visual indication that the item corresponds to a virtual three-dimensional object, according to some embodiments. いくつかの実施形態による、アイテムが仮想三次元オブジェクトに対応していることを示す視覚的な指示とともにアイテムを表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface displaying an item with a visual indication that the item corresponds to a virtual three-dimensional object, according to some embodiments. いくつかの実施形態による、アイテムが仮想三次元オブジェクトに対応していることを示す視覚的な指示とともにアイテムを表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface displaying an item with a visual indication that the item corresponds to a virtual three-dimensional object, according to some embodiments. いくつかの実施形態による、アイテムが仮想三次元オブジェクトに対応していることを示す視覚的な指示とともにアイテムを表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface displaying an item with a visual indication that the item corresponds to a virtual three-dimensional object, according to some embodiments. いくつかの実施形態による、アイテムが仮想三次元オブジェクトに対応していることを示す視覚的な指示とともにアイテムを表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface displaying an item with a visual indication that the item corresponds to a virtual three-dimensional object, according to some embodiments. いくつかの実施形態による、アイテムが仮想三次元オブジェクトに対応していることを示す視覚的な指示とともにアイテムを表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface displaying an item with a visual indication that the item corresponds to a virtual three-dimensional object, according to some embodiments. いくつかの実施形態による、アイテムが仮想三次元オブジェクトに対応していることを示す視覚的な指示とともにアイテムを表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface displaying an item with a visual indication that the item corresponds to a virtual three-dimensional object, according to some embodiments. いくつかの実施形態による、アイテムが仮想三次元オブジェクトに対応していることを示す視覚的な指示とともにアイテムを表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface displaying an item with a visual indication that the item corresponds to a virtual three-dimensional object, according to some embodiments. いくつかの実施形態による、アイテムが仮想三次元オブジェクトに対応していることを示す視覚的な指示とともにアイテムを表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface displaying an item with a visual indication that the item corresponds to a virtual three-dimensional object, according to some embodiments. いくつかの実施形態による、アイテムが仮想三次元オブジェクトに対応していることを示す視覚的な指示とともにアイテムを表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface displaying an item with a visual indication that the item corresponds to a virtual three-dimensional object, according to some embodiments. いくつかの実施形態による、アイテムが仮想三次元オブジェクトに対応していることを示す視覚的な指示とともにアイテムを表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface displaying an item with a visual indication that the item corresponds to a virtual three-dimensional object, according to some embodiments. いくつかの実施形態による、アイテムが仮想三次元オブジェクトに対応していることを示す視覚的な指示とともにアイテムを表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface displaying an item with a visual indication that the item corresponds to a virtual three-dimensional object, according to some embodiments. いくつかの実施形態による、アイテムが仮想三次元オブジェクトに対応していることを示す視覚的な指示とともにアイテムを表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface displaying an item with a visual indication that the item corresponds to a virtual three-dimensional object, according to some embodiments. いくつかの実施形態による、アイテムが仮想三次元オブジェクトに対応していることを示す視覚的な指示とともにアイテムを表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface displaying an item with a visual indication that the item corresponds to a virtual three-dimensional object, according to some embodiments.

いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示するプロセスを示す流れ図である。3 is a flow diagram illustrating a process for displaying a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area, according to some embodiments. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示するプロセスを示す流れ図である。3 is a flow diagram illustrating a process for displaying a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area, according to some embodiments. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示するプロセスを示す流れ図である。3 is a flow diagram illustrating a process for displaying a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area, according to some embodiments. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示するプロセスを示す流れ図である。3 is a flow diagram illustrating a process for displaying a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area, according to some embodiments. いくつかの実施形態による、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示するプロセスを示す流れ図である。3 is a flow diagram illustrating a process for displaying a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area, according to some embodiments.

いくつかの実施形態による、仮想オブジェクトの第1の表現を第1のユーザーインターフェース領域に表示し、仮想オブジェクトの第2の表現を第2のユーザーインターフェース領域に表示し、仮想オブジェクトの第3の表現を1つ以上のカメラの視野の表現とともに表示するプロセスを示す流れ図である。A first representation of the virtual object is displayed in the first user interface area, a second representation of the virtual object is displayed in the second user interface area, and a third representation of the virtual object according to some embodiments. 2 is a flowchart illustrating a process for displaying an image along with a representation of the field of view of one or more cameras. いくつかの実施形態による、仮想オブジェクトの第1の表現を第1のユーザーインターフェース領域に表示し、仮想オブジェクトの第2の表現を第2のユーザーインターフェース領域に表示し、仮想オブジェクトの第3の表現を1つ以上のカメラの視野の表現とともに表示するプロセスを示す流れ図である。A first representation of the virtual object is displayed in the first user interface area, a second representation of the virtual object is displayed in the second user interface area, and a third representation of the virtual object according to some embodiments. 2 is a flowchart illustrating a process for displaying an image along with a representation of the field of view of one or more cameras. いくつかの実施形態による、仮想オブジェクトの第1の表現を第1のユーザーインターフェース領域に表示し、仮想オブジェクトの第2の表現を第2のユーザーインターフェース領域に表示し、仮想オブジェクトの第3の表現を1つ以上のカメラの視野の表現とともに表示するプロセスを示す流れ図である。A first representation of the virtual object is displayed in the first user interface area, a second representation of the virtual object is displayed in the second user interface area, and a third representation of the virtual object according to some embodiments. 2 is a flowchart illustrating a process for displaying an image along with a representation of the field of view of one or more cameras. いくつかの実施形態による、仮想オブジェクトの第1の表現を第1のユーザーインターフェース領域に表示し、仮想オブジェクトの第2の表現を第2のユーザーインターフェース領域に表示し、仮想オブジェクトの第3の表現を1つ以上のカメラの視野の表現とともに表示するプロセスを示す流れ図である。A first representation of the virtual object is displayed in the first user interface area, a second representation of the virtual object is displayed in the second user interface area, and a third representation of the virtual object according to some embodiments. 2 is a flowchart illustrating a process for displaying an image along with a representation of the field of view of one or more cameras.

いくつかの実施形態による、アイテムが仮想三次元オブジェクトに対応していることを示す視覚的な指示とともにアイテムを表示するプロセスを示す流れ図である。3 is a flowchart illustrating a process for displaying an item with a visual indication that the item corresponds to a virtual three-dimensional object, according to some embodiments. いくつかの実施形態による、アイテムが仮想三次元オブジェクトに対応していることを示す視覚的な指示とともにアイテムを表示するプロセスを示す流れ図である。3 is a flowchart illustrating a process for displaying an item with a visual indication that the item corresponds to a virtual three-dimensional object, according to some embodiments. いくつかの実施形態による、アイテムが仮想三次元オブジェクトに対応していることを示す視覚的な指示とともにアイテムを表示するプロセスを示す流れ図である。3 is a flowchart illustrating a process for displaying an item with a visual indication that the item corresponds to a virtual three-dimensional object, according to some embodiments. いくつかの実施形態による、アイテムが仮想三次元オブジェクトに対応していることを示す視覚的な指示とともにアイテムを表示するプロセスを示す流れ図である。3 is a flowchart illustrating a process for displaying an item with a visual indication that the item corresponds to a virtual three-dimensional object, according to some embodiments.

いくつかの実施形態による、オブジェクト配置基準が満たされるかどうかに応じて仮想オブジェクトを異なる視覚特性で表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that displays virtual objects with different visual characteristics depending on whether object placement criteria are met, according to some embodiments. いくつかの実施形態による、オブジェクト配置基準が満たされるかどうかに応じて仮想オブジェクトを異なる視覚特性で表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that displays virtual objects with different visual characteristics depending on whether object placement criteria are met, according to some embodiments. いくつかの実施形態による、オブジェクト配置基準が満たされるかどうかに応じて仮想オブジェクトを異なる視覚特性で表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that displays virtual objects with different visual characteristics depending on whether object placement criteria are met, according to some embodiments. いくつかの実施形態による、オブジェクト配置基準が満たされるかどうかに応じて仮想オブジェクトを異なる視覚特性で表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that displays virtual objects with different visual characteristics depending on whether object placement criteria are met, according to some embodiments. いくつかの実施形態による、オブジェクト配置基準が満たされるかどうかに応じて仮想オブジェクトを異なる視覚特性で表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that displays virtual objects with different visual characteristics depending on whether object placement criteria are met, according to some embodiments. いくつかの実施形態による、オブジェクト配置基準が満たされるかどうかに応じて仮想オブジェクトを異なる視覚特性で表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that displays virtual objects with different visual characteristics depending on whether object placement criteria are met, according to some embodiments. いくつかの実施形態による、オブジェクト配置基準が満たされるかどうかに応じて仮想オブジェクトを異なる視覚特性で表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that displays virtual objects with different visual characteristics depending on whether object placement criteria are met, according to some embodiments. いくつかの実施形態による、オブジェクト配置基準が満たされるかどうかに応じて仮想オブジェクトを異なる視覚特性で表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that displays virtual objects with different visual characteristics depending on whether object placement criteria are met, according to some embodiments. いくつかの実施形態による、オブジェクト配置基準が満たされるかどうかに応じて仮想オブジェクトを異なる視覚特性で表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that displays virtual objects with different visual characteristics depending on whether object placement criteria are met, according to some embodiments. いくつかの実施形態による、オブジェクト配置基準が満たされるかどうかに応じて仮想オブジェクトを異なる視覚特性で表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that displays virtual objects with different visual characteristics depending on whether object placement criteria are met, according to some embodiments. いくつかの実施形態による、オブジェクト配置基準が満たされるかどうかに応じて仮想オブジェクトを異なる視覚特性で表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that displays virtual objects with different visual characteristics depending on whether object placement criteria are met, according to some embodiments. いくつかの実施形態による、オブジェクト配置基準が満たされるかどうかに応じて仮想オブジェクトを異なる視覚特性で表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that displays virtual objects with different visual characteristics depending on whether object placement criteria are met, according to some embodiments. いくつかの実施形態による、オブジェクト配置基準が満たされるかどうかに応じて仮想オブジェクトを異なる視覚特性で表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that displays virtual objects with different visual characteristics depending on whether object placement criteria are met, according to some embodiments. いくつかの実施形態による、オブジェクト配置基準が満たされるかどうかに応じて仮想オブジェクトを異なる視覚特性で表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that displays virtual objects with different visual characteristics depending on whether object placement criteria are met, according to some embodiments. いくつかの実施形態による、オブジェクト配置基準が満たされるかどうかに応じて仮想オブジェクトを異なる視覚特性で表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that displays virtual objects with different visual characteristics depending on whether object placement criteria are met, according to some embodiments. いくつかの実施形態による、オブジェクト配置基準が満たされるかどうかに応じて仮想オブジェクトを異なる視覚特性で表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that displays virtual objects with different visual characteristics depending on whether object placement criteria are met, according to some embodiments. いくつかの実施形態による、オブジェクト配置基準が満たされるかどうかに応じて仮想オブジェクトを異なる視覚特性で表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that displays virtual objects with different visual characteristics depending on whether object placement criteria are met, according to some embodiments. いくつかの実施形態による、オブジェクト配置基準が満たされるかどうかに応じて仮想オブジェクトを異なる視覚特性で表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that displays virtual objects with different visual characteristics depending on whether object placement criteria are met, according to some embodiments. いくつかの実施形態による、オブジェクト配置基準が満たされるかどうかに応じて仮想オブジェクトを異なる視覚特性で表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that displays virtual objects with different visual characteristics depending on whether object placement criteria are met, according to some embodiments. いくつかの実施形態による、オブジェクト配置基準が満たされるかどうかに応じて仮想オブジェクトを異なる視覚特性で表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that displays virtual objects with different visual characteristics depending on whether object placement criteria are met, according to some embodiments. いくつかの実施形態による、オブジェクト配置基準が満たされるかどうかに応じて仮想オブジェクトを異なる視覚特性で表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that displays virtual objects with different visual characteristics depending on whether object placement criteria are met, according to some embodiments. いくつかの実施形態による、オブジェクト配置基準が満たされるかどうかに応じて仮想オブジェクトを異なる視覚特性で表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that displays virtual objects with different visual characteristics depending on whether object placement criteria are met, according to some embodiments.

いくつかの実施形態による、デバイスの1つ以上のカメラの移動にしたがって動的にアニメーション化された較正ユーザーインターフェースオブジェクトを表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface displaying dynamically animated calibration user interface objects according to movement of one or more cameras of a device, according to some embodiments. いくつかの実施形態による、デバイスの1つ以上のカメラの移動にしたがって動的にアニメーション化された較正ユーザーインターフェースオブジェクトを表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface displaying dynamically animated calibration user interface objects according to movement of one or more cameras of a device, according to some embodiments. いくつかの実施形態による、デバイスの1つ以上のカメラの移動にしたがって動的にアニメーション化された較正ユーザーインターフェースオブジェクトを表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface displaying dynamically animated calibration user interface objects according to movement of one or more cameras of a device, according to some embodiments. いくつかの実施形態による、デバイスの1つ以上のカメラの移動にしたがって動的にアニメーション化された較正ユーザーインターフェースオブジェクトを表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface displaying dynamically animated calibration user interface objects according to movement of one or more cameras of a device, according to some embodiments. いくつかの実施形態による、デバイスの1つ以上のカメラの移動にしたがって動的にアニメーション化された較正ユーザーインターフェースオブジェクトを表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface displaying dynamically animated calibration user interface objects according to movement of one or more cameras of a device, according to some embodiments. いくつかの実施形態による、デバイスの1つ以上のカメラの移動にしたがって動的にアニメーション化された較正ユーザーインターフェースオブジェクトを表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface displaying dynamically animated calibration user interface objects according to movement of one or more cameras of a device, according to some embodiments. いくつかの実施形態による、デバイスの1つ以上のカメラの移動にしたがって動的にアニメーション化された較正ユーザーインターフェースオブジェクトを表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface displaying dynamically animated calibration user interface objects according to movement of one or more cameras of a device, according to some embodiments. いくつかの実施形態による、デバイスの1つ以上のカメラの移動にしたがって動的にアニメーション化された較正ユーザーインターフェースオブジェクトを表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface displaying dynamically animated calibration user interface objects according to movement of one or more cameras of a device, according to some embodiments. いくつかの実施形態による、デバイスの1つ以上のカメラの移動にしたがって動的にアニメーション化された較正ユーザーインターフェースオブジェクトを表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface displaying dynamically animated calibration user interface objects according to movement of one or more cameras of a device, according to some embodiments. いくつかの実施形態による、デバイスの1つ以上のカメラの移動にしたがって動的にアニメーション化された較正ユーザーインターフェースオブジェクトを表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface displaying dynamically animated calibration user interface objects according to movement of one or more cameras of a device, according to some embodiments. いくつかの実施形態による、デバイスの1つ以上のカメラの移動にしたがって動的にアニメーション化された較正ユーザーインターフェースオブジェクトを表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface displaying dynamically animated calibration user interface objects according to movement of one or more cameras of a device, according to some embodiments. いくつかの実施形態による、デバイスの1つ以上のカメラの移動にしたがって動的にアニメーション化された較正ユーザーインターフェースオブジェクトを表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface displaying dynamically animated calibration user interface objects according to movement of one or more cameras of a device, according to some embodiments. いくつかの実施形態による、デバイスの1つ以上のカメラの移動にしたがって動的にアニメーション化された較正ユーザーインターフェースオブジェクトを表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface displaying dynamically animated calibration user interface objects according to movement of one or more cameras of a device, according to some embodiments. いくつかの実施形態による、デバイスの1つ以上のカメラの移動にしたがって動的にアニメーション化された較正ユーザーインターフェースオブジェクトを表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface displaying dynamically animated calibration user interface objects according to movement of one or more cameras of a device, according to some embodiments. いくつかの実施形態による、デバイスの1つ以上のカメラの移動にしたがって動的にアニメーション化された較正ユーザーインターフェースオブジェクトを表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface displaying dynamically animated calibration user interface objects according to movement of one or more cameras of a device, according to some embodiments. いくつかの実施形態による、デバイスの1つ以上のカメラの移動にしたがって動的にアニメーション化された較正ユーザーインターフェースオブジェクトを表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface displaying dynamically animated calibration user interface objects according to movement of one or more cameras of a device, according to some embodiments. いくつかの実施形態による、デバイスの1つ以上のカメラの移動にしたがって動的にアニメーション化された較正ユーザーインターフェースオブジェクトを表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface displaying dynamically animated calibration user interface objects according to movement of one or more cameras of a device, according to some embodiments. いくつかの実施形態による、デバイスの1つ以上のカメラの移動にしたがって動的にアニメーション化された較正ユーザーインターフェースオブジェクトを表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface displaying dynamically animated calibration user interface objects according to movement of one or more cameras of a device, according to some embodiments. いくつかの実施形態による、デバイスの1つ以上のカメラの移動にしたがって動的にアニメーション化された較正ユーザーインターフェースオブジェクトを表示する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface displaying dynamically animated calibration user interface objects according to movement of one or more cameras of a device, according to some embodiments.

いくつかの実施形態による、軸の周りの仮想オブジェクトの回転を制約する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface for constraining rotation of a virtual object about an axis, according to some embodiments. いくつかの実施形態による、軸の周りの仮想オブジェクトの回転を制約する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface for constraining rotation of a virtual object about an axis, according to some embodiments. いくつかの実施形態による、軸の周りの仮想オブジェクトの回転を制約する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface for constraining rotation of a virtual object about an axis, according to some embodiments. いくつかの実施形態による、軸の周りの仮想オブジェクトの回転を制約する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface for constraining rotation of a virtual object about an axis, according to some embodiments. いくつかの実施形態による、軸の周りの仮想オブジェクトの回転を制約する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface for constraining rotation of a virtual object about an axis, according to some embodiments. いくつかの実施形態による、軸の周りの仮想オブジェクトの回転を制約する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface for constraining rotation of a virtual object about an axis, according to some embodiments. いくつかの実施形態による、軸の周りの仮想オブジェクトの回転を制約する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface for constraining rotation of a virtual object about an axis, according to some embodiments. いくつかの実施形態による、軸の周りの仮想オブジェクトの回転を制約する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface for constraining rotation of a virtual object about an axis, according to some embodiments. いくつかの実施形態による、軸の周りの仮想オブジェクトの回転を制約する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface for constraining rotation of a virtual object about an axis, according to some embodiments. いくつかの実施形態による、軸の周りの仮想オブジェクトの回転を制約する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface for constraining rotation of a virtual object about an axis, according to some embodiments. いくつかの実施形態による、軸の周りの仮想オブジェクトの回転を制約する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface for constraining rotation of a virtual object about an axis, according to some embodiments. いくつかの実施形態による、軸の周りの仮想オブジェクトの回転を制約する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface for constraining rotation of a virtual object about an axis, according to some embodiments. いくつかの実施形態による、軸の周りの仮想オブジェクトの回転を制約する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface for constraining rotation of a virtual object about an axis, according to some embodiments.

いくつかの実施形態による、第1の閾値移動大きさが第1のオブジェクト操作挙動について満足されたとの判定にしたがって、第2のオブジェクト操作挙動に必要な第2の閾値移動大きさを増大させる例示的なユーザーインターフェースを示す図である。An example of increasing a second threshold movement magnitude required for a second object manipulation behavior in accordance with a determination that a first threshold movement magnitude is satisfied for a first object manipulation behavior, according to some embodiments. FIG. 2 is a diagram showing a typical user interface. いくつかの実施形態による、第1の閾値移動大きさが第1のオブジェクト操作挙動について満足されたとの判定にしたがって、第2のオブジェクト操作挙動に必要な第2の閾値移動大きさを増大させる例示的なユーザーインターフェースを示す図である。An example of increasing a second threshold movement magnitude required for a second object manipulation behavior in accordance with a determination that a first threshold movement magnitude is satisfied for a first object manipulation behavior, according to some embodiments. FIG. 2 is a diagram showing a typical user interface. いくつかの実施形態による、第1の閾値移動大きさが第1のオブジェクト操作挙動について満足されたとの判定にしたがって、第2のオブジェクト操作挙動に必要な第2の閾値移動大きさを増大させる例示的なユーザーインターフェースを示す図である。An example of increasing a second threshold movement magnitude required for a second object manipulation behavior in accordance with a determination that a first threshold movement magnitude is satisfied for a first object manipulation behavior, according to some embodiments. FIG. 2 is a diagram showing a typical user interface. いくつかの実施形態による、第1の閾値移動大きさが第1のオブジェクト操作挙動について満足されたとの判定にしたがって、第2のオブジェクト操作挙動に必要な第2の閾値移動大きさを増大させる例示的なユーザーインターフェースを示す図である。An example of increasing a second threshold movement magnitude required for a second object manipulation behavior in accordance with a determination that a first threshold movement magnitude is satisfied for a first object manipulation behavior, according to some embodiments. FIG. 2 is a diagram showing a typical user interface. いくつかの実施形態による、第1の閾値移動大きさが第1のオブジェクト操作挙動について満足されたとの判定にしたがって、第2のオブジェクト操作挙動に必要な第2の閾値移動大きさを増大させる例示的なユーザーインターフェースを示す図である。An example of increasing a second threshold movement magnitude required for a second object manipulation behavior in accordance with a determination that a first threshold movement magnitude is satisfied for a first object manipulation behavior, according to some embodiments. FIG. 2 is a diagram showing a typical user interface. いくつかの実施形態による、第1の閾値移動大きさが第1のオブジェクト操作挙動について満足されたとの判定にしたがって、第2のオブジェクト操作挙動に必要な第2の閾値移動大きさを増大させる例示的なユーザーインターフェースを示す図である。An example of increasing a second threshold movement magnitude required for a second object manipulation behavior in accordance with a determination that a first threshold movement magnitude is satisfied for a first object manipulation behavior, according to some embodiments. FIG. 2 is a diagram showing a typical user interface. いくつかの実施形態による、第1の閾値移動大きさが第1のオブジェクト操作挙動について満足されたとの判定にしたがって、第2のオブジェクト操作挙動に必要な第2の閾値移動大きさを増大させる例示的なユーザーインターフェースを示す図である。An example of increasing a second threshold movement magnitude required for a second object manipulation behavior in accordance with a determination that a first threshold movement magnitude is satisfied for a first object manipulation behavior, according to some embodiments. FIG. 2 is a diagram showing a typical user interface. いくつかの実施形態による、第1の閾値移動大きさが第1のオブジェクト操作挙動について満足されたとの判定にしたがって、第2のオブジェクト操作挙動に必要な第2の閾値移動大きさを増大させる例示的なユーザーインターフェースを示す図である。An example of increasing a second threshold movement magnitude required for a second object manipulation behavior in accordance with a determination that a first threshold movement magnitude is satisfied for a first object manipulation behavior, according to some embodiments. FIG. 2 is a diagram showing a typical user interface. いくつかの実施形態による、第1の閾値移動大きさが第1のオブジェクト操作挙動について満足されたとの判定にしたがって、第2のオブジェクト操作挙動に必要な第2の閾値移動大きさを増大させる例示的なユーザーインターフェースを示す図である。An example of increasing a second threshold movement magnitude required for a second object manipulation behavior in accordance with a determination that a first threshold movement magnitude is satisfied for a first object manipulation behavior, according to some embodiments. FIG. 2 is a diagram showing a typical user interface. いくつかの実施形態による、第1の閾値移動大きさが第1のオブジェクト操作挙動について満足されたとの判定にしたがって、第2のオブジェクト操作挙動に必要な第2の閾値移動大きさを増大させる例示的なユーザーインターフェースを示す図である。An example of increasing a second threshold movement magnitude required for a second object manipulation behavior in accordance with a determination that a first threshold movement magnitude is satisfied for a first object manipulation behavior, according to some embodiments. FIG. 2 is a diagram showing a typical user interface. いくつかの実施形態による、第1の閾値移動大きさが第1のオブジェクト操作挙動について満足されたとの判定にしたがって、第2のオブジェクト操作挙動に必要な第2の閾値移動大きさを増大させる例示的なユーザーインターフェースを示す図である。An example of increasing a second threshold movement magnitude required for a second object manipulation behavior in accordance with a determination that a first threshold movement magnitude is satisfied for a first object manipulation behavior, according to some embodiments. FIG. 2 is a diagram showing a typical user interface. いくつかの実施形態による、第1の閾値移動大きさが第1のオブジェクト操作挙動について満足されたとの判定にしたがって、第2のオブジェクト操作挙動に必要な第2の閾値移動大きさを増大させる例示的なユーザーインターフェースを示す図である。An example of increasing a second threshold movement magnitude required for a second object manipulation behavior in accordance with a determination that a first threshold movement magnitude is satisfied for a first object manipulation behavior, according to some embodiments. FIG. 2 is a diagram showing a typical user interface. いくつかの実施形態による、第1の閾値移動大きさが第1のオブジェクト操作挙動について満足されたとの判定にしたがって、第2のオブジェクト操作挙動に必要な第2の閾値移動大きさを増大させる例示的なユーザーインターフェースを示す図である。An example of increasing a second threshold movement magnitude required for a second object manipulation behavior in accordance with a determination that a first threshold movement magnitude is satisfied for a first object manipulation behavior, according to some embodiments. FIG. 2 is a diagram showing a typical user interface. いくつかの実施形態による、第1の閾値移動大きさが第1のオブジェクト操作挙動について満足されたとの判定にしたがって、第2のオブジェクト操作挙動に必要な第2の閾値移動大きさを増大させる例示的なユーザーインターフェースを示す図である。An example of increasing a second threshold movement magnitude required for a second object manipulation behavior in accordance with a determination that a first threshold movement magnitude is satisfied for a first object manipulation behavior, according to some embodiments. FIG. 2 is a diagram showing a typical user interface. いくつかの実施形態による、第1の閾値移動大きさが第1のオブジェクト操作挙動について満足されたとの判定にしたがって、第2のオブジェクト操作挙動に必要な第2の閾値移動大きさを増大させる例示的なユーザーインターフェースを示す図である。An example of increasing a second threshold movement magnitude required for a second object manipulation behavior in accordance with a determination that a first threshold movement magnitude is satisfied for a first object manipulation behavior, according to some embodiments. FIG. 2 is a diagram showing a typical user interface. いくつかの実施形態による、第1の閾値移動大きさが第1のオブジェクト操作挙動について満足されたとの判定にしたがって、第2のオブジェクト操作挙動に必要な第2の閾値移動大きさを増大させる例示的なユーザーインターフェースを示す図である。An example of increasing a second threshold movement magnitude required for a second object manipulation behavior in accordance with a determination that a first threshold movement magnitude is satisfied for a first object manipulation behavior, according to some embodiments. FIG. 2 is a diagram showing a typical user interface. いくつかの実施形態による、第1の閾値移動大きさが第1のオブジェクト操作挙動について満足されたとの判定にしたがって、第2のオブジェクト操作挙動に必要な第2の閾値移動大きさを増大させる例示的なユーザーインターフェースを示す図である。An example of increasing a second threshold movement magnitude required for a second object manipulation behavior in accordance with a determination that a first threshold movement magnitude is satisfied for a first object manipulation behavior, according to some embodiments. FIG. 2 is a diagram showing a typical user interface. いくつかの実施形態による、第1の閾値移動大きさが第1のオブジェクト操作挙動について満足されたとの判定にしたがって、第2のオブジェクト操作挙動に必要な第2の閾値移動大きさを増大させる例示的なユーザーインターフェースを示す図である。An example of increasing a second threshold movement magnitude required for a second object manipulation behavior in accordance with a determination that a first threshold movement magnitude is satisfied for a first object manipulation behavior, according to some embodiments. FIG. 2 is a diagram showing a typical user interface. いくつかの実施形態による、第1の閾値移動大きさが第1のオブジェクト操作挙動について満足されたとの判定にしたがって、第2のオブジェクト操作挙動に必要な第2の閾値移動大きさを増大させる例示的なユーザーインターフェースを示す図である。An example of increasing a second threshold movement magnitude required for a second object manipulation behavior in accordance with a determination that a first threshold movement magnitude is satisfied for a first object manipulation behavior, according to some embodiments. FIG. 2 is a diagram showing a typical user interface. いくつかの実施形態による、第1の閾値移動大きさが第1のオブジェクト操作挙動について満足されたとの判定にしたがって、第2のオブジェクト操作挙動に必要な第2の閾値移動大きさを増大させる例示的なユーザーインターフェースを示す図である。An example of increasing a second threshold movement magnitude required for a second object manipulation behavior in accordance with a determination that a first threshold movement magnitude is satisfied for a first object manipulation behavior, according to some embodiments. FIG. 2 is a diagram showing a typical user interface. いくつかの実施形態による、第1の閾値移動大きさが第1のオブジェクト操作挙動について満足されたとの判定にしたがって、第2のオブジェクト操作挙動に必要な第2の閾値移動大きさを増大させる例示的なユーザーインターフェースを示す図である。An example of increasing a second threshold movement magnitude required for a second object manipulation behavior in accordance with a determination that a first threshold movement magnitude is satisfied for a first object manipulation behavior, according to some embodiments. FIG. 2 is a diagram showing a typical user interface. いくつかの実施形態による、第1の閾値移動大きさが第1のオブジェクト操作挙動について満足されたとの判定にしたがって、第2のオブジェクト操作挙動に必要な第2の閾値移動大きさを増大させる例示的なユーザーインターフェースを示す図である。An example of increasing a second threshold movement magnitude required for a second object manipulation behavior in accordance with a determination that a first threshold movement magnitude is satisfied for a first object manipulation behavior, according to some embodiments. FIG. 2 is a diagram showing a typical user interface. いくつかの実施形態による、第1の閾値移動大きさが第1のオブジェクト操作挙動について満足されたとの判定にしたがって、第2のオブジェクト操作挙動に必要な第2の閾値移動大きさを増大させる例示的なユーザーインターフェースを示す図である。An example of increasing a second threshold movement magnitude required for a second object manipulation behavior in accordance with a determination that a first threshold movement magnitude is satisfied for a first object manipulation behavior, according to some embodiments. FIG. 2 is a diagram showing a typical user interface. いくつかの実施形態による、第1の閾値移動大きさが第1のオブジェクト操作挙動について満足されたとの判定にしたがって、第2のオブジェクト操作挙動に必要な第2の閾値移動大きさを増大させる例示的なユーザーインターフェースを示す図である。An example of increasing a second threshold movement magnitude required for a second object manipulation behavior in accordance with a determination that a first threshold movement magnitude is satisfied for a first object manipulation behavior, according to some embodiments. FIG. 2 is a diagram showing a typical user interface. いくつかの実施形態による、第1の閾値移動大きさが第1のオブジェクト操作挙動について満足されたとの判定にしたがって、第2のオブジェクト操作挙動に必要な第2の閾値移動大きさを増大させる例示的なユーザーインターフェースを示す図である。An example of increasing a second threshold movement magnitude required for a second object manipulation behavior in accordance with a determination that a first threshold movement magnitude is satisfied for a first object manipulation behavior, according to some embodiments. FIG. 2 is a diagram showing a typical user interface. いくつかの実施形態による、第1の閾値移動大きさが第1のオブジェクト操作挙動について満足されたとの判定にしたがって、第2のオブジェクト操作挙動に必要な第2の閾値移動大きさを増大させる例示的なユーザーインターフェースを示す図である。An example of increasing a second threshold movement magnitude required for a second object manipulation behavior in accordance with a determination that a first threshold movement magnitude is satisfied for a first object manipulation behavior, according to some embodiments. FIG. 2 is a diagram showing a typical user interface.

いくつかの実施形態による、第1の閾値移動大きさが第1のオブジェクト操作挙動について満足されたとの判定にしたがって、第2のオブジェクト操作挙動に必要な第2の閾値移動大きさを増大させる動作を説明する流れ図である。an act of increasing a second threshold movement magnitude required for the second object manipulation behavior in accordance with a determination that the first threshold movement magnitude is satisfied for the first object manipulation behavior, according to some embodiments; It is a flow chart explaining. いくつかの実施形態による、第1の閾値移動大きさが第1のオブジェクト操作挙動について満足されたとの判定にしたがって、第2のオブジェクト操作挙動に必要な第2の閾値移動大きさを増大させる動作を説明する流れ図である。an act of increasing a second threshold movement magnitude required for the second object manipulation behavior in accordance with a determination that the first threshold movement magnitude is satisfied for the first object manipulation behavior, according to some embodiments; It is a flow chart explaining. いくつかの実施形態による、第1の閾値移動大きさが第1のオブジェクト操作挙動について満足されたとの判定にしたがって、第2のオブジェクト操作挙動に必要な第2の閾値移動大きさを増大させる動作を説明する流れ図である。an act of increasing a second threshold movement magnitude required for the second object manipulation behavior in accordance with a determination that the first threshold movement magnitude is satisfied for the first object manipulation behavior, according to some embodiments; It is a flow chart explaining. いくつかの実施形態による、第1の閾値移動大きさが第1のオブジェクト操作挙動について満足されたとの判定にしたがって、第2のオブジェクト操作挙動に必要な第2の閾値移動大きさを増大させる動作を説明する流れ図である。an act of increasing a second threshold movement magnitude required for the second object manipulation behavior in accordance with a determination that the first threshold movement magnitude is satisfied for the first object manipulation behavior, according to some embodiments; It is a flow chart explaining.

いくつかの実施形態による、デバイスの移動が仮想オブジェクトを1つ以上のデバイスカメラの表示視野の外部に移動させるとの判定にしたがって音声警報を生成する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that generates an audio alert in accordance with a determination that movement of the device causes a virtual object to move outside of the viewing field of view of one or more device cameras, according to some embodiments. いくつかの実施形態による、デバイスの移動が仮想オブジェクトを1つ以上のデバイスカメラの表示視野の外部に移動させるとの判定にしたがって音声警報を生成する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that generates an audio alert in accordance with a determination that movement of the device causes a virtual object to move outside of the viewing field of view of one or more device cameras, according to some embodiments. いくつかの実施形態による、デバイスの移動が仮想オブジェクトを1つ以上のデバイスカメラの表示視野の外部に移動させるとの判定にしたがって音声警報を生成する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that generates an audio alert in accordance with a determination that movement of the device causes a virtual object to move outside of the viewing field of view of one or more device cameras, according to some embodiments. いくつかの実施形態による、デバイスの移動が仮想オブジェクトを1つ以上のデバイスカメラの表示視野の外部に移動させるとの判定にしたがって音声警報を生成する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that generates an audio alert in accordance with a determination that movement of the device causes a virtual object to move outside of the viewing field of view of one or more device cameras, according to some embodiments. いくつかの実施形態による、デバイスの移動が仮想オブジェクトを1つ以上のデバイスカメラの表示視野の外部に移動させるとの判定にしたがって音声警報を生成する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that generates an audio alert in accordance with a determination that movement of the device causes a virtual object to move outside of the viewing field of view of one or more device cameras, according to some embodiments. いくつかの実施形態による、デバイスの移動が仮想オブジェクトを1つ以上のデバイスカメラの表示視野の外部に移動させるとの判定にしたがって音声警報を生成する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that generates an audio alert in accordance with a determination that movement of the device causes a virtual object to move outside of the viewing field of view of one or more device cameras, according to some embodiments. いくつかの実施形態による、デバイスの移動が仮想オブジェクトを1つ以上のデバイスカメラの表示視野の外部に移動させるとの判定にしたがって音声警報を生成する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that generates an audio alert in accordance with a determination that movement of the device causes a virtual object to move outside of the viewing field of view of one or more device cameras, according to some embodiments. いくつかの実施形態による、デバイスの移動が仮想オブジェクトを1つ以上のデバイスカメラの表示視野の外部に移動させるとの判定にしたがって音声警報を生成する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that generates an audio alert in accordance with a determination that movement of the device causes a virtual object to move outside of the viewing field of view of one or more device cameras, according to some embodiments. いくつかの実施形態による、デバイスの移動が仮想オブジェクトを1つ以上のデバイスカメラの表示視野の外部に移動させるとの判定にしたがって音声警報を生成する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that generates an audio alert in accordance with a determination that movement of the device causes a virtual object to move outside of the viewing field of view of one or more device cameras, according to some embodiments. いくつかの実施形態による、デバイスの移動が仮想オブジェクトを1つ以上のデバイスカメラの表示視野の外部に移動させるとの判定にしたがって音声警報を生成する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that generates an audio alert in accordance with a determination that movement of the device causes a virtual object to move outside of the viewing field of view of one or more device cameras, according to some embodiments. いくつかの実施形態による、デバイスの移動が仮想オブジェクトを1つ以上のデバイスカメラの表示視野の外部に移動させるとの判定にしたがって音声警報を生成する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that generates an audio alert in accordance with a determination that movement of the device causes a virtual object to move outside of the viewing field of view of one or more device cameras, according to some embodiments. いくつかの実施形態による、デバイスの移動が仮想オブジェクトを1つ以上のデバイスカメラの表示視野の外部に移動させるとの判定にしたがって音声警報を生成する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that generates an audio alert in accordance with a determination that movement of the device causes a virtual object to move outside of the viewing field of view of one or more device cameras, according to some embodiments. いくつかの実施形態による、デバイスの移動が仮想オブジェクトを1つ以上のデバイスカメラの表示視野の外部に移動させるとの判定にしたがって音声警報を生成する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that generates an audio alert in accordance with a determination that movement of the device causes a virtual object to move outside of the viewing field of view of one or more device cameras, according to some embodiments. いくつかの実施形態による、デバイスの移動が仮想オブジェクトを1つ以上のデバイスカメラの表示視野の外部に移動させるとの判定にしたがって音声警報を生成する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that generates an audio alert in accordance with a determination that movement of the device causes a virtual object to move outside of the viewing field of view of one or more device cameras, according to some embodiments. いくつかの実施形態による、デバイスの移動が仮想オブジェクトを1つ以上のデバイスカメラの表示視野の外部に移動させるとの判定にしたがって音声警報を生成する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that generates an audio alert in accordance with a determination that movement of the device causes a virtual object to move outside of the viewing field of view of one or more device cameras, according to some embodiments. いくつかの実施形態による、デバイスの移動が仮想オブジェクトを1つ以上のデバイスカメラの表示視野の外部に移動させるとの判定にしたがって音声警報を生成する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that generates an audio alert in accordance with a determination that movement of the device causes a virtual object to move outside of the viewing field of view of one or more device cameras, according to some embodiments. いくつかの実施形態による、デバイスの移動が仮想オブジェクトを1つ以上のデバイスカメラの表示視野の外部に移動させるとの判定にしたがって音声警報を生成する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that generates an audio alert in accordance with a determination that movement of the device causes a virtual object to move outside of the viewing field of view of one or more device cameras, according to some embodiments. いくつかの実施形態による、デバイスの移動が仮想オブジェクトを1つ以上のデバイスカメラの表示視野の外部に移動させるとの判定にしたがって音声警報を生成する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that generates an audio alert in accordance with a determination that movement of the device causes a virtual object to move outside of the viewing field of view of one or more device cameras, according to some embodiments. いくつかの実施形態による、デバイスの移動が仮想オブジェクトを1つ以上のデバイスカメラの表示視野の外部に移動させるとの判定にしたがって音声警報を生成する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that generates an audio alert in accordance with a determination that movement of the device causes a virtual object to move outside of the viewing field of view of one or more device cameras, according to some embodiments. いくつかの実施形態による、デバイスの移動が仮想オブジェクトを1つ以上のデバイスカメラの表示視野の外部に移動させるとの判定にしたがって音声警報を生成する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that generates an audio alert in accordance with a determination that movement of the device causes a virtual object to move outside of the viewing field of view of one or more device cameras, according to some embodiments. いくつかの実施形態による、デバイスの移動が仮想オブジェクトを1つ以上のデバイスカメラの表示視野の外部に移動させるとの判定にしたがって音声警報を生成する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that generates an audio alert in accordance with a determination that movement of the device causes a virtual object to move outside of the viewing field of view of one or more device cameras, according to some embodiments. いくつかの実施形態による、デバイスの移動が仮想オブジェクトを1つ以上のデバイスカメラの表示視野の外部に移動させるとの判定にしたがって音声警報を生成する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that generates an audio alert in accordance with a determination that movement of the device causes a virtual object to move outside of the viewing field of view of one or more device cameras, according to some embodiments. いくつかの実施形態による、デバイスの移動が仮想オブジェクトを1つ以上のデバイスカメラの表示視野の外部に移動させるとの判定にしたがって音声警報を生成する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that generates an audio alert in accordance with a determination that movement of the device causes a virtual object to move outside of the viewing field of view of one or more device cameras, according to some embodiments. いくつかの実施形態による、デバイスの移動が仮想オブジェクトを1つ以上のデバイスカメラの表示視野の外部に移動させるとの判定にしたがって音声警報を生成する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that generates an audio alert in accordance with a determination that movement of the device causes a virtual object to move outside of the viewing field of view of one or more device cameras, according to some embodiments. いくつかの実施形態による、デバイスの移動が仮想オブジェクトを1つ以上のデバイスカメラの表示視野の外部に移動させるとの判定にしたがって音声警報を生成する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that generates an audio alert in accordance with a determination that movement of the device causes a virtual object to move outside of the viewing field of view of one or more device cameras, according to some embodiments. いくつかの実施形態による、デバイスの移動が仮想オブジェクトを1つ以上のデバイスカメラの表示視野の外部に移動させるとの判定にしたがって音声警報を生成する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that generates an audio alert in accordance with a determination that movement of the device causes a virtual object to move outside of the viewing field of view of one or more device cameras, according to some embodiments. いくつかの実施形態による、デバイスの移動が仮想オブジェクトを1つ以上のデバイスカメラの表示視野の外部に移動させるとの判定にしたがって音声警報を生成する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that generates an audio alert in accordance with a determination that movement of the device causes a virtual object to move outside of the viewing field of view of one or more device cameras, according to some embodiments. いくつかの実施形態による、デバイスの移動が仮想オブジェクトを1つ以上のデバイスカメラの表示視野の外部に移動させるとの判定にしたがって音声警報を生成する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that generates an audio alert in accordance with a determination that movement of a device causes a virtual object to move outside of the viewing field of view of one or more device cameras, according to some embodiments. いくつかの実施形態による、デバイスの移動が仮想オブジェクトを1つ以上のデバイスカメラの表示視野の外部に移動させるとの判定にしたがって音声警報を生成する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that generates an audio alert in accordance with a determination that movement of a device causes a virtual object to move outside of the viewing field of view of one or more device cameras, according to some embodiments. いくつかの実施形態による、デバイスの移動が仮想オブジェクトを1つ以上のデバイスカメラの表示視野の外部に移動させるとの判定にしたがって音声警報を生成する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that generates an audio alert in accordance with a determination that movement of the device causes a virtual object to move outside of the viewing field of view of one or more device cameras, according to some embodiments. いくつかの実施形態による、デバイスの移動が仮想オブジェクトを1つ以上のデバイスカメラの表示視野の外部に移動させるとの判定にしたがって音声警報を生成する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that generates an audio alert in accordance with a determination that movement of the device causes a virtual object to move outside of the viewing field of view of one or more device cameras, according to some embodiments. いくつかの実施形態による、デバイスの移動が仮想オブジェクトを1つ以上のデバイスカメラの表示視野の外部に移動させるとの判定にしたがって音声警報を生成する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that generates an audio alert in accordance with a determination that movement of a device causes a virtual object to move outside of the viewing field of view of one or more device cameras, according to some embodiments. いくつかの実施形態による、デバイスの移動が仮想オブジェクトを1つ以上のデバイスカメラの表示視野の外部に移動させるとの判定にしたがって音声警報を生成する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that generates an audio alert in accordance with a determination that movement of the device causes a virtual object to move outside of the viewing field of view of one or more device cameras, according to some embodiments. いくつかの実施形態による、デバイスの移動が仮想オブジェクトを1つ以上のデバイスカメラの表示視野の外部に移動させるとの判定にしたがって音声警報を生成する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that generates an audio alert in accordance with a determination that movement of a device causes a virtual object to move outside of the viewing field of view of one or more device cameras, according to some embodiments. いくつかの実施形態による、デバイスの移動が仮想オブジェクトを1つ以上のデバイスカメラの表示視野の外部に移動させるとの判定にしたがって音声警報を生成する例示的なユーザーインターフェースを示す図である。FIG. 3 illustrates an example user interface that generates an audio alert in accordance with a determination that movement of the device causes a virtual object to move outside of the viewing field of view of one or more device cameras, according to some embodiments.

いくつかの実施形態による、オブジェクト配置基準が満たされるかどうかに応じて仮想オブジェクトを異なる視覚特性で表示するプロセスを示す流れ図である。3 is a flowchart illustrating a process for displaying virtual objects with different visual characteristics depending on whether object placement criteria are met, according to some embodiments. いくつかの実施形態による、オブジェクト配置基準が満たされるかどうかに応じて仮想オブジェクトを異なる視覚特性で表示するプロセスを示す流れ図である。3 is a flowchart illustrating a process for displaying virtual objects with different visual characteristics depending on whether object placement criteria are met, according to some embodiments. いくつかの実施形態による、オブジェクト配置基準が満たされるかどうかに応じて仮想オブジェクトを異なる視覚特性で表示するプロセスを示す流れ図である。3 is a flowchart illustrating a process for displaying virtual objects with different visual characteristics depending on whether object placement criteria are met, according to some embodiments. いくつかの実施形態による、オブジェクト配置基準が満たされるかどうかに応じて仮想オブジェクトを異なる視覚特性で表示するプロセスを示す流れ図である。3 is a flowchart illustrating a process for displaying virtual objects with different visual characteristics depending on whether object placement criteria are met, according to some embodiments. いくつかの実施形態による、オブジェクト配置基準が満たされるかどうかに応じて仮想オブジェクトを異なる視覚特性で表示するプロセスを示す流れ図である。3 is a flowchart illustrating a process for displaying virtual objects with different visual characteristics depending on whether object placement criteria are met, according to some embodiments. いくつかの実施形態による、オブジェクト配置基準が満たされるかどうかに応じて仮想オブジェクトを異なる視覚特性で表示するプロセスを示す流れ図である。3 is a flowchart illustrating a process for displaying virtual objects with different visual characteristics depending on whether object placement criteria are met, according to some embodiments. いくつかの実施形態による、オブジェクト配置基準が満たされるかどうかに応じて仮想オブジェクトを異なる視覚特性で表示するプロセスを示す流れ図である。3 is a flowchart illustrating a process for displaying virtual objects with different visual characteristics depending on whether object placement criteria are met, according to some embodiments.

いくつかの実施形態による、デバイスの1つ以上のカメラの移動にしたがって動的にアニメーション化された較正ユーザーインターフェースオブジェクトを表示するプロセスを示す流れ図である。3 is a flowchart illustrating a process for displaying dynamically animated calibration user interface objects according to movement of one or more cameras of a device, according to some embodiments. いくつかの実施形態による、デバイスの1つ以上のカメラの移動にしたがって動的にアニメーション化された較正ユーザーインターフェースオブジェクトを表示するプロセスを示す流れ図である。3 is a flowchart illustrating a process for displaying dynamically animated calibration user interface objects according to movement of one or more cameras of a device, according to some embodiments. いくつかの実施形態による、デバイスの1つ以上のカメラの移動にしたがって動的にアニメーション化された較正ユーザーインターフェースオブジェクトを表示するプロセスを示す流れ図である。3 is a flowchart illustrating a process for displaying dynamically animated calibration user interface objects according to movement of one or more cameras of a device, according to some embodiments. いくつかの実施形態による、デバイスの1つ以上のカメラの移動にしたがって動的にアニメーション化された較正ユーザーインターフェースオブジェクトを表示するプロセスを示す流れ図である。3 is a flowchart illustrating a process for displaying dynamically animated calibration user interface objects according to movement of one or more cameras of a device, according to some embodiments.

いくつかの実施形態による、軸の周りの仮想オブジェクトの回転を制約するプロセスを示す流れ図である。3 is a flowchart illustrating a process for constraining rotation of a virtual object about an axis, according to some embodiments. いくつかの実施形態による、軸の周りの仮想オブジェクトの回転を制約するプロセスを示す流れ図である。3 is a flowchart illustrating a process for constraining rotation of a virtual object about an axis, according to some embodiments. いくつかの実施形態による、軸の周りの仮想オブジェクトの回転を制約するプロセスを示す流れ図である。3 is a flowchart illustrating a process for constraining rotation of a virtual object about an axis, according to some embodiments. いくつかの実施形態による、軸の周りの仮想オブジェクトの回転を制約するプロセスを示す流れ図である。3 is a flowchart illustrating a process for constraining rotation of a virtual object about an axis, according to some embodiments. いくつかの実施形態による、軸の周りの仮想オブジェクトの回転を制約するプロセスを示す流れ図である。3 is a flowchart illustrating a process for constraining rotation of a virtual object about an axis, according to some embodiments. いくつかの実施形態による、軸の周りの仮想オブジェクトの回転を制約するプロセスを示す流れ図である。3 is a flowchart illustrating a process for constraining rotation of a virtual object about an axis, according to some embodiments. いくつかの実施形態による、軸の周りの仮想オブジェクトの回転を制約するプロセスを示す流れ図である。3 is a flowchart illustrating a process for constraining rotation of a virtual object about an axis, according to some embodiments. いくつかの実施形態による、軸の周りの仮想オブジェクトの回転を制約するプロセスを示す流れ図である。3 is a flowchart illustrating a process for constraining rotation of a virtual object about an axis, according to some embodiments. いくつかの実施形態による、軸の周りの仮想オブジェクトの回転を制約するプロセスを示す流れ図である。3 is a flowchart illustrating a process for constraining rotation of a virtual object about an axis, according to some embodiments.

いくつかの実施形態による、第1の閾値移動大きさが第1のオブジェクト操作挙動について満足されたとの判定にしたがって、第2のオブジェクト操作挙動に必要な第2の閾値移動大きさを増大させるプロセスを示す流れ図である。A process of increasing a second threshold movement magnitude required for a second object manipulation behavior in accordance with a determination that a first threshold movement magnitude is satisfied for the first object manipulation behavior, according to some embodiments. FIG. いくつかの実施形態による、第1の閾値移動大きさが第1のオブジェクト操作挙動について満足されたとの判定にしたがって、第2のオブジェクト操作挙動に必要な第2の閾値移動大きさを増大させるプロセスを示す流れ図である。A process of increasing a second threshold movement magnitude required for a second object manipulation behavior in accordance with a determination that a first threshold movement magnitude is satisfied for the first object manipulation behavior, according to some embodiments. FIG. いくつかの実施形態による、第1の閾値移動大きさが第1のオブジェクト操作挙動について満足されたとの判定にしたがって、第2のオブジェクト操作挙動に必要な第2の閾値移動大きさを増大させるプロセスを示す流れ図である。A process of increasing a second threshold movement magnitude required for a second object manipulation behavior in accordance with a determination that a first threshold movement magnitude is satisfied for the first object manipulation behavior, according to some embodiments. FIG. いくつかの実施形態による、第1の閾値移動大きさが第1のオブジェクト操作挙動について満足されたとの判定にしたがって、第2のオブジェクト操作挙動に必要な第2の閾値移動大きさを増大させるプロセスを示す流れ図である。A process of increasing a second threshold movement magnitude required for a second object manipulation behavior in accordance with a determination that a first threshold movement magnitude is satisfied for the first object manipulation behavior, according to some embodiments. FIG. いくつかの実施形態による、第1の閾値移動大きさが第1のオブジェクト操作挙動について満足されたとの判定にしたがって、第2のオブジェクト操作挙動に必要な第2の閾値移動大きさを増大させるプロセスを示す流れ図である。A process of increasing a second threshold movement magnitude required for a second object manipulation behavior in accordance with a determination that a first threshold movement magnitude is satisfied for the first object manipulation behavior, according to some embodiments. FIG. いくつかの実施形態による、第1の閾値移動大きさが第1のオブジェクト操作挙動について満足されたとの判定にしたがって、第2のオブジェクト操作挙動に必要な第2の閾値移動大きさを増大させるプロセスを示す流れ図である。A process of increasing a second threshold movement magnitude required for a second object manipulation behavior in accordance with a determination that a first threshold movement magnitude is satisfied for the first object manipulation behavior, according to some embodiments. FIG. いくつかの実施形態による、第1の閾値移動大きさが第1のオブジェクト操作挙動について満足されたとの判定にしたがって、第2のオブジェクト操作挙動に必要な第2の閾値移動大きさを増大させるプロセスを示す流れ図である。A process of increasing a second threshold movement magnitude required for a second object manipulation behavior in accordance with a determination that a first threshold movement magnitude is satisfied for the first object manipulation behavior, according to some embodiments. FIG. いくつかの実施形態による、第1の閾値移動大きさが第1のオブジェクト操作挙動について満足されたとの判定にしたがって、第2のオブジェクト操作挙動に必要な第2の閾値移動大きさを増大させるプロセスを示す流れ図である。A process of increasing a second threshold movement magnitude required for a second object manipulation behavior in accordance with a determination that a first threshold movement magnitude is satisfied for the first object manipulation behavior, according to some embodiments. FIG.

いくつかの実施形態による、デバイスの移動が仮想オブジェクトを1つ以上のデバイスカメラの表示視野の外部に移動させるとの判定にしたがって音声警報を生成するプロセスを示す流れ図である。2 is a flowchart illustrating a process for generating an audio alert in accordance with a determination that movement of a device causes a virtual object to move outside of the viewing field of view of one or more device cameras, according to some embodiments. いくつかの実施形態による、デバイスの移動が仮想オブジェクトを1つ以上のデバイスカメラの表示視野の外部に移動させるとの判定にしたがって音声警報を生成するプロセスを示す流れ図である。2 is a flowchart illustrating a process for generating an audio alert in accordance with a determination that movement of a device causes a virtual object to move outside of the viewing field of view of one or more device cameras, according to some embodiments. いくつかの実施形態による、デバイスの移動が仮想オブジェクトを1つ以上のデバイスカメラの表示視野の外部に移動させるとの判定にしたがって音声警報を生成するプロセスを示す流れ図である。2 is a flowchart illustrating a process for generating an audio alert in accordance with a determination that movement of a device causes a virtual object to move outside of the viewing field of view of one or more device cameras, according to some embodiments. いくつかの実施形態による、デバイスの移動が仮想オブジェクトを1つ以上のデバイスカメラの表示視野の外部に移動させるとの判定にしたがって音声警報を生成するプロセスを示す流れ図である。2 is a flowchart illustrating a process for generating an audio alert in accordance with a determination that movement of a device causes a virtual object to move outside of the viewing field of view of one or more device cameras, according to some embodiments. いくつかの実施形態による、デバイスの移動が仮想オブジェクトを1つ以上のデバイスカメラの表示視野の外部に移動させるとの判定にしたがって音声警報を生成するプロセスを示す流れ図である。2 is a flowchart illustrating a process for generating an audio alert in accordance with a determination that movement of a device causes a virtual object to move outside of the viewing field of view of one or more device cameras, according to some embodiments. いくつかの実施形態による、デバイスの移動が仮想オブジェクトを1つ以上のデバイスカメラの表示視野の外部に移動させるとの判定にしたがって音声警報を生成するプロセスを示す流れ図である。2 is a flowchart illustrating a process for generating an audio alert in accordance with a determination that movement of a device causes a virtual object to move outside of the viewing field of view of one or more device cameras, according to some embodiments.

仮想オブジェクトは、仮想環境における三次元オブジェクトのグラフィック表現である。仮想オブジェクトと対話して、仮想オブジェクトをアプリケーションユーザーインターフェース(例えば拡張現実環境を表示しない二次元アプリケーションユーザーインターフェース)のコンテキストに表示される状態から、拡張現実環境(例えば物理的世界では入手できない追加情報をユーザーに提供する補足情報によって物理的世界のビューを拡張する環境)のコンテキストに表示される状態に移行させる従来の方法は、複数の別個の入力(例えばジェスチャ及びボタン押圧のシーケンスなど)が所期の結果(例えば拡張現実環境において本物のように、又は望ましいように見えるように仮想オブジェクトのサイズ、場所及び/又は向きを調節するなど)をもたらすことを必要とすることが多い。更に、従来の入力方法は、拡張現実環境を表示することを求める要求を受信してから拡張現実環境を表示するまでに、1つ以上のデバイスカメラを起動して物理的世界のビューをキャプチャするのに必要な時間、並びに/又は拡張現実環境に置かれる可能性がある仮想オブジェクトに関連して物理的世界のビューを分析及び特徴づける(例えば物理的世界のキャプチャされたビュー内でプレーン及び/又は表面を検出する)のに必要な時間による遅延を伴うことが多い。本明細書の実施形態は、様々なコンテキストで仮想オブジェクトを表示し、かつ/又は(例えばアプリケーションユーザーインターフェースのコンテキストで仮想オブジェクトを表示する状態から拡張現実環境で仮想オブジェクトを表示する状態にスイッチングする入力をユーザーが提供できるようにすること、拡張現実環境に仮想オブジェクトを表示する前に(例えば三次元ステージング環境で)仮想オブジェクトの表示特性をユーザーが変更できるようにすること、ユーザーがシステム全体で複数のアプリケーションにわたって仮想オブジェクトを容易に識別できるようにする指示を提供すること、オブジェクトの配置情報を決定しながらオブジェクトの視覚特性を改変すること、較正に必要なデバイスの動きを示すアニメーション化された較正ユーザーインターフェースオブジェクトを提供すること、表示される仮想オブジェクトの軸の周りの回転を制約すること、第1のオブジェクトの操作挙動についての閾値移動大きさが満たされるときに第2のオブジェクトの操作挙動についての閾値移動大きさを増大させること、及び仮想オブジェクトが表示される視野の外に移動したことを示す音声警報を提供することなどによって)これらの仮想オブジェクトと対話する直観的な方法をユーザーに提供する。 A virtual object is a graphical representation of a three-dimensional object in a virtual environment. You can interact with virtual objects to provide additional information that is not available in the augmented reality environment (e.g., a two-dimensional application user interface that does not display an augmented reality environment) from the virtual object as it appears in the context of an application user interface (e.g., a two-dimensional application user interface that does not display an augmented reality environment). Traditional methods of transitioning to a state that is displayed in the context of an environment (an environment that augments the view of the physical world with supplementary information provided to the user) require multiple discrete inputs (e.g. sequences of gestures and button presses, etc.) results, such as adjusting the size, location, and/or orientation of virtual objects to appear realistic or desirable in an augmented reality environment. Additionally, traditional input methods include activating one or more device cameras to capture a view of the physical world between receiving a request to display an augmented reality environment and displaying the augmented reality environment. Analyze and characterize the view of the physical world in relation to the virtual objects that may be placed in the augmented reality environment (e.g. the plane and/or within the captured view of the physical world) or detecting the surface). Embodiments herein provide inputs for displaying virtual objects in various contexts and/or for switching from displaying virtual objects in the context of an application user interface to displaying virtual objects in an augmented reality environment (e.g., Allowing a user to modify the display characteristics of a virtual object before displaying it in an augmented reality environment (e.g., in a three-dimensional staging environment); providing instructions that allow virtual objects to be easily identified across applications; modifying visual characteristics of objects while determining object placement information; and animated calibrations that demonstrate device movements required for calibration. providing a user interface object; constraining rotation about an axis of a displayed virtual object; for the manipulation behavior of the second object when a threshold movement magnitude for the manipulation behavior of the first object is satisfied; Provide users with an intuitive way to interact with these virtual objects (such as by increasing the threshold movement magnitude of do.

本明細書に記載するシステム、方法、及びGUIは、複数の方法で仮想/拡張現実環境とのユーザーインターフェース対話を改善する。例えば、本明細書に記載するシステム、方法、及びGUIは、拡張現実環境に仮想オブジェクトを表示し、様々な入力に応じて、拡張現実環境に表示される仮想オブジェクトの見た目を調整することを容易にする。 The systems, methods, and GUIs described herein improve user interface interaction with virtual/augmented reality environments in multiple ways. For example, the systems, methods, and GUIs described herein facilitate displaying virtual objects in an augmented reality environment and adjusting the appearance of virtual objects displayed in the augmented reality environment in response to various inputs. Make it.

以下、図1A~図1B、図2、及び図3は、例示的なデバイスの説明を提供する。図4A~図4B、図5A~図5AT、図6A~図6AJ、図7A~図7P、図11A~図11V、図12A~図12L、図13A~図13M、図14A~図14Z、及び図15A~図15AIは、様々なコンテキストで仮想オブジェクトを表示する例示的なユーザーインターフェースを示す図である。図8A~図8Eは、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することにスイッチングしている間に仮想オブジェクトの表現を表示するプロセスを示す図である。図9A~図9Dは、第1のユーザーインターフェース領域に仮想オブジェクトの第1の表現を表示し、第2のユーザーインターフェース領域に仮想オブジェクトの第2の表現を表示し、1つ以上のカメラの視野の表現によって仮想オブジェクトの第3の表現を表示するプロセスを示す図である。図10A~図10Dは、アイテムが仮想三次元オブジェクトに対応することを示す視覚的な指示とともにアイテムを表示するプロセスを示す図である。図16A~図16Gは、オブジェクト配置基準が満たされるかどうかに応じて異なる視覚特性を備えた仮想オブジェクトを表示するプロセスを示す図である。図17A~図17Dは、デバイスの1つ以上のカメラの動きにしたがって動的にアニメーション化された較正ユーインオブジェクトを表示するプロセスを示す図である。図18A~図18Iは、仮想オブジェクトの軸の周りの回転を制約するプロセスを示す図である。図14AA~図14AD及び図19A~図19Hは、第1のオブジェクトの操作挙動について第1の閾値移動大きさが満たされるとの判定にしたがって、第2のオブジェクトの操作挙動について必要とされる第2の閾値移動大きさを増大させるプロセスを示す図である。図20A~図20Fは、デバイスの動きによって仮想オブジェクトが1つ以上のデバイスカメラの表示される視野の外に移動するとの判定にしたがって、音声警報を生成するプロセスを示す図である。図5A~図5AT、図6A~図6AJ、図7A~図7P、図11A~図11V、図12A~図12L、図13A~図13M、図14A~図14Z、及び図15A~図15AIのユーザーインターフェースを使用して、図8A~図8E、図9A~図9D、図10A~図10D、図14AA~図14AD、図16A~図16G、図17A~図17D、図18A~図18I、図19A~図19H、及び図20A~図20Fのプロセスを説明する。
例示的なデバイス
Below, FIGS. 1A-1B, 2, and 3 provide a description of exemplary devices. 4A to 4B, 5A to 5AT, 6A to 6AJ, 7A to 7P, 11A to 11V, 12A to 12L, 13A to 13M, 14A to 14Z, and 15A-15AI are illustrations of example user interfaces displaying virtual objects in various contexts. 8A-8E are diagrams illustrating a process of displaying a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area. 9A-9D display a first representation of a virtual object in a first user interface area, display a second representation of the virtual object in a second user interface area, and display the field of view of one or more cameras. FIG. 4 is a diagram illustrating a process of displaying a third representation of a virtual object by a representation of . 10A-10D are diagrams illustrating a process for displaying an item with a visual indication that the item corresponds to a virtual three-dimensional object. 16A-16G are diagrams illustrating a process for displaying virtual objects with different visual characteristics depending on whether object placement criteria are met. 17A-17D are diagrams illustrating a process for displaying a dynamically animated calibration object according to the movement of one or more cameras of a device. 18A-18I are diagrams illustrating the process of constraining rotation about a virtual object's axis. FIGS. 14AA to 14AD and FIGS. 19A to 19H show the required change in the operational behavior of the second object according to the determination that the first threshold movement magnitude is satisfied for the operational behavior of the first object. FIG. 2 is a diagram illustrating a process of increasing the threshold shift magnitude of 2; 20A-20F are diagrams illustrating a process for generating an audio alert in accordance with a determination that device movement causes a virtual object to move outside the displayed field of view of one or more device cameras. Users of Figures 5A to 5AT, Figures 6A to 6AJ, Figures 7A to 7P, Figures 11A to 11V, Figures 12A to 12L, Figures 13A to 13M, Figures 14A to 14Z, and Figures 15A to 15AI 8A-8E, 9A-9D, 10A-10D, 14AA-14AD, 16A-16G, 17A-17D, 18A-18I, 19A The processes in FIGS. 19H to 19H and 20A to 20F will be described.
exemplary device

次に、添付の図面にその実施例を示す実施形態を詳細に参照する。以下の詳細な説明では、記載する様々な実施形態が完全に理解されるように、多数の具体的な詳細を記載する。しかし、記載する様々な実施形態は、これらの具体的な詳細がなくても実施することができることは、当業者には明らかであろう。その他、周知の方法、手順、コンポーネント、回路、及びネットワークについては、実施形態の態様を不要に曖昧にしないよう、詳細には説明しない。 Reference will now be made in detail to the embodiments, examples of which are illustrated in the accompanying drawings. In the detailed description that follows, numerous specific details are set forth to provide a thorough understanding of the various embodiments described. However, it will be apparent to those skilled in the art that the various described embodiments may be practiced without these specific details. In other instances, well-known methods, procedures, components, circuits, and networks have not been described in detail so as not to unnecessarily obscure aspects of the embodiments.

本明細書では、一部の例において第1、第2などの用語を使用して様々な要素を説明するが、これらの要素は、これらの用語によって限定されないことも理解されるであろう。これらの用語は、ある要素を別の要素と区別するためにのみ使用されているものである。例えば、記載する様々な実施形態の範囲を逸脱することなく、第1の接点は、第2の接点と称することもでき、同様に、第2の接点を第1の接点と称することもできる。第1の接点及び第2の接点は両方とも接点であるが、文脈が明らかにそうでないことを示していない限り、両者は同じ接点ではない。 Although various elements are described herein using the terms first, second, etc. in some examples, it will also be understood that these elements are not limited by these terms. These terms are only used to distinguish one element from another. For example, a first contact may be referred to as a second contact, and similarly, a second contact may be referred to as a first contact without departing from the scope of the various embodiments described. Although the first contact and the second contact are both contacts, they are not the same contact unless the context clearly indicates otherwise.

本明細書に記載する様々な実施形態の説明で使用する用語は、特定の実施形態を説明することのみを目的とするものであり、限定することを意図したものではない。記載する様々な実施形態の説明及び添付の特許請求の範囲で使用する単数形「a」、「an」、及び「the」は、文脈が明らかにそうでないことを示していない限り、複数形も含むものとして意図されている。また、本明細書で使用する「及び/又は」という用語は、関連する列挙したアイテムのうちの1つ以上の任意の全ての可能な組合せを指し、これらを含むことも理解されたい。更に、本明細書で使用する「含む」、「含み」、「備える」、及び/又は「備え」という用語は、記載する特徴、整数、ステップ、動作、要素、及び/又は構成要素が存在することは指定するが、1つ以上のその他の特徴、整数、ステップ、動作、要素、構成要素、及び/又はそれらのグループが存在すること、又は追加されることを除外しないことも理解されるであろう。 The terminology used in the description of various embodiments herein is for the purpose of describing particular embodiments only and is not intended to be limiting. As used in the description of the various described embodiments and the appended claims, the singular forms "a," "an," and "the" also include the plural forms unless the context clearly dictates otherwise. is intended to include. It is also to be understood that the term "and/or" as used herein refers to and includes any and all possible combinations of one or more of the associated listed items. Furthermore, as used herein, the terms "comprising," "including," "comprising," and/or "comprising" refer to the presence of the recited feature, integer, step, act, element, and/or component. It is also understood that specifying that, does not exclude the presence or addition of one or more other features, integers, steps, operations, elements, components, and/or groups thereof. Probably.

本明細書で使用する「~場合」という用語は、任意選択的に、文脈に応じて「~とき」、又は「~すると」、又は「~と判定したことに応答して」、又は「~を検出したことに応答して」を意味するものと解釈される。同様に、「~と判定された場合」又は「(記載する条件又はイベント)が検出された場合」という表現は、任意選択的に、文脈に応じて「~と判定すると」、又は「~と判定したことに応答して」、又は「(記載する条件又はイベント)が検出されると」、又は「(記載する条件又はイベント)を検出したことに応答して」を意味するものと解釈される。 As used herein, the term "if" optionally means "when," "in response to," or "in response to a determination that," or "in response to," depending on the context. "in response to the detection of the Similarly, the expressions "if it is determined that" or "if (the described condition or event) is detected" may optionally be used as "if it is determined that" or "if (the described condition or event) is detected," depending on the context. or “in response to the detection of (the described condition or event)” or “in response to the detection of (the described condition or event).” Ru.

電子デバイス、それらのデバイスのユーザーインターフェース、及びそれらのデバイスを使用するための関連するプロセスの実施形態を記載する。いくつかの実施形態では、デバイスは、PDA機能及び/又は音楽プレーヤ機能などの他の機能も含む、携帯電話などのポータブル通信デバイスである。ポータブル多機能デバイスの例示的な実施形態は、米国カリフォルニア州CupertinoのApple社製のiPhone(登録商標)、iPod Touch(登録商標)、及びiPad(登録商標)といったデバイスを含むが、これらに限定されない。タッチ感知面(例えばタッチスクリーンディスプレイ及び/又はタッチパッド)を有するラップトップ又はタブレットコンピュータなど、他のポータブル電子デバイスも、任意選択的に使用される。また、いくつかの実施形態では、デバイスは、ポータブル通信デバイスではなく、タッチ感知面(例えばタッチスクリーンディスプレイ及び/又はタッチパッド)を有するデスクトップコンピュータであることも理解されたい。 Embodiments of electronic devices, user interfaces for those devices, and associated processes for using the devices are described. In some embodiments, the device is a portable communication device, such as a mobile phone, that also includes other functionality, such as PDA functionality and/or music player functionality. Exemplary embodiments of portable multifunction devices include, but are not limited to, devices such as the iPhone®, iPod Touch®, and iPad® manufactured by Apple Inc. of Cupertino, California, USA. . Other portable electronic devices, such as laptops or tablet computers with touch-sensitive surfaces (eg, touch screen displays and/or touch pads), are also optionally used. It should also be understood that in some embodiments, the device is a desktop computer with a touch-sensitive surface (eg, a touch screen display and/or touch pad) rather than a portable communication device.

以下の説明では、ディスプレイ及びタッチ感知面を含む電子デバイスについて説明する。しかし、電子デバイスは、任意選択的に、物理的キーボード、マウス、及び/又はジョイスティックなどの1つ以上の他の物理的ユーザーインターフェースデバイスを含むことを理解されたい。 The following description describes electronic devices that include displays and touch-sensitive surfaces. However, it should be understood that the electronic device optionally includes one or more other physical user interface devices, such as a physical keyboard, mouse, and/or joystick.

デバイスは、一般に、メモ取りアプリケーション、描画アプリケーション、プレゼンテーションアプリケーション、ワードプロセッシングアプリケーション、ウェブサイト作成アプリケーション、ディスクオーサリングアプリケーション、スプレッドシートアプリケーション、ゲームアプリケーション、電話アプリケーション、ビデオ会議アプリケーション、電子メールアプリケーション、インスタントメッセージングアプリケーション、トレーニングサポートアプリケーション、写真管理アプリケーション、デジタルカメラアプリケーション、デジタルビデオカメラアプリケーション、ウェブブラウジングアプリケーション、デジタル音楽プレイヤアプリケーション及び/又はデジタルビデオプレイヤアプリケーションのうちの1つ以上など、様々なアプリケーションをサポートする。 Devices typically include note-taking applications, drawing applications, presentation applications, word processing applications, website creation applications, disc authoring applications, spreadsheet applications, gaming applications, telephone applications, video conferencing applications, email applications, instant messaging applications, Various applications are supported, such as one or more of a training support application, a photo management application, a digital camera application, a digital video camera application, a web browsing application, a digital music player application, and/or a digital video player application.

このデバイスで実行される様々なアプリケーションは、任意選択的に、タッチ感知面などの少なくとも1つの共通の物理的ユーザーインターフェースデバイスを使用する。タッチ感知面の1つ以上の機能、並びにデバイスに表示される対応する情報は、任意選択的に、アプリケーションごとに、及び/又はそれぞれのアプリケーション内で、調節及び/又は変更される。このように、デバイスの共通の物理アーキテクチャ(タッチ感知面など)は、任意選択的に、ユーザーにとって直観的かつ透過的なユーザーインターフェースを備える様々なアプリケーションをサポートする。 The various applications running on the device optionally use at least one common physical user interface device, such as a touch-sensitive surface. One or more functions of the touch-sensitive surface and corresponding information displayed on the device are optionally adjusted and/or changed from application to application and/or within each application. In this way, a common physical architecture of the device (such as a touch-sensitive surface) supports a variety of applications, optionally with a user interface that is intuitive and transparent to the user.

ここで、タッチ感知ディスプレイを備えるポータブルデバイスの実施形態に注目する。図1Aは、いくつかの実施形態による、タッチ感知ディスプレイシステム112を備えるポータブル多機能デバイス100を示すブロック図である。タッチ感知ディスプレイシステム112は、便宜上「タッチスクリーン」と呼ばれることもあり、単にタッチ感知ディスプレイと呼ばれることもある。デバイス100は、メモリ102(任意選択的に、1つ以上のコンピュータ可読記憶媒体を含む)、メモリコントローラ122、1つ以上の処理ユニット(CPU)120、周辺機器インターフェース118、RF回路108、オーディオ回路110、スピーカ111、マイクロフォン113、入出力(I/O)サブシステム106、その他の入力又は制御デバイス116、及び外部ポート124を含む。デバイス100は、任意選択的に、1つ以上の光センサ164を含む。デバイス100は、任意選択的に、デバイス100(例えばデバイス100のタッチ感知ディスプレイシステム112などのタッチ感知面)上の接触の強度を検出する1つ以上の強度センサ165を含む。デバイス100は、任意選択的に、デバイス100上で触知出力を生成する(例えばデバイス100のタッチ感知ディスプレイシステム112又はデバイス300のタッチパッド355などのタッチ感知面上で触知出力を生成する)1つ以上の触知出力生成器167を含む。これらのコンポーネントは、任意選択的に、1つ以上の通信バス又は信号ライン103を介して通信する。 Attention is now directed to embodiments of portable devices that include touch-sensitive displays. FIG. 1A is a block diagram illustrating a portable multifunction device 100 with a touch-sensitive display system 112, according to some embodiments. Touch-sensitive display system 112 is sometimes referred to for convenience as a "touch screen" or simply as a touch-sensitive display. Device 100 includes memory 102 (optionally including one or more computer-readable storage media), memory controller 122, one or more processing units (CPUs) 120, peripheral interface 118, RF circuitry 108, audio circuitry. 110 , a speaker 111 , a microphone 113 , an input/output (I/O) subsystem 106 , other input or control devices 116 , and an external port 124 . Device 100 optionally includes one or more optical sensors 164. Device 100 optionally includes one or more intensity sensors 165 that detect the intensity of contact on device 100 (eg, a touch-sensitive surface, such as touch-sensitive display system 112 of device 100). Device 100 optionally generates tactile output on device 100 (e.g., generates tactile output on a touch-sensitive surface such as touch-sensitive display system 112 of device 100 or touch pad 355 of device 300). Includes one or more tactile output generators 167. These components optionally communicate via one or more communication buses or signal lines 103.

デバイス100は、ポータブル多機能デバイスの1実施例に過ぎず、デバイス100は、任意選択的に、示しているよりコンポーネントの数が多い、若しくは少ないことも、任意選択的に、2つ以上のコンポーネントを組みあわせることも、又は、任意選択的に、コンポーネントの異なる構成若しくは配置を有することもあることを理解されたい。図1Aに示す様々なコンポーネントは、1つ以上の信号処理回路及び/又は特定用途向け集積回路など、ハードウェア、ソフトウェア、ファームウェア、又はそれらの組合せで実装される。 Device 100 is only one example of a portable multifunction device, and device 100 may optionally include more or fewer components than shown, and optionally two or more components. It is to be understood that the components may be combined or, optionally, have different configurations or arrangements of the components. The various components shown in FIG. 1A may be implemented in hardware, software, firmware, or a combination thereof, such as one or more signal processing circuits and/or application specific integrated circuits.

メモリ102は、任意選択的に、高速ランダムアクセスメモリを含み、また任意選択的に、1つ以上の磁気ディスク記憶デバイス、フラッシュメモリデバイス、又はその他の不揮発性固体状態メモリデバイスなどの不揮発性メモリも含む。CPU(単数又は複数)120及び周辺機器インターフェース118などデバイス100の他のコンポーネントによるメモリ102へのアクセスは、任意選択的に、メモリコントローラ122によって制御される。 Memory 102 optionally includes high speed random access memory, and optionally also non-volatile memory, such as one or more magnetic disk storage devices, flash memory devices, or other non-volatile solid state memory devices. include. Access to memory 102 by other components of device 100, such as CPU(s) 120 and peripheral interface 118, is optionally controlled by memory controller 122.

周辺機器インターフェース118を使用して、デバイスの入力及び出力周辺機器を、CPU(単数又は複数)120及びメモリ102に結合することができる。1つ以上のプロセッサ120は、メモリ102に記憶された様々なソフトウェアプログラム及び/又は命令セットを動作させる、又は実行して、デバイス100のための様々な機能を実行し、データを処理する。 Peripheral interface 118 may be used to couple the device's input and output peripherals to CPU(s) 120 and memory 102 . One or more processors 120 operate or execute various software programs and/or instruction sets stored in memory 102 to perform various functions for device 100 and process data.

いくつかの実施形態では、周辺機器インターフェース118、CPU(単数又は複数)120、及びメモリコントローラ122は、任意選択的に、チップ104などの単一チップ上に実装される。いくつかの他の実施形態では、それらは、任意選択的に、別々のチップ上に実装される。 In some embodiments, peripheral interface 118, CPU(s) 120, and memory controller 122 are optionally implemented on a single chip, such as chip 104. In some other embodiments, they are optionally implemented on separate chips.

RF(radio frequency、高周波)回路108は、電磁信号とも呼ばれるRF信号を受信及び送信する。RF回路108は、電気信号を電磁信号に、又は電磁信号を電気信号に変換し、電磁信号を介して通信ネットワーク及び他の通信デバイスと通信する。RF回路108は、任意選択的に、これらに限定されるわけではないが、アンテナシステム、RF送受信機、1つ以上の増幅器、同調器、1つ以上の発振器、デジタル信号プロセッサ、CODECチップセット、加入者識別モジュール(SIM)カード、及びメモリなど、これらの機能を実行する周知の回路を含む。RF回路108は、任意選択的に、ワールドワイドウェブ(World Wide Web、WWW)とも呼ばれるインターネット、イントラネット、並びに/又はセルラー電話ネットワーク、無線ローカルエリアネットワーク(local area network、LAN)及び/若しくはメトロポリタンエリアネットワーク(metropolitan area network、MAN)などの無線ネットワークなどのネットワークと、また他のデバイスと、無線通信によって通信する。無線通信は、任意選択的に、これらに限定されるわけではないが、移動通信用のグローバルシステム(Global System for Mobile Communication、GSM)、拡張データGSM環境(Enhanced Data GSM Environment、EDGE)、高速ダウンリンクパケット接続(high-speed downlink packet access、HSDPA)、高速アップリンクパケット接続(high-speed uplink packet access、HSUPA)、Evolution、Data-Only(EV-DO)、HSPA、HSPA+、デュアルセルHSPA(DC-HSPA)、ロングタームエボリューション(long term evolution、LTE)、近距離無線通信(near field communication、NFC)、広帯域符号分割多元接続(wideband code division multiple access、W-CDMA)、符号分割多元接続(code division multiple access、CDMA)、時分割多元接続(time division multiple access、TDMA)、Bluetooth、Wireless Fidelity(Wi-Fi)(例えばIEEE 802.11a、IEEE 802.11ac、IEEE 802.11ax、IEEE 802.11b、IEEE 802.11g、及び/又はIEEE 802.11n)、ボイスオーバーインターネットプロトコル(voice over Internet Protocol、VoIP)、Wi-MAX、電子メール用プロトコル(例えばインターネットメッセージアクセスプロトコル(Internet message access protocol、IMAP)及び/又はポストオフィスプロトコル(post office protocol、POP))、インスタントメッセージング(例えば拡張可能メッセージング及びプレゼンスプロトコル(extensible messaging and presence protorol、XMPP)、インスタントメッセージング及びプレゼンスレバレッジング拡張用セッション開始プロトコル(Session Initiation Protocol for Instant Messaging and Presence Leveraging Extensions、SIMPLE)、インスタントメッセージング及びプレゼンスサービス(Instant Messaging and Presence Service、IMPS))、並びに/若しくはショートメッセージサービス(Short Message Service、SMS)など、複数の通信規格、プロトコル、及び技術のうちのいずれか、又は本文書の出願日現在でまだ開発されていない通信プロトコルを含む任意のその他の適当な通信プロトコルを使用する。 RF (radio frequency) circuit 108 receives and transmits RF signals, also referred to as electromagnetic signals. The RF circuit 108 converts electrical signals to electromagnetic signals, or vice versa, and communicates with communication networks and other communication devices via electromagnetic signals. RF circuitry 108 optionally includes, but is not limited to, an antenna system, an RF transceiver, one or more amplifiers, a tuner, one or more oscillators, a digital signal processor, a CODEC chipset, It includes well-known circuitry to perform these functions, such as a subscriber identity module (SIM) card and memory. RF circuit 108 optionally connects to the Internet, also referred to as the World Wide Web (WWW), an intranet, and/or a cellular telephone network, a wireless local area network (LAN), and/or a metropolitan area network. Communicate with networks, such as wireless networks (metropolitan area networks, MANs), and with other devices via wireless communications. Wireless communications optionally include, but are not limited to, Global System for Mobile Communication (GSM), Enhanced Data GSM Environment (EDGE), high speed high-speed downlink packet access (HSDPA), high-speed uplink packet access (HSUPA), Evolution, Data-Only (EV-DO), HSPA, HSPA+, dual-cell HSPA (DC -HSPA), long term evolution (LTE), near field communication (NFC), wideband code division multiple access (W-CDMA), code division multiple access (W-CDMA), division multiple access (CDMA), time division multiple access (TDMA), Bluetooth, Wireless Fidelity (Wi-Fi) (e.g. IEEE 802.11a, IEEE 802.11ac, IEEE 802.11ax, IEEE 802.11b) , IEEE 802.11g, and/or IEEE 802.11n), voice over Internet Protocol (VoIP), Wi-MAX, e-mail protocols (e.g., Internet message access protocol (IMAP)) and/or post office protocol (POP)), instant messaging (e.g. extensible messaging and presence protocol (XMPP), Session Initiation Protocol for instant messaging and presence leveraging extensions) Multiple communication standards, protocols, and or any other suitable communication protocol, including communication protocols not yet developed as of the filing date of this document.

オーディオ回路110、スピーカ111、及びマイクロフォン113は、ユーザーとデバイス100との間のオーディオインターフェースを提供する。オーディオ回路110は、周辺機器インターフェース118からオーディオデータを受信し、このオーディオデータを電気信号に変換し、この電気信号をスピーカ111に伝送する。スピーカ111は、電気信号を人間の可聴音波に変換する。また、オーディオ回路110は、マイクロフォン113によって音波から変換された電気信号を受信する。オーディオ回路110は、電気信号をオーディオデータに変換し、このオーディオデータを処理のために周辺機器インターフェース118に伝送する。オーディオデータは、任意選択的に、周辺機器インターフェース118によって、メモリ102及び/若しくはRF回路108から取得され、かつ/又はメモリ102及び/若しくはRF回路108に伝送される。いくつかの実施形態では、オーディオ回路110は、ヘッドセットジャック(例えば図2の212)も含む。ヘッドセットジャックは、オーディオ回路110と、出力専用ヘッドホン又は出力(例えば片耳又は両耳用のヘッドホン)及び入力(例えばマイクロフォン)の両方を有するヘッドセットなどの着脱可能なオーディオ入出力周辺機器との間のインターフェースを提供する。 Audio circuit 110, speaker 111, and microphone 113 provide an audio interface between the user and device 100. Audio circuit 110 receives audio data from peripheral interface 118 , converts the audio data to an electrical signal, and transmits the electrical signal to speaker 111 . Speaker 111 converts electrical signals into human audible sound waves. The audio circuit 110 also receives electrical signals converted from sound waves by the microphone 113. Audio circuit 110 converts the electrical signal to audio data and transmits the audio data to peripheral interface 118 for processing. Audio data is optionally obtained from and/or transmitted to memory 102 and/or RF circuitry 108 by peripheral interface 118 . In some embodiments, audio circuit 110 also includes a headset jack (eg, 212 in FIG. 2). The headset jack connects the audio circuit 110 to a removable audio input/output peripheral, such as output-only headphones or a headset that has both an output (e.g., mono- or binaural headphones) and an input (e.g., a microphone). provides an interface.

I/Oサブシステム106は、タッチ感知ディスプレイシステム112及びその他の入力又は制御デバイス116などのデバイス100上の入出力周辺機器を周辺機器インターフェース118に結合する。I/Oサブシステム106は、任意選択的に、ディスプレイコントローラ156、光センサコントローラ158、強度センサコントローラ159、触覚フィードバックコントローラ161、及び他の入力又は制御デバイスのための1つ以上の入力コントローラ160を含む。この1つ以上の入力コントローラ160は、他の入力又は制御デバイス116から電気信号を受信し、それらに電気信号を送信する。その他の入力又は制御デバイス116は、任意選択的に、物理ボタン(例えば、プッシュボタン、ロッカボタンなど)、ダイヤル、スライダスイッチ、ジョイスティック、クリックホイールなどを含む。一部の代替の実施形態では、入力コントローラ(単数又は複数)160は、任意選択的に、キーボード、赤外線ポート、USBポート、スタイラス、及び/又はマウスなどのポインタデバイスのうちのいずれかと結合される(又は、いずれにも結合されない)。1つ以上のボタン(例えば図2の208)は、任意選択的に、スピーカ111及び/又はマイクロフォン113のボリューム制御のためのアップ/ダウンボタンを含む。1つ以上のボタンは、任意選択的に、プッシュボタン(例えば図2の206)を含む。 I/O subsystem 106 couples input and output peripherals on device 100, such as touch-sensitive display system 112 and other input or control devices 116, to peripheral interface 118. I/O subsystem 106 optionally includes a display controller 156, a light sensor controller 158, an intensity sensor controller 159, a haptic feedback controller 161, and one or more input controllers 160 for other input or control devices. include. The one or more input controllers 160 receive electrical signals from and transmit electrical signals to other input or control devices 116. Other input or control devices 116 optionally include physical buttons (eg, push buttons, rocker buttons, etc.), dials, slider switches, joysticks, click wheels, and the like. In some alternative embodiments, input controller(s) 160 is optionally coupled to any of a pointer device, such as a keyboard, an infrared port, a USB port, a stylus, and/or a mouse. (or not bound to either). The one or more buttons (eg, 208 in FIG. 2) optionally include up/down buttons for volume control of speaker 111 and/or microphone 113. The one or more buttons optionally include a push button (eg, 206 in FIG. 2).

タッチ感知ディスプレイシステム112は、デバイスとユーザーとの間の入力インターフェース及び出力インターフェースを提供する。ディスプレイコントローラ156は、タッチ感知ディスプレイシステム112から電気信号を受信し、かつ/又はタッチ感知ディスプレイシステム112に電気信号を送信する。タッチ感知ディスプレイシステム112は、ユーザーに視覚出力を表示する。視覚出力は、任意選択的に、グラフィック、テキスト、アイコン、ビデオ、及びこれらの任意の組合せ(「グラフィック」と総称する)を含む。いくつかの実施形態では、視覚出力の一部又は全ては、ユーザーインターフェースオブジェクトに対応する。本明細書で使用する「アフォーダンス」という用語は、ユーザー対話型のグラフィカルユーザーインターフェースオブジェクト(例えばそのグラフィカルユーザーインターフェースオブジェクトに向けられた入力に対して応答するように構成されたグラフィカルユーザーインターフェースオブジェクト)を指す。ユーザー対話型のグラフィカルユーザーインターフェースオブジェクトの例としては、これらに限定されるわけではないが、ボタン、スライダ、アイコン、選択可能メニューアイテム、スイッチ、ハイパーリンク、又はその他のユーザーインターフェース制御が挙げられる。 Touch sensitive display system 112 provides an input and output interface between the device and the user. Display controller 156 receives electrical signals from and/or sends electrical signals to touch-sensitive display system 112 . Touch sensitive display system 112 displays visual output to the user. Visual output optionally includes graphics, text, icons, video, and any combinations thereof (collectively referred to as "graphics"). In some embodiments, some or all of the visual output corresponds to user interface objects. As used herein, the term "affordance" refers to a graphical user interface object with which a user interacts (e.g., a graphical user interface object configured to respond to input directed at that graphical user interface object) . Examples of user-interactive graphical user interface objects include, but are not limited to, buttons, sliders, icons, selectable menu items, switches, hyperlinks, or other user interface controls.

タッチ感知ディスプレイシステム112は、触覚及び/又は触知接触に基づくユーザーからの入力を受け付けるタッチ感知面、センサ、又はセンサセットを有する。タッチ感知ディスプレイシステム112及びディスプレイコントローラ156(任意の関連するモジュール及び/又はメモリ102内の命令セットも含む)は、タッチ感知ディスプレイシステム112上の接触(及びその接触の任意の動き又は中断)を検出し、検出した接触をタッチ感知ディスプレイシステム112に表示されるユーザーインターフェースオブジェクト(例えば1つ以上のソフトキー、アイコン、ウェブページ、又は画像)との対話に変換する。いくつかの実施形態では、タッチ感知ディスプレイシステム112とユーザーとの間の接触点は、ユーザーの指又はスタイラスに対応する。 Touch-sensitive display system 112 includes a touch-sensitive surface, sensor, or set of sensors that accepts input from a user based on tactile and/or tactile contact. Touch-sensitive display system 112 and display controller 156 (including any associated modules and/or sets of instructions in memory 102) detect a touch (and any movement or interruption of that touch) on touch-sensitive display system 112. and convert the detected contacts into interactions with user interface objects (eg, one or more soft keys, icons, web pages, or images) displayed on touch-sensitive display system 112. In some embodiments, the point of contact between touch sensitive display system 112 and the user corresponds to the user's finger or stylus.

タッチ感知ディスプレイシステム112は、任意選択的に、LCD(liquid crystal display、液晶ディスプレイ)技術、LPD(light emitting polymer display、発光ポリマーディスプレイ)技術、又はLED(light emitting diode、発光ダイオード)技術を使用するが、他の実施形態では、他の表示技術を使用する。タッチ感知ディスプレイシステム112及びディスプレイコントローラ156は、任意選択的に、これらに限定されるわけではないが、静電容量技術、抵抗性技術、赤外線技術、及び表面音響波技術、並びにタッチ感知ディスプレイシステム112との1つ以上の接触点を決定するその他の近接センサレイ又は他の要素など、現在既知の、又は今後開発される複数のタッチ感知技術のうちのいずれかを使用して、接触と、接触の任意の動き又は中断とを検出する。いくつかの実施形態では、米国カリフォルニア州CupertinoのApple社製のiPhone(登録商標)、iPod Touch(登録商標)、及びiPad(登録商標)などの、投影型相互静電容量感知技術が使用される。 Touch-sensitive display system 112 optionally uses liquid crystal display (LCD) technology, light emitting polymer display (LPD) technology, or light emitting diode (LED) technology. However, other embodiments use other display technologies. Touch-sensitive display system 112 and display controller 156 optionally include, but are not limited to, capacitive technology, resistive technology, infrared technology, and surface acoustic wave technology, and touch-sensitive display system 112 the contact and the contact using any of a number of touch-sensing technologies now known or hereafter developed, such as other proximity sensor arrays or other elements that determine one or more points of contact with the Detect any movement or interruption. In some embodiments, projected mutual capacitance sensing technology is used, such as the iPhone®, iPod Touch®, and iPad® manufactured by Apple Inc. of Cupertino, California, USA. .

タッチ感知ディスプレイシステム112は、任意選択的に、100dpiを超えるビデオ解像度を有する。いくつかの実施形態では、タッチスクリーンのビデオ解像度は、400dpiを超える(例えば500dpi、800dpi、又はそれより高い)。ユーザーは、任意選択的に、スタイラス、指などの任意の好適なオブジェクト又は付属物を使用して、タッチ感知ディスプレイシステム112に接触する。いくつかの実施形態では、ユーザーインターフェースは、指による接触及びジェスチャで機能するように設計されるが、指による接触及びジェスチャは、指がタッチスクリーンと接触する面積が大きいために、スタイラスによる入力よりも精度が低くなる可能性がある。いくつかの実施形態では、デバイスは、指による粗い入力を、精密なポインタ/カーソル位置、又はユーザーの望むアクションを実行するコマンドに変換する。 Touch sensitive display system 112 optionally has a video resolution greater than 100 dpi. In some embodiments, the video resolution of the touch screen is greater than 400 dpi (eg, 500 dpi, 800 dpi, or higher). A user optionally contacts touch-sensitive display system 112 using any suitable object or appendage, such as a stylus, finger, etc. In some embodiments, the user interface is designed to work with finger touches and gestures, which may be more sensitive than stylus input due to the larger surface area of the finger in contact with the touch screen. The accuracy may also be lower. In some embodiments, the device converts coarse finger input into precise pointer/cursor positions or commands that perform the user's desired action.

いくつかの実施形態では、タッチスクリーンに加えて、デバイス100は、任意選択的に、特定の機能をアクティブ化又は非アクティブ化するためのタッチパッド(図示せず)を含む。いくつかの実施形態では、タッチパッドは、タッチスクリーンとは異なり、視覚出力を表示しない、デバイスのタッチ感知エリアである。タッチパッドは、任意選択的に、タッチ感知ディスプレイシステム112から分離したタッチ感知面、又はタッチスクリーンによって形成されるタッチ感知面の延長部である。 In some embodiments, in addition to a touch screen, device 100 optionally includes a touch pad (not shown) for activating or deactivating certain features. In some embodiments, a touchpad is a touch-sensitive area of a device that, unlike a touchscreen, does not display visual output. The touchpad is optionally a touch-sensitive surface separate from the touch-sensitive display system 112 or an extension of a touch-sensitive surface formed by a touch screen.

デバイス100は、また、様々なコンポーネントに電力を供給する電力システム162を含む。電力システム162は、任意選択的に、電力管理システム、1つ以上の電源(例えばバッテリ、交流(AC))、再充電システム、電源異常検出回路、電力コンバータ又はインバータ、電力状態インジケータ(例えば発光ダイオード(LED))、並びにポータブルデバイスにおける電力の生成、管理及び分配に関連するその他の任意のコンポーネントを含む。 Device 100 also includes a power system 162 that provides power to various components. Power system 162 optionally includes a power management system, one or more power sources (e.g., batteries, alternating current (AC)), a recharging system, a power failure detection circuit, a power converter or inverter, a power status indicator (e.g., a light emitting diode). (LEDs)) and any other components associated with power generation, management, and distribution in portable devices.

また、デバイス100は、任意選択的に、1つ以上の光センサ164を含む。図1Aは、I/Oサブシステム106内の光センサコントローラ158に結合された光センサを示している。光センサ164(単数又は複数)は、任意選択的に、電荷結合デバイス(charge-coupled device、CCD)又は相補的金属酸化物半導体(complementary metal-oxide semiconductor、CMOS)フォトトランジスタを含む。光センサ164(単数又は複数)は、1つ以上のレンズを通じて投影される環境からの光を受光し、この光を画像を表すデータに変換する。撮像モジュール143(カメラモジュールとも呼ばれる)と協働して、光センサ(単数又は複数)164は、任意選択的に、静止画像及び/又はビデオをキャプチャする。いくつかの実施形態では、光センサを、デバイスの前面上のタッチ感知ディスプレイシステム112の反対側のデバイス100の背面上に位置付けて、タッチスクリーンを静止画像及び/又はビデオ画像取得を取得するビューファインダとして使用することができるようにする。いくつかの実施形態では、別の光センサを、デバイスの前面に位置付けて、ユーザーの画像が取得されるようにする(例えば自撮りのため、ユーザーがビデオ会議に参加しながらタッチスクリーン上で他のビデオ会議参加者を見るためなど)。 Device 100 also optionally includes one or more optical sensors 164. FIG. 1A shows a light sensor coupled to light sensor controller 158 within I/O subsystem 106. Optical sensor(s) 164 optionally include a charge-coupled device (CCD) or a complementary metal-oxide semiconductor (CMOS) phototransistor. Light sensor(s) 164 receives light from the environment projected through one or more lenses and converts the light into data representing an image. In cooperation with imaging module 143 (also referred to as a camera module), optical sensor(s) 164 optionally capture still images and/or video. In some embodiments, a light sensor is positioned on the back of the device 100 opposite the touch-sensitive display system 112 on the front of the device, and the touch screen is used as a viewfinder to capture still images and/or video image acquisition. so that it can be used as In some embodiments, another optical sensor is positioned on the front of the device such that an image of the user is captured (e.g., for a selfie, while the user is participating in a video conference while video conference participants).

また、デバイス100は、任意選択的に、1つ以上の接触強度センサ165を含む。図1Aは、I/Oサブシステム106内の強度センサコントローラ159に結合された接触強度センサを示している。接触強度センサ(単数又は複数)165は、任意選択的に、1つ以上のピエゾ抵抗ひずみゲージ、電気容量式力センサ、電気力センサ、圧電力センサ、光学力センサ、容量式タッチ感知面、又はその他の強度センサ(例えばタッチ感知面上の接触の力(又は圧力)を測定するために使用されるセンサ)を含む。接触強度センサ(単数又は複数)165は、環境から接触強度情報(例えば圧力情報又は圧力情報の代わりになるもの)を受信する。いくつかの実施形態では、少なくとも1つの接触強度センサは、タッチ感知面(例えばタッチ感知ディスプレイシステム112)と並置される、又はそれに近接している。いくつかの実施形態では、少なくとも1つの接触強度センサは、デバイス100の前面上に位置するタッチスクリーンディスプレイシステム112の反対側のデバイス100の背面上に位置する。 Device 100 also optionally includes one or more contact intensity sensors 165. FIG. 1A shows a contact intensity sensor coupled to an intensity sensor controller 159 within I/O subsystem 106. Contact strength sensor(s) 165 optionally include one or more piezoresistive strain gauges, capacitive force sensors, electrical force sensors, piezo force sensors, optical force sensors, capacitive touch sensitive surfaces, or and other intensity sensors, such as those used to measure the force (or pressure) of a contact on a touch-sensitive surface. Contact intensity sensor(s) 165 receives contact intensity information (eg, pressure information or a substitute for pressure information) from the environment. In some embodiments, at least one contact intensity sensor is juxtaposed with or proximate a touch-sensitive surface (eg, touch-sensitive display system 112). In some embodiments, at least one contact intensity sensor is located on the back side of device 100 opposite touch screen display system 112 that is located on the front side of device 100.

また、デバイス100は、任意選択的に、1つ以上の近接センサ166を含む。図1Aは、周辺機器インターフェース118に結合された近接センサ166を示している。あるいは、近接センサ166は、I/Oサブシステム106内の入力コントローラ160に結合される。いくつかの実施形態では、多機能デバイスがユーザーの耳の近くに配置されているとき(例えばユーザーが電話しているとき)に、近接センサは、タッチ感知ディスプレイシステム112をオフにして、使用不可状態にする。 Device 100 also optionally includes one or more proximity sensors 166. FIG. 1A shows a proximity sensor 166 coupled to peripheral interface 118. Alternatively, proximity sensor 166 is coupled to input controller 160 within I/O subsystem 106. In some embodiments, the proximity sensor turns off and disables the touch-sensitive display system 112 when the multifunction device is placed near the user's ear (e.g., when the user is on the phone). state.

また、デバイス100は、任意選択的に、1つ以上の触知出力生成器167を含む。図1Aは、I/Oサブシステム106内の触覚フィードバックコントローラ161に結合された触知出力生成器を示している。いくつかの実施形態では、触知出力生成器(単数又は複数)167は、スピーカ若しくはその他のオーディオコンポーネントなどの1つ以上の電気音響デバイス、及び/又はモータ、ソレノイド、電気活性ポリマー、圧電アクチュエータ、静電アクチュエータ若しくはその他の触知出力生成コンポーネント(例えば電気信号をデバイス上での触知出力に変換するコンポーネント)などのエネルギーを直線状の動きに変換する電気機械デバイスを含む。触知出力生成器(単数又は複数)167は、触覚フィードバックモジュール133から触知フィードバック生成命令を受信し、デバイス100のユーザーが感知できる触知出力をデバイス100上で生成する。いくつかの実施形態では、少なくとも1つの触知出力生成器は、タッチ感知面(例えばタッチ感知ディスプレイシステム112)と並置される、又はそれに近接しており、任意選択的に、タッチ感知面を垂直方向に(例えばデバイス100の表面の内/外に)、又は横方向に(例えばデバイス100の表面と同じプレーン内で前後に)移動させることによって、触知出力を生成する。いくつかの実施形態では、少なくとも1つの触知出力生成器センサは、デバイス100の前面上に位置するタッチ感知ディスプレイシステム112の反対側のデバイス100の背面上に位置する。 Device 100 also optionally includes one or more tactile output generators 167. FIG. 1A shows a tactile output generator coupled to a tactile feedback controller 161 within I/O subsystem 106. In some embodiments, tactile output generator(s) 167 comprises one or more electroacoustic devices, such as speakers or other audio components, and/or motors, solenoids, electroactive polymers, piezoelectric actuators, Includes an electromechanical device that converts energy into linear motion, such as an electrostatic actuator or other tactile output generating component (eg, a component that converts an electrical signal to a tactile output on the device). Tactile output generator(s) 167 receives tactile feedback generation instructions from tactile feedback module 133 and generates tactile output on device 100 that can be sensed by a user of device 100. In some embodiments, the at least one tactile output generator is juxtaposed with or proximate a touch-sensitive surface (e.g., touch-sensitive display system 112), and optionally vertically extends the touch-sensitive surface. A tactile output is generated by moving it in a direction (eg, in/out of the surface of device 100) or laterally (eg, back and forth in the same plane as the surface of device 100). In some embodiments, at least one tactile output generator sensor is located on the back side of the device 100 opposite the touch sensitive display system 112 located on the front side of the device 100.

また、デバイス100は、任意選択的に、1つ以上の加速度計168を含む。図1Aは、周辺機器インターフェース118に結合された加速度計168を示している。あるいは、加速度計168は、任意選択的に、I/Oサブシステム106内の入力コントローラ160に結合される。いくつかの実施形態では、情報は、1つ以上の加速度計から受信したデータの分析に基づいて、タッチスクリーンディスプレイに横長表示又は縦長表示で表示される。デバイス100は、任意選択的に、加速度計(単数又は複数)168に加えて、磁気計(図示せず)並びにデバイス100の位置及び向き(例えば縦長又は横長)に関する情報を取得するGPS(又はGLONASS若しくはその他のグローバルナビゲーションシステム)受信機(図示せず)を含む。 Device 100 also optionally includes one or more accelerometers 168. FIG. 1A shows accelerometer 168 coupled to peripheral interface 118. Alternatively, accelerometer 168 is optionally coupled to input controller 160 within I/O subsystem 106. In some embodiments, information is displayed on a touch screen display in a landscape or portrait format based on analysis of data received from one or more accelerometers. In addition to the accelerometer(s) 168, the device 100 optionally includes a magnetometer (not shown) and a GPS (or GLONASS) system that obtains information regarding the position and orientation (e.g., portrait or landscape) of the device 100. or other global navigation system) receiver (not shown).

いくつかの実施形態では、メモリ102に記憶されたソフトウェアコンポーネントは、オペレーティングシステム126、通信モジュール(又は命令セット)128、接触/動きモジュール(又は命令セット)130、グラフィックモジュール(又は命令セット)132、触覚フィードバックモジュール(又は命令セット)133、テキスト入力モジュール(又は命令セット)134、全地球測位システム(Global Positioning System、GPS)モジュール(又は命令セット)135、及びアプリケーション(又は命令セット)136を含む。更に、いくつかの実施形態では、図1A及び図3に示すように、メモリ102は、デバイス/グローバル内部状態157を記憶する。デバイス/グローバル内部状態157は、現在アクティブ状態のアプリケーションがある場合に、どのアプリケーションがアクティブであるかを示す、アクティブアプリケーション状態、タッチ感知ディスプレイシステム112の様々な領域を、どんなアプリケーション、ビュー、又はその他の情報が占有しているかを示す表示状態、デバイスの様々なセンサ及びその他の入力又は制御デバイス116から取得される情報を含むセンサ状態、並びにデバイスの位置及び/又は姿勢に関する位置及び/又は姿勢情報、のうちの1つ以上を含む。 In some embodiments, the software components stored in memory 102 include an operating system 126, a communication module (or instruction set) 128, a touch/motion module (or instruction set) 130, a graphics module (or instruction set) 132, It includes a haptic feedback module (or instruction set) 133 , a text input module (or instruction set) 134 , a Global Positioning System (GPS) module (or instruction set) 135 , and an application (or instruction set) 136 . Additionally, in some embodiments, as shown in FIGS. 1A and 3, memory 102 stores device/global internal state 157. Device/global internal state 157 provides active application state that indicates which application, if any, is currently active; various areas of touch-sensitive display system 112; display state indicating whether information is occupied, sensor state including information obtained from various sensors and other input or control devices 116 of the device, and position and/or orientation information regarding the position and/or orientation of the device. , including one or more of the following.

オペレーティングシステム126(例えばiOS、Darwin、RTXC、LINUX、UNIX(登録商標)、OS X、WINDOWS(登録商標)、又はVxWorksなどの組み込みオペレーティングシステム)は、全体的なシステムタスク(例えばメモリ管理、記憶デバイス制御、電力管理など)を制御及び管理する様々なソフトウェアコンポーネント及び/又はドライバを含み、様々なハードウェアコンポーネントとソフトウェアコンポーネントとの間の通信を円滑化する。 Operating system 126 (e.g., an embedded operating system such as iOS, Darwin, RTXC, LINUX, UNIX, OS X, WINDOWS, or VxWorks) performs overall system tasks (e.g., memory management, storage devices, etc.). control, power management, etc.) and facilitate communication between various hardware and software components.

通信モジュール128は、1つ以上の外部ポート124を介して他のデバイスとの通信を円滑化し、また、RF回路108及び/又は外部ポート124が受信するデータを処理する様々なソフトウェアコンポーネントも含む。外部ポート124(例えばユニバーサルシリアルバス(Universal Serial Bus、USB)、FIREWIRE(登録商標)など)は、直接的に、又はネットワーク(例えばインターネット、無線LANなど)を介して間接的に、他のデバイスに連結するように適合されている。いくつかの実施形態では、外部ポートは、米国カリフォルニア州CupertinoのApple社製のiPhone(登録商標)、iPod Touch(登録商標)、及びiPad(登録商標)といったいくつかのデバイスで使用される30ピンコネクタと同じである、又はこれに類似している、及び/又はこれと互換性のあるマルチピン(例えば30ピン)コネクタである。いくつかの実施形態では、外部ポートは、米国カリフォルニア州CupertinoのApple社製のiPhone(登録商標)、iPod Touch(登録商標)、及びiPad(登録商標)といったいくつかのデバイスで使用されるLightningコネクタと同じである、又はこれに類似している、及び/又はこれと互換性のあるLightningコネクタである。 Communication module 128 also includes various software components that facilitate communication with other devices via one or more external ports 124 and process data received by RF circuitry 108 and/or external ports 124 . External ports 124 (e.g., Universal Serial Bus (USB), FIREWIRE®, etc.) can be connected to other devices, either directly or indirectly via a network (e.g., the Internet, wireless LAN, etc.). adapted to be connected. In some embodiments, the external port is a 30-pin port used on some devices such as the iPhone®, iPod Touch®, and iPad® manufactured by Apple Inc. of Cupertino, California, USA. A multi-pin (eg, 30 pin) connector that is the same as, similar to, and/or compatible with the connector. In some embodiments, the external port is a Lightning connector used on some devices such as the iPhone®, iPod Touch®, and iPad® manufactured by Apple Inc. of Cupertino, California, USA. A Lightning connector that is the same as, similar to, and/or compatible with.

接触/動きモジュール130は、任意選択的に、タッチ感知ディスプレイシステム112との接触を(ディスプレイコントローラ156と協働して)検出し、また他のタッチ感知デバイス(例えばタッチパッド又は物理クリックホイール)との接触を検出する。接触/動きモジュール130は、接触が発生したかを判定する(例えば指が下りるイベントを検出する)、接触の強度(例えば接触の力若しくは圧力、又は接触の力若しくは圧力の代替物)を判定する、接触の移動があるかを判定してタッチ感知面にわたるその移動を追跡する(例えば1つ以上の指のドラッグイベントを検出する)、接触が終了したかどうかを判定する(例えば指が上がるイベント又は接触の中断を検出する)など、(例えば指又はスタイラスによる)接触の検出に関連する様々な動作を実行する様々なソフトウェアコンポーネントを含む。接触/動きモジュール130は、タッチ感知面から接触データを受信する。一連の接触データによって表される接触点の移動を判定することは、任意選択的に、接触点の速さ(大きさ)、速度(大きさ及び方向)、及び/又は加速度(大きさ及び/又は方向の変化)を決定することを含む。これらの動作は、任意選択的に、個別の接触(例えば1本の指による接触又は1つのスタイラスによる接触)、又は複数の同時接触(例えば「マルチタッチ」/複数本の指による接触)に適用される。いくつかの実施形態では、接触/動きモジュール130及びディスプレイコントローラ156は、タッチパッド上の接触を検出する。 Contact/motion module 130 optionally detects contact with touch-sensitive display system 112 (in conjunction with display controller 156) and also detects contact with other touch-sensitive devices (e.g., a touch pad or physical click wheel). Detect contact. The contact/motion module 130 determines whether a contact has occurred (e.g., detects a finger drop event), determines the strength of the contact (e.g., contact force or pressure, or a surrogate for contact force or pressure). , determine if there is movement of the contact and track its movement across the touch-sensitive surface (e.g., detect one or more finger drag events), determine whether the contact has ended (e.g., detect a finger raise event) The system includes various software components that perform various operations related to detecting a touch (e.g., by a finger or a stylus), such as detecting a break in the touch (or detecting an interruption in the touch). Touch/motion module 130 receives touch data from a touch-sensitive surface. Determining the movement of the contact point represented by the set of contact data may optionally include speed (magnitude), velocity (magnitude and direction), and/or acceleration (magnitude and/or direction) of the contact point. or change in direction). These operations optionally apply to individual contacts (e.g. single finger contacts or single stylus contacts) or multiple simultaneous contacts (e.g. "multi-touch"/multi-finger contacts). be done. In some embodiments, the touch/motion module 130 and display controller 156 detect a touch on the touchpad.

接触/動きモジュール130は、任意選択的に、ユーザーによるジェスチャ入力を検出する。タッチ感知面上の異なるジェスチャは、異なる接触パターンを有する(例えば検出される接触の動き、タイミング、及び/又は強度が異なる)。したがって、ジェスチャは、任意選択的に、特定の接触パターンを検出することによって検出される。例えば、指のタップジェスチャの検出は、(例えばアイコンの位置で)指が下りるイベントを検出した後に、指が下りるイベントと同じ位置(又は実質的に同じ位置)で指が上がる(リフトオフ)イベントを検出することを含む。別の実施例では、タッチ感知面上の指のスワイプジェスチャの検出は、指が下りるイベントを検出した後に、1つ以上の指のドラッグイベントを検出し、その後に、指が上がる(リフトオフ)イベントを検出することを含む。スタイラスについても同様に、タップ、スワイプ、ドラッグ、及びその他のジェスチャは、任意選択的に、そのスタイラスについての特定の接触パターンを検出することによって検出される。 Touch/movement module 130 optionally detects gesture input by the user. Different gestures on the touch-sensitive surface have different contact patterns (eg, different detected contact movements, timing, and/or intensity). Thus, gestures are optionally detected by detecting specific contact patterns. For example, detecting a finger tap gesture can detect a finger down event (e.g. at the location of an icon), followed by a finger up (liftoff) event at the same location (or substantially the same location) as the finger down event. Including detecting. In another example, detecting a finger swipe gesture on a touch-sensitive surface includes detecting one or more finger drag events after detecting a finger down event, followed by a finger lift-off event. including detecting. Similarly for a stylus, taps, swipes, drags, and other gestures are optionally detected by detecting specific contact patterns for the stylus.

いくつかの実施形態では、指のタップジェスチャの検出は、指が下りるイベントを検出してから指が上がるイベントを検出するまでの時間の長さに依存するが、指が下りるイベントを検出してから指が上がるイベントを検出するまでの間の指の接触の強度には左右されない。いくつかの実施形態では、タップジェスチャは、タップ中の指の接触の強度が、軽い押圧又は深い押圧の強度閾値など所与の強度閾値(公称接触検出強度閾値よりも大きい)を満たすかどうかに関わりなく、指が下りるイベントから指が上がるイベントまでの間の時間の長さが所定の値よりも小さい(例えば0.1秒、0.2秒、0.3秒、0.4秒、又は0.5秒よりも短い)との判定にしたがって検出される。したがって、指のタップジェスチャは、その特定の入力基準が満たされるために接触の特性強度が所与の強度閾値を満たすことを必要としない、特定の入力基準を満たせばよい。明確にするために、指が下りるイベントが検出されるためには、タップジェスチャにおける指の接触は、通常は、それを下回ると接触が検出されない公称接触検出強度閾値を満たす必要がある。同様の分析は、スタイラスによる接触またはその他の接触によるタップジェスチャの検出にも当てはまる。デバイスがタッチ感知面上をホバリングする指又はスタイラスの接触を検出することができる場合には、公称接触検出強度閾値は、任意選択的に、指又はスタイラスとタッチ感知面との間の物理的接触に対応しない。 In some embodiments, detection of a finger tap gesture depends on the length of time between detecting a finger down event and detecting a finger up event, but detecting a finger down event It does not depend on the strength of the finger contact between when the finger is raised and when the finger lift event is detected. In some embodiments, the tap gesture depends on whether the intensity of the finger contact during the tap meets a given intensity threshold (greater than a nominal contact detection intensity threshold), such as a light press or deep press intensity threshold. Regardless, the length of time between the finger down event and the finger up event is less than a predetermined value (e.g. 0.1 seconds, 0.2 seconds, 0.3 seconds, 0.4 seconds, or 0.5 seconds). Thus, a finger tap gesture need only satisfy a particular input criterion without requiring that the characteristic intensity of the contact meet a given intensity threshold for that particular input criterion to be met. To be clear, in order for a finger down event to be detected, a finger contact in a tap gesture must typically meet a nominal contact detection strength threshold below which the contact will not be detected. A similar analysis applies to the detection of tap gestures by stylus or other contacts. If the device is capable of detecting the contact of a finger or stylus hovering over a touch-sensitive surface, the nominal touch detection strength threshold is optionally determined by physical contact between the finger or stylus and the touch-sensitive surface. does not correspond to

同じ概念が、他のタイプのジェスチャにも同様に当てはまる。例えば、スワイプジェスチャ、ピンチジェスチャ、デピンチジェスチャ、及び/又は長押しジェスチャは、任意選択的に、ジェスチャに含まれる接触の強度と無関係であるか、又はジェスチャを行う接触(単数又は複数)が認識されるのに強度閾値に到達することを必要としない基準が満たされることに基づいて、検出される。例えば、スワイプジェスチャは、1つ以上の接触の移動量に基づいて検出され、ピンチジェスチャは、2つ以上の接触の互いに向かう移動に基づいて検出され、デピンチジェスチャは、2つ以上の接触の互いに遠ざかる移動に基づいて検出され、長押しジェスチャは、移動量が閾値移動量未満であるタッチ感知面上の接触の持続時間に基づいて検出される。したがって、特定のジェスチャ認識基準が、その特定のジェスチャ認識基準が満たされるために接触(単数又は複数)の強度がそれぞれの強度閾値を満たすことを必要としないという記述は、ジェスチャにおける接触(単数又は複数)がそれぞれの強度閾値に達しない場合にもその特定のジェスチャ認識基準を満たすことができ、またジェスチャにおける接触のうちの1つ以上がそれぞれの強度閾値に達しない、又はそれを超えない状況でも満たすことができることを意味している。いくつかの実施形態では、タップジェスチャは、接触が所定の期間中にそれぞれの強度閾値を上回る又は下回るかどうか関わらず、指が下りるイベント及び指が上がるイベントがその所定の期間内に検出されたとの判定に基づいて検出され、スワイプジェスチャは、接触の移動の終わりにその接触がそれぞれの強度閾値を上回る場合でも、接触の移動が所定の大きさよりも大きいとの判定に基づいて検出される。ジェスチャの検出が、ジェスチャを行う接触の強度の影響を受ける実施態様(例えば、デバイスが、接触の強度が強度閾値を上回るときには早めに長押しを検出する、又は接触の強度が高いときにはタップ入力の検出を遅らせる)でも、接触が特定の強度閾値に達しない状況でそのジェスチャを認識する基準を満たすことができる限り(例えば、ジェスチャを認識するためにかかる時間の長さが変化する場合でも)、これらのジェスチャの検出は、接触が特定の強度閾値に到達することを必要としない。 The same concept applies to other types of gestures as well. For example, swipe gestures, pinch gestures, depinch gestures, and/or press and hold gestures are optionally independent of the intensity of the contact involved in the gesture, or the contact(s) making the gesture is recognized. detection is based on a criterion being met that does not require an intensity threshold to be reached in order to be detected. For example, a swipe gesture is detected based on the amount of movement of one or more contacts, a pinch gesture is detected based on the movement of two or more contacts toward each other, and a de-pinch gesture is detected based on the amount of movement of two or more contacts. A long press gesture is detected based on the movement away from each other, and a long press gesture is detected based on the duration of contact on the touch-sensitive surface where the amount of movement is less than a threshold amount of movement. Therefore, a statement that a particular gesture recognition criterion does not require that the intensity of the contact(s) meet a respective intensity threshold for the particular gesture recognition criterion to be met does not mean that the contact(s) in the gesture a particular gesture recognition criterion can be met even if the contacts in the gesture do not reach or exceed the respective intensity threshold. However, it means that it can be fulfilled. In some embodiments, a tap gesture occurs when a finger down event and a finger up event are detected within a predetermined time period, regardless of whether the contact is above or below a respective intensity threshold during the predetermined time period. A swipe gesture is detected based on a determination that the contact movement is greater than a predetermined magnitude, even if at the end of the contact movement the contact exceeds a respective intensity threshold. Implementations in which gesture detection is influenced by the intensity of the contact that makes the gesture (e.g., the device detects a long press earlier when the intensity of the contact is above an intensity threshold, or the device detects a long press earlier when the intensity of the contact is above an intensity threshold, or delay detection), as long as the criteria for recognizing that gesture can be met in situations where the touch does not reach a certain intensity threshold (e.g., even if the length of time it takes to recognize the gesture changes). Detection of these gestures does not require the touch to reach a particular intensity threshold.

いくつかの状況では、接触強度閾値、持続時間閾値、及び移動閾値を、様々に異なる組合せで組み合わせて、同じ入力要素又は領域に向けられた2つ以上の異なるジェスチャを区別するヒューリスティックスを作成して、同じ入力要素との複数の異なる対話によってより豊かなユーザー対話及び応答のセットを提供することができるようにする。ジェスチャ認識基準の特定のセットが、その特定のジェスチャ認識基準が満たされるために接触(単数又は複数)の強度がそれぞれの強度閾値を満たすことを必要としないという記述は、ジェスチャがそれぞれの強度閾値を超える強度を有する接触を含むときに満たされる基準を有する他のジェスチャを識別するための他の強度に依存するジェスチャ認識基準をそれと同時に評価することを排除しない。例えば、いくつかの状況では、そのジェスチャ認識基準が満たされるために接触(単数又は複数)の強度がそれぞれの強度閾値を満たすことを必要としない第1のジェスチャの第1のジェスチャ認識基準が、接触(単数又は複数)がそれぞれの強度閾値に到達することに依存する第2のジェスチャの第2のジェスチャ認識基準と競合する。このような競合時には、ジェスチャは、任意選択的に、第2のジェスチャの第2のジェスチャ認識基準が先に満たされた場合には、第1のジェスチャの第1のジェスチャ認識基準を満足しているものとは認識されない。例えば、接触が所定の移動量を移動する前にそれぞれの強度閾値に達した場合には、スワイプジェスチャではなく深押しジェスチャが検出される。逆に、接触が所定の移動量を移動した後でそれぞれの強度閾値に達した場合には、深押しジェスチャではなくスワイプジェスチャが検出される。このような状況でも、やはり、第1のジェスチャの第1のジェスチャ認識基準は、第1のジェスチャ認識基準が満たされるために接触(単数又は複数)の強度がそれぞれの強度閾値を満たすことを必要としない。これは、ジェスチャの終わりまで接触がそれぞれの強度閾値を下回ったままであったとしたら(例えばそれぞれの強度閾値を上回る強度まで増大しない接触を有するスワイプジェスチャの場合)、そのジェスチャは、第1のジェスチャ認識基準によってスワイプジェスチャとして認識されているはずであるからである。したがって、その特定のジェスチャ認識基準が満たされるために接触(単数又は複数)の強度がそれぞれの強度閾値を満たすことを必要としない特定のジェスチャ認識基準は、(A)いくつかの状況では、(例えばタップジェスチャの)強度閾値に関して接触の強度を無視し、かつ/又は(B)いくつかの状況では、競合する強度依存ジェスチャ認識基準(例えば長押しジェスチャの認識基準)のセットがある入力を強度依存ジェスチャに対応するものとして認識した後で、その特定のジェスチャ認識基準がその入力に対応するジェスチャ(例えば深押しジェスチャと認識をめぐって競合する長押しジェスチャ)を認識した場合には、その特定のジェスチャ認識基準(例えば長押しジェスチャの認識基準)が満たされないという意味で、依然として強度閾値に関して接触の強度に依存する。 In some situations, contact intensity thresholds, duration thresholds, and movement thresholds may be combined in different combinations to create heuristics that distinguish between two or more different gestures directed at the same input element or region. , allowing multiple different interactions with the same input element to provide a richer set of user interactions and responses. A statement that a particular set of gesture recognition criteria does not require that the intensity of the contact(s) meet the respective intensity threshold for the particular set of gesture recognition criteria to be met means that the gesture does not meet the respective intensity threshold. It does not preclude simultaneously evaluating other intensity-dependent gesture recognition criteria for identifying other gestures whose criteria are met when they involve a contact with an intensity greater than . For example, in some situations, a first gesture recognition criterion for a first gesture that does not require the intensity of the contact(s) to meet a respective intensity threshold for that gesture recognition criterion to be satisfied. A second gesture recognition criterion for a second gesture that depends on the contact(s) reaching a respective intensity threshold. Upon such a conflict, a gesture may optionally satisfy the first gesture recognition criterion of the first gesture if the second gesture recognition criterion of the second gesture is satisfied first. It is not recognized as being present. For example, a deep press gesture rather than a swipe gesture is detected if the contact reaches the respective intensity threshold before moving a predetermined amount of travel. Conversely, if the contact reaches the respective intensity threshold after moving a predetermined amount of travel, a swipe gesture rather than a deep press gesture is detected. In such a situation, the first gesture recognition criterion for the first gesture still requires that the intensity of the contact(s) meet the respective intensity threshold for the first gesture recognition criterion to be satisfied. I don't. This means that if the contact remains below the respective intensity threshold until the end of the gesture (e.g. for a swipe gesture with contacts that do not increase in intensity above the respective intensity threshold), then the gesture This is because it should be recognized as a swipe gesture according to the standards. Accordingly, a particular gesture recognition criterion that does not require that the intensity of the contact(s) meet a respective intensity threshold for that particular gesture recognition criterion to be satisfied may (A) in some circumstances ( (B) ignore the intensity of the contact with respect to an intensity threshold (e.g. for a tap gesture), and/or (B) After recognizing a dependent gesture as corresponding to a dependent gesture, if that particular gesture recognition criterion recognizes a gesture corresponding to that input (e.g. a long press gesture that competes for recognition with a deep press gesture), that particular gesture It still depends on the intensity of the touch with respect to the intensity threshold, in the sense that the recognition criteria (e.g. the recognition criterion of a long press gesture) are not met.

グラフィックモジュール132は、表示されるグラフィックの視覚的影響(例えば、輝度、透明度、彩度、コントラスト、又はその他の視覚特性)を変更するコンポーネントなど、タッチ感知ディスプレイシステム112又はその他のディスプレイ上でグラフィックをレンダリング及び表示する様々な既知のソフトウェアコンポーネントを含む。本明細書で使用する「グラフィック」という用語は、これらに限定されるわけではないが、テキスト、ウェブページ、アイコン(ソフトキーを含むユーザーインターフェースオブジェクトなど)、デジタル画像、ビデオ、アニメーションなど、ユーザーに対して表示することができる任意のオブジェクトを含む。 Graphics module 132 may display graphics on touch-sensitive display system 112 or other display, such as components that change the visual impact (e.g., brightness, transparency, saturation, contrast, or other visual characteristics) of the displayed graphics. Includes various known software components for rendering and display. As used herein, the term "graphics" refers to any material, including, but not limited to, text, web pages, icons (such as user interface objects, including softkeys), digital images, videos, animations, etc. Contains any object that can be displayed against.

いくつかの実施形態では、グラフィックモジュール132は、使用されるグラフィックを表すデータを記憶する。各グラフィックには、任意選択的に、対応するコードが割り当てられる。グラフィックモジュール132は、アプリケーションなどから、必要に応じて座標データ及び他のグラフィック特性データと共に表示されるグラフィックを指定する1つ以上のコードを受信し、次いで、ディスプレイコントローラ156に出力するスクリーン画像データを生成する。 In some embodiments, graphics module 132 stores data representing the graphics used. Each graphic is optionally assigned a corresponding code. Graphics module 132 receives one or more codes, such as from an application, specifying graphics to be displayed, optionally along with coordinate data and other graphical characteristic data, and then outputs screen image data to display controller 156. generate.

触覚フィードバックモジュール133は、デバイス100とのユーザー対話に応答して、触知出力生成器(単数又は複数)167を使用してデバイス100上の1つ以上の位置で触知出力を生成する命令(例えば触覚フィードバックコントローラ161によって使用される命令)を生成する様々なソフトウェアコンポーネントを含む。 Haptic feedback module 133 includes instructions for generating tactile output at one or more locations on device 100 using tactile output generator(s) 167 in response to user interaction with device 100 . For example, the haptic feedback controller 161 includes various software components that generate instructions used by the haptic feedback controller 161.

テキスト入力モジュール134は、任意選択的にグラフィックモジュール132の構成要素であり、様々なアプリケーション(例えば連絡先137、電子メール140、IM141、ブラウザ147、及びテキスト入力を必要とするその他の任意のアプリケーション)でテキストを入力するためのソフトキーボードを提供する。 Text input module 134 is optionally a component of graphics module 132 and is used for various applications (e.g., contacts 137, email 140, IM 141, browser 147, and any other applications that require text input). Provides a soft keyboard for entering text.

GPSモジュール135は、デバイスの場所を決定し、この情報を、様々なアプリケーションで使用されるように提供する(例えば、電話138に提供して場所に基づくダイヤル発呼に使用する、写真/ビデオのメタデータとしてカメラ143に提供する、並びに天気ウィジェット、地域の電話帳ウィジェット、及び地図/ナビゲーションウィジェットなど場所に基づくサービスを提供するアプリケーションに提供するなど)。 The GPS module 135 determines the location of the device and provides this information for use in various applications (e.g., providing photo/video data to the phone 138 for use in location-based dialing). (such as provided as metadata to the camera 143 and to applications that provide location-based services such as weather widgets, local directory widgets, and map/navigation widgets).

アプリケーション136は、任意選択的に、以下のモジュール(又は命令セット)又はそれらのサブセット若しくはスーパーセットを含む。
●連絡先モジュール137(アドレス帳又は連絡先リストと呼ばれることもある)、
●電話モジュール138、
●ビデオ会議モジュール139、
●電子メールクライアントモジュール140、
●インスタントメッセージング(IM)モジュール141、
●トレーニングサポートモジュール142、
●静止画像及び/若しくはビデオ画像用のカメラモジュール143、
●画像管理モジュール144、
●ブラウザモジュール147、
●カレンダモジュール148、
●天気ウィジェット149-1、株価ウィジェット149-2、計算機ウィジェット149-3、目覚まし時計ウィジェット149-4、辞書ウィジェット149-5、及びユーザーが取得したその他のウィジェット、並びにユーザー作成ウィジェット149-6のうちの1つ以上を任意選択的に含む、ウィジェットモジュール149、
●ユーザー作成ウィジェット149-6を作成するウィジェットクリエータモジュール150、
●検索モジュール151、
●任意選択的にビデオプレーヤーモジュール及び音楽プレーヤモジュールで構成される、ビデオ及び音楽プレーヤモジュール152、
●メモモジュール153、
●地図モジュール154、並びに/又は
●オンラインビデオモジュール155。
Application 136 optionally includes the following modules (or instruction sets) or a subset or superset thereof.
● contacts module 137 (sometimes called address book or contact list);
Telephone module 138,
Video conference module 139,
- E-mail client module 140,
● Instant messaging (IM) module 141,
Training support module 142,
- camera module 143 for still and/or video images;
Image management module 144,
Browser module 147,
Calendar module 148,
- Weather widget 149-1, stock price widget 149-2, calculator widget 149-3, alarm clock widget 149-4, dictionary widget 149-5, and other widgets acquired by users and user-created widgets 149-6. a widget module 149, optionally including one or more of
- a widget creator module 150 that creates a user-created widget 149-6;
Search module 151,
- a video and music player module 152, optionally consisting of a video player module and a music player module;
Memo module 153,
Map module 154 and/or ● Online video module 155.

任意選択的にメモリ102に記憶される他のアプリケーション136の例としては、他のワードプロセッシングアプリケーション、他の画像編集アプリケーション、描画アプリケーション、プレゼンテーションアプリケーション、JAVA(登録商標)対応アプリケーション、暗号化、デジタル著作権管理、音声認識、及び音声複製が挙げられる。 Examples of other applications 136 optionally stored in memory 102 include other word processing applications, other image editing applications, drawing applications, presentation applications, JAVA-enabled applications, encryption, digital writing, etc. rights management, voice recognition, and voice replication.

タッチ感知ディスプレイシステム112、ディスプレイコントローラ156、接触モジュール130、グラフィックモジュール132、及びテキスト入力モジュール134に関連して、連絡先モジュール137は、アドレス帳に名前(単数又は複数)を追加する、アドレス帳から名前(単数又は複数)を削除する、電話番号(単数又は複数)、メールアドレス(単数又は複数)、物理アドレス(単数又は複数)又はその他の情報を名前と関連付ける、画像を名前と関連付ける、名前を分類して整理する、電話番号及び/又は電子メールアドレスを提供して、電話138、ビデオ会議139、電子メール140又はIM141によって通信を開始及び/又は円滑化するなど、(例えばメモリ102又はメモリ370の連絡先モジュール137のアプリケーション内部状態192に記憶される)アドレス帳又は連絡先リストを管理するための実行可能命令を含む。 In conjunction with the touch-sensitive display system 112, the display controller 156, the contact module 130, the graphics module 132, and the text input module 134, the contacts module 137 adds name(s) to the address book, adds the name(s) to the address book, and adds the name(s) to the address book. delete a name(s); associate a phone number(s), email address(es), physical address(es) or other information with a name; associate an image with a name; such as sorting and organizing, providing phone numbers and/or email addresses to initiate and/or facilitate communications by telephone 138, video conferencing 139, email 140, or IM 141 (e.g., memory 102 or memory 370). Contains executable instructions for managing an address book or contact list (stored in application internal state 192 of contacts module 137).

RF回路108、オーディオ回路110、スピーカ111、マイクロフォン113、タッチ感知ディスプレイシステム112、ディスプレイコントローラ156、接触モジュール130、グラフィックモジュール132、及びテキスト入力モジュール134に関連して、電話モジュール138は、電話番号に対応する一連の文字を入力し、アドレス帳137内の1つ以上の電話番号にアクセスし、入力されている電話番号を修正し、それぞれの電話番号をダイヤルし、会話を実行し、会話が完了したときに切断する、又は電話を切る実行可能命令を含む。上述したように、無線通信は、任意選択的に、複数の通信規格、プロトコル、及び技術のうちのいずれかを使用する。 In conjunction with the RF circuit 108, the audio circuit 110, the speaker 111, the microphone 113, the touch-sensitive display system 112, the display controller 156, the contact module 130, the graphics module 132, and the text input module 134, the telephone module 138 is configured to input a telephone number. Enter the corresponding sequence of characters, access one or more phone numbers in the address book 137, modify the entered phone numbers, dial the respective phone number, carry out the conversation, and complete the conversation. Contains executable instructions to disconnect or hang up when the call is made. As mentioned above, wireless communications optionally use any of a number of communication standards, protocols, and technologies.

RF回路108、オーディオ回路110、スピーカ111、マイクロフォン113、タッチ感知ディスプレイシステム112、ディスプレイコントローラ156、光センサ(単数又は複数)164、光センサコントローラ158、接触モジュール130、グラフィックモジュール132、テキスト入力モジュール134、連絡先リスト137、及び電話モジュール138に関連して、ビデオ会議モジュール139は、ユーザーの命令にしたがってユーザーと1人以上の他の参加者との間のビデオ会議を開始し、行い、終了する実行可能命令を含む。 RF circuit 108 , audio circuit 110 , speaker 111 , microphone 113 , touch sensitive display system 112 , display controller 156 , light sensor(s) 164 , light sensor controller 158 , contact module 130 , graphics module 132 , text input module 134 , contact list 137, and telephone module 138, video conferencing module 139 initiates, conducts, and terminates a video conference between the user and one or more other participants according to the user's instructions. Contains executable instructions.

RF回路108、タッチ感知ディスプレイシステム112、ディスプレイコントローラ156、接触モジュール130、グラフィックモジュール132、及びテキスト入力モジュール134に関連して、電子メールクライアントモジュール140は、ユーザーの命令に応答して電子メールを作成し、送信し、受信し、管理する実行可能命令を含む。画像管理モジュール144に関連して、電子メールクライアントモジュール140は、カメラモジュール143で撮影された静止画像又はビデオ画像を有する電子メールを作成及び送信することを非常に容易にする。 In conjunction with the RF circuitry 108, touch-sensitive display system 112, display controller 156, contact module 130, graphics module 132, and text input module 134, an email client module 140 composes emails in response to user instructions. Contains executable instructions to send, receive, and manage information. In conjunction with the image management module 144, the email client module 140 greatly facilitates creating and sending emails with still or video images taken with the camera module 143.

RF回路108、タッチ感知ディスプレイシステム112、ディスプレイコントローラ156、接触モジュール130、グラフィックモジュール132、及びテキスト入力モジュール134に関連して、インスタントメッセージングモジュール141は、インスタントメッセージに対応する一連の文字を入力し、以前に入力された文字を修正し、(例えば電話によるインスタントメッセージ用のショートメッセージサービス(Short Message Service、SMS)若しくはマルチメディアメッセージサービス(Multimedia Message Service、MMS)プロトコルを使用して、又はインターネットによるインスタントメッセージ用のXMPP、SIMPLE、Apple Push Notification Service(APNs)若しくはIMPSを使用して)それぞれのインスタントメッセージを伝送し、インスタントメッセージを受信し、受信したインスタントメッセージを見る実行可能命令を含む。いくつかの実施形態では、伝送及び/又は受信されるインスタントメッセージは、任意選択的に、MMS及び/又は拡張メッセージングサービス(Enhanced Messaging Service、EMS)でサポートされるグラフィック、写真、オーディオファイル、ビデオファイル、及び/又はその他の添付物を含む。本明細書で使用する「インスタントメッセージ」は、電話によるメッセージ(例えばSMS又はMMSを使用して送信されるメッセージ)及びインターネットによるメッセージ(例えばXMPP、SIMPLE、APNs、又はIMPSを使用して送信されるメッセージ)の両方を指す。 In conjunction with the RF circuit 108, the touch-sensitive display system 112, the display controller 156, the contact module 130, the graphics module 132, and the text input module 134, the instant messaging module 141 inputs a series of characters corresponding to an instant message; Modify previously entered characters (e.g. using the Short Message Service (SMS) or Multimedia Message Service (MMS) protocols for instant messaging over the telephone, or instant messaging over the Internet). The method includes executable instructions for transmitting, receiving instant messages, and viewing received instant messages (using XMPP, SIMPLE, Apple Push Notification Services (APNs), or IMPS for messaging). In some embodiments, instant messages transmitted and/or received optionally include graphics, photos, audio files, video files supported by MMS and/or Enhanced Messaging Service (EMS). , and/or other attachments. As used herein, "instant messages" refer to telephone messages (e.g., messages sent using SMS or MMS) and Internet messages (e.g., messages sent using XMPP, SIMPLE, APNs, or IMPS). message).

RF回路108、タッチ感知ディスプレイシステム112、ディスプレイコントローラ156、接触モジュール130、グラフィックモジュール132、テキスト入力モジュール134、GPSモジュール135、地図モジュール154、並びにビデオ及び音楽プレーヤモジュール152に関連して、トレーニングサポートモジュール142は、(例えば時間、距離、及び/又はカロリー消費目標を有する)トレーニングを作成し、(スポーツデバイス及びスマートウォッチの)トレーニングセンサと通信し、トレーニングセンサデータを受信し、トレーニングをモニタするために使用されるセンサを較正し、トレーニングのための音楽を選択して再生し、トレーニングデータを表示、記憶、及び伝送する実行可能命令を含む。 A training support module in conjunction with the RF circuit 108, touch sensitive display system 112, display controller 156, contact module 130, graphics module 132, text input module 134, GPS module 135, map module 154, and video and music player module 152. 142 for creating workouts (e.g., with time, distance, and/or calorie consumption goals), communicating with training sensors (of sports devices and smart watches), receiving training sensor data, and monitoring training. It includes executable instructions to calibrate the sensors used, select and play music for training, and display, store, and transmit training data.

タッチ感知ディスプレイシステム112、ディスプレイコントローラ156、光センサ(単数又は複数)164、光センサコントローラ158、接触モジュール130、グラフィックモジュール132、及び画像管理モジュール144に関連して、カメラモジュール143は、静止画像若しくはビデオ(ビデオストリームを含む)をキャプチャして、それらをメモリ102に記憶し、静止画像若しくはビデオの特性を修正し、かつ/又はメモリ102から静止画像若しくはビデオを削除する実行可能命令を含む。 In conjunction with touch-sensitive display system 112, display controller 156, light sensor(s) 164, light sensor controller 158, contact module 130, graphics module 132, and image management module 144, camera module 143 is configured to capture still images or Executable instructions are included for capturing videos (including video streams) and storing them in memory 102, modifying characteristics of still images or videos, and/or deleting still images or videos from memory 102.

タッチ感知ディスプレイシステム112、ディスプレイコントローラ156、接触モジュール130、グラフィックモジュール132、テキスト入力モジュール134、及びカメラモジュール143に関連して、画像管理モジュール144は、静止画像及び/又はビデオ画像を配置し、修正(例えば編集)するなどして操作し、ラベル付けし、削除し、(例えばデジタルスライドショーで、又はアルバムとして)提示し、記憶する実行可能命令を含む。 In conjunction with touch-sensitive display system 112, display controller 156, contact module 130, graphics module 132, text input module 134, and camera module 143, image management module 144 arranges and modifies still and/or video images. Contains executable instructions for manipulating (eg, editing), labeling, deleting, presenting (eg, in a digital slide show or as an album), and storing.

RF回路108、タッチ感知ディスプレイシステム112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックモジュール132、及びテキスト入力モジュール134に関連して、ブラウザモジュール147は、ウェブページ又はその一部、並びにウェブページにリンクされた添付物及びその他のファイルを検索する、それらにリンクする、受信する、及び表示するなど、ユーザーの命令にしたがってインターネットを閲覧する実行可能命令を含む。 In conjunction with the RF circuitry 108, the touch-sensitive display system 112, the display system controller 156, the contact module 130, the graphics module 132, and the text input module 134, the browser module 147 provides web pages or portions thereof, and links to web pages. includes executable instructions for browsing the Internet according to a user's instructions, such as searching for, linking to, receiving, and displaying attached attachments and other files.

RF回路108、タッチ感知ディスプレイシステム112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックモジュール132、テキスト入力モジュール134、電子メールクライアントモジュール140、及びブラウザモジュール147に関連して、カレンダモジュール148は、ユーザーの命令にしたがって、カレンダ及びカレンダに関連するデータ(例えばカレンダ項目、ToDoリストなど)を作成し、表示し、修正し、記憶する実行可能命令を含む。 Calendar module 148, in conjunction with RF circuitry 108, touch-sensitive display system 112, display system controller 156, contact module 130, graphics module 132, text input module 134, email client module 140, and browser module 147, Includes executable instructions for creating, displaying, modifying, and storing calendars and calendar-related data (eg, calendar items, to-do lists, etc.) in accordance with the instructions.

RF回路108、タッチ感知ディスプレイシステム112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックモジュール132、テキスト入力モジュール134、及びブラウザモジュール147に関連して、ウィジェットモジュール149は、任意選択的にユーザーによってダウンロードされて使用されるミニアプリケーション(例えば気象ウィジェット149-1、株式ウィジェット149-2、計算機ウィジェット149-3、目覚まし時計ウィジェット149-4、及び辞書ウィジェット149-5)であるか、又はユーザーによって作成されるミニアプリケーション(例えばユーザー作成ウィジェット149-6)である。いくつかの実施形態では、ウィジェットは、HTML(Hypertext Markup Language、ハイパーテキストマークアップ言語)ファイル、CSS(Cascading Style Sheets、カスケーディングスタイルシート)ファイル、及びJavaScript(登録商標)ファイルを含む。いくつかの実施形態では、ウィジェットは、XML(Extensible Markup Language、拡張可能マークアップ言語)ファイル、及びJavaScriptファイル(例えばYahoo!ウィジェット)を含む。 In conjunction with RF circuitry 108, touch-sensitive display system 112, display system controller 156, contact module 130, graphics module 132, text input module 134, and browser module 147, widget module 149 is optionally downloaded by the user. mini-applications (e.g., weather widget 149-1, stock widget 149-2, calculator widget 149-3, alarm clock widget 149-4, and dictionary widget 149-5) used in the A mini-application (eg, a user-created widget 149-6). In some embodiments, the widgets include Hypertext Markup Language (HTML) files, Cascading Style Sheets (CSS) files, and JavaScript files. In some embodiments, widgets include Extensible Markup Language (XML) files and JavaScript files (eg, Yahoo! Widgets).

RF回路108、タッチ感知ディスプレイシステム112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックモジュール132、テキスト入力モジュール134、及びブラウザモジュール147に関連して、ウィジェットクリエータモジュール150は、ウィジェットを作成する(例えばウェブページのユーザー指定部分をウィジェットにする)実行可能命令を含む。 In conjunction with RF circuitry 108, touch-sensitive display system 112, display system controller 156, contact module 130, graphics module 132, text input module 134, and browser module 147, widget creator module 150 creates widgets (e.g., Contains executable instructions that turn a user-specified portion of the page into a widget.

タッチ感知ディスプレイシステム112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックモジュール132、及びテキスト入力モジュール134に関連して、検索モジュール151は、ユーザーの命令にしたがって、1つ以上の検索基準(例えば1つ以上のユーザー指定の検索語)と一致する、メモリ102内のテキスト、音楽、音声、画像、ビデオ、及び/又はその他のファイルを検索する実行可能命令を含む。 In conjunction with touch-sensitive display system 112, display system controller 156, contact module 130, graphics module 132, and text input module 134, search module 151 searches for one or more search criteria (e.g., one The user-specified search terms described above include executable instructions to search for text, music, audio, images, video, and/or other files in memory 102 that match user-specified search terms).

タッチ感知ディスプレイシステム112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックモジュール132、オーディオ回路110、スピーカ111、RF回路108、及びブラウザモジュール147に関連して、ビデオ及び音楽プレーヤモジュール152は、MP3又はAACファイルなどの1つ以上のファイル形式で記憶された記録された音楽又はその他の音声ファイルをユーザーがダウンロードして再生することを可能にする実行可能命令、及び(例えばタッチ感知ディスプレイシステム112上で、又は無線で、若しくは外部ポート124を介して接続された外部のディスプレイ上で)ビデオを表示したり提示したりするなどして再生する実行可能命令を含む。いくつかの実施形態では、デバイス100は、任意選択的に、iPod(Apple社の商標)などのMP3プレーヤの機能を含む。 In conjunction with touch-sensitive display system 112, display system controller 156, contact module 130, graphics module 132, audio circuitry 110, speakers 111, RF circuitry 108, and browser module 147, video and music player module 152 supports MP3 or AAC executable instructions that enable a user to download and play recorded music or other audio files stored in one or more file formats, such as (e.g., on touch-sensitive display system 112); or wirelessly or on an external display connected via external port 124). In some embodiments, device 100 optionally includes the functionality of an MP3 player, such as an iPod (trademark of Apple Inc.).

タッチ感知ディスプレイシステム112、ディスプレイコントローラ156、接触モジュール130、グラフィックモジュール132、及びテキスト入力モジュール134に関連して、メモモジュール153は、ユーザーの命令にしたがって、メモ、ToDoリストなどを作成して管理する実行可能命令を含む。 In conjunction with touch-sensitive display system 112, display controller 156, contact module 130, graphics module 132, and text input module 134, notes module 153 creates and manages notes, to-do lists, etc. according to user instructions. Contains executable instructions.

RF回路108、タッチ感知ディスプレイシステム112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックモジュール132、テキスト入力モジュール134、GPSモジュール135、及びブラウザモジュール147に関連して、地図モジュール154は、ユーザーの命令にしたがって、地図及び地図に関連するデータ(例えば、運転方向、特定の場所又はその付近の店舗及びその他の対象地点についてのデータ、並びにその他の場所に基づくデータ)を受信し、表示し、修正し、記憶する実行可能命令を含む。 In conjunction with RF circuitry 108, touch-sensitive display system 112, display system controller 156, contact module 130, graphics module 132, text input module 134, GPS module 135, and browser module 147, map module 154 responds to user instructions. thus receiving, displaying, and modifying maps and map-related data (e.g., driving directions, data about stores and other points of interest at or near a particular location, and other location-based data); Contains executable instructions to store.

タッチ感知ディスプレイシステム112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックモジュール132、オーディオ回路110、スピーカ111、RF回路108、テキスト入力モジュール134、電子メールクライアントモジュール140、及びブラウザモジュール147に関連して、オンラインビデオモジュール155は、ユーザーがH.264などの1つ以上のファイル形式のオンラインビデオにアクセスし、閲覧し、(例えばストリーミング及び/又はダウンロードによって)受信し、(例えばタッチスクリーン112上で、又は無線で、若しくは外部ポート124を介して接続された外部のディスプレイ上で)再生し、特定のオンラインビデオへのリンクを有する電子メールを送信し、またその他の方法で管理することを可能にする実行可能命令を含む。いくつかの実施形態では、電子メールクライアントモジュール140ではなく、インスタントメッセージングモジュール141を使用して、特定のオンラインビデオへのリンクを送信する。 In connection with touch sensitive display system 112, display system controller 156, contact module 130, graphics module 132, audio circuitry 110, speaker 111, RF circuitry 108, text input module 134, email client module 140, and browser module 147: Online video module 155 allows users to use H. access, view, and receive (e.g., by streaming and/or downloading) online video in one or more file formats, such as (on a connected external display), send an email with a link to a particular online video, and otherwise manage it. In some embodiments, instant messaging module 141 is used rather than email client module 140 to send a link to a particular online video.

上記で特定したモジュール及びアプリケーションの各々は、上述した1つ以上の機能を実行する実行可能命令のセット、及び本願で説明する方法(例えば本明細書で説明するコンピュータ実施方法及びその他の情報処理方法)に対応する。これらのモジュール(すなわち命令セット)は、別個のソフトウェアプログラム、手順、又はモジュールとして実装される必要はなく、したがって、様々な実施形態では、これらのモジュールの様々なサブセットを、任意選択的に、組み合わせるなどして再構成する。いくつかの実施形態では、メモリ102は、任意選択的に、上記で特定したモジュール及びデータ構造のサブセットを記憶する。更に、メモリ102は、任意選択的に、上記で説明していない追加のモジュール及びデータ構造を記憶する。 Each of the modules and applications identified above may include a set of executable instructions to perform one or more of the functions described above and methods described herein (e.g., computer-implemented methods and other information processing methods described herein). ). These modules (i.e., instruction sets) need not be implemented as separate software programs, procedures, or modules; therefore, in various embodiments, various subsets of these modules may optionally be combined. etc. to reconfigure. In some embodiments, memory 102 optionally stores a subset of the modules and data structures identified above. Additionally, memory 102 optionally stores additional modules and data structures not described above.

いくつかの実施形態では、デバイス100は、そのデバイスにおける所定の機能のセットの動作がタッチスクリーン及び/又はタッチパッドのみを通じて実行されるデバイスである。デバイス100が動作するための主要な入力制御デバイスとしてタッチスクリーン及び/又はタッチパッドを使用することにより、任意選択的に、デバイス100上の物理的な入力制御デバイス(プッシュボタン、ダイヤルなど)の数が削減される。 In some embodiments, device 100 is a device in which the operation of a predetermined set of functions on the device is performed solely through a touch screen and/or touch pad. Optionally, the number of physical input control devices (push buttons, dials, etc.) on device 100 may be increased by using a touch screen and/or touch pad as the primary input control device for device 100 to operate. is reduced.

タッチスクリーン及び/又はタッチパッドを通じてのみ実行される所定の機能のセットは、任意選択的に、ユーザーインターフェース間のナビゲーションを含む。いくつかの実施形態では、タッチパッドは、ユーザーによってタッチされたときに、デバイス100上に表示される任意のユーザーインターフェースから、メインメニュー、ホームメニュー、又はルートメニューにデバイス100をナビゲートする。このような実施形態では、「メニューボタン」は、タッチパッドを使用して実装される。いくつかの他の実施形態では、メニューボタンは、タッチパッドではなく、物理プッシュボタン又はその他の物理入力制御デバイスである。 The predetermined set of functions performed exclusively through the touch screen and/or touch pad optionally includes navigation between user interfaces. In some embodiments, the touchpad, when touched by a user, navigates the device 100 from any user interface displayed on the device 100 to a main menu, home menu, or root menu. In such embodiments, the "menu button" is implemented using a touchpad. In some other embodiments, the menu button is a physical pushbutton or other physical input control device rather than a touchpad.

図1Bは、いくつかの実施形態によるイベントハンドリングのための例示的な構成要素を示すブロック図である。いくつかの実施形態では、メモリ102(図1A)又は370(図3)は、(例えばオペレーティングシステム126の)イベントソータ170及びそれぞれのアプリケーション136-1(例えば上述したアプリケーション136、137~155、380~390のうちのいずれか)を含む。 FIG. 1B is a block diagram illustrating example components for event handling according to some embodiments. In some embodiments, memory 102 (FIG. 1A) or 370 (FIG. 3) stores event sorter 170 (e.g., of operating system 126) and respective applications 136-1 (e.g., applications 136, 137-155, 380, as described above). -390).

イベントソータ170は、イベント情報を受信し、イベント情報の送達先となるアプリケーション136-1及びアプリケーション136-1のアプリケーションビュー191を決定する。イベントソータ170は、イベントモニタ171及びイベントディスパッチャモジュール174を含む。いくつかの実施形態では、アプリケーション136-1は、アプリケーションがアクティブである、又は実行中であるときにタッチ感知ディスプレイシステム112に表示される現在のアプリケーションビュー(単数又は複数)を示す、アプリケーション内部状態192を含む。いくつかの実施形態では、デバイス/グローバル内部状態157をイベントソータ170が使用して、どのアプリケーション(単数又は複数)が現在アクティブであるかを判定し、アプリケーション内部状態192をイベントソータ170が使用して、イベント情報の送達先となるアプリケーションビュー191を決定する。 Event sorter 170 receives event information and determines application 136-1 and application view 191 of application 136-1 to which the event information will be delivered. Event sorter 170 includes an event monitor 171 and an event dispatcher module 174. In some embodiments, application 136-1 maintains application internal state that indicates the current application view(s) displayed on touch-sensitive display system 112 when the application is active or running. Contains 192. In some embodiments, device/global internal state 157 is used by event sorter 170 to determine which application(s) is currently active, and application internal state 192 is used by event sorter 170. Then, the application view 191 to which the event information is delivered is determined.

いくつかの実施形態では、アプリケーション内部状態192は、アプリケーション136-1が実行を再開するときに使用される再開情報、アプリケーション136-1によって表示されている、又は表示される準備ができている情報を示すユーザーインターフェース状態情報、ユーザーがアプリケーション136-1の以前の状態又はビューに戻ることを可能にする状態待ち行列、及びユーザーが行った以前のアクションのリドゥ/アンドゥ待ち行列のうちの1つ以上などの追加の情報を含む。 In some embodiments, application internal state 192 includes resume information used when application 136-1 resumes execution, information that is being displayed or ready to be displayed by application 136-1. one or more of user interface state information indicative of the application 136-1, a state queue that allows the user to return to a previous state or view of the application 136-1, and a redo/undo queue of previous actions performed by the user. Contains additional information such as.

イベントモニタ171は、周辺機器インターフェース118からイベント情報を受信する。イベント情報は、サブイベント(例えばマルチタッチジェスチャの一部としてのタッチ感知ディスプレイシステム112上のユーザーのタッチ)についての情報を含む。周辺機器インターフェース118は、I/Oサブシステム106、又は近接センサ166、加速度計(単数又は複数)168、及び/若しくは(オーディオ回路110を介した)マイクロフォン113などのセンサから受信する情報を伝送する。周辺機器インターフェース118がI/Oサブシステム106から受信する情報は、タッチ感知ディスプレイシステム112又はタッチ感知面からの情報を含む。 Event monitor 171 receives event information from peripheral interface 118 . Event information includes information about sub-events (eg, a user's touch on touch-sensitive display system 112 as part of a multi-touch gesture). Peripheral interface 118 transmits information received from I/O subsystem 106 or sensors such as proximity sensor 166, accelerometer(s) 168, and/or microphone 113 (via audio circuitry 110). . The information that peripheral interface 118 receives from I/O subsystem 106 includes information from touch-sensitive display system 112 or a touch-sensitive surface.

いくつかの実施形態では、イベントモニタ171は、所定の間隔で周辺機器インターフェース118に要求を送信する。それに応答して、周辺機器インターフェース118は、イベント情報を伝送する。他の実施形態では、周辺機器インターフェース118は、重要なイベント(例えば、所定のノイズ閾値を上回り、及び/又は所定の持続時間よりも長い入力を受信すること)があったときのみ、イベント情報を伝送する。 In some embodiments, event monitor 171 sends requests to peripheral interface 118 at predetermined intervals. In response, peripheral interface 118 transmits event information. In other embodiments, peripheral interface 118 transmits event information only when there is a significant event (e.g., exceeding a predetermined noise threshold and/or receiving input for longer than a predetermined duration). Transmit.

いくつかの実施形態では、イベントソータ170は、ヒットビュー判定モジュール172及び/又はアクティブイベント認識部判定モジュール173を含む。 In some embodiments, event sorter 170 includes a hit view determination module 172 and/or an active event recognizer determination module 173.

ヒットビュー判定モジュール172は、タッチ感知ディスプレイシステム112が2つ以上のビューを表示するときに、1つ以上のビュー内のどこでサブイベントが発生したかを決定するソフトウェア手順を提供する。ビューは、ユーザーがディスプレイ上で見ることができる制御要素およびその他の要素で構成される。 Hit view determination module 172 provides software procedures that determine where a sub-event occurs within one or more views when touch-sensitive display system 112 displays two or more views. A view consists of control elements and other elements that a user can see on the display.

アプリケーションに関連するユーザーインターフェースの別の態様は、その中に情報が表示され、タッチによるジェスチャが行われる、本明細書でアプリケーションビュー又はユーザーインターフェースィンドウと呼ぶこともあるビューのセットである。タッチが検出される(それぞれのアプリケーションの)アプリケーションビューは、任意選択的に、アプリケーションのプログラム階層又はビュー階層内のプログラムレベルに対応する。例えば、タッチが検出される最下位レベルビューは、任意選択的に、ヒットビューと呼ばれ、また、適切な入力として認識されるイベントのセットは、任意選択的に、タッチによるジェスチャを開始する初期タッチのヒットビューに少なくとも部分的に基づいて決定される。 Another aspect of a user interface associated with an application is a set of views, sometimes referred to herein as application views or user interface windows, in which information is displayed and touch gestures are made. The application view (of the respective application) in which the touch is detected optionally corresponds to a programmatic level within the programmatic or view hierarchy of the application. For example, the lowest level view in which a touch is detected is optionally called the hit view, and the set of events that are recognized as appropriate input is optionally the initial determined based at least in part on the hit view of the touch.

ヒットビュー判定モジュール172は、タッチによるジェスチャのサブイベントに関連する情報を受信する。アプリケーションが階層状に構成された複数のビューを有するときには、ヒットビュー判定モジュール172は、サブイベントを処理すべき階層内の最下位のビューとして、ヒットビューを特定する。ほとんどの状況では、ヒットビューは、開始サブイベント(すなわちイベント又は潜在的なイベントを形成するサブイベントのシーケンスのうちの最初のサブイベント)が発生する最下位レベルビューである。ヒットビューがヒットビュー判定モジュールによって特定されると、そのヒットビューは、通常は、それがヒットビューとして特定されたのと同じタッチ又は入力源に関連する全てのサブイベントを受信する。 The hit view determination module 172 receives information related to touch gesture sub-events. When the application has a plurality of hierarchically configured views, the hit view determination module 172 identifies the hit view as the lowest view in the hierarchy that should process the sub-event. In most situations, the hit view is the lowest level view in which the initiating sub-event (ie, the first sub-event in a sequence of sub-events forming an event or potential event) occurs. Once a hit view is identified by the hit view determination module, the hit view typically receives all sub-events related to the same touch or input source for which it was identified as the hit view.

アクティブイベント認識部判定モジュール173は、ビュー階層内のどのビュー(単数又は複数)がサブイベントの特定のシーケンスを受信すべきかを判定する。いくつかの実施形態では、アクティブイベント認識部判定モジュール173は、ヒットビューのみがサブイベントの特定のシーケンスを受信すべきであると判定する。他の実施形態では、アクティブイベント認識部判定モジュール173は、サブイベントの物理位置を含む全てのビューがアクティブに関わりがあるビューであると判定し、したがって、全てのアクティブに関わりがあるビューが、サブイベントの特定のシーケンスを受信すべきであると判定する。他の実施形態では、タッチサブイベントが1つの特定のビューに関連する領域に完全に限定された場合でも、階層内の上位のビューは、依然としてアクティブに関わりがあるビューであり続ける。 Active event recognizer determination module 173 determines which view(s) within the view hierarchy should receive a particular sequence of sub-events. In some embodiments, active event recognizer determination module 173 determines that only hit views should receive a particular sequence of sub-events. In other embodiments, the active event recognizer determination module 173 determines that all views that include the physical location of the sub-event are actively involved views, and therefore all actively involved views are Determine that a particular sequence of sub-events should be received. In other embodiments, even if a touch sub-event is completely confined to the area associated with one particular view, the view higher in the hierarchy remains the actively engaged view.

イベントディスパッチャモジュール174は、イベント情報をイベント認識部(例えばイベント認識部180)にディスパッチする。アクティブイベント認識部判定モジュール173を含む実施形態では、イベントディスパッチャモジュール174は、アクティブイベント認識部判定モジュール173によって判定されたイベント認識部にイベント情報を送達する。いくつかの実施形態では、イベントディスパッチャモジュール174は、それぞれのイベント受信部モジュール182によって取得されるイベント情報を、イベント待ち行列に記憶する。 Event dispatcher module 174 dispatches event information to an event recognizer (eg, event recognizer 180). In embodiments that include an active event recognizer determination module 173, the event dispatcher module 174 delivers event information to the event recognizer determined by the active event recognizer determination module 173. In some embodiments, event dispatcher module 174 stores event information obtained by each event receiver module 182 in an event queue.

いくつかの実施形態では、オペレーティングシステム126は、イベントソータ170を含む。あるいは、アプリケーション136-1が、イベントソータ170を含む。更に他の実施形態では、イベントソータ170は、独立型モジュール、又は接触/動きモジュール130などのメモリ102に記憶された別のモジュールの一部である。 In some embodiments, operating system 126 includes event sorter 170. Alternatively, application 136-1 includes event sorter 170. In yet other embodiments, event sorter 170 is a standalone module or part of another module stored in memory 102, such as touch/motion module 130.

いくつかの実施形態では、アプリケーション136-1は、アプリケーションのユーザーインターフェースのそれぞれのビュー内で発生するタッチイベントを処理する命令をそれぞれ含む、複数のイベントハンドラ190及び1つ以上のアプリケーションビュー191を含む。アプリケーション136-1の各アプリケーションビュー191は、1つ以上のイベント認識部180を含む。通常は、それぞれのアプリケーションビュー191が、複数のイベント認識部180を含む。他の実施形態では、イベント認識部180のうちの1つ以上が、ユーザーインターフェースキット(図示せず)、又はアプリケーション136-1がメソッド及びその他の性質をそこから継承する上位レベルのオブジェクトなどの、別個のモジュールの一部である。いくつかの実施形態では、それぞれのイベントハンドラ190は、データアップデーター176、オブジェクトアップデーター177、GUIアップデーター178、及び/又はイベントソータ170から受信するイベントデータ179のうちの1つ以上を含む。イベントハンドラ190は、任意選択的に、データアップデーター176、オブジェクトアップデーター177、又はGUIアップデーター178を利用して、又は呼び出して、アプリケーション内部状態192を更新する。あるいは、アプリケーションビュー191のうちの1つ以上は、それぞれ1つ以上のイベントハンドラ190を含む。また、いくつかの実施形態では、データアップデーター176、オブジェクトアップデーター177、及びGUIアップデーター178のうちの1つ以上は、それぞれのアプリケーションビュー191に含まれる。 In some embodiments, the application 136-1 includes a plurality of event handlers 190 and one or more application views 191, each of which includes instructions for handling touch events that occur within a respective view of the application's user interface. . Each application view 191 of application 136-1 includes one or more event recognizers 180. Typically, each application view 191 includes multiple event recognizers 180. In other embodiments, one or more of the event recognizers 180 may include a user interface kit (not shown) or a higher level object from which the application 136-1 inherits methods and other properties. Part of a separate module. In some embodiments, each event handler 190 includes one or more of event data 179 received from a data updater 176, an object updater 177, a GUI updater 178, and/or an event sorter 170. Event handler 190 optionally utilizes or calls data updater 176, object updater 177, or GUI updater 178 to update application internal state 192. Alternatively, one or more of the application views 191 each include one or more event handlers 190. Also, in some embodiments, one or more of data updater 176, object updater 177, and GUI updater 178 are included in each application view 191.

それぞれのイベント認識部180は、イベントソータ170からイベント情報(例えばイベントデータ179)を受信し、そのイベント情報からイベントを特定する。イベント認識部180は、イベント受信部182及びイベント比較部184を含む。いくつかの実施形態では、イベント認識部180は、メタデータ183及びイベント配信命令188(任意選択的にサブイベント配信命令を含む)の少なくともサブセットも含む。 Each event recognition unit 180 receives event information (for example, event data 179) from the event sorter 170, and identifies an event from the event information. The event recognition section 180 includes an event reception section 182 and an event comparison section 184. In some embodiments, event recognizer 180 also includes at least a subset of metadata 183 and event delivery instructions 188 (optionally including sub-event delivery instructions).

イベント受信部182は、イベントソータ170からイベント情報を受信する。イベント情報は、例えばタッチ又はタッチの移動などのサブイベントに関する情報を含む。サブイベントによっては、イベント情報は、サブイベントの位置などの追加の情報も含む。サブイベントがタッチの動きに関するものであるときには、イベント情報は、任意選択的に、サブイベントの速さ及び方向も含む。いくつかの実施形態では、イベントは、1つの向きから別の向きへの(例えば、縦向きから横向きへ、又はその逆の)デバイスの回転を含み、イベント情報は、デバイスの現在の向き(デバイスの姿勢とも呼ぶ)についての対応する情報を含む。 The event receiving unit 182 receives event information from the event sorter 170. The event information includes information regarding sub-events, such as a touch or movement of a touch. Depending on the sub-event, the event information also includes additional information such as the location of the sub-event. When the sub-event relates to a touch movement, the event information optionally also includes the speed and direction of the sub-event. In some embodiments, the event includes a rotation of the device from one orientation to another (e.g., from portrait to landscape or vice versa), and the event information includes the current orientation of the device (device (also referred to as the pose).

イベント比較部184は、イベント情報を所定のイベント又はサブイベントの定義と比較し、この比較に基づいて、イベント又はサブイベントを決定する、又はイベント若しくはサブイベントの状態を決定若しくは更新する。いくつかの実施形態では、イベント比較部184は、イベント定義186を含む。イベント定義186は、例えばイベント1(187-1)及びイベント2(187-2)などのイベント(例えば所定のサブイベントのシーケンス)の定義を含む。いくつかの実施形態では、イベント187のサブイベントは、例えば、タッチ開始、タッチ終了、タッチ移動、タッチ取消し、及び複数タッチを含む。1実施例では、イベント1(187-1)の定義は、表示されたオブジェクト上でのダブルタップである。ダブルタップは、例えば、表示されたオブジェクト上での所定の期間にわたる第1のタッチ(タッチ開始)と、所定の期間にわたる第1のリフトオフ(タッチ終了)と、表示されたオブジェクト上での所定の期間にわたる第2のタッチ(タッチ開始)と、所定の期間にわたる第2のリフトオフ(タッチ終了)とを含む。別の実施例では、イベント2(187-2)の定義は、表示されたオブジェクト上のドラッグである。ドラッグは、例えば、表示されたオブジェクト上での所定の期間にわたるタッチ(又は接触)と、タッチ感知ディスプレイシステム112にわたるタッチの移動と、タッチのリフトオフ(タッチ終了)とを含む。いくつかの実施形態では、イベントは、1つ以上の関連付けられたイベントハンドラ190についての情報も含む。 The event comparison unit 184 compares the event information with a predetermined event or sub-event definition, and based on this comparison, determines the event or sub-event, or determines or updates the state of the event or sub-event. In some embodiments, event comparator 184 includes event definition 186. Event definition 186 includes definitions of events (eg, a predetermined sequence of sub-events), such as event 1 (187-1) and event 2 (187-2). In some embodiments, sub-events of event 187 include, for example, touch start, touch end, touch movement, touch cancellation, and multiple touches. In one embodiment, the definition of event 1 (187-1) is a double tap on the displayed object. A double tap is, for example, a first touch over a predetermined period of time (touch initiation) on the displayed object, a first lift-off over a predetermined period of time (touch end), and a predetermined liftoff on the displayed object. It includes a second touch (touch start) over a period of time and a second lift-off (touch end) over a predetermined period. In another example, the definition of event 2 (187-2) is a drag on the displayed object. Dragging includes, for example, a touch (or contact) on a displayed object for a predetermined period of time, a movement of the touch across the touch-sensitive display system 112, and a lift-off of the touch. In some embodiments, the event also includes information about one or more associated event handlers 190.

いくつかの実施形態では、イベント定義187は、それぞれのユーザーインターフェースオブジェクトについてのイベントの定義を含む。いくつかの実施形態では、イベント比較部184は、どのユーザーインターフェースオブジェクトがサブイベントに関連付けられているかを判定するヒットテストを実行する。例えば、3つのユーザーインターフェースオブジェクトがタッチ感知ディスプレイシステム112に表示されるアプリケーションビューでは、タッチ感知ディスプレイシステム112上でタッチが検出されると、イベント比較部184は、ヒットテストを実行して、3つのユーザーインターフェースオブジェクトのうちのどれがタッチ(サブイベント)と関連付けられているかを判定する。表示された各オブジェクトが、それぞれイベントハンドラ190と関連付けられている場合には、イベント比較部は、ヒットテストの結果を使用して、どのイベントハンドラ190をアクティブ化すべきかを判定する。例えば、イベント比較部184は、ヒットテストをトリガするサブイベント及びオブジェクトと関連付けられたイベントハンドラを選択する。 In some embodiments, event definition 187 includes a definition of an event for each user interface object. In some embodiments, event comparator 184 performs a hit test to determine which user interface objects are associated with sub-events. For example, in an application view where three user interface objects are displayed on touch-sensitive display system 112, when a touch is detected on touch-sensitive display system 112, event comparator 184 performs a hit test to Determining which of the user interface objects are associated with a touch (sub-event). If each displayed object is associated with a respective event handler 190, the event comparator uses the results of the hit test to determine which event handler 190 should be activated. For example, the event comparator 184 selects an event handler associated with a sub-event and object that triggers a hit test.

いくつかの実施形態では、それぞれのイベント187の定義は、サブイベントのシーケンスがイベント認識部のイベントタイプに対応するか否かが判定されるまで、イベント情報の送達を遅延させる遅延アクションも含む。 In some embodiments, each event 187 definition also includes a delay action that delays delivery of event information until it is determined whether the sequence of sub-events corresponds to the event recognizer's event type.

それぞれのイベント認識部180が一連のサブイベントがイベント定義186のいずれのイベントとも一致しないと判断した場合には、それぞれのイベント認識部180は、イベント不可能、イベント失敗、又はイベント終了の状態になり、その後は、タッチによるジェスチャの後続のサブイベントを無視する。この状況では、ヒットビューについてアクティブのままである他のイベント認識部があれば、そのイベント認識部は、進行中のタッチによるジェスチャのサブイベントの追跡及び処理を続行する。 If each event recognition unit 180 determines that the series of sub-events does not match any event in the event definition 186, each event recognition unit 180 sets the event to an impossible, event failed, or event ended state. , and thereafter ignores subsequent sub-events of the touch gesture. In this situation, if any other event recognizers remain active for the hit view, they continue to track and process sub-events of the ongoing touch gesture.

いくつかの実施形態では、それぞれのイベント認識部180は、イベント送達システムがどのようにしてサブイベント送達を実行すべきかをアクティブに関わりがあるイベント認識部に対して示す構成可能なプロパティ、フラグ及び/又はリストを有するメタデータ183を含む。いくつかの実施形態では、メタデータ183は、イベント認識部が互いにどのように対話するか、又はイベント認識部が互いにどのように対話することができるようになっているかを示す構成可能なプロパティ、フラグ、及び/又はリストを含む。いくつかの実施形態では、メタデータ183は、サブイベントがビュー階層又はプログラム階層における様々なレベルに送達されるかどうかを示す構成可能なプロパティ、フラグ、及び/又はリストを含む。 In some embodiments, each event recognizer 180 includes configurable properties, flags, and flags that indicate to actively participating event recognizers how the event delivery system should perform subevent delivery. and/or include metadata 183 having a list. In some embodiments, the metadata 183 includes configurable properties that indicate how the event recognizers interact with each other or how the event recognizers are enabled to interact with each other; Contains flags and/or lists. In some embodiments, metadata 183 includes configurable properties, flags, and/or lists that indicate whether subevents are delivered to various levels in the view hierarchy or program hierarchy.

いくつかの実施形態では、それぞれのイベント認識部180は、イベントの1つ以上の特定のサブイベントが認識されたときに、イベントと関連付けられたイベントハンドラ190をアクティブ化する。いくつかの実施形態では、それぞれのイベント認識部180は、イベントと関連付けられたイベント情報を、イベントハンドラ190に送達する。イベントハンドラ190をアクティブ化することは、サブイベントをそれぞれのヒットビューに送信すること(及び遅らせて送信すること)とは異なる。いくつかの実施形態では、イベント認識部180は、認識したイベントと関連付けられたフラグを投入し、そのフラグと関連付けられたイベントハンドラ190は、そのフラグを捕らえ、所定のプロセスを実行する。 In some embodiments, each event recognizer 180 activates an event handler 190 associated with the event when one or more particular sub-events of the event are recognized. In some embodiments, each event recognizer 180 delivers event information associated with the event to an event handler 190. Activating an event handler 190 is different from sending sub-events to each hit view (and sending them with a delay). In some embodiments, the event recognizer 180 populates a flag associated with the recognized event, and the event handler 190 associated with the flag captures the flag and performs a predetermined process.

いくつかの実施形態では、イベント配信命令188は、イベントハンドラをアクティブ化せずにサブイベントについてのイベント情報を送達するサブイベント配信命令を含む。このサブイベント配信命令は、その代わりに、一連のサブイベントと関連付けられたイベントハンドラ、又はアクティブに関わりがあるビューに、イベント情報を送達する。一連のサブイベント又はアクティブに関わりがあるビューと関連付けられたイベントハンドラは、イベント情報を受信し、所定のプロセスを実行する。 In some embodiments, event delivery instructions 188 include sub-event delivery instructions that deliver event information about sub-events without activating event handlers. The sub-event delivery instructions instead deliver event information to event handlers associated with the series of sub-events, or views that are actively involved. An event handler associated with a series of sub-events or actively involved views receives event information and performs a predetermined process.

いくつかの実施形態では、データアップデーター176は、アプリケーション136-1で使用されるデータを作成及び更新する。例えば、データアップデーター176は、連絡先モジュール137で使用される電話番号を更新する、又はビデオ及び音楽プレーヤモジュール152で使用されるビデオファイルを記憶する。いくつかの実施形態では、オブジェクトアップデーター177は、アプリケーション136-1で使用されるオブジェクトを作成及び更新する。例えば、オブジェクトアップデーター177は、新たなユーザーインターフェースオブジェクトを作成する、又はユーザーインターフェースオブジェクトの位置を更新する。GUIアップデーター178は、GUIを更新する。例えば、GUIアップデーター178は、表示情報を準備し、この表示情報をタッチ感知ディスプレイ上に表示するためにグラフィックモジュール132に送信する。 In some embodiments, data updater 176 creates and updates data used by application 136-1. For example, data updater 176 updates phone numbers used by contacts module 137 or stores video files used by video and music player module 152. In some embodiments, object updater 177 creates and updates objects used by application 136-1. For example, object updater 177 creates a new user interface object or updates the location of a user interface object. The GUI updater 178 updates the GUI. For example, GUI updater 178 prepares display information and sends the display information to graphics module 132 for display on the touch-sensitive display.

いくつかの実施形態では、イベントハンドラ(単数又は複数)190は、データアップデーター176、オブジェクトアップデーター177及びGUIアップデーター178を含む、又はそれらへのアクセスを有する。いくつかの実施形態では、データアップデーター176、オブジェクトアップデーター177、及びGUIアップデーター178は、それぞれのアプリケーション136-1又はアプリケーションビュー191の単一モジュールに含まれる。他の実施形態では、それらは、2つ以上のソフトウェアモジュールに含まれる。 In some embodiments, event handler(s) 190 includes or has access to data updater 176, object updater 177, and GUI updater 178. In some embodiments, data updater 176, object updater 177, and GUI updater 178 are included in a single module of each application 136-1 or application view 191. In other embodiments, they are included in more than one software module.

タッチ感知ディスプレイ上のユーザーのタッチのイベント処理に関する以上の説明は、その全てがタッチスクリーン上で開始されるとは限らない、入力デバイスを備える多機能デバイス100を動作させるためのその他の形態のユーザー入力にも当てはまることを理解されたい。例えば、任意選択的に1回又は複数回のキーボードの押圧又は保持と連携したマウスの移動及びマウスボタンの押圧、タッチパッド上でのタップ、ドラッグ、スクロールなどの接触の移動、ペンスタイラス入力、デバイスの移動、口頭による命令、検出された眼球運動、バイオメトリック入力、並びに/又はそれらの任意の組合せを、任意選択的に、認識するイベントを定義するサブイベントに対応する入力として利用する。 The above description of event processing of user touches on a touch-sensitive display may be useful for other forms of user operation of multifunction device 100 with input devices, not all of which may be initiated on a touch screen. Please understand that this also applies to input. For example, mouse movement and mouse button presses, optionally in conjunction with one or more keyboard presses or holds, contact movement such as tapping, dragging, scrolling on a touchpad, pen stylus input, device movements, verbal commands, detected eye movements, biometric inputs, and/or any combination thereof are optionally utilized as inputs corresponding to sub-events defining the recognized event.

図1Cは、いくつかの実施形態による触知出力モジュールを示すブロック図である。いくつかの実施形態では、I/Oサブシステム106(例えば触覚フィードバックコントローラ161(図1A)及び/又はその他の入力コントローラ(単数又は複数)160(図1A)は、図1Cに示す例示的な構成要素のうちの少なくともいくつかを含む。いくつかの実施形態では、周辺機器インターフェース118は、図1Cに示す例示的な構成要素のうちの少なくともいくつかを含む。 FIG. 1C is a block diagram illustrating a tactile output module according to some embodiments. In some embodiments, the I/O subsystem 106 (e.g., haptic feedback controller 161 (FIG. 1A) and/or other input controller(s) 160 (FIG. 1A) is configured as shown in FIG. 1C). In some embodiments, peripheral interface 118 includes at least some of the example components shown in FIG. 1C.

いくつかの実施形態では、触知出力モジュールは、触覚フィードバックモジュール133を含む。いくつかの実施形態では、触覚フィードバックモジュール133は、電子デバイス上のソフトウェアアプリケーションからのユーザーインターフェースフィードバックのために触覚出力(例えば、表示されたユーザーインターフェースに対応するユーザー入力に応答するフィードバック、並びに電子デバイスのユーザーインターフェースの動作の性能又はイベントの発生を示す警告及びその他の通知)を集成し、結合する。触覚フィードバックモジュール133は、波形モジュール123(触知出力を生成するために使用される波形を提供する)、ミキサ125(異なるチャネルの波形など複数の波形を混合する)、圧縮機127(波形のダイナミックレンジを縮小又は圧縮する)、低域通過フィルタ129(波形の高周波信号成分をフィルタリングによって除去する)、及び熱コントローラ131(熱的条件にしたがって波形を調整する)のうちの1つ以上を含む。いくつかの実施形態では、触覚フィードバックモジュール133は、触覚フィードバックコントローラ161(図1A)に含まれる。いくつかの実施形態では、触覚フィードバックモジュール133の別のユニット(又は触覚フィードバックモジュール133の別の実施態様)が、オーディオコントローラ(例えば図1Aのオーディオ回路110)にも含まれ、オーディオ信号を生成するために使用される。いくつかの実施形態では、単一の触覚フィードバックモジュール133を使用して、オーディオ信号を生成し、触知出力の波形を生成する。 In some embodiments, the tactile output module includes a tactile feedback module 133. In some embodiments, haptic feedback module 133 provides haptic output for user interface feedback from a software application on the electronic device (e.g., feedback in response to user input corresponding to a displayed user interface, as well as feedback on the electronic device). alerts and other notifications indicating the performance of user interface operations or the occurrence of events). The haptic feedback module 133 includes a waveform module 123 (which provides the waveforms used to generate the tactile output), a mixer 125 (which mixes multiple waveforms, such as waveforms of different channels), and a compressor 127 (which provides dynamic control of the waveforms). a low pass filter 129 (to filter out high frequency signal components of the waveform), and a thermal controller 131 (to adjust the waveform according to thermal conditions). In some embodiments, haptic feedback module 133 is included in haptic feedback controller 161 (FIG. 1A). In some embodiments, another unit of haptic feedback module 133 (or another implementation of haptic feedback module 133) is also included in an audio controller (e.g., audio circuit 110 of FIG. 1A) to generate an audio signal. used for. In some embodiments, a single haptic feedback module 133 is used to generate audio signals and generate tactile output waveforms.

いくつかの実施形態では、触覚フィードバックモジュール133は、トリガモジュール121(例えば、生成する触知出力を決定し、対応する触知出力を生成するプロセスを開始するソフトウェアアプリケーション、オペレーティングシステム、又はその他のソフトウェアモジュール)も含む。いくつかの実施形態では、トリガモジュール121は、(例えば波形モジュール123による)波形の生成を開始するトリガ信号を生成する。例えば、トリガモジュール121は、予め設定されたタイミング基準に基づいてトリガ信号を生成する。いくつかの実施形態では、トリガモジュール121は、触覚フィードバックモジュール133の外部からトリガ信号を受信し(例えば、いくつかの実施形態では、触覚フィードバックモジュール133は、触覚フィードバックモジュール133の外部に位置するハードウェア入力処理モジュール146からトリガ信号を受信する)、このトリガ信号を、触覚フィードバックモジュール133内の他の構成要素(例えば波形モジュール123)、又はユーザーインターフェース要素(例えばアプリケーション内のアプリケーションアイコン又はアフォーダンス)のアクティブ化に基づいて(例えばトリガモジュール121によって)動作をトリガするソフトウェアアプリケーション、又はハードウェア入力デバイス(例えばホームボタン又は強度感知タッチスクリーンなどの強度感知入力面)に中継する。いくつかの実施形態では、トリガモジュール121は、(例えば、図1A及び図3の触覚フィードバックモジュール133から)触知フィードバック生成命令も受信する。いくつかの実施形態では、トリガモジュール121は、触覚フィードバックモジュール133(又は触覚フィードバックモジュール133内のトリガモジュール121)が(例えば図1A及び図3の触覚フィードバックモジュール133から)触知フィードバック命令を受信したのに応答して、トリガ信号を生成する。 In some embodiments, the haptic feedback module 133 is connected to the trigger module 121 (e.g., a software application, operating system, or other software that determines the tactile output to generate and initiates the process of generating the corresponding tactile output). module). In some embodiments, trigger module 121 generates a trigger signal that initiates generation of a waveform (eg, by waveform module 123). For example, the trigger module 121 generates the trigger signal based on preset timing criteria. In some embodiments, trigger module 121 receives a trigger signal from outside of haptic feedback module 133 (e.g., in some embodiments, haptic feedback module 133 receives a trigger signal from a source external to haptic feedback module 133). (receives a trigger signal from the hardware input processing module 146), transmits the trigger signal to another component within the haptic feedback module 133 (e.g., the waveform module 123), or to a user interface element (e.g., an application icon or affordance within the application). Relay to a software application or hardware input device (eg, a home button or an intensity-sensing input surface such as an intensity-sensing touch screen) that triggers an operation based on the activation (eg, by trigger module 121). In some embodiments, trigger module 121 also receives tactile feedback generation instructions (eg, from haptic feedback module 133 of FIGS. 1A and 3). In some embodiments, trigger module 121 determines that haptic feedback module 133 (or trigger module 121 within haptic feedback module 133) has received a tactile feedback command (e.g., from haptic feedback module 133 of FIGS. 1A and 3). A trigger signal is generated in response to the trigger signal.

波形モジュール123は、(例えばトリガモジュール121から)トリガ信号を入力として受信し、トリガ信号を受信したのに応答して、1つ以上の触知出力を生成するための波形(例えば、図4F~図4Gを参照して以下で更に詳細に述べる波形など、波形モジュール123によって使用されるように指定された波形の所定のセットから選択された波形)を提供する。 Waveform module 123 receives a trigger signal as input (e.g., from trigger module 121) and generates a waveform (e.g., FIGS. 4F-4F) for generating one or more tactile outputs in response to receiving the trigger signal. A waveform selected from a predetermined set of designated waveforms is provided for use by waveform module 123, such as a waveform described in further detail below with reference to FIG. 4G.

ミキサ125は、(例えば波形モジュール123から)入力として波形を受信し、これらの波形を混合する。例えば、ミキサ125が2つ以上の波形(例えば第1のチャネルの第1の波形及び第1の波形と少なくとも部分的に重なる第2のチャネルの第2の波形)を受信したときには、ミキサ125は、この2つ以上の波形の和に対応する合成波形を出力する。また、いくつかの実施形態では、ミキサ125は、(例えば、特定の波形(単数又は複数)のスケールを増大させ、かつ/又は残りの波形のスケールを低減させることによって)この2つ以上の波形のうちの1つ以上の波形を修正して、特定の波形(単数又は複数)を2つ以上の波形のうちの残りの波形より強調する。いくつかの状況では、ミキサ125は、合成波形から除去する1つ以上の波形を選択する(例えば、触知出力生成器167によって同時に出力されることが要求されている4つ以上のソースからの波形があるときには、最も古いソースの波形を除去する)。 Mixer 125 receives waveforms as input (eg, from waveform module 123) and mixes the waveforms. For example, when mixer 125 receives two or more waveforms (e.g., a first waveform of a first channel and a second waveform of a second channel that at least partially overlaps the first waveform), mixer 125 , outputs a composite waveform corresponding to the sum of these two or more waveforms. In some embodiments, the mixer 125 also increases the scale of the two or more waveforms (e.g., by increasing the scale of a particular waveform(s) and/or decreasing the scale of the remaining waveforms). One or more of the waveforms are modified to emphasize particular waveform(s) over the remaining waveforms of the two or more waveforms. In some situations, mixer 125 selects one or more waveforms to remove from the composite waveform (e.g., signals from four or more sources that are required to be simultaneously output by tactile output generator 167). If there are waveforms, remove the oldest source waveform).

圧縮機127は、波形(例えばミキサ125からの合成波形)を入力として受信し、これらの波形を修正する。いくつかの実施形態では、圧縮機127は、波形に対応する触知出力が減少するように、(例えば触知出力生成器167(図1A)又は357(図3)の物理的仕様にしたがって)波形を減少させる。いくつかの実施形態では、圧縮機127は、波形に対して所定の最大振幅を課すことなどによって、波形を制限する。例えば、圧縮機127は、所定の振幅閾値を超えない波形部分の振幅を維持する一方で、所定の振幅閾値を超える波形部分の振幅を減少させる。いくつかの実施形態では、圧縮機127は、波形のダイナミックレンジを減少させる。いくつかの実施形態では、圧縮機127は、合成波形が触知出力生成器167の性能仕様(例えば、力及び/又は可動質量変位の限界)内に留まるように、波形のダイナミックレンジを動的に減少させる。 Compressor 127 receives waveforms (eg, the composite waveform from mixer 125) as input and modifies these waveforms. In some embodiments, the compressor 127 is configured such that the tactile output corresponding to the waveform is reduced (e.g., according to the physical specifications of the tactile output generator 167 (FIG. 1A) or 357 (FIG. 3)). Reduce waveform. In some embodiments, compressor 127 limits the waveform, such as by imposing a predetermined maximum amplitude on the waveform. For example, compressor 127 reduces the amplitude of portions of the waveform that exceed a predetermined amplitude threshold while maintaining the amplitude of portions of the waveform that do not exceed a predetermined amplitude threshold. In some embodiments, compressor 127 reduces the dynamic range of the waveform. In some embodiments, the compressor 127 dynamically adjusts the dynamic range of the waveform such that the resultant waveform remains within the performance specifications (e.g., force and/or moveable mass displacement limits) of the tactile output generator 167. decrease to

低域通過フィルタ129は、波形(例えば圧縮機127からの圧縮波形)を入力として受信し、これらの波形をフィルタリング(例えば平滑化)する(例えば、波形の高周波信号成分を除去又は低減する)。例えば、いくつかの場合には、圧縮機127は、圧縮波形中に、触知出力の生成を妨害し、かつ/又は圧縮波形にしたがって触知出力を生成したときに触知出力生成器167の性能仕様を超える外来信号(例えば高周波信号成分)を含む。低域通過フィルタ129は、波形中のこのような外来信号を低減又は除去する。 Low pass filter 129 receives waveforms (eg, compressed waveforms from compressor 127) as input and filters (eg, smoothes) these waveforms (eg, removes or reduces high frequency signal components of the waveforms). For example, in some cases, the compressor 127 interferes with the generation of tactile output during the compression waveform and/or the tactile output generator 167 when generating the tactile output according to the compression waveform. Contains extraneous signals (e.g., high frequency signal components) that exceed performance specifications. Low pass filter 129 reduces or eliminates such extraneous signals in the waveform.

熱コントローラ131は、波形(例えば、低域通過フィルタ129からのフィルタリングされた波形)を入力として受信し、これらの波形を、デバイス100の熱的条件にしたがって(例えば、触覚フィードバックコントローラ161の温度などデバイス100内で検出される内部温度、及び/又はデバイス100によって検出される外部温度に基づいて)調整する。例えば、いくつかの場合には、触覚フィードバックコントローラ161の出力は、温度に応じて変化する(例えば、触覚フィードバックコントローラ161は、同じ波形を受信したのに応答して、触覚フィードバックコントローラ161が第1の温度であるときには第1の触知出力を生成し、触覚フィードバックコントローラ161が第1の温度とは別個の第2の温度であるときには第2の触知出力を生成する)。例えば、触知出力の大きさ(又は振幅)は、温度に応じて変化することもある。温度変化の影響を低下させるために、波形を修正する(例えば、波形の振幅を、温度に基づいて増大又は減少させる)。 Thermal controller 131 receives as input waveforms (e.g., the filtered waveform from low-pass filter 129) and converts these waveforms according to the thermal conditions of device 100 (e.g., the temperature of haptic feedback controller 161, etc.). (based on an internal temperature sensed within device 100 and/or an external temperature sensed by device 100). For example, in some cases, the output of haptic feedback controller 161 changes in response to temperature (e.g., haptic feedback controller 161 changes in response to receiving the same waveform) , and generates a second tactile output when the haptic feedback controller 161 is at a second temperature distinct from the first temperature). For example, the magnitude (or amplitude) of the tactile output may change depending on temperature. Modify the waveform to reduce the effects of temperature changes (eg, increase or decrease the amplitude of the waveform based on temperature).

いくつかの実施形態では、触覚フィードバックモジュール133(例えばトリガモジュール121)は、ハードウェア入力処理モジュール146に結合される。いくつかの実施形態では、図1Aの他の入力コントローラ(単数又は複数)160が、ハードウェア入力処理モジュール146を含む。いくつかの実施形態では、ハードウェア入力処理モジュール146は、ハードウェア入力デバイス145(例えば、ホームボタン、又は強度感知タッチスクリーンなどの強度感知入力面など、図1Aの他の入力又は制御デバイス116)から入力を受信する。いくつかの実施形態では、ハードウェア入力デバイス145は、タッチ感知ディスプレイシステム112(図1A)、キーボード/マウス350(図3)、タッチパッド355(図3)、他の入力若しくは制御デバイス116(図1A)のうちの1つ、又は強度感知ホームボタンなど、本明細書に記載する任意の入力デバイスである。いくつかの実施形態では、ハードウェア入力デバイス145は、タッチ感知ディスプレイシステム112(図1A)、キーボード/マウス350(図3)、又はタッチパッド355(図3)ではなく、強度感知ホームボタンからなる。いくつかの実施形態では、ハードウェア入力デバイス145(例えば強度感知ホームボタン又はタッチスクリーン)からの入力に応答して、ハードウェア入力処理モジュール146は、ホームボタンの「クリック」(例えば「ダウンクリック」又は「アップクリック」)に対応する入力など、所定の入力基準を満たすユーザー入力が検出されたことを示す1つ以上のトリガ信号を、触覚フィードバックモジュール133に提供する。いくつかの実施形態では、触覚フィードバックモジュール133は、ホームボタンの「クリック」に対応する入力に応答して、ホームボタンの「クリック」に対応する波形を提供して、物理ホームボタンを押す触覚フィードバックをシミュレートする。 In some embodiments, haptic feedback module 133 (eg, trigger module 121) is coupled to hardware input processing module 146. In some embodiments, other input controller(s) 160 of FIG. 1A includes a hardware input processing module 146. In some embodiments, the hardware input processing module 146 includes a hardware input device 145 (e.g., a home button or other input or control device 116 of FIG. 1A, such as an intensity-sensitive input surface such as an intensity-sensing touch screen). Receive input from. In some embodiments, hardware input devices 145 include touch-sensitive display system 112 (FIG. 1A), keyboard/mouse 350 (FIG. 3), touch pad 355 (FIG. 3), other input or control devices 116 (FIG. 1A) or any input device described herein, such as an intensity sensitive home button. In some embodiments, hardware input device 145 consists of an intensity-sensitive home button rather than touch-sensitive display system 112 (FIG. 1A), keyboard/mouse 350 (FIG. 3), or touch pad 355 (FIG. 3). . In some embodiments, in response to input from hardware input device 145 (e.g., an intensity-sensing home button or touch screen), hardware input processing module 146 performs a home button "click" (e.g., "down click"). One or more trigger signals are provided to the haptic feedback module 133 indicating that a user input that meets predetermined input criteria has been detected, such as an input corresponding to an "up click" (or an "up click"). In some embodiments, the haptic feedback module 133 provides a waveform corresponding to the home button "click" in response to an input corresponding to the home button "click" to provide haptic feedback for pressing the physical home button. to simulate.

いくつかの実施形態では、触覚出力モジュールは、触知出力の生成を制御する触覚フィードバックコントローラ161(例えば図1Aの触覚フィードバックコントローラ161)を含む。いくつかの実施形態では、触覚フィードバックコントローラ161は、複数の触知出力生成器に結合され、この複数の触知出力生成器のうちの1つ以上の触知出力生成器を選択し、選択した1つ以上の触知出力生成器に波形を送信して、触知出力を生成する。いくつかの実施形態では、触覚フィードバックコントローラ161は、ハードウェア入力デバイス145のアクティブ化に対応する触知出力要求、及びソフトウェアイベントに対応する触知出力要求(例えば触覚フィードバックモジュール133からの触知出力要求)を調整し、(例えば、特定の波形(単数又は複数)のスケールを増大させ、かつ/又は残りの波形のスケールを低減させて、ハードウェア入力デバイス145のアクティブ化に対応する触知出力をソフトウェアイベントに対応する触知出力よりも優先することなどによって)2つ以上の波形のうちの1つ以上の波形を修正して、特定の波形(単数又は複数)を2つ以上の波形のうちの残りの波形より強調する。 In some embodiments, the haptic output module includes a haptic feedback controller 161 (eg, haptic feedback controller 161 of FIG. 1A) that controls the generation of tactile output. In some embodiments, the haptic feedback controller 161 is coupled to a plurality of tactile output generators and selects one or more tactile output generators of the plurality of tactile output generators. The waveform is sent to one or more tactile output generators to generate a tactile output. In some embodiments, haptic feedback controller 161 provides tactile output requests corresponding to activation of hardware input device 145 and tactile output requests corresponding to software events (e.g., haptic output from haptic feedback module 133). a tactile output corresponding to activation of the hardware input device 145 (e.g., increasing the scale of a particular waveform(s) and/or decreasing the scale of the remaining waveforms); modify one or more of the two or more waveforms (such as by prioritizing the tactile output that corresponds to a software event) to make the particular waveform(s) one of the two or more waveforms Emphasize it more than the rest of the waveform.

いくつかの実施形態では、図1Cに示すように、触覚フィードバックコントローラ161の出力は、デバイス100のオーディオ回路(例えば図1Aのオーディオ回路110)に結合され、デバイス100のオーディオ回路にオーディオ信号を提供する。いくつかの実施形態では、触覚フィードバックコントローラ161は、触知出力を生成するために使用される波形と、触知出力の生成に関連して音声出力を提供するために使用されるオーディオ信号の両方を提供する。いくつかの実施形態では、触覚フィードバックコントローラ161は、オーディオ信号及び/又は(触知出力を生成するために使用される)波形を、(例えばオーディオ信号及び/又は波形を遅延させることによって)音声出力及び触知出力が同期するように修正する。いくつかの実施形態では、触覚フィードバックコントローラ161は、デジタル波形を、増幅器163及び/又は触知出力生成器167によって受信されるアナログ信号に変換するために使用される、デジタルアナログ変換器を含む。 In some embodiments, as shown in FIG. 1C, the output of haptic feedback controller 161 is coupled to audio circuitry of device 100 (e.g., audio circuitry 110 of FIG. 1A) to provide an audio signal to the audio circuitry of device 100. do. In some embodiments, the haptic feedback controller 161 provides both the waveform used to generate the tactile output and the audio signal used to provide the audio output in connection with the generation of the tactile output. I will provide a. In some embodiments, haptic feedback controller 161 converts the audio signal and/or waveform (used to generate the tactile output) into audio output (e.g., by delaying the audio signal and/or waveform). and modify so that the tactile output is synchronized. In some embodiments, haptic feedback controller 161 includes a digital-to-analog converter that is used to convert the digital waveform to an analog signal that is received by amplifier 163 and/or tactile output generator 167.

いくつかの実施形態では、触知出力モジュールは、増幅器163を含む。いくつかの実施形態では、増幅器163は、(例えば触覚フィードバックコントローラ161から)波形を受信し、これらの波形を増幅した後で、これらの増幅した波形を触知出力生成器167(例えば触知出力生成器167(図1A)又は357(図3))に送信する。例えば、増幅器163は、受信した波形を、触知出力生成器167の物理的仕様に応じた信号レベルに増幅し(例えば、触知出力生成器167に送信される信号が触覚フィードバックコントローラ161から受信した波形に対応する触知出力を生成するように、触知出力を生成する触知出力生成器167が必要とする電圧及び/又は電流に増幅し)、この増幅した波形を触知出力生成器167に送信する。これに応答して、触知出力生成器167は、(例えば、可動質量をその可動質量の中立位置を基準として1つ以上の方向に往復させることによって)触覚出力を生成する。 In some embodiments, the tactile output module includes an amplifier 163. In some embodiments, amplifier 163 receives waveforms (e.g., from haptic feedback controller 161), amplifies these waveforms, and then transmits these amplified waveforms to tactile output generator 167 (e.g., from tactile output controller 161). generator 167 (FIG. 1A) or 357 (FIG. 3)). For example, amplifier 163 amplifies the received waveform to a signal level that is responsive to the physical specifications of tactile output generator 167 (e.g., the signal sent to tactile output generator 167 is received from tactile feedback controller 161). the amplified waveform to a voltage and/or current required by the tactile output generator 167 to generate a tactile output corresponding to the tactile output waveform). 167. In response, tactile output generator 167 generates a tactile output (eg, by reciprocating the movable mass in one or more directions relative to the movable mass's neutral position).

いくつかの実施形態では、触知出力モジュールは、触知出力生成器167に結合されたセンサ169を含む。センサ169は、触知出力生成器167又は触知出力生成器167の1つ以上の構成要素(例えば、触覚出力を生成するために使用される膜などの1つ以上の可動部)の状態又は状態変化(例えば、機械的位置、物理的変位、及び/又は移動)を検出する。いくつかの実施形態では、センサ169は、磁場センサ(例えばホール効果センサ)、又はその他の変位及び/若しくは移動センサである。いくつかの実施形態では、センサ169は、触覚フィードバックコントローラ161に情報(例えば触知出力生成器167の1つ以上の部分の位置、変位、及び/又は移動)を提供し、触覚フィードバックコントローラ161は、センサ169から提供される触知出力生成器167の状態に関する情報にしたがって、触覚フィードバックコントローラ161から出力される波形(例えば、任意選択的に増幅器163を介して触知出力生成器167に送信される波形)を調整する。 In some embodiments, the tactile output module includes a sensor 169 coupled to a tactile output generator 167. The sensor 169 detects the state or state of the tactile output generator 167 or one or more components of the tactile output generator 167 (e.g., one or more moving parts, such as a membrane used to generate the tactile output). Detecting a change in state (eg, mechanical position, physical displacement, and/or movement). In some embodiments, sensor 169 is a magnetic field sensor (eg, a Hall effect sensor) or other displacement and/or movement sensor. In some embodiments, the sensor 169 provides information (e.g., the position, displacement, and/or movement of one or more portions of the tactile output generator 167) to the haptic feedback controller 161, and the haptic feedback controller 161 , a waveform output from the haptic feedback controller 161 (e.g., optionally sent to the tactile output generator 167 via an amplifier 163) according to information regarding the state of the tactile output generator 167 provided by the sensor 169. waveform).

図2は、いくつかの実施形態による、タッチスクリーン(例えば図1Aのタッチ感知ディスプレイシステム112)を有するポータブル多機能デバイス100を示す図である。タッチスクリーンは、任意選択的に、ユーザーインターフェース(user interface、UI)200内に1つ以上のグラフィックを表示する。これらの実施形態、並びに以下で述べるその他の実施形態では、ユーザーは、例えば、1本以上の指202(図では一定の縮尺では描かれていない)又は1つ以上のスタイラス203(図では一定の縮尺では描かれていない)によってグラフィック上でジェスチャを行うことによってグラフィックのうちの1つ以上を選択することができる。いくつかの実施形態では、1つ以上のグラフィックの選択は、ユーザーがその1つ以上のグラフィックとの接触を断ったときに行われる。いくつかの実施形態では、ジェスチャは、任意選択的に、1回以上のタップ、1回以上のスワイプ(左から右へ、右から左へ、上方向へ、及び/又は下方向へ)、及び/又はデバイス100と接触している指のローリング(右から左へ、左から右へ、上方向へ、及び/又は下方向へ)を含む。いくつかの実装形態又は状況では、グラフィックとの不慮の接触では、グラフィックは選択されない。例えば、選択に対応するジェスチャがタップであるときには、アプリケーションアイコンの上をスイープするスワイプジェスチャでは、任意選択的に、対応するアプリケーションは選択されない。 FIG. 2 is a diagram illustrating a portable multifunction device 100 with a touch screen (eg, touch-sensitive display system 112 of FIG. 1A), according to some embodiments. The touch screen optionally displays one or more graphics within a user interface (UI) 200. In these embodiments, as well as other embodiments discussed below, the user may, for example, use one or more fingers 202 (not drawn to scale in the illustrations) or one or more stylus 203 (not drawn to scale in the illustrations). One or more of the graphics can be selected by making gestures on the graphics (not drawn to scale). In some embodiments, selection of one or more graphics occurs when the user breaks contact with the one or more graphics. In some embodiments, the gesture optionally includes one or more taps, one or more swipes (left to right, right to left, up, and/or down), and and/or rolling of the finger in contact with the device 100 (from right to left, from left to right, in an upward direction, and/or in a downward direction). In some implementations or situations, accidental contact with a graphic does not select the graphic. For example, a swipe gesture that sweeps over an application icon optionally does not select the corresponding application when the gesture corresponding to selection is a tap.

また、デバイス100は、任意選択的に、「ホーム」又はメニューボタン204などの1つ以上の物理ボタンも含む。前述のように、メニューボタン204は、任意選択的に、デバイス100上で任意選択的に実行されるアプリケーションのセット内の任意のアプリケーション136にナビゲートするために使用される。あるいは、いくつかの実施形態では、メニューボタンは、タッチスクリーンディスプレイに表示されるGUI内のソフトキーとして実装される。 Device 100 also optionally includes one or more physical buttons, such as a “home” or menu button 204. As mentioned above, menu button 204 is optionally used to navigate to any application 136 within the set of applications optionally running on device 100. Alternatively, in some embodiments, the menu button is implemented as a softkey within a GUI displayed on a touch screen display.

いくつかの実施形態では、デバイス100は、タッチスクリーンディスプレイ、メニューボタン204(ホームボタン204と呼ばれることもある)、デバイスの電源オン/オフ及びデバイスのロックのためのプッシュボタン206、ボリューム調節ボタン(単数又は複数)208、加入者識別モジュール(Subscriber Identity Module、SIM)カードスロット210、ヘッドセットジャック212、並びにドッキング/充電用外部ポート124を含む。プッシュボタン206は、任意選択的に、ボタンを押し下げて、所定の期間にわたってボタンを押し下げた状態に保持することによって、デバイスの電源をオン/オフするため、ボタンを押し下げて、所定の期間が経過する前にボタンを解放することによって、デバイスをロックするため、及び/又はデバイスをロック解除する、若しくはロック解除プロセスを開始するために、使用される。また、いくつかの実施形態では、デバイス100は、マイクロフォン113を通して、いくつかの機能をアクティブ化又は非アクティブ化するための口頭入力を受け付ける。また、デバイス100は、任意選択的に、タッチ感知ディスプレイシステム112上の接触の強度を検出する1つ以上の接触強度センサ165、及び/又はデバイス100のユーザーに対する触知出力を生成する1つ以上の触知出力生成器167も含む。 In some embodiments, the device 100 includes a touch screen display, a menu button 204 (sometimes referred to as the home button 204), a push button 206 for powering the device on/off and locking the device, and a volume control button ( a subscriber identity module (SIM) card slot 210, a headset jack 212, and an external docking/charging port 124. Push button 206 is optionally configured to power on/off the device by depressing the button and holding the button depressed for a predetermined period of time. It is used to lock the device and/or to unlock the device or start the unlocking process by releasing the button before the device is unlocked. In some embodiments, device 100 also accepts verbal input through microphone 113 to activate or deactivate certain features. Device 100 also optionally includes one or more touch intensity sensors 165 that detect the intensity of a touch on touch-sensitive display system 112 and/or one or more touch intensity sensors 165 that generate a tactile output to a user of device 100. It also includes a tactile output generator 167 .

図3は、いくつかの実施形態による、ディスプレイ及びタッチ感知面を有する例示的な多機能デバイスのブロック図である。デバイス300は、ポータブル型である必要はない。いくつかの実施形態では、デバイス300は、ラップトップコンピュータ、デスクトップコンピュータ、タブレットコンピュータ、マルチメディアプレーヤデバイス、ナビゲーションデバイス、教育用デバイス(子供の学習玩具など)、ゲームシステム、又は制御デバイス(例えば、家庭用又は業務用コントローラ)である。デバイス300は、一般的には、1つ以上の処理ユニット(CPU)310と、1つ以上のネットワーク又は他の通信インターフェース360と、メモリ370と、これらのコンポーネントを相互接続する1つ以上の通信バス320とを含む。通信バス320は、システムコンポーネント間の通信を相互接続及び制御する回路(チップセットと呼ばれることがある)を、任意選択的に含む。デバイス300は、一般的にはタッチスクリーンディスプレイであるディスプレイ340を含む、入出力(I/O)インターフェース330を含む。I/Oインターフェース330はまた任意選択で、キーボード及び/又はマウス(又は、他のポインティングデバイス)350、並びにタッチパッド355、デバイス300上で触知出力を生成する触知出力生成器357(例えば、図1Aを参照して上記説明された触知出力生成器167と同様の)、センサ359(例えば、光センサ、加速度センサ、近接センサ、タッチ感知センサ、及び/又は図1Aを参照して上記説明された接触強度センサ165と同様の接触強度センサ)を含む。メモリ370は、DRAM、SRAM、DDR RAM、又は他のランダムアクセスソリッドステートメモリデバイスなどの高速ランダムアクセスメモリを含み、また任意選択で、1つ以上の磁気ディスク記憶デバイス、光ディスク記憶デバイス、フラッシュメモリデバイス、又は他の不揮発性ソリッドステート記憶デバイスなどの不揮発性メモリを含む。メモリ370は、CPU310からリモートに位置する1つ以上の記憶デバイスを任意選択的に含む。いくつかの実施形態では、メモリ370は、ポータブル多機能デバイス100(図1A)のメモリ102に記憶されたプログラム、モジュール、及びデータ構造、又はそれらのサブセットに類似の、プログラム、モジュール、及びデータ構造を記憶する。更に、メモリ370は任意選択で、ポータブル多機能デバイス100のメモリ102に存在しない追加のプログラム、モジュール、及びデータ構造を記憶する。例えば、デバイス300のメモリ370は任意選択で、描画モジュール380、プレゼンテーションモジュール382、ワードプロセッシングモジュール384、ウェブサイト作成モジュール386、ディスクオーサリングモジュール388、及び/又はスプレッドシートモジュール390を記憶するが、ポータブル多機能デバイス100(図1A)のメモリ102は任意選択で、それらのモジュールを記憶しない。 FIG. 3 is a block diagram of an exemplary multifunction device having a display and a touch-sensitive surface, according to some embodiments. Device 300 need not be portable. In some embodiments, device 300 is a laptop computer, a desktop computer, a tablet computer, a multimedia player device, a navigation device, an educational device (such as a child's learning toy), a gaming system, or a control device (such as a home computer). controller). Device 300 generally includes one or more processing units (CPUs) 310, one or more network or other communication interfaces 360, memory 370, and one or more communication interfaces interconnecting these components. bus 320. Communication bus 320 optionally includes circuitry (sometimes referred to as a chipset) that interconnects and controls communications between system components. Device 300 includes an input/output (I/O) interface 330 that includes a display 340, typically a touch screen display. I/O interface 330 also optionally includes a keyboard and/or mouse (or other pointing device) 350 and touchpad 355, a tactile output generator 357 that generates tactile output on device 300 (e.g., tactile output generator 167 described above with reference to FIG. 1A), a sensor 359 (e.g., a light sensor, an acceleration sensor, a proximity sensor, a touch sensitive sensor, and/or a sensor 359 as described above with reference to FIG. 1A); (a contact strength sensor similar to the contact strength sensor 165). Memory 370 includes high speed random access memory such as DRAM, SRAM, DDR RAM, or other random access solid state memory device, and optionally one or more magnetic disk storage devices, optical disk storage devices, flash memory devices. , or other non-volatile solid-state storage devices. Memory 370 optionally includes one or more storage devices located remotely from CPU 310. In some embodiments, memory 370 stores programs, modules, and data structures similar to those stored in memory 102 of portable multifunction device 100 (FIG. 1A), or a subset thereof. Remember. Additionally, memory 370 optionally stores additional programs, modules, and data structures that are not present in memory 102 of portable multifunction device 100. For example, memory 370 of device 300 optionally stores a drawing module 380, a presentation module 382, a word processing module 384, a website creation module 386, a disk authoring module 388, and/or a spreadsheet module 390; Memory 102 of functional device 100 (FIG. 1A) optionally does not store these modules.

上記識別された図3における要素の各々は任意選択で、前に言及したメモリデバイスのうちの1つ以上に記憶される。上記識別されたモジュールのうちの各々は、上記説明された機能を実行する命令セットに対応する。上記識別されたモジュール又はプログラム(すなわち、命令セット)は、別々のソフトウェアプログラム、手順、又はモジュールとして実装される必要はなく、よって、それらのモジュールの様々なサブセットは任意選択で、様々な実施形態において組み合わされ、又はその他の方式で再配置される。いくつかの実施形態では、メモリ370は、上記で識別されたモジュール及びデータ構造のサブセットを任意選択的に記憶する。更に、メモリ370は、上記で説明されていない追加のモジュール及びデータ構造を任意選択的に記憶する。 Each of the elements in FIG. 3 identified above is optionally stored in one or more of the previously mentioned memory devices. Each of the modules identified above corresponds to a set of instructions that perform the functions described above. The modules or programs (i.e., instruction sets) identified above need not be implemented as separate software programs, procedures, or modules, and thus various subsets of those modules may optionally be implemented in various embodiments. combined or otherwise rearranged. In some embodiments, memory 370 optionally stores a subset of the modules and data structures identified above. Additionally, memory 370 optionally stores additional modules and data structures not described above.

ここで、ポータブル多機能デバイス100上に任意選択で実装されるユーザーインターフェース(「UI」)の実施形態に留意する。 Attention is now drawn to embodiments of a user interface (“UI”) optionally implemented on portable multifunction device 100.

図4Aは、いくつかの実施形態による、ポータブル多機能デバイス100上のアプリケーションのメニューのための例示的なユーザーインターフェース400を示す。同様のユーザーインターフェースは、デバイス300上に任意選択的に実装される。いくつかの実施形態では、ユーザーインターフェース400は、以下の要素、又はそれらのサブセット若しくはスーパーセットを含む。
●セルラー信号及びWi-Fi信号などの無線通信のための信号強度インジケータ、
●時間、
●Bluetoothインジケータ、
●バッテリ状態インジケータ、
●下記などの、頻繁に使用されるアプリケーションのためのアイコンを有するトレー408:
○不在着信又は音声メールメッセージの数のインジケータ414を任意選択的に含む、「電話」とラベル付けされる、電話モジュール138用のアイコン416、
○未読電子メールの数のインジケータ410を任意選択的に含む、「メール」とラベル付けされる、電子メールクライアントモジュール140用のアイコン418、
○「ブラウザ」とラベル付けされる、ブラウザモジュール147用のアイコン420、及び
○「音楽」とラベル付けされるビデオ及び音楽プレイヤモジュール152のためのアイコン422、並びに
●下記などの、その他のアプリケーションのためのアイコン:
○「メッセージ」とラベル付けされるIMモジュール141のためのアイコン424、
○「カレンダ」とラベル付けされる、カレンダモジュール148用のアイコン426、
○「写真」とラベル付けされる、画像管理モジュール144用のアイコン428、
○「カメラ」とラベル付けされる、カメラモジュール143用のアイコン430、
○「オンラインビデオ」とラベル付けされる、オンラインビデオモジュール155用のアイコン432、
○「株式」とラベル付けされる、株式ウィジェット149-2用のアイコン434、
○「地図」とラベル付けされる、地図モジュール154用のアイコン436、
○「気象」とラベル付けされる、気象ウィジェット149-1用のアイコン438、
○「時計」とラベル付けされる、目覚まし時計ウィジェット149-4用のアイコン440、
○「トレーニングサポート」とラベル付けされる、トレーニングサポートモジュール142用のアイコン442、
○「メモ」とラベル付けされる、メモモジュール153用のアイコン444、及び
○デバイス100及びその様々なアプリケーション136に関する設定へのアクセスを提供する、設定アプリケーション若しくはモジュール用のアイコン446。
FIG. 4A shows an example user interface 400 for a menu of applications on portable multifunction device 100, according to some embodiments. A similar user interface is optionally implemented on device 300. In some embodiments, user interface 400 includes the following elements, or a subset or superset thereof.
● Signal strength indicators for wireless communications such as cellular signals and Wi-Fi signals,
●Time,
●Bluetooth indicator,
●Battery status indicator,
Tray 408 with icons for frequently used applications such as:
o Icon 416 for the telephone module 138, labeled "Phone", optionally including an indicator 414 of the number of missed calls or voice mail messages;
o an icon 418 for the email client module 140 labeled "mail", optionally including an indicator 410 of the number of unread emails;
o an icon 420 for the browser module 147, labeled "Browser", and o an icon 422 for the video and music player module 152, labeled "Music", and o for other applications, such as: Icon for:
o Icon 424 for IM module 141 labeled "Message";
o icon 426 for calendar module 148, labeled "Calendar";
o an icon 428 for the image management module 144, labeled "Photos";
o icon 430 for camera module 143, labeled "camera";
o icon 432 for online video module 155, labeled "online video";
o Icon 434 for the stock widget 149-2, labeled "Stocks";
o Icon 436 for map module 154, labeled "Map";
o icon 438 for the weather widget 149-1, labeled "weather";
o icon 440 for the alarm clock widget 149-4, labeled "clock";
o icon 442 for the training support module 142, labeled "Training Support";
o Icon 444 for the notes module 153, labeled "Notes," and o Icon 446 for a settings application or module that provides access to settings regarding the device 100 and its various applications 136.

図4Aに表示されたアイコンのラベルは単なる例に過ぎないことに留意されたい。例えば、他のラベルが任意選択で、様々なアプリケーションアイコンに使用される。いくつかの実施形態では、それぞれのアプリケーションアイコンのラベルは、それぞれのアプリケーションアイコンに対応するアプリケーションの名前を含む。いくつかの実施形態では、特定のアプリケーションアイコンのラベルは、特定のアプリケーションアイコンに対応するアプリケーションの名前とは異なる。 Note that the icon labels displayed in FIG. 4A are merely examples. For example, other labels are optionally used for various application icons. In some embodiments, the label of each application icon includes the name of the application corresponding to the respective application icon. In some embodiments, the label of a particular application icon is different from the name of the application that corresponds to the particular application icon.

図4Bは、ディスプレイ450と分離したタッチ感知面451(例えば、タブレット又はタッチパッド355、図3)を有するデバイス(例えば、デバイス300、図3)上の例示的なユーザーインターフェースを示す。以下の実施例のうちの多くはタッチスクリーンディスプレイ112上の入力(タッチ感知面とディスプレイとが組み合わされている場合)を参照して与えられるが、いくつかの実施形態では、デバイスは、図4Bに示すように、ディスプレイと分離したタッチ感知面上の入力を検出する。いくつかの実施形態では、タッチ感知面(例えば、図4Bにおける451)は、ディスプレイ(例えば、450)上の主軸(例えば、図4Bにおける453)に対応する主軸(例えば、図4Bにおける452)を有する。これらの実施形態によれば、デバイスは、ディスプレイ上のそれぞれの位置に対応する位置(例えば、図4Bにおいて、460は468に対応し、462は470に対応する)におけるタッチ感知面451との接触(例えば、図4Bにおける460及び462)を検出する。このように、タッチ感知面がディスプレイと分離しているとき、タッチ感知面(例えば、図4Bにおける451)上でデバイスによって検出されたユーザー入力(例えば、接触460及び462、及びそれらの移動)は、多機能デバイスのディスプレイ(例えば、図4Bにおける450)上でユーザーインターフェースを操作するためにデバイスによって使用される。同様の方法が、本明細書に記載の他のユーザーインターフェースに任意選択的に使用されることを理解されたい。 FIG. 4B shows an example user interface on a device (eg, device 300, FIG. 3) having a display 450 and a separate touch-sensitive surface 451 (eg, tablet or touchpad 355, FIG. 3). Although many of the examples below are given with reference to input on a touch screen display 112 (if a touch-sensitive surface and display are combined), in some embodiments the device Detects input on a touch-sensitive surface separate from the display, as shown in Figure 2. In some embodiments, the touch-sensitive surface (e.g., 451 in FIG. 4B) has a major axis (e.g., 452 in FIG. 4B) that corresponds to a major axis (e.g., 453 in FIG. 4B) on the display (e.g., 450). have According to these embodiments, the device makes contact with the touch-sensitive surface 451 at locations corresponding to their respective locations on the display (e.g., in FIG. 4B, 460 corresponds to 468 and 462 corresponds to 470). (eg, 460 and 462 in FIG. 4B). Thus, when the touch-sensitive surface is separate from the display, user inputs (e.g., contacts 460 and 462 and movements thereof) detected by the device on the touch-sensitive surface (e.g., 451 in FIG. 4B) , used by the device to operate a user interface on the multifunction device's display (eg, 450 in FIG. 4B). It should be understood that similar methods are optionally used for other user interfaces described herein.

これに加えて、以下の説明は、主に指入力(例えば、指の接触、指のタップジェスチャ、指のスワイプジェスチャなど)を参照して説明されるが、いくつかの実施形態では、それらの指入力のうちの1つ以上は、別の入力デバイスからの入力(例えば、マウスに基づく入力又はスタイラス入力)で置き換えられることを理解されたい。例えば、スワイプジェスチャは、任意選択的に、マウスクリックと置き換えられ(例えば、接触の代わりに)、それに続いて、スワイプの経路に沿ってカーソルの移動が行われる(例えば、接触の移動の代わりに)。別の例として、タップジェスチャは、任意選択的に、カーソルがタップジェスチャの位置の上に位置する間はマウスクリックと置き換えられる(例えば、接触を検出して、それに続いて接触の検出を停止する代わりに)。同様に、複数のユーザー入力が同時に検出されるとき、複数のコンピュータマウスが、任意選択的に、同時に使用され、又はマウス及び指の接触が、任意選択的に、同時に使用されることを理解されたい。 In addition, although the following description is primarily described with reference to finger inputs (e.g., finger contacts, finger tap gestures, finger swipe gestures, etc.), in some embodiments, those It should be appreciated that one or more of the finger inputs may be replaced with input from another input device (eg, mouse-based input or stylus input). For example, a swipe gesture is optionally replaced with a mouse click (e.g., instead of a contact), followed by cursor movement along the path of the swipe (e.g., instead of a contact movement). ). As another example, a tap gesture is optionally replaced with a mouse click while the cursor is positioned over the location of the tap gesture (e.g., detecting contact and subsequently stopping detecting contact). instead). Similarly, it will be appreciated that when multiple user inputs are detected simultaneously, multiple computer mice are optionally used simultaneously, or mouse and finger contacts are optionally used simultaneously. sea bream.

本明細書にて使用されるとき、用語「フォーカスセレクタ」とは、ユーザーが対話しているユーザーインターフェースの現在の部分を示す入力要素を指す。カーソル又は他のロケーションマーカを含むいくつかの実装形態において、カーソルは「フォーカスセレクタ」として機能し、これにより、カーソルが特定のユーザーインターフェース要素(例えば、ボタン、ウィンドウ、スライダ、又は他のユーザーインターフェース要素)の上にある間に、タッチ感知面(例えば、図3のタッチパッド355、又は図4Bのタッチ感知面451)上で入力(例えば、押圧入力)が検出されると、この特定のユーザーインターフェース要素が、検出された入力にしたがって調整される。タッチスクリーンディスプレイ上のユーザーインターフェース要素との直接的な対話を可能にする、タッチスクリーンディスプレイ(例えば、図1Aのタッチ感知ディスプレイシステム112、又は図6Aのタッチスクリーン)を含むいくつかの実装形態では、タッチスクリーン上で検出された接触が「フォーカスセレクタ」として機能し、これにより、タッチスクリーンディスプレイ上の特定のユーザーインターフェース要素(例えば、ボタン、ウィンドウ、スライダ、又は他のユーザーインターフェース要素)の場所で入力(例えば、接触による押圧入力)が検出されると、この特定のユーザーインターフェース要素が、検出された入力にしたがって調節される。いくつかの実装形態では、(例えば、タブキー又は矢印キーを使用してフォーカスを1つのボタンから別のボタンに移動させることによって)タッチスクリーンディスプレイ上の対応するカーソルの移動又は接触の移動なしに、フォーカスがユーザーインターフェースの1つの領域からユーザーインターフェースの別の領域に移動され、これらの実装形態では、フォーカスセレクタは、ユーザーインターフェースの異なる領域の間のフォーカスの移動にしたがって移動する。フォーカスセレクタによってとられる具体的な形態とは関わりなく、フォーカスセレクタは一般的に、ユーザーの意図したユーザーインターフェースとの対話を通信するために(例えば、ユーザーが対話することを意図しているユーザーインターフェースの要素をデバイスに示すことによって)、ユーザーによって制御されるユーザーインターフェース要素(又は、タッチスクリーンディスプレイ上の接触)である。例えば、押圧入力がタッチ感知面(例えば、タッチパッド又はタッチスクリーン)上で検出されたときに、対応するボタンの上にあるフォーカスセレクタ(例えば、カーソル、接触又は選択ボックス)の位置は、(デバイスのディスプレイ上に表示されている他のユーザーインターフェース要素ではなく)対応するボタンをユーザーがアクティブ化しようとしていることを示すものである。 As used herein, the term "focus selector" refers to an input element that indicates the current portion of a user interface with which a user is interacting. In some implementations that include a cursor or other location marker, the cursor functions as a "focus selector," which allows the cursor to point to a particular user interface element (e.g., a button, window, slider, or other user interface element). ), when an input (e.g., a press input) is detected on a touch-sensitive surface (e.g., touch pad 355 in FIG. The elements are adjusted according to the detected input. Some implementations include a touch screen display (e.g., the touch sensitive display system 112 of FIG. 1A or the touch screen of FIG. 6A) that allows direct interaction with user interface elements on the touch screen display. Contacts detected on the touchscreen act as "focus selectors" that allow input at the location of a particular user interface element (e.g., a button, window, slider, or other user interface element) on the touchscreen display. When a pressure input (eg, a touch pressure input) is detected, this particular user interface element is adjusted according to the detected input. In some implementations, without corresponding cursor movement or contact movement on the touchscreen display (e.g., by moving focus from one button to another using the tab or arrow keys) Focus is moved from one area of the user interface to another area of the user interface, and in these implementations, the focus selector moves according to the movement of focus between different areas of the user interface. Regardless of the specific form taken by a focus selector, a focus selector is generally used to communicate a user's intended interaction with a user interface (e.g. A user interface element (or a touch on a touch screen display) that is controlled by the user (by showing the element on the device). For example, when a press input is detected on a touch-sensitive surface (e.g., a touchpad or touchscreen), the position of a focus selector (e.g., a cursor, touch, or selection box) over the corresponding button is indicates that the user is activating the corresponding button (and not any other user interface element visible on the display).

本明細書及び特許請求の範囲で使用されるとき、タッチ感知面上の接触の「強度」という用語は、タッチ感知面上の接触(例えば、指の接触又はスタイラスの接触)の力若しくは圧力(単位面積当りの力)、又はタッチ感知面上の接触の力若しくは圧力の代替するもの(プロキシ)を指す。接触の強度は、少なくとも4つの異なる値を含み、より典型的には、何百もの(例えば、少なくとも256個の)異なる値を含む値範囲を有する。接触の強度は、任意選択的に、様々な手法、及び様々なセンサ又はセンサの組合せを使用して判定(又は、測定)される。例えば、タッチ感知面の下に又はこれに隣接する1つ以上の力センサは、任意選択的に、タッチ感知面上の様々な点における力を測定するために使用される。いくつかの実装形態では、複数の力センサからの力測定値は、推定される接触の力を判定するために組み合わされる(例えば、加重平均又は合計)。同様に、タッチ感知面上のスタイラスの圧力を判定するために、スタイラスの圧力感知チップが、任意選択的に用いられる。あるいは、タッチ感知面上で検出される接触領域のサイズ及び/若しくはその変化、接触に近接するタッチ感知面の電気容量及び/若しくはその変化、並びに/又は、接触に近接するタッチ感知面の抵抗及び/若しくはその変化が、タッチ感知面上の接触の力又は圧力の代替物として、任意選択的に用いられる。いくつかの実装形態では、接触の力又は圧力に対する代替的測定値は、強度閾値を超えているかを判定するために直接使用される(例えば、強度閾値は、代替的測定値に対応する単位で記述される)。いくつかの実装形態では、接触の力又は圧力に対する代替的測定値は、推定される力又は圧力に変換され、推定される力又は圧力は、強度閾値を超えているかを判定するために使用される(例えば、強度閾値は、圧力の単位で測定された圧力閾値である)。接触の強度をユーザー入力の属性として使用することは、アフォーダンスを(例えば、タッチ感知ディスプレイ上に)表示するため、及び/又はユーザー入力を(例えば、タッチ感知ディスプレイ、タッチ感知面、又はノブ若しくはボタンなどの物理的/機械的制御を介して)受信する面積が制限された、低減されたサイズのデバイスにおいて、ユーザーによるアクセスが他の場合に容易には不可能であり得る、追加のデバイス機能へのユーザーのアクセスを可能にする。 As used herein and in the claims, the term "intensity" of a contact on a touch-sensitive surface refers to the force or pressure (of a contact (e.g., a finger contact or a stylus contact) on a touch-sensitive surface). (force per unit area) or a proxy for the force or pressure of contact on a touch-sensitive surface. The intensity of contact has a value range that includes at least four different values, and more typically includes hundreds (eg, at least 256) different values. The intensity of contact is optionally determined (or measured) using various techniques and various sensors or combinations of sensors. For example, one or more force sensors below or adjacent to the touch-sensitive surface are optionally used to measure forces at various points on the touch-sensitive surface. In some implementations, force measurements from multiple force sensors are combined (eg, a weighted average or sum) to determine an estimated contact force. Similarly, a pressure sensitive tip of the stylus is optionally used to determine the pressure of the stylus on the touch sensitive surface. Alternatively, the size and/or change in the contact area detected on the touch-sensitive surface, the capacitance and/or change in the touch-sensitive surface proximate the contact, and/or the resistance and/or change in the touch-sensitive surface proximate the contact. /or variations thereof are optionally used as a substitute for contact force or pressure on the touch-sensitive surface. In some implementations, an surrogate measurement of contact force or pressure is used directly to determine whether an intensity threshold is exceeded (e.g., the intensity threshold is in units corresponding to the surrogate measurement). described). In some implementations, the alternative measurement of contact force or pressure is converted to an estimated force or pressure, and the estimated force or pressure is used to determine whether an intensity threshold is exceeded. (eg, the intensity threshold is a pressure threshold measured in units of pressure). Using the intensity of contact as an attribute of user input can be used to display affordances (e.g., on a touch-sensitive display) and/or to display user input (e.g., on a touch-sensitive display, touch-sensitive surface, or knob or button). Access to additional device functionality that may not otherwise be readily possible in devices of reduced size with limited reception area (through physical/mechanical controls such as Allow users to access.

いくつかの実施形態では、接触/動きモジュール130は、ユーザーによって操作が実行されたか否かを判定するための(例えば、ユーザーがアイコン上で「クリック」したか否かを判定するための)、1つ以上の強度閾値のセットを使用する。いくつかの実施形態では、少なくとも強度閾値のサブセットは、ソフトウェアパラメータにしたがって決定される(例えば、強度閾値は、特定の物理アクチュエータのアクティブ化閾値によって決定されず、デバイス100の物理ハードウェアを変更することなく調節されてもよい)。例えば、トラックパッド又はタッチスクリーンディスプレイのマウス「クリック」閾値は、トラックパッド又はタッチスクリーンディスプレイのハードウェアを変更することなく、広範囲の所定の閾値のうちのいずれかに設定することができる。加えて、いくつかの実装形態では、デバイスのユーザーは、強度閾値の組のうちの1つ以上を調節するソフトウェア設定が提供される(例えば、個々の強度閾値を調節することによって、及び/又はシステムレベルのクリック「強度」パラメータで一度に複数の強度閾値を調節することによって)。 In some embodiments, the touch/movement module 130 includes: for determining whether an action has been performed by the user (e.g., for determining whether the user has "clicked" on an icon); Using a set of one or more intensity thresholds. In some embodiments, at least a subset of the intensity thresholds are determined according to software parameters (e.g., the intensity thresholds are not determined by the activation threshold of a particular physical actuator and change the physical hardware of the device 100. (may be adjusted without any modification). For example, the mouse "click" threshold for a trackpad or touchscreen display can be set to any of a wide range of predetermined thresholds without changing the trackpad or touchscreen display hardware. Additionally, in some implementations, a user of the device is provided with software settings to adjust one or more of the set of intensity thresholds (e.g., by adjusting individual intensity thresholds and/or (by adjusting multiple intensity thresholds at once with the system-level click "Intensity" parameter).

本明細書及び特許請求の範囲で使用されるとき、接触の「特性強度」という用語は、接触の1つ以上の強度に基づく接触の特性を指す。いくつかの実施形態では、特性強度は複数の強度サンプルに基づく。特性強度は、任意選択的に、所定の数の強度サンプル、あるいは所定のイベント(例えば、接触を検出した後、接触のリフトオフを検出する前、接触の移動の開始を検出する前若しくは後、接触の終わりを検出する前、接触の強度の増加を検出する前若しくは後、及び/又は接触の強度の減少を検出する前若しくは後)に対する予め定められた時間期間の間(例えば、0.05、0.1、0.2、0.5、1、2、5、10秒)に収集された強度サンプルの組に基づく。接触の特性強度は任意選択で、接触の強度の最大値、接触の強度の平均値(mean value)、接触の強度の平均値(average value)、接触の強度の上位10%値、接触の強度の最大値の半分の値、接触の強度の最大値の90%の値、所定の期間にわたって、又は所定の時間において開始した接触の強度を低域通過フィルタリングすることによって生成された値などのうちの1つ以上に基づく。いくつかの実施形態では、特性強度を決定するために、(例えば、特性強度が経時的な接触の強度の平均であるとき)接触の持続期間が使用される。いくつかの実施形態では、操作がユーザーによって実行されたか否かを判定するために、特性強度を1つ以上の強度閾値のセットと比較する。例えば、1つ以上の強度閾値のセットは、第1の強度閾値及び第2の強度閾値を含むことができる。この実施例では、第1の閾値を上回らない特性強度との接触の結果として第1の操作が実行され、第1の強度閾値を上回り第2の強度閾値を上回らない特性強度との接触の結果として第2の操作が実行され、第2の強度閾値を上回る特性強度との接触の結果として第3の操作が実行される。いくつかの実施形態では、特性強度と1つ以上の強度閾値との間の比較が、第1の操作又は第2の操作のいずれを実行するかを決定するために使用されるのではなく、1つ以上の操作を実行するかどうか(例えば、それぞれのオプションを実行するのか、又はそれぞれの操作の実行を取り止めるのか)を決定するために使用される。 As used herein and in the claims, the term "characteristic intensity" of a contact refers to a characteristic of the contact that is based on one or more strengths of the contact. In some embodiments, the characteristic intensity is based on multiple intensity samples. The characteristic intensity is optionally determined by a predetermined number of intensity samples or by a predetermined event (e.g., after detecting a touch, before detecting liftoff of a touch, before or after detecting the start of movement of a touch, for a predetermined period of time (e.g. 0.05, before or after detecting the end of the contact, before or after detecting an increase in the intensity of the contact, and/or before or after detecting a decrease in the intensity of the contact). 0.1, 0.2, 0.5, 1, 2, 5, 10 seconds). The characteristic strength of contact is optional, and is the maximum value of contact strength, the mean value of contact strength, the average value of contact strength, the top 10% value of contact strength, and the contact strength. a value of half the maximum value of , a value of 90% of the maximum value of the contact intensity, a value generated by low-pass filtering the contact intensity over a given period or starting at a given time, etc. Based on one or more of the following. In some embodiments, the duration of the contact is used to determine the characteristic strength (eg, when the characteristic strength is the average of the strength of the contact over time). In some embodiments, the characteristic strength is compared to a set of one or more strength thresholds to determine whether the operation was performed by the user. For example, the set of one or more intensity thresholds can include a first intensity threshold and a second intensity threshold. In this example, the first operation is performed as a result of contact with a characteristic intensity that does not exceed a first threshold, and the first operation is performed as a result of contact with a characteristic intensity that exceeds a first intensity threshold and does not exceed a second intensity threshold. A second operation is performed as a result of contact with a characteristic intensity above a second intensity threshold, and a third operation is performed as a result of contact with a characteristic intensity above a second intensity threshold. In some embodiments, instead of a comparison between a characteristic intensity and one or more intensity thresholds being used to determine whether to perform the first operation or the second operation, It is used to decide whether to perform one or more operations (eg, to perform the respective option or to cancel the execution of the respective operation).

いくつかの実施形態では、ジェスチャの一部は、特性強度を決定する目的で識別される。例えば、タッチ感知面は、開始場所から遷移して終了場所まで達する連続的なスワイプ接触(例えば、ドラッグジェスチャ)を受け取る場合があり、この終了場所で接触の強度が増加する。この実施例では、終了場所における接触の特性強度は、連続的なスワイプ接触全体ではなく、そのスワイプ接触の一部分のみ(例えば、スワイプ接触の終了場所における部分のみ)に基づいてもよい。いくつかの実施形態では、接触の特性強度を決定する前に、平滑化アルゴリズムをそのスワイプ接触の強度に適用してもよい。例えば、平滑化アルゴリズムは、任意選択的に、非加重移動平均平滑化アルゴリズム、三角平滑化アルゴリズム、中央値フィルタ平滑化アルゴリズム、及び/又は指数平滑化アルゴリズムのうちの1つ以上を含む。いくつかの状況では、これらの平滑化アルゴリズムは、特性強度を決定する目的で、スワイプ接触の強度の小幅な上昇又は低下を除外する。 In some embodiments, a portion of the gesture is identified for the purpose of determining characteristic strength. For example, a touch-sensitive surface may receive a continuous swipe contact (eg, a drag gesture) that transitions from a starting location to an ending location, where the intensity of the contact increases. In this example, the characteristic strength of the contact at the end location may be based on only a portion of the swipe contact (eg, only the portion of the swipe contact at the end location) rather than the entire continuous swipe contact. In some embodiments, a smoothing algorithm may be applied to the strength of the swipe contact before determining the characteristic strength of the touch. For example, the smoothing algorithm optionally includes one or more of an unweighted moving average smoothing algorithm, a triangular smoothing algorithm, a median filter smoothing algorithm, and/or an exponential smoothing algorithm. In some situations, these smoothing algorithms exclude small increases or decreases in the strength of swipe contacts for the purpose of determining characteristic strength.

本明細書で説明されるユーザーインターフェースの図は任意選択で、1つ以上の強度閾値(例えば、接触検出強度閾値IT、軽い押圧強度閾値IT、深い押圧強度閾値IT(例えば、少なくとも最初はITよりも高い)、及び/又は1つ以上の他の強度閾値(例えば、ITよりも低い強度閾値IT))に対する、タッチ感知面上の接触の現在の強度を示す、様々な強度の図を含む。この強度の図は、概して示されたユーザーインターフェースの一部ではなくて、図の解釈を支援するために提供される。いくつかの実施形態では、軽い押圧強度閾値は、物理マウスのボタン又はトラックパッドのクリックに通常は関連付けられた操作をデバイスが実行する強度に相当する。いくつかの実施形態では、深い押圧強度閾値は、物理マウスのボタン又はトラックパッドのクリックに通常は関連付けられた操作とは異なる操作をデバイスが実行する強度に相当する。いくつかの実施形態では、軽い押圧強度閾値を下回る(例えば、それを下回ると接触がもはや検出されない名目上の接触検出強度閾値ITを上回る)特性強度で接触が検出されるとき、デバイスは、軽い押圧強度閾値又は深い押圧強度閾値と関連付けられた操作を実行することなく、タッチ感知面上の接触の移動にしたがってフォーカスセレクタを移動させる。概して、特に明記されない限り、これらの強度閾値は、ユーザーインターフェースの形態の異なるセットの間で一貫している。 The user interface diagrams described herein optionally include one or more intensity thresholds (e.g., a touch detection intensity threshold IT 0 , a light press intensity threshold IT L , a deep press intensity threshold IT D (e.g., at least initially is higher than IT L ), and/or one or more other intensity thresholds (e.g., an intensity threshold IT H lower than IT L )). Includes intensity diagram. This intensity diagram is generally not part of the illustrated user interface and is provided to aid in the interpretation of the diagram. In some embodiments, the light press intensity threshold corresponds to an intensity at which the device performs an operation typically associated with a physical mouse button or trackpad click. In some embodiments, the deep press intensity threshold corresponds to an intensity at which the device performs an operation that is different from the operation normally associated with a physical mouse button or trackpad click. In some embodiments, when a touch is detected with a characteristic intensity below a light press intensity threshold (e.g., above a nominal touch detection intensity threshold IT 0 below which a touch is no longer detected), the device: The focus selector is moved in accordance with the movement of the contact on the touch-sensitive surface without performing operations associated with light or deep press intensity thresholds. Generally, unless specified otherwise, these intensity thresholds are consistent between different sets of user interface configurations.

いくつかの実施形態では、デバイスによって検出された入力へのデバイスの応答は、入力の間の接触強度に基づく基準に依存する。例えば、いくつかの「軽い押圧」入力について、入力の間の第1の強度閾値を超える接触の強度は第1の応答をトリガする。いくつかの実施形態では、デバイスによって検出された入力へのデバイスの応答は、入力の間の接触強度及び時間に基づく基準の両方を含む基準に依存する。例えば、いくつかの「深い押圧」入力について、入力の間の軽い押圧に対する第1の強度閾値より大きい第2の強度閾値を超える接触の強度は、第1の強度閾値を満たすことと第2の強度閾値を満たすこととの間で遅延時間が経過した場合のみ、第2の応答をトリガする。この遅延時間は典型的には、継続時間が200ms(ミリ秒)よりも短い(例えば、第2の強度閾値の大きさに依存して、40ms、100ms、又は120msであり、遅延時間は第2の強度閾値が増加するにつれて増加する)。この遅延時間は、深い押圧入力の偶発的な認識を回避するのを助ける。別の実施例として、いくつかの「深い押圧」について、第1の強度閾値が満たされる時間の後に発生する、感度が低下した時間期間が存在する。感度が低下した時間期間の間、第2の強度閾値は増加する。第2の強度閾値のこの一時的な増加もまた、偶発的な深い押圧入力を回避するのを助ける。他の深い押圧入力について、深い押圧入力の検出に対する応答は、時間に基づく基準に依存しない。 In some embodiments, the response of the device to inputs detected by the device depends on criteria based on the strength of contact between the inputs. For example, for some "light press" inputs, the intensity of the contact that exceeds a first intensity threshold during the input triggers a first response. In some embodiments, a device's response to an input detected by the device depends on criteria that include both contact strength and time-based criteria during the input. For example, for some "deep press" inputs, the intensity of the contact exceeds a second intensity threshold that is greater than the first intensity threshold for light presses during the input, satisfying the first intensity threshold and A second response is triggered only if a delay time elapses between meeting the intensity threshold. This delay time is typically less than 200ms (milliseconds) in duration (e.g., 40ms, 100ms, or 120ms, depending on the magnitude of the second intensity threshold); increases as the intensity threshold increases). This delay time helps avoid accidental recognition of deep press inputs. As another example, for some "deep presses" there is a time period of reduced sensitivity that occurs after the time the first intensity threshold is met. During the time period of decreased sensitivity, the second intensity threshold increases. This temporary increase in the second intensity threshold also helps avoid accidental deep press inputs. For other deep press inputs, the response to detection of a deep press input does not depend on time-based criteria.

いくつかの実施形態では、入力強度閾値及び/又は対応する出力のうちの1つ以上は、ユーザー設定、接触の動き、入力タイミング、実行しているアプリケーション、強度が加わる速度、同時に行われる入力の数、ユーザー履歴、環境要因(例えば、周囲ノイズ)、フォーカスセレクタの位置などの1つ以上の要因に基づいて変化する。例示的な要因が、米国特許出願第14/399,606号及び第14/624,296号に記載されており、それらの全体が参照により本明細書に組み込まれている。 In some embodiments, one or more of the input intensity thresholds and/or the corresponding outputs are based on user settings, contact movement, input timing, the application being executed, the rate at which the intensity is applied, and the number of simultaneous inputs. the focus selector position. Exemplary factors are described in US Patent Application Serial Nos. 14/399,606 and 14/624,296, each of which is incorporated herein by reference in its entirety.

例えば、図4Cは、経時的なタッチ入力476の強度に部分的に基づいて経時的に変化する動的強度閾値480を示す。動的強度閾値480は、2つの成分、タッチ入力476が最初に検出されるときから所定の遅延時間p1の後に経時的に減衰する第1の成分474、及び経時的にタッチ入力476の強度を追跡する第2の成分478の合計である。第1の成分474の初期の高強度閾値は、「深い押圧」応答を偶発的にトリガすることを削減すると共に、タッチ入力476が十分な強度を提供する場合に即時的な「深い押圧」応答をなおも可能にする。第2の成分478は、タッチ入力における段階的な強度変動によって「深い押圧」応答を意図せずにトリガすることを削減する。いくつかの実施形態では、タッチ入力476が動的強度閾値480を満たすとき(例えば、図4Cのポイント481において)、「深い押圧」応答がトリガされる。 For example, FIG. 4C shows a dynamic intensity threshold 480 that changes over time based in part on the intensity of touch input 476 over time. Dynamic intensity threshold 480 includes two components: a first component 474 that decays over time after a predetermined delay time p1 from when touch input 476 is first detected; It is the sum of the second component 478 that is tracked. The initial high intensity threshold of the first component 474 reduces accidental triggering of a "deep press" response and provides an immediate "deep press" response if the touch input 476 provides sufficient intensity. still possible. The second component 478 reduces unintentionally triggering a "deep press" response due to gradual intensity variations in touch input. In some embodiments, a "deep press" response is triggered when touch input 476 meets dynamic intensity threshold 480 (eg, at point 481 in FIG. 4C).

図4Dは、別の動的強度閾値486(例えば、強度閾値I)を示す。図4Dはまた、2つの他の強度閾値、第1の強度閾値IT及び第2の強度閾値Iを示す。図4Dにおいて、タッチ入力484が時間p2の前に第1の強度閾値IT及び第2の強度閾値ITを満たすが、時間482において遅延時間p2が経過するまでは応答が提供されない。また、図4Dでは、動的強度閾値486は、所定の遅延時間p1が時間482から経過した後(第2の強度閾値ITと関連付けられた応答がトリガされたとき)の時間488において開始する減衰で、経時的に減衰する。このタイプの動的強度閾値は、第1の強度閾値I又は第2の強度閾値Iなど、より低い強度閾値と関連付けられた応答をトリガした直後、又はそれと同時に動的強度閾値Iと関連付けられた応答を偶発的にトリガすることを削減する。 FIG. 4D shows another dynamic intensity threshold 486 (eg, intensity threshold ID ). FIG. 4D also shows two other intensity thresholds, a first intensity threshold ITH and a second intensity threshold IL . In FIG. 4D, touch input 484 satisfies first intensity threshold IT H and second intensity threshold IT L before time p2, but a response is not provided until delay time p2 has elapsed at time 482. Also in FIG. 4D, dynamic intensity threshold 486 begins at time 488 after a predetermined delay time p1 has elapsed from time 482 (when the response associated with second intensity threshold IT L is triggered). Attenuation, decaying over time. This type of dynamic intensity threshold can be used immediately after or simultaneously with the dynamic intensity threshold I D after triggering a response associated with a lower intensity threshold, such as a first intensity threshold I H or a second intensity threshold I L. Reduce accidental triggering of associated responses.

図4Eは、更なる別の動的強度閾値492(例えば、強度閾値I)を示す。図4Eにおいて、強度閾値ITと関連付けられた応答は、タッチ入力490が最初に検出されるときから遅延時間p2が経過した後にトリガされる。同時に、動的強度閾値492は、タッチ入力490が最初に検出されるときから所定の遅延時間p1が経過した後に減衰する。よって、タッチ入力490を解放することなく、強度閾値Iと関連付けられた応答をトリガした後のタッチ入力490の強度の減少と、その後に続くタッチ入力490の強度における増加は、タッチ入力490の強度が別の強度閾値、例えば、強度閾値Iを下回るときでさえ強度閾値ITと関連付けられた応答をトリガすることができる(例えば、時間494において)。 FIG. 4E shows yet another dynamic intensity threshold 492 (eg, intensity threshold ID ). In FIG. 4E, the response associated with intensity threshold IT L is triggered after a delay time p2 has elapsed from when touch input 490 is first detected. At the same time, dynamic intensity threshold 492 decays after a predetermined delay time p1 from when touch input 490 is first detected. Thus, a decrease in the intensity of touch input 490 and a subsequent increase in the intensity of touch input 490 after triggering a response associated with intensity threshold IL without releasing touch input 490 A response associated with the intensity threshold IT D may be triggered even when the intensity falls below another intensity threshold, eg, intensity threshold IL (eg, at time 494).

軽い押圧強度閾値ITを下回る強度から軽い押圧強度閾値ITと深い押圧強度閾値ITとの間の強度への接触の特性強度の増加は、「軽い押圧」入力と称される場合がある。深い押圧強度閾値ITを下回る強度から深い押圧強度閾値ITを上回る強度への接触の特性強度の増加は、「深い押圧」入力と称される場合がある。接触検出強度閾値ITを下回る強度から接触検出強度閾値ITと軽い押圧強度閾値ITとの間の強度への接触の特性強度の増加は、タッチ面上の接触の検出と称される場合がある。接触検出強度閾値ITを上回る強度から接触検出強度閾値ITを下回る強度への接触の特性強度の減少は、タッチ面からの接触のリフトオフの検出と称される場合がある。いくつかの実施形態では、ITはゼロである。いくつかの実施形態では、ITはゼロよりも大きい。いくつかの図では、タッチ感知面上の接触の強度を表すために、影付きの円又は楕円が使用される。いくつかの図では、それぞれの接触の強度を指定することなく、タッチ感知面上のそれぞれの接触を表すために、影なしの円又は楕円が使用される。 An increase in the characteristic intensity of contact from an intensity below the light press intensity threshold IT L to an intensity between the light press intensity threshold IT L and the deep press intensity threshold IT D may be referred to as a "light press" input. . An increase in the characteristic intensity of the contact from an intensity below the deep press intensity threshold IT D to an intensity above the deep press intensity threshold IT D may be referred to as a "deep press" input. An increase in the characteristic intensity of a touch from an intensity below the touch detection intensity threshold IT 0 to an intensity between the touch detection intensity threshold IT 0 and the light pressure intensity threshold IT L is referred to as the detection of a touch on the touch surface. There is. A decrease in the characteristic intensity of a touch from an intensity above the touch detection intensity threshold IT 0 to an intensity below the touch detection intensity threshold IT 0 may be referred to as detecting a lift-off of the touch from the touch surface. In some embodiments, IT 0 is zero. In some embodiments, IT 0 is greater than zero. In some figures, shaded circles or ellipses are used to represent the intensity of contact on the touch-sensitive surface. In some figures, unshaded circles or ellipses are used to represent each touch on the touch-sensitive surface without specifying the intensity of each touch.

本明細書で説明されるいくつかの実施形態では、1つ以上の操作は、それぞれの押圧入力を含むジェスチャを検出したことに応じて、又はそれぞれの接触(若しくは、複数の接触)で実行されるそれぞれの押圧入力を検出したことに応じて実行され、それぞれの押圧入力は、押圧入力強度閾値を上回る接触(又は、複数の接触)の強度における増加を検出したことに少なくとも部分的に基づいて検出される。いくつかの実施形態では、それぞれの操作は、押圧入力強度閾値を上回るそれぞれの接触の強度における増加を検出したことに応じて実行される(例えば、それぞれの操作は、それぞれの押圧入力の「ダウンストローク」上で実行される)。いくつかの実施形態では、押圧入力は、押圧入力強度閾値を上回るそれぞれの接触の強度における増加、及び押圧入力強度閾値を下回る接触の強度におけるその後の減少を含み、それぞれの操作は、押圧入力閾値を下回るそれぞれの接触の強度におけるその後の減少を検出したことに応じて実行される(例えば、それぞれの操作は、それぞれの押圧入力の「アップストローク」上で実行される)。 In some embodiments described herein, one or more operations are performed in response to detecting a gesture that includes each press input or on each contact (or contacts). each press input is performed in response to detecting a respective press input, the respective press input being based at least in part on detecting an increase in the intensity of the contact (or contacts) above a press input intensity threshold. Detected. In some embodiments, each operation is performed in response to detecting an increase in the intensity of the respective contact above a pressure input intensity threshold (e.g., the respective operation is performed in response to detecting an increase in the intensity of the respective pressure input). stroke). In some embodiments, the press input includes an increase in the intensity of each contact above the press input intensity threshold and a subsequent decrease in the intensity of the contact below the press input intensity threshold, and each operation (e.g., the respective operation is performed on the "upstroke" of the respective press input).

いくつかの実施形態では、デバイスは、「ジッタ」と呼ばれる場合がある偶発的な入力を回避するために強度ヒステリシスを採用し、デバイスは、押圧入力強度閾値との所定の関係を有するヒステリシス強度閾値を定義又は選択する(例えば、ヒステリシス強度閾値は、押圧入力強度閾値よりも低いX強度単位であり、又はヒステリシス強度閾値は、押圧入力強度閾値の75%、90%、若しくは何らかの妥当な比率である)。よって、いくつかの実施形態では、押圧入力は、押圧入力強度閾値を上回るそれぞれの接触の強度における増加、及び押圧入力強度閾値に対応するヒステリシス強度閾値を下回る接触の強度におけるその後の減少を含み、それぞれの操作は、ヒステリシス強度閾値を下回るそれぞれの接触の強度におけるその後の減少を検出したことに応じて実行される(例えば、それぞれの操作は、それぞれの押圧入力の「アップストローク」上で実行される)。同様に、いくつかの実施形態では、押圧入力は、デバイスが、ヒステリシス強度閾値以下の強度から押圧入力強度閾値以上の強度への接触の強度の増加、及び任意選択的に、ヒステリシス強度以下の強度への後続の接触の強度の減少を検出するときのみ検出され、それぞれの操作は、その押圧入力の検出(例えば、状況に応じて、接触の強度の増加、又は接触の強度の減少)に応じて実行される。 In some embodiments, the device employs intensity hysteresis to avoid accidental input, which may be referred to as "jitter," and the device employs a hysteresis intensity threshold that has a predetermined relationship with a pressed input intensity threshold. (e.g., the hysteresis intensity threshold is X intensity units lower than the press input intensity threshold, or the hysteresis intensity threshold is 75%, 90%, or some reasonable proportion of the press input intensity threshold. ). Thus, in some embodiments, the press input includes an increase in the intensity of each contact above a press input intensity threshold and a subsequent decrease in the intensity of the contact below a hysteresis intensity threshold corresponding to the press input intensity threshold; Each operation is performed in response to detecting a subsequent decrease in the intensity of the respective contact below a hysteresis intensity threshold (e.g., each operation is performed on the "upstroke" of the respective press input) ). Similarly, in some embodiments, the press input causes the device to increase the intensity of the contact from an intensity below the hysteresis intensity threshold to an intensity above the press input intensity threshold, and optionally to an intensity below the hysteresis intensity. Each operation is detected only when detecting a decrease in the intensity of a subsequent contact to the is executed.

説明を容易にするために、押圧入力強度閾値と関連付けられた押圧入力に応じて、又は押圧入力を含むジェスチャに応じて実行される操作の説明は任意選択で、押圧入力強度閾値を上回る接触の強度の増加、ヒステリシス強度閾値を下回る強度から押圧入力強度閾値を上回る強度への接触の強度の増加、押圧入力強度閾値を下回る接触の強度の減少、又は押圧入力強度閾値に対応するヒステリシス強度閾値を下回る接触の強度の減少を検出したことに応じてトリガされる。加えて、押圧入力強度閾値を下回る接触の強度の減少を検出したことに応じて操作が実行されるとして説明される実施例では、操作は、任意選択的に、押圧入力強度閾値に対応し、かつそれよりも低いヒステリシス強度閾値を下回る接触の強度の減少を検出したことに応じて実行される。上記説明されたように、いくつかの実施形態では、それらの応答のトリガはまた、満たされる時間に基づく基準(例えば、ある遅延時間が、第1の強度閾値が満たされることと第2の強度閾値が満たされることとの間で経過してしまっている)に依存する。 For ease of explanation, descriptions of operations performed in response to a press input associated with a press input intensity threshold, or in response to a gesture that includes a press input, are optional, and the description of operations performed in response to a press input intensity threshold associated with a press input intensity threshold is optional. an increase in the intensity of the contact from an intensity below the hysteresis intensity threshold to an intensity above the press input intensity threshold, a decrease in the intensity of the contact below the press input intensity threshold, or a hysteresis intensity threshold corresponding to the press input intensity threshold. Triggered in response to detecting a decrease in the intensity of contact below. Additionally, in embodiments described as having an operation performed in response to detecting a decrease in the intensity of the contact below a press input intensity threshold, the operation optionally corresponds to the press input intensity threshold; and in response to detecting a decrease in the intensity of the contact below a hysteresis intensity threshold. As explained above, in some embodiments, the triggering of those responses is also based on time-based criteria being met (e.g., a certain delay time that a first intensity threshold is met and a second intensity threshold is met). (depending on the amount of time that has elapsed between the threshold being met).

本明細書及び特許請求の範囲で使用されるとき、用語「触知出力」は、ユーザーの触覚でユーザーによって検出されることになる、デバイスの従前の位置に対するデバイスの物理的変位、デバイスの構成要素(例えば、タッチ感知面)の、デバイスの別の構成要素(例えば、筐体)に対する物理的変位、又はデバイスの質量中心に対する構成要素の変位を指す。例えば、デバイス又はデバイスの構成要素が、タッチに敏感なユーザーの表面(例えば、ユーザーの指、手のひら、又は手の他の部分)に接触している状況において、物理的変位によって生成された触知出力は、デバイス又はデバイスの構成要素の物理的特性の認識された変化に相当する触感として、ユーザーによって解釈される。例えば、タッチ感知面(例えば、タッチ感知ディスプレイ又はトラックパッド)の移動は、任意選択的に、ユーザーによって物理アクチュエータボタンの「ダウンクリック」又は「アップクリック」と解釈される。いくつかの場合、ユーザーの移動により物理的に押された(例えば、変位された)タッチ感知面に関連付けられた物理アクチュエータボタンの移動がない時でさえ、ユーザーは「ダウンクリック」又は「アップクリック」などの触感を感じる。別の実施例として、タッチ感知面の動きは、タッチ感知面の平滑度に変化がない場合であっても、ユーザーによって、そのタッチ感知面の「粗さ」として、任意選択的に解釈又は感知される。そのようなユーザーによるタッチの解釈は、ユーザーの個人的な感覚認知に左右されるが、大多数のユーザーに共通する、多くのタッチの感覚認知が存在する。したがって、触知出力が、ユーザーの特定の感覚認知(例えば、「アップクリック」、「ダウンクリック」、「粗さ」)に対応するものとして説明されるとき、別途記載のない限り、生成された触知出力は、典型的な(又は、平均的な)ユーザーの説明された感覚認知を生成するデバイス、又はデバイスの構成要素の物理的変位に対応する。触覚フィードバックをユーザーに提供するために触知出力を使用することは、デバイスの操作性を高め、ユーザーデバイスインターフェースを更に効率的にし(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザーを支援し、ユーザーの誤りを削減することによって)、加えてそれが、ユーザーがデバイスを更に迅速かつ効率よく使用することを可能にすることによって電力使用量を削減し、デバイスのバッテリ寿命を改善する。 As used herein and in the claims, the term "tactile output" refers to a physical displacement of a device relative to a previous position of the device, a configuration of the device that would be detected by the user at the user's sense of touch. Refers to the physical displacement of an element (e.g., a touch-sensitive surface) relative to another component of the device (e.g., the housing), or the displacement of a component relative to the center of mass of the device. tactile sensations generated by physical displacement, for example, in situations where the device or a component of the device is in contact with a touch-sensitive surface of the user (e.g., the user's fingers, palm, or other part of the hand) The output is interpreted by the user as a tactile sensation corresponding to a perceived change in a physical property of the device or a component of the device. For example, movement of a touch-sensitive surface (eg, a touch-sensitive display or trackpad) is optionally interpreted by the user as a "down click" or "up click" of a physical actuator button. In some cases, the user may "click down" or "click up" even when there is no movement of the physical actuator button associated with the touch-sensitive surface that is physically pressed (e.g., displaced) by the user's movement. ” I feel a tactile sensation. As another example, movement of a touch-sensitive surface is optionally interpreted or perceived by a user as a "roughness" of the touch-sensitive surface, even if there is no change in the smoothness of the touch-sensitive surface. be done. Although such a user's interpretation of touch depends on the user's personal sensory perception, there are many sensory perceptions of touch that are common to the majority of users. Therefore, when tactile output is described as corresponding to a specific sensory perception of the user (e.g., "up click," "down click," "roughness"), unless otherwise stated, the generated The tactile output corresponds to a physical displacement of the device, or a component of the device, that produces the described sensory perception of a typical (or average) user. Using tactile output to provide tactile feedback to the user increases the usability of the device and makes the user device interface more efficient (e.g., providing appropriate input when operating/interacting with the device). In addition, it reduces power usage by allowing the user to use the device even more quickly and efficiently (by assisting the user in reducing user errors), and reduces the device's battery. Improve lifespan.

いくつかの実施形態では、触知出力パターンは、触知出力の振幅、触知出力の移動波形の形状、触知出力の周波数、及び/又は触知出力の期間などの触知出力の特性を指定する。 In some embodiments, the tactile output pattern includes characteristics of the tactile output, such as amplitude of the tactile output, shape of a moving waveform of the tactile output, frequency of the tactile output, and/or duration of the tactile output. specify.

異なる触知出力パターンを有する触知出力がデバイスによって(例えば、触知出力を生成するために可動質量を移動させる1つ以上の触知出力生成器を介して)生成されるとき、触知出力は、デバイスを保持又はタッチするユーザーに異なる触覚感覚を引き起こすことができる。ユーザーの感覚が触知出力のユーザーの知覚に基づく一方で、ほとんどのユーザーは、デバイスによって生成される触知出力の波形、周波数及び振幅の変化を識別することが可能である。したがって、波形、周波数及び振幅は、異なる操作が実行されたことをユーザーに知らせるように調整することができる。このようにして、所与の環境(例えば、グラフィカルな特徴及びオブジェクトを含むユーザーインターフェース、仮想境界及び仮想オブジェクトを有する擬似的な物理環境、物理境界及び物理オブジェクトを有する現実の物理環境、並びに/又は上記のいずれかの組合せ)におけるオブジェクトの、特性(例えば、サイズ、材質、重量、剛性、平滑度など)、挙動(例えば、振動、変位、加速、回転、拡大など)、及び/又は対話(例えば、衝突、付着、反発、引き付け、摩擦など)をシミュレートするように設計、選択、及び/又は加工された触知出力パターンを有する触知出力は、いくつかの状況では、デバイスのユーザーの操作の入力誤りを削減して効率性を増大させる、有益なフィードバックをユーザーに提供する。加えて、擬似的な物理的特性(例えばオブジェクトの入力された出発点又は選択)とは無関係であるフィードバックに対応するために、触知出力は、任意選択的に、発生する。そのような触知出力は、いくつかの状況では、ユーザーのデバイス操作の入力誤りを削減し、効率性を増大させる有益なフィードバックをユーザーに提供する。 Tactile output when tactile output having different tactile output patterns is generated by a device (e.g., via one or more tactile output generators that move a movable mass to generate the tactile output) can cause different tactile sensations to the user when holding or touching the device. While user sensation is based on the user's perception of the tactile output, most users are able to discern changes in the waveform, frequency and amplitude of the tactile output produced by the device. Accordingly, the waveform, frequency and amplitude can be adjusted to inform the user that different operations have been performed. In this way, a given environment (e.g., a user interface including graphical features and objects, a simulated physical environment with virtual boundaries and objects, a real physical environment with physical boundaries and objects, and/or properties (e.g., size, material, weight, stiffness, smoothness, etc.), behavior (e.g., vibration, displacement, acceleration, rotation, magnification, etc.), and/or interactions (e.g., In some situations, tactile output has a tactile output pattern designed, selected, and/or engineered to simulate (e.g., impact, adhesion, repulsion, attraction, friction, etc.) Provide useful feedback to users that reduces input errors and increases efficiency. In addition, tactile output is optionally generated to accommodate feedback that is independent of simulated physical characteristics (eg, an entered starting point or selection of an object). Such tactile output, in some situations, provides useful feedback to the user that reduces input errors and increases the efficiency of the user's operation of the device.

いくつかの実施形態では、適切な触知出力パターンを有する触知出力は、ユーザーインターフェース内又はデバイス内のシーンの背後の関心イベントの発生に対する合図としての役割を果たす。関心イベントの例は、デバイス上又はユーザーインターフェース内で提供されるアフォーダンス(例えば、実ボタン、仮想ボタン、又はトグルスイッチ)のアクティブ化、要求された操作の成功又は失敗、ユーザーインターフェース内の境界に到達すること又は超えること、新たな状態に入ること、オブジェクト間の入力の焦点を切り替えること、新たなモードのアクティブ化、入力閾値に到達すること又は超えること、入力又はジェスチャのタイプの検出又は認識などを含む。いくつかの実施形態では、触知出力は、リダイレクション又は中断入力が時宜を得て検出されない限り発生する、近いうち起こるイベント又は結果に対する警告又はアラートしての役割を果たすように提供される。触知出力はまた、他のコンテキストでも使用されて、ユーザー体験を豊かにし、視覚若しくは運動上の困難をかかえるユーザーへのデバイスのアクセシビリティ若しくは他のアクセシビリティの必要性を改善し、並びに/又はユーザーインターフェース及び/若しくはデバイスの効率性及び機能性を改善する。触知出力は任意選択で、音声出力及び/又は視認可能なユーザーインターフェースの変更を伴い、それは、ユーザーがユーザーインターフェース及び/又はデバイスと対話するときのユーザーの体験を更に高め、ユーザーインターフェース及び/又はデバイスの状態に関する情報の搬送を更に促進し、並びにデバイスのユーザーの操作の入力誤りを削減し、効率性を増大させる。 In some embodiments, a tactile output with an appropriate tactile output pattern serves as a cue for the occurrence of an event of interest within a user interface or behind a scene within a device. Examples of events of interest are activation of affordances provided on the device or within the user interface (e.g., real buttons, virtual buttons, or toggle switches), success or failure of a requested operation, reaching a boundary within the user interface. entering or exceeding a new state, switching the focus of input between objects, activating a new mode, reaching or exceeding an input threshold, detecting or recognizing a type of input or gesture, etc. including. In some embodiments, a tactile output is provided to serve as a warning or alert for an impending event or outcome that will occur unless a redirection or interruption input is detected in a timely manner. Tactile output may also be used in other contexts to enrich the user experience, improve the accessibility of devices to users with visual or motor disabilities or other accessibility needs, and/or improve the user interface. and/or improve the efficiency and functionality of the device. The tactile output optionally involves audio output and/or visible user interface changes that further enhance the user's experience when the user interacts with the user interface and/or the device, and that It further facilitates the conveyance of information regarding the state of the device, as well as reduces input errors and increases the efficiency of the user's operation of the device.

図4F~4Hは、個々に、又は、組み合わせて、そのまま又は、1つ以上の変換(例えば、変調、増幅、切捨てなど)によって使用して、上述のような、及び本明細書において論ずるユーザーインターフェース及び方法に関して記載されている各種のシナリオの、そして、各種の目的のための、適切な触覚フィードバックを作り出すことができる一組のサンプル触知出力パターンを提供する。触知出力のパレットのこの例は、3つの波形及び8つの周波数のセットが触知出力パターンの配列を作るためにどのように用いることができるかについて示す。これらの図に表示される触知出力パターンに加えて、例えば、示すように、図4I~4Kのフルタップ80Hz、フルタップ200Hz、ミニタップ80Hz、ミニタップ200Hz、マイクロタップ80Hz及びマイクロタップ200Hzに対する触知出力パターンのための利得値を変えることによって、これらの触知出力パターンのそれぞれは振幅において任意選択的に調整され、そして、それは1.0、0.75、0.5及び0.25の利得を有する異型によって各々示される。図4I~4Kに示すように、触知出力パターンの獲得を変えることで、パターンの周波数を変えるか又は波形の形状を変えることなくパターンの振幅が変わる。いくつかの実施形態では、触知出力パターンの周波数も変えることは振幅を低くする結果にもなり、なぜなら、いくつかの触知出力生成器はどれだけの力が可動質量に加えられ得るかによって制限され、したがって質量のより高い周波数の移動は振幅をより低くすることを強いられて、波形を作るために必要な加速は、触知出力生成器の操作上の力の範囲外の力を必要とはしない(例えば、230Hz、270Hz及び300Hzでのフルタップのピーク振幅は、80Hz、100Hz、125Hz、及び200Hzでのフルタップの振幅より低い)ことを確実にするからである。 4F-4H, individually or in combination, may be used alone or with one or more transformations (e.g., modulation, amplification, truncation, etc.) to provide a user interface as described above and discussed herein. A set of sample tactile output patterns are provided that can create suitable tactile feedback for various scenarios and for various purposes as described with respect to and methods. This example of a tactile output palette shows how a set of three waveforms and eight frequencies can be used to create an array of tactile output patterns. In addition to the tactile output patterns displayed in these figures, for example, the tactile output patterns for Full Tap 80 Hz, Full Tap 200 Hz, Mini Tap 80 Hz, Mini Tap 200 Hz, Micro Tap 80 Hz and Micro Tap 200 Hz in Figures 4I-4K as shown. Each of these tactile output patterns is optionally adjusted in amplitude by changing the gain value for , which has gains of 1.0, 0.75, 0.5 and 0.25. Each is indicated by a variant. As shown in FIGS. 4I-4K, varying the acquisition of the tactile output pattern changes the amplitude of the pattern without changing the frequency of the pattern or the shape of the waveform. In some embodiments, also varying the frequency of the tactile output pattern also results in lower amplitudes, as some tactile output generators depend on how much force can be applied to the moving mass. The acceleration required to create the waveform requires forces that are outside the range of the operational forces of the tactile output generator, thus forcing higher frequency movements of the mass to have lower amplitudes. (eg, the peak amplitude of a full tap at 230 Hz, 270 Hz, and 300 Hz is lower than the amplitude of a full tap at 80 Hz, 100 Hz, 125 Hz, and 200 Hz).

図4F~4Kは、特定の波形を有する触知出力パターンを示す。触知出力パターンの波形は、可動質量が通過してその触知出力パターンで触知出力を生成する時間に対して、中立位置(例えば、xzero)と比べた物理的変位のパターンを表す。例えば、図4Fに示す第1のセットの触知出力パターン(例えば、「フルタップ」の触知出力パターン)はそれぞれ、2つの完全サイクルがある発振(例えば、中立位置で開始及び終了し、中立位置を3回交差する発振)を含む波形を有する。図4Gに示す第2のセットの触知出力パターン(例えば、「ミニタップ」の触知出力パターン)はそれぞれ、1つの完全サイクルがある発振(例えば、中立位置で開始及び終了し、中立位置を1回交差する発振)を含む波形を有する。図4Hに示す第3のセットの触知出力パターン(例えば、「マイクロタップ」の触知出力パターン)はそれぞれ、完全サイクルの2分の1を含む発振(例えば、中立位置で開始及び終了し、中立位置と交差しない発振)を含む波形を有する。触知出力パターンの波形はまた、触知出力の開始及び終了において可動質量の段階的な高速化及び減速を表すスタートバッファ及びエンドバッファを含む。図4F~4Kに表示される例示波形は、可動質量の移動の最大及び最小限の範囲を表すxmin及びxmax値を含む。より大きい可動質量を有するより大きな電子デバイスに対して、質量の移動のより大きいかより小さい最小限及び最大範囲があり得る。図4F~4Kに示す例は1次元における質量の移動を記載しているが、しかしながら、同様の原則が、二次元又は三次元の可動質量の移動にも当てはまる。 4F-4K show tactile output patterns with specific waveforms. The waveform of the tactile output pattern represents a pattern of physical displacement relative to a neutral position (eg, xzero) relative to the time that the movable mass passes and produces a tactile output with that tactile output pattern. For example, each of the first set of tactile output patterns shown in FIG. It has a waveform that includes oscillations that cross three times. The second set of tactile output patterns (e.g., "mini-tap" tactile output patterns) shown in FIG. It has a waveform that includes oscillations that cross each other. The third set of tactile output patterns (e.g., "micro-tap" tactile output patterns) shown in FIG. It has a waveform that includes (oscillations that do not intersect with the neutral position). The waveform of the tactile output pattern also includes start and end buffers representing stepwise speed-up and deceleration of the moving mass at the beginning and end of the tactile output. The example waveforms displayed in FIGS. 4F-4K include xmin and xmax values that represent maximum and minimum ranges of movement of the moving mass. For larger electronic devices with larger moving masses, there may be larger or smaller minimum and maximum ranges of mass movement. The examples shown in FIGS. 4F-4K describe the movement of a mass in one dimension, however, similar principles apply to the movement of a moving mass in two or three dimensions.

図4F~4Kに示すように、各触知出力パターンはまた、その特性周波数を有する触知出力からユーザーによって感じられる触覚感覚の「ピッチ」に影響を及ぼす、対応する特性周波数を有する。連続触知出力に対して、特性周波数は、触知出力生成器の可動質量によって所与の時間周期の間に完了するサイクル(例えば、秒当たりのサイクル)の数を表す。不連続の触知出力に対しては、不連続の出力信号が(例えば、0.5、1又は2サイクルで)発生し、そして特性周波数値は、可動質量がその特性周波数を有する触知出力を生成するためにどれくらい急速に移動することを必要とするかについて、条件付ける。図4F~4Hに示すように、各タイプの触知出力(例えば、それぞれの波形(例えば、フルタップ、ミニタップ又はマイクロタップなどのそれぞれの波形により定義される)に対して、より高い周波数値は、可動質量によるより速い移動に対応し、したがって、一般に、触知出力を完了するためのより短い時間(例えば、不連続の触知出力のためのサイクルの所要数を完了する時間を含め、スタート及びエンドバッファ時間を加えたもの)に対応する。例えば、80Hzの特性周波数を有するフルタップは、100Hzの特性周波数を有するフルタップよりも完了するのにより長くかかる(例えば、図4Fの35.4ms対28.3ms)。加えて、所与の周波数に対して、それぞれの周波数でより多くのサイクルをその波形に有する触知出力は、同じそれぞれの周波数でより少ないサイクルをその波形に有する触知出力よりも、完了するのにより長くかかる。例えば、150Hzのフルタップは150Hzのミニタップより完了するのにより長くかかり(例えば、19.4ms対12.8ms)、そして、150Hzのミニタップは150Hzのマイクロタップより完了するのにより長くかかる(例えば、12.8ms対9.4ms)。しかしながら、異なる周波数を有する触知出力パターンに対しては、この規則は、あてはめることができない(例えば、より多いサイクルだがより高い周波数を有する触知出力は、より少ないサイクルだがより低い周波数を有する触知出力よりも完了する時間が短くなり得て、そして、逆もまたそうである)。例えば、300Hzで、フルタップは、ミニタップと同じほどかかる(例えば、9.9ms)。 As shown in FIGS. 4F-4K, each tactile output pattern also has a corresponding characteristic frequency that affects the "pitch" of the tactile sensation felt by the user from the tactile output with that characteristic frequency. For continuous tactile output, the characteristic frequency represents the number of cycles (eg, cycles per second) completed during a given period of time by the movable mass of the tactile output generator. For discrete tactile outputs, a discrete output signal is generated (e.g. at 0.5, 1 or 2 cycles) and the characteristic frequency value is the tactile output at which the movable mass has that characteristic frequency. conditions on how quickly it needs to move to produce . As shown in FIGS. 4F-4H, for each type of tactile output (e.g., defined by a respective waveform (e.g., full-tap, mini-tap, or micro-tap), the higher frequency value is Accommodates faster movement by the movable mass and therefore generally requires less time to complete a tactile output (e.g., starting and For example, a full tap with a characteristic frequency of 80 Hz takes longer to complete than a full tap with a characteristic frequency of 100 Hz (e.g., 35.4 ms vs. 28.4 ms in Figure 4F). Additionally, for a given frequency, a tactile output that has more cycles in its waveform at each frequency than a tactile output that has fewer cycles in its waveform at the same respective frequency. , takes longer to complete. For example, a 150Hz full tap takes longer to complete than a 150Hz minitap (e.g., 19.4ms vs. 12.8ms), and a 150Hz minitap takes longer to complete than a 150Hz microtap. However, for tactile output patterns with different frequencies, this rule cannot be applied (e.g., with more cycles but a higher frequency). (A tactile output may take less time to complete than a tactile output that has fewer cycles but a lower frequency, and vice versa). For example, at 300 Hz, a full tap will take as little time to complete as a mini tap. (e.g. 9.9ms).

図4F~4Kに示すように、触知出力パターンはまた、触覚の信号に含まれるエネルギー量に影響を及ぼす特性振幅、すなわち、その特性振幅を有する触知出力によるユーザーによって感じられることができる触覚感覚の「強さ」を有する。いくつかの実施形態では、触知出力パターンの特性振幅は、触知出力を生成するときに、中立位置からの可動質量の最大の変位を表す絶対値又は正規化値に関連する。いくつかの実施形態では、触知出力パターンの特性振幅は、各種の条件(例えば、ユーザーインターフェース前後関係及び挙動に基づいてカスタマイズされる)及び/又は予め設定された測定基準(例えば、入力ベースの測定基準及び/又はユーザーインターフェースベースの測定基準)にしたがって、例えば、固定であるか動的に決定されたゲイン係数(例えば、0と1間の値)によって調節可能である。いくつかの実施形態では、入力ベースの測定基準(例えば、強度変化測定基準又は入力速度測定基準)は、入力(例えば、押圧入力の接触の特性強度の変化率又はタッチ感知面全体の接触の移動の率)の特性を、触知出力の生成をトリガする入力の間、測定する。いくつかの実施形態では、触知出力の生成をトリガするユーザーインターフェース変化の間、ユーザーインターフェースベースの測定基準(例えば、境界全体速度測定基準)は、ユーザーインターフェース要素(例えば、ユーザーインターフェースの、隠れているか可視の境界全体の要素の移動の速度)の特性を測定する。いくつかの実施形態では、触知出力パターンの特性振幅は「エンベロープ」によって調整することができ、隣接するサイクルのピークは異なる振幅を有することができて、ここで、上記の波形の1つは、時間につれて変化するエンベロープパラメータ(例えば、0から1まで)による乗算によって更に修正され、触知出力が発生しているのにつれて、時間とともに段階的に触知出力の部分の振幅を調整する。 As shown in FIGS. 4F-4K, the tactile output pattern also has a characteristic amplitude that influences the amount of energy contained in the tactile signal, i.e., the tactile sensation that can be felt by the user due to the tactile output having that characteristic amplitude. It has a sense of "strength". In some embodiments, the characteristic amplitude of the tactile output pattern is related to an absolute or normalized value that represents the maximum displacement of the movable mass from a neutral position when generating the tactile output. In some embodiments, the characteristic amplitude of the tactile output pattern is determined based on various conditions (e.g., customized based on user interface context and behavior) and/or preset metrics (e.g., input-based metric and/or user interface-based metric), for example by a fixed or dynamically determined gain factor (eg, a value between 0 and 1). In some embodiments, the input-based metric (e.g., an intensity change metric or an input velocity metric) is based on the input (e.g., the characteristic rate of change in intensity of a contact of a press input or the movement of a contact across a touch-sensitive surface). rate) during the input that triggers the generation of the tactile output. In some embodiments, during a user interface change that triggers the generation of a tactile output, a user interface-based metric (e.g., a boundary-wide velocity metric) Measure the characteristics (speed of movement of an element across its visible boundaries). In some embodiments, the characteristic amplitude of the tactile output pattern can be adjusted by an "envelope," where the peaks of adjacent cycles can have different amplitudes, where one of the waveforms described above is , further modified by multiplication by a time-varying envelope parameter (eg, from 0 to 1) to adjust the amplitude of the portion of the tactile output in steps over time as the tactile output is occurring.

特性周波数、振幅及び波形だけが、説明の便宜上図4F~4Kのサンプル触知出力パターンで表されているが、他の周波数、振幅及び波形を有する触知出力パターンも類似の目的のために用いることができる。例えば、0.5~4サイクルの間の波形を用いることができる。60Hz~400Hzの範囲の他の周波数も同様に用いることができる。
ユーザーインターフェース及び関連するプロセス
Although only characteristic frequencies, amplitudes, and waveforms are represented in the sample tactile output patterns of FIGS. 4F-4K for convenience of illustration, tactile output patterns having other frequencies, amplitudes, and waveforms may be used for similar purposes. be able to. For example, a waveform between 0.5 and 4 cycles can be used. Other frequencies in the range of 60Hz to 400Hz can be used as well.
User interface and related processes

ここで、ディスプレイとタッチ感知面と、(任意選択的に)触知出力を生成するための1つ以上の触知出力生成器と、(任意選択的に)タッチ感知面との接触の強度を検出するための1つ以上のセンサとを備える、ポータブル多機能デバイス100又はデバイス300などの電子デバイス上で実装され得る、ユーザーインターフェース(「UI」)及び関連プロセスの実施形態に注意を向ける。 wherein the intensity of contact between the display and the touch-sensitive surface, (optionally) one or more tactile output generators for generating a tactile output, and (optionally) the touch-sensitive surface; Attention is directed to embodiments of user interfaces ("UI") and related processes that may be implemented on an electronic device, such as portable multifunction device 100 or device 300, with one or more sensors for sensing.

図5A~5ATは、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することに切り替える間に、仮想オブジェクトの表現を表示するための、いくつかの実施形態による、例示ユーザーインターフェースを図示する。これらの図のユーザーインターフェースは、図8A~8E、9A~9D、10A~10D、16A~16G、17A~17D、18A~18I、19A~19H及び20A~20Fのプロセスを含む、以下に説明するプロセスを図示するために用いられる。説明の便宜上、実施形態のいくつかは、タッチ感知ディスプレイシステム112を有するデバイス上で実行される操作を参照して述べられる。そのような実施形態では、フォーカスセレクタは任意選択で、それぞれの指若しくはスタイラスの接触、指若しくはスタイラスの接触に対応する表現的な点(例えば、それぞれの接触の面心若しくはそれぞれの接触と関連付けられた点)、又はタッチ感知ディスプレイシステム112上で検出された2つ以上の接触の面心である。しかしながら、同様の操作は任意選択で、フォーカスセレクタと共に、ディスプレイ450上の図に表示されるユーザーインターフェースを表示する間に、タッチ感知面451上の接触を検出したことに応じて、ディスプレイ450及び別々のタッチ感知面451を有するデバイス上で実行される。 5A-5AT illustrate example methods for displaying a representation of a virtual object while switching from displaying a first user interface area to displaying a second user interface area, according to some embodiments. 3 illustrates a user interface. The user interfaces in these figures are representative of the processes described below, including the processes of FIGS. used to illustrate. For convenience of explanation, some of the embodiments are described with reference to operations performed on a device having a touch-sensitive display system 112. In such embodiments, the focus selector optionally includes a respective finger or stylus contact, a representational point corresponding to the finger or stylus contact (e.g., a face center of the respective contact or a point associated with the respective contact). or the center of the face of two or more contacts detected on the touch-sensitive display system 112. However, similar operations may optionally be performed on display 450 and separately in response to detecting contact on touch-sensitive surface 451 while displaying a user interface graphically displayed on display 450 in conjunction with a focus selector. is executed on a device having a touch-sensitive surface 451.

図5Aは、図5B~5ATに関して記載されているユーザーインターフェースが用いられる現実の前後関係を図示する。 FIG. 5A illustrates a real-world context in which the user interface described with respect to FIGS. 5B-5AT is used.

図5Aは、テーブル5004が位置する物理スペース5002を図示する。デバイス100は、ユーザーによってユーザーの手5006に保持される。 FIG. 5A illustrates a physical space 5002 in which a table 5004 is located. Device 100 is held by the user in the user's hand 5006.

図5Bは、ディスプレイ112上に表示されたメッセージ送信ユーザーインターフェース5008を図示する。メッセージ送信ユーザーインターフェース5008は、受信したテキストメッセージ5012を含むメッセージバブル5010、送信したテキストメッセージ5016を含むメッセージバブル5014、メッセージにおいて受信した仮想オブジェクト(例えば、仮想椅子5020)を含むメッセージバブル5018及び仮想椅子5020が拡張現実視において(例えば、デバイス100の1つ以上のカメラの視野の表現の範囲内で)見えるオブジェクトであることを示す仮想オブジェクトインジケータ5022を含む。メッセージ送信ユーザーインターフェース5008は、メッセージ入力を表示するように構成されるメッセージ入力領域5024も含む。 FIG. 5B illustrates a message sending user interface 5008 displayed on display 112. Message sending user interface 5008 includes a message bubble 5010 containing a received text message 5012, a message bubble 5014 containing a sent text message 5016, a message bubble 5018 containing a virtual object (e.g., virtual chair 5020) received in the message, and a virtual chair. 5020 includes a virtual object indicator 5022 that indicates that 5020 is an object that is visible in augmented reality (eg, within a representation of the field of view of one or more cameras of device 100). Message sending user interface 5008 also includes a message input area 5024 configured to display message input.

図5C~5Gは、メッセージ送信ユーザーインターフェース5008の一部をデバイス100の1つ以上のカメラの視野により置き換えさせる入力を、図示する。図5Cにおいて、デバイス100のタッチスクリーン112との接触5026が検出される。接触の特性強度は、強度レベルメータ5028で示すように、接触検出強度閾値ITを上回り、かつ、ヒント押圧強度閾値ITを下回る。図5Dにおいて、強度レベルメータ5028で示すように、ヒント押圧強度閾値ITを上回る接触5026の特性強度の増加によって、メッセージバブル5018の領域が増大し、仮想椅子5020のサイズが増大し、そしてメッセージ送信ユーザーインターフェース5008がメッセージバブル5018の後方でぼやけ始めている(例えば、接触の特性強度を増加させる効果の視覚フィードバックをユーザーに提供するために)。図5Eにおいて、強度レベルメータ5028で示すように、軽い押圧強度閾値ITを上回る接触5026の特性強度の増加によって、メッセージバブル5018がプラッタ5030に置き換えられ、仮想椅子5020のサイズが更に増大し、そしてプラッタ5030の後方のメッセージ送信ユーザーインターフェース5008のぼやけを増加させている。図5Fにおいて、強度レベルメータ5028で示すように、深い押圧強度閾値ITを上回る接触5026の特性強度の増加によって、デバイス100の触知出力生成器167に触知出力を(5032で図示されるように)出力させ、メッセージ送信ユーザーインターフェース5008の一部をデバイス100の1つ以上のカメラの視野に置き換えるための基準が満たされたことを示す。 5C-5G illustrate input that causes a portion of the messaging user interface 5008 to be replaced by the view of one or more cameras of the device 100. In FIG. 5C, a contact 5026 with the touch screen 112 of the device 100 is detected. The characteristic intensity of the contact is above the touch detection intensity threshold IT 0 and below the hint pressing intensity threshold IT H , as indicated by intensity level meter 5028 . In FIG. 5D, as indicated by intensity level meter 5028, an increase in the characteristic intensity of contact 5026 above tip press intensity threshold ITH increases the area of message bubble 5018, increases the size of virtual chair 5020, and The sending user interface 5008 has begun to blur behind the message bubble 5018 (eg, to provide the user with visual feedback of the effect of increasing the characteristic intensity of the touch). In FIG. 5E, an increase in the characteristic intensity of the contact 5026 above the light pressure intensity threshold IT L causes the message bubble 5018 to be replaced by a platter 5030, further increasing the size of the virtual chair 5020, as indicated by the intensity level meter 5028; and increases the blurring of the messaging user interface 5008 behind the platter 5030. 5F, an increase in the characteristic intensity of the contact 5026 above the deep press intensity threshold IT D , as indicated by the intensity level meter 5028, causes a tactile output to the tactile output generator 167 of the device 100 (illustrated at 5032). ) to indicate that the criteria for replacing a portion of the messaging user interface 5008 with the field of view of one or more cameras of the device 100 have been met.

いくつかの実施形態では、接触5026の特性強度が深い押圧強度閾値ITに到達する前に、図5Fで図示するように、図5C~5Eに図示される進行は可逆である。例えば、図5D及び/又は5Eに図示される増加の後に接触5026の特性強度を低下させることは、接触5026の減少した強度レベルに対応するインターフェース状態が表示されるようにする(例えば、図5Eで示すインターフェースは接触の減少した特性強度が軽い押圧強度閾値ITを上回るという判定にしたがって示され、図5Dで示すインターフェースは接触の減少した特性強度がヒント押圧強度閾値ITを上回るという判定にしたがって示され、そして、図5Cで示すインターフェースは接触の減少した特性強度がヒント押圧強度閾値ITを下回るという判定にしたがって示される)。いくつかの実施形態では、図5D及び/又は5Eに図示される増加の後に接触5026の特性強度を低下させることにより、図5Cで示すインターフェースが再表示させられる。 In some embodiments, the progression illustrated in FIGS. 5C-5E is reversible, as illustrated in FIG. 5F, before the characteristic intensity of the contact 5026 reaches the deep press intensity threshold ITD . For example, decreasing the characteristic strength of contact 5026 after the increase illustrated in FIGS. 5D and/or 5E causes an interface state corresponding to the decreased strength level of contact 5026 to be displayed (e.g., FIG. 5E The interface shown in FIG. 5D is shown according to the determination that the reduced characteristic intensity of contact exceeds the light pressure intensity threshold IT L , and the interface shown in FIG . Accordingly, the interface shown in FIG. 5C is shown following the determination that the reduced characteristic intensity of the contact is below the tip press intensity threshold ITH ). In some embodiments, reducing the characteristic strength of contact 5026 after the increase illustrated in FIGS. 5D and/or 5E causes the interface illustrated in FIG. 5C to be redisplayed.

図5F~5Jは、メッセージ送信ユーザーインターフェースの一部がデバイス100の1つ以上のカメラ(以下「カメラ」)の視野と置き換えられるアニメーション化された遷移を図示する。図5Fから図5Gまでに、接触5026はタッチスクリーン112からリフトオフし、そして、仮想椅子5020は図5Iのその最終位置の方へ回転した。図5Gにおいて、カメラの視野5034は、プラッタ5030の図へとフェードインし始めた(点線によって示されるように)。図5Hにおいて、カメラの視野5034(例えば、カメラによって取り込まれる物理スペース5002のビューを示す)は、プラッタ5030の図に、フェードインを完了した。図5Hから図5Iまでに、仮想椅子5020は、図5Iのその最終位置の方へ、その回転を続けた。図5Iにおいて、触知出力生成器167は、触知出力を(5036で図示されるように)出力して、少なくとも1つのプレーン(例えば、床面5038)がカメラの視野5034において検出されたことを示した。仮想椅子5020は、検出されたプレーンに(例えば、仮想オブジェクトが検出水平面(例えば床面5038)上の直立した向きに置かれるように構成されるというデバイス100による決定にしたがって)配置される。仮想椅子5020のサイズは、メッセージ送信ユーザーインターフェースの一部がディスプレイ112上のカメラの視野5034の表現に変わるにつれて、ディスプレイ112で連続的に調整される。例えば、カメラの視野5034に示す物理スペース5002に対する仮想椅子5020の縮尺は、仮想椅子5020の所定の「実世界」サイズ及び/又はカメラの視野5034のオブジェクト(例えばテーブル5004)の検出サイズに基づいて、決定される。図5Jにおいて、仮想椅子5020は、カメラの視野5034の検出床面に対する所定の向きを有するその最終位置で示される。いくつかの実施形態では、仮想椅子5020の最初のランディング位置は、カメラの視野の検出されたプレーンに対して所定の位置、例えば検出されたプレーンの空き領域の中央)である。いくつかの実施形態では、接触5026のランディング位置は、接触5026のリフトオフ位置にしたがって決定される(例えば、接触5026の最初のリフトオフ位置は、拡張現実環境に遷移するための基準が図5Fにおいて満たされた後、タッチスクリーン112全体の接触5026の移動により接触5026の最初のタッチダウン位置と異なってもよい)。 5F-5J illustrate an animated transition in which a portion of the messaging user interface is replaced with the field of view of one or more cameras (hereinafter “cameras”) of device 100. From FIG. 5F to FIG. 5G, contact 5026 has lifted off from touch screen 112 and virtual chair 5020 has rotated toward its final position in FIG. 5I. In FIG. 5G, the camera's field of view 5034 has begun to fade into the view of the platter 5030 (as indicated by the dotted line). In FIG. 5H, the camera's field of view 5034 (eg, showing the view of physical space 5002 captured by the camera) has completed fading into the view of platter 5030. From FIG. 5H to FIG. 5I, virtual chair 5020 continued its rotation toward its final position in FIG. 5I. In FIG. 5I, tactile output generator 167 outputs a tactile output (as illustrated at 5036) to indicate that at least one plane (e.g., floor surface 5038) is detected in camera field of view 5034. showed that. Virtual chair 5020 is positioned in the detected plane (e.g., according to a determination by device 100 that the virtual object is configured to be placed in an upright orientation on a detected horizontal plane (eg, floor surface 5038)). The size of the virtual chair 5020 is continuously adjusted on the display 112 as a portion of the messaging user interface changes to a representation of the camera's field of view 5034 on the display 112. For example, the scale of virtual chair 5020 relative to physical space 5002 shown in camera field of view 5034 may be based on a predetermined “real world” size of virtual chair 5020 and/or the detected size of an object (e.g., table 5004) in camera field of view 5034. ,It is determined. In FIG. 5J, the virtual chair 5020 is shown in its final position with a predetermined orientation of the camera's field of view 5034 relative to the sensing floor surface. In some embodiments, the initial landing position of the virtual chair 5020 is a predetermined position relative to the detected plane of the camera's field of view, e.g., in the center of an empty area of the detected plane. In some embodiments, the landing position of contact 5026 is determined according to the lift-off position of contact 5026 (e.g., the initial lift-off position of contact 5026 is determined when the criteria for transitioning to the augmented reality environment are met in FIG. 5F). may differ from the initial touchdown position of the contact 5026 due to movement of the contact 5026 across the touch screen 112).

図5K~5Lは、カメラの視野5034を調整するデバイス100の移動(例えば、ユーザーの手5006による)を図示する。デバイス100が物理スペース5002に対して移動されるにつれて、カメラの表示された視野5034は変化し、そして、仮想椅子5020はカメラの表示された視野5034の床面5038に対して同じ位置及び向きで付着したままである。 5K-5L illustrate movement of device 100 (eg, by a user's hand 5006) to adjust camera field of view 5034. As the device 100 is moved relative to the physical space 5002, the camera's displayed field of view 5034 changes and the virtual chair 5020 remains in the same position and orientation relative to the floor 5038 of the camera's displayed field of view 5034. It remains attached.

図5M~5Qは、カメラの表示された視野5034の床面5038にわたる仮想椅子5020の移動を生じさせる入力を図示する。図5Nにおいて、デバイス100のタッチスクリーン112との接触5040は、仮想椅子5020に対応する位置で検出される。図5N~5Oにおいて、接触5040が矢印5042によって示されるパスに沿って移動するにつれて、仮想椅子5020は接触5040によってドラッグされる。仮想椅子5020が接触5040によって移動されるにつれて、カメラの視野5034に示すように仮想椅子5020のサイズは変化して、物理スペース5002に対する仮想椅子5020の縮尺を維持する。例えば、図5N~5Pで、仮想椅子5020がカメラの視野5034の前景から、カメラの視野5034においてデバイス100からはより遠くてテーブル5004にはより近い位置へ移動するにつれて、仮想椅子5020のサイズは減少する(例えば、それによって、カメラの視野5034のテーブル5004に対する椅子の縮尺は維持される)。加えて、仮想椅子5020が接触5040によって移動されるにつれて、カメラの視野5034において識別されるプレーンは強調される。例えば、図5Oにおいて床平面5038が強調される。図5O~5Pにおいて、接触5040が矢印5044によって示されるパスに沿って移動するにつれて、仮想椅子5020は接触5040によってドラッグされ続ける。図5Qにおいて、接触5040は、タッチスクリーン112からリフトオフしている。いくつかの実施形態では、図5N~5Qに示すように、あたかも仮想椅子5020が接触5040によって床面5038にわたってドラッグされるかのように、仮想椅子5020の移動パスはカメラの視野5034の床面5038によって拘束される。いくつかの実施形態では、図5N~5Pに関して記載されている接触5040は、図5C~5Fに関して記載されている接触5026の継続である(例えば、接触5026のリフトオフは無く、メッセージ送信ユーザーインターフェース5008の一部がカメラの視野5034によって置き換られるようにさせるのと同じ接触はまた、カメラの視野5034の仮想椅子5020をドラッグする)。 5M-5Q illustrate inputs that cause movement of the virtual chair 5020 across the floor surface 5038 of the camera's displayed field of view 5034. In FIG. 5N, a contact 5040 with the touch screen 112 of the device 100 is detected at a location corresponding to the virtual chair 5020. 5N-5O, virtual chair 5020 is dragged by contact 5040 as contact 5040 moves along the path indicated by arrow 5042. In FIGS. As virtual chair 5020 is moved by contact 5040, the size of virtual chair 5020 changes, as shown in camera field of view 5034, to maintain the scale of virtual chair 5020 relative to physical space 5002. For example, in FIGS. 5N-5P, as the virtual chair 5020 moves from the foreground of the camera's field of view 5034 to a position in the camera's field of view 5034 that is further away from the device 100 but closer to the table 5004, the size of the virtual chair 5020 increases. (e.g., thereby maintaining the scale of the camera's field of view 5034 of the chair relative to the table 5004). Additionally, as the virtual chair 5020 is moved by the contact 5040, the plane identified in the camera's field of view 5034 is highlighted. For example, floor plane 5038 is highlighted in FIG. 5O. In FIGS. 5O-5P, virtual chair 5020 continues to be dragged by contact 5040 as contact 5040 moves along the path indicated by arrow 5044. In FIG. 5Q, contact 5040 has lifted off from touch screen 112. In some embodiments, the movement path of the virtual chair 5020 follows the floor surface of the camera's field of view 5034 as if the virtual chair 5020 were dragged across the floor surface 5038 by the contact 5040, as shown in FIGS. 5N-5Q. 5038. In some embodiments, the contact 5040 described with respect to FIGS. 5N-5P is a continuation of the contact 5026 described with respect to FIGS. The same contact that causes part of the virtual chair 5020 to be replaced by the camera's field of view 5034 also drags the virtual chair 5020 in the camera's field of view 5034).

図5Q~5Uは、床面5038からカメラの視野5034において検出される異なるプレーン(例えば、テーブル面5046)への、仮想椅子5020の移動を引き起こす入力を図示する。図5Rにおいて、デバイス100のタッチスクリーン112との接触5050は、仮想椅子5020に対応する位置で検出される。図5R~5Sにおいて、接触5048が矢印5050によって示されるパスに沿って移動するにつれて、仮想椅子5020は接触5048によってドラッグされる。仮想椅子5020が接触5048によって移動されるにつれて、仮想椅子5020のサイズが変化してカメラの視野5034に示すように物理スペース5002に対する仮想椅子5020の縮尺を維持する。加えて、仮想椅子5020が接触5040によって移動されるにつれて、テーブル基準面5046は強調される(例えば、図5Sに示すように)。図5S~5Tにおいて、接触5048が矢印5052によって示されるパスに沿って移動するにつれて、仮想椅子5020は接触5040によってドラッグされ続ける。図5Uにおいて、接触5048はタッチスクリーン112からリフトオフしており、そして、仮想椅子5020は前と同じ方向に向かっている直立した向きのテーブル基準面5046に配置される。 5Q-5U illustrate inputs that cause movement of virtual chair 5020 from a floor surface 5038 to a different plane (eg, table surface 5046) detected in camera field of view 5034. In FIG. 5R, a contact 5050 with the touch screen 112 of the device 100 is detected at a location corresponding to the virtual chair 5020. In FIGS. 5R-5S, virtual chair 5020 is dragged by contact 5048 as contact 5048 moves along the path indicated by arrow 5050. As virtual chair 5020 is moved by contact 5048, the size of virtual chair 5020 changes to maintain the scale of virtual chair 5020 relative to physical space 5002, as shown in camera field of view 5034. Additionally, as virtual chair 5020 is moved by contact 5040, table reference surface 5046 is highlighted (eg, as shown in FIG. 5S). 5S-5T, virtual chair 5020 continues to be dragged by contact 5040 as contact 5048 moves along the path indicated by arrow 5052. In FIG. 5U, contact 5048 has lifted off from touch screen 112 and virtual chair 5020 is placed on table reference surface 5046 in an upright orientation facing the same direction as before.

図5U~5ADはタッチスクリーンディスプレイ112の端に仮想椅子5020をドラッグする入力を図示し、これによりカメラの視野5034が表示されないようにする。図5Vにおいて、デバイス100のタッチスクリーン112との接触5054は、仮想椅子5020に対応する位置で検出される。図5V~5Wにおいて、接触5054が矢印5056によって示されるパスに沿って移動するにつれて、仮想椅子5020は接触5054によってドラッグされる。図5W~5Xにおいて、接触5054が矢印5058によって示されるパスに沿って移動するにつれて、仮想椅子5020は図5Xに表示される位置に接触5054によってドラッグされ続ける。 5U-5AD illustrate input for dragging a virtual chair 5020 to the edge of the touch screen display 112 so that the camera's field of view 5034 is not displayed. In FIG. 5V, contact 5054 with touch screen 112 of device 100 is detected at a location corresponding to virtual chair 5020. 5V-5W, virtual chair 5020 is dragged by contact 5054 as contact 5054 moves along the path indicated by arrow 5056. 5W-5X, as contact 5054 moves along the path indicated by arrow 5058, virtual chair 5020 continues to be dragged by contact 5054 to the position displayed in FIG. 5X.

図5U~5Xに図示される接触5054による入力は、図5Y~5ADに示すように、カメラの視野5034をプラッタ5030に表示することから、カメラの視野5034を表示するのを中止して、メッセージ送信ユーザーインターフェース5008を完全に表示することに戻るという遷移を引き起こす。図5Yにおいて、カメラの視野5034は、プラッタ5030においてフェードアウトを開始する。図5Y~5Zにおいて、プラッタ5030は、メッセージバブル5018に遷移する。図5Zにおいて、カメラの視野5034は、もはや表示されない。図5AAにおいて、メッセージ送信ユーザーインターフェース5008はぼやけなくなり、メッセージバブル5018のサイズはメッセージバブル5018の元のサイズに(例えば、図5Bに示すように)戻る。 The input by contact 5054 illustrated in FIGS. 5U-5X causes the camera field of view 5034 to stop displaying on the platter 5030, as shown in FIGS. 5Y-5AD, and the message This causes a transition back to fully displaying the send user interface 5008. In FIG. 5Y, camera field of view 5034 begins to fade out at platter 5030. In FIGS. 5Y-5Z, platter 5030 transitions to message bubble 5018. In FIG. 5Z, camera field of view 5034 is no longer displayed. In FIG. 5AA, the message sending user interface 5008 is no longer blurred and the size of the message bubble 5018 returns to the original size of the message bubble 5018 (eg, as shown in FIG. 5B).

図5AA~5ADは、図5AAの接触5054に対応する位置からメッセージ送信ユーザーインターフェース5008(例えば、図5Bに示すように)の仮想椅子5020の元の位置へ仮想椅子5020が移動するにつれて発生する、仮想椅子5020のアニメーション化された遷移を、図示する。図5ABにおいて、接触5054は、タッチスクリーン112からリフトオフしている。図5AB~5ACにおいて、仮想椅子5020は、段階的にサイズが増加して、図5ADのその最終位置の方へ回転する。 5AA-5AD occur as virtual chair 5020 moves from the position corresponding to contact 5054 in FIG. 5AA to the original position of virtual chair 5020 in message sending user interface 5008 (e.g., as shown in FIG. 5B). Animated transitions of virtual chair 5020 are illustrated. In FIG. 5AB, contact 5054 has lifted off from touch screen 112. In FIGS. 5AB-5AC, virtual chair 5020 increases in size in steps and rotates toward its final position in FIG. 5AD.

図5B~5ADにおいて、仮想椅子5020は、メッセージ送信ユーザーインターフェース5008の中で、また、カメラの表示された視野5034の中で、実質的に同じ三次元外観を有し、そして仮想椅子5020は、メッセージ送信ユーザーインターフェース5008を表示することからカメラの視野5034を表示することへの遷移の間、及び逆遷移の間、その同じ三次元外観を維持する。いくつかの実施形態では、仮想椅子5020の表現は、アプリケーションユーザーインターフェース(例えば、メッセージ送信ユーザーインターフェース)において、拡張現実環境において(例えば、カメラの示された視野において)とは異なる外観を有する。例えば、仮想椅子5020は任意選択的にアプリケーションユーザーインターフェースにおいて二次元であるかより在来の型にのっとった見え方を有し、その一方で、拡張現実環境では三次元及びより現実的で質感のある見え方を有し、そして、アプリケーションユーザーインターフェースを表示することと拡張現実環境を表示することの間の遷移の間の、仮想椅子5020の中間の外観は、二次元の見え方と仮想椅子5020の三次元の見え方の間の一連の内挿された外観である。 5B-5AD, the virtual chair 5020 has substantially the same three-dimensional appearance within the messaging user interface 5008 and within the displayed field of view of the camera 5034, and the virtual chair 5020 has a The same three-dimensional appearance is maintained during the transition from displaying the message sending user interface 5008 to displaying the camera field of view 5034 and back. In some embodiments, the representation of virtual chair 5020 has a different appearance in an application user interface (eg, a messaging user interface) than in an augmented reality environment (eg, in the camera's indicated field of view). For example, virtual chair 5020 may optionally have a two-dimensional or more conventional appearance in an application user interface, while having a three-dimensional and more realistic, textured appearance in an augmented reality environment. The intermediate appearance of the virtual chair 5020 during the transition between displaying the application user interface and displaying the augmented reality environment is that the virtual chair 5020 has a two-dimensional perspective and a transition between displaying the application user interface and displaying the augmented reality environment. is a series of interpolated appearances between three-dimensional views of .

図5AEは、インターネットブラウザユーザーインターフェース5060を図示する。インターネットブラウザユーザーインターフェース5060は、ウェブブラウザのためのURL/検索入力を表示するように構成されるURL/検索入力領域5062及びブラウザ制御5064(例えば、バックボタン及びフォワードボタンを含むナビゲーション制御、共有インターフェースを表示するための共有制御、ブックマークインターフェースを表示するためのブックマーク制御及びタブインターフェースを表示するためのタブ制御)を含む。インターネットブラウザユーザーインターフェース5060は、ウェブオブジェクト5066、5068、5070、5072、5074及び5076も含む。いくつかの実施形態では、それぞれのウェブオブジェクトはリンクを含み、それによって、それぞれのウェブオブジェクト上のタップ入力に応答して、ウェブオブジェクトに対応するリンクの張られたインターネット位置がインターネットブラウザユーザーインターフェース5060に(例えば、それぞれのウェブオブジェクトの表示を置き換えて)表示される。ウェブオブジェクト5066、5068及び5072は、仮想オブジェクトインジケータ5078、5080及び5082によってそれぞれ示されるように、三次元仮想オブジェクトの二次元の表現を含む。ウェブオブジェクト5070、5074及び5076は、二次元画像を含む(しかし、仮想オブジェクトインジケータの欠如によって示されるように、ウェブオブジェクト5070、5074及び5076の二次元画像は三次元仮想オブジェクトに対応しない)。ウェブオブジェクト5068に対応する仮想オブジェクトは、ランプオブジェクト5084である。 FIG. 5AE illustrates an internet browser user interface 5060. Internet browser user interface 5060 includes a URL/search input area 5062 configured to display URL/search input for a web browser and browser controls 5064 (e.g., navigation controls including back and forward buttons, sharing interfaces). a shared control for displaying a bookmark interface, a bookmark control for displaying a bookmark interface, and a tab control for displaying a tab interface). Internet browser user interface 5060 also includes web objects 5066, 5068, 5070, 5072, 5074, and 5076. In some embodiments, each web object includes a link such that in response to a tap input on the respective web object, a linked Internet location corresponding to the web object is displayed in the Internet browser user interface 5060. (e.g., replacing the display of the respective web object). Web objects 5066, 5068, and 5072 include two-dimensional representations of three-dimensional virtual objects, as indicated by virtual object indicators 5078, 5080, and 5082, respectively. Web objects 5070, 5074, and 5076 include two-dimensional images (but the two-dimensional images of web objects 5070, 5074, and 5076 do not correspond to three-dimensional virtual objects, as indicated by the lack of virtual object indicators). The virtual object corresponding to web object 5068 is lamp object 5084.

図5AF~5AHは、インターネットブラウザユーザーインターフェース5060の一部をカメラの視野5034により置き換えさせる入力を、図示する。図5AFにおいて、デバイス100のタッチスクリーン112との接触5086が検出される。接触の特性強度は、強度レベルメータ5028で示すように、接触検出強度閾値ITを上回り、そして、ヒント押圧強度閾値ITを下回る。図5AGにおいて、強度レベルメータ5028で示すように、軽い押圧強度閾値ITを上回る接触5026の特性強度の増加により、カメラの視野5034がウェブオブジェクト5068に表示させられた(例えば、仮想ランプ5084によりオーバレイされた)。図5AHにおいて、強度レベルメータ5028で示すように、深い押圧強度閾値ITを上回る接触5086の特性強度の増加により、カメラの視野5034が、(例えば、URL/検索入力領域5062及びブラウザ制御5064だけを残して)インターネットブラウザユーザーインターフェース5060のより大きな部分を置き換え、そして、デバイス100の触知出力生成器167は(5088で図示されるように)触知出力を出力して、インターネットブラウザユーザーインターフェース5060の一部をカメラの視野5034に置き換えるための基準が満たされたことを示す。いくつかの実施形態では、図5AF~5AHに関して記載されている入力に応答して、カメラの視野5034は、タッチスクリーンディスプレイ112上のインターネットブラウザユーザーインターフェース506を完全に置き換える。 5AF-5AH illustrate input that causes a portion of the Internet browser user interface 5060 to be replaced by a camera field of view 5034. In FIG. 5AF, a contact 5086 with the touch screen 112 of the device 100 is detected. The characteristic intensity of the touch is above the touch detection intensity threshold IT 0 and below the tip press intensity threshold IT H , as indicated by intensity level meter 5028. In FIG. 5AG, an increase in the characteristic intensity of the contact 5026 above the light press intensity threshold ITL causes the camera's field of view 5034 to be displayed on the web object 5068 (e.g., by the virtual lamp 5084), as indicated by the intensity level meter 5028. overlaid). In FIG. 5AH, as indicated by intensity level meter 5028, an increase in the characteristic intensity of contact 5086 above deep press intensity threshold IT D causes camera field of view 5034 to ), and the tactile output generator 167 of the device 100 outputs tactile output (as illustrated at 5088) to replace a larger portion of the Internet browser user interface 5060. indicates that the criteria for replacing a portion of the camera's field of view 5034 has been met. In some embodiments, in response to the inputs described with respect to FIGS. 5AF-5AH, camera field of view 5034 completely replaces Internet browser user interface 506 on touchscreen display 112.

図5AI~5AMは、仮想ランプ5084の移動を生じさせる入力を図示する。図5AI~5AJにおいて、接触5086が矢印5090によって示されるパスに沿って移動するにつれて、仮想ランプ5084は接触5086によってドラッグされる。仮想ランプ5084が接触5086によって移動されるにつれて、仮想ランプ5084のサイズは不変であり、そして、仮想ランプ5084のパスは任意選択的に、カメラの視野において捕えられる物理スペースの構造によって拘束されない。仮想ランプ5084が接触5086によって移動されるにつれて、カメラの視野5034において識別される平面は強調される。例えば、仮想ランプ5084が床平面5038の上を移動するにつれて、床平面5038は図5AJにおいて強調される。図5AJ~5AKにおいて、接触5086が矢印5092によって示されるパスに沿って移動するにつれて、仮想ランプ5084は接触5086によってドラッグされ続ける。図5AK~5ALにおいて、接触5086が矢印5094によって示されるパスに沿って移動するにつれて、仮想ランプ5084は接触5086によってドラッグされ続け、床平面5038は強調されなくなり、そして、仮想ランプ5084がテーブル5004の上を移動するにつれて、テーブル面5046が強調される。図5AMにおいて、接触5086は、タッチスクリーン112からリフトオフしている。接触5086がリフトオフしてしまうと、仮想ランプ5086のサイズはカメラの視野5034のテーブル5004に対して正しい縮尺を有するように調整され、そして、仮想ランプ5086はカメラの視野5034のテーブル面5046上の直立した向きに置かれる。 5AI-5AM illustrate inputs that cause movement of virtual ramp 5084. In FIGS. 5AI-5AJ, virtual ramp 5084 is dragged by contact 5086 as contact 5086 moves along the path indicated by arrow 5090. As virtual lamp 5084 is moved by contact 5086, the size of virtual lamp 5084 remains unchanged, and the path of virtual lamp 5084 is optionally not constrained by the structure of the physical space captured in the camera's field of view. As virtual lamp 5084 is moved by contact 5086, the plane identified in camera field of view 5034 is highlighted. For example, floor plane 5038 is highlighted in FIG. 5AJ as virtual lamp 5084 moves over floor plane 5038. 5AJ-5AK, virtual ramp 5084 continues to be dragged by contact 5086 as contact 5086 moves along the path indicated by arrow 5092. 5AK-5AL, as contact 5086 moves along the path indicated by arrow 5094, virtual ramp 5084 continues to be dragged by contact 5086, floor plane 5038 becomes de-emphasized, and virtual ramp 5084 As one moves over the table surface 5046 is highlighted. In FIG. 5AM, contact 5086 has lifted off from touch screen 112. Once the contact 5086 has lifted off, the size of the virtual lamp 5086 is adjusted to have the correct scale relative to the table 5004 of the camera field of view 5034, and the virtual lamp 5086 is placed on the table surface 5046 of the camera field of view 5034. placed in an upright position.

図5AM~5AQはタッチスクリーンディスプレイ112の端に仮想ランプ5084をドラッグする入力を図示し、これによりカメラの視野5034が表示されないようにし、インターネットブラウザユーザーインターフェース5060を復活させる。図5ANにおいて、デバイス100のタッチスクリーン112との接触5096は、仮想ランプ5084に対応する位置で検出される。図5AN~5AOにおいて、接触5096が矢印5098によって示されるパスに沿って移動するにつれて、仮想ランプ5084は接触5096によってドラッグされる。図5AO~5APにおいて、接触5054が矢印5100によって示されるパスに沿って移動するにつれて、仮想ランプ5084は図5APに表示される位置に接触5096によってドラッグされ続ける。図5AQにおいて、接触5096は、タッチスクリーン112からリフトオフしている。 5AM-5AQ illustrate input for dragging a virtual lamp 5084 to the edge of the touch screen display 112, thereby hiding the camera field of view 5034 and reinstating the Internet browser user interface 5060. In FIG. 5AN, a contact 5096 with the touch screen 112 of the device 100 is detected at a location corresponding to the virtual lamp 5084. 5AN-5AO, virtual ramp 5084 is dragged by contact 5096 as contact 5096 moves along the path indicated by arrow 5098. 5AO-5AP, as contact 5054 moves along the path indicated by arrow 5100, virtual ramp 5084 continues to be dragged by contact 5096 to the position displayed in FIG. 5AP. In FIG. 5AQ, contact 5096 has lifted off from touch screen 112.

図5AM~5APに図示される接触5096による入力は、図5AQ~5ATに示すように、カメラの視野5034を表示することから、カメラの視野5034を表示するのを中止して、インターネットブラウザユーザーインターフェース5060を完全に表示することに戻るという遷移を引き起こす。図5ARにおいて、カメラの視野5034は(点線によって示されるように)フェードアウトし始める。図5AR~5ATにおいて、仮想ランプ5084は、サイズが増加して、インターネットブラウザユーザーインターフェース5060のその元の位置の方へ移動する。図5ASにおいて、カメラの視野5034はもはや表示されず、インターネットブラウザユーザーインターフェース5060は(点線によって示されるように)フェードインし始める。図5ATにおいて、インターネットブラウザユーザーインターフェース5060は完全に表示され、そして、仮想ランプ5084はインターネットブラウザユーザーインターフェース5060内でその元のサイズ及び位置に戻っている。 Input via contact 5096, illustrated in FIGS. 5AM-5AP, causes the camera's field of view 5034 to stop displaying and stop displaying the camera's field of view 5034 from displaying the camera's field of view 5034, as shown in FIGS. Causes a transition back to displaying 5060 completely. In FIG. 5AR, the camera's field of view 5034 begins to fade out (as indicated by the dotted line). In FIGS. 5AR-5AT, virtual lamp 5084 increases in size and moves toward its original location in Internet browser user interface 5060. In FIG. 5AS, camera field of view 5034 is no longer displayed and internet browser user interface 5060 begins to fade in (as indicated by the dotted line). In FIG. 5AT, Internet browser user interface 5060 is fully displayed and virtual lamp 5084 has returned to its original size and position within Internet browser user interface 5060.

図6A~6AJは、いくつかの実施形態にしたがって、第1のユーザーインターフェース領域の仮想オブジェクトの第1の表現、第2のユーザーインターフェース領域の仮想オブジェクトの第2の表現及び1つ以上のカメラの視野の表現を有する仮想オブジェクトの第3の表現を表示するための例示ユーザーインターフェースを図示する。これらの図におけるユーザーインターフェースは、図8A~8E、9A~9D、10A~10D、16A~16G、17A~17D、18A~18I、19A~19H及び20A~20Fにおけるプロセスを含む、以下に説明するプロセスを例示するために用いられる。説明の便宜上、実施形態のいくつかは、タッチ感知ディスプレイシステム112を有するデバイス上で実行される操作を参照して議論される。そのような実施形態では、フォーカスセレクタは任意選択で、それぞれの指若しくはスタイラスの接触、指若しくはスタイラスの接触に対応する表現的な点(例えば、それぞれの接触の面心若しくはそれぞれの接触と関連付けられた点)、又はタッチ感知ディスプレイシステム112上で検出された2つ以上の接触の面心である。しかしながら、同様の操作は任意選択で、フォーカスセレクタと共に、ディスプレイ450上の図に表示されるユーザーインターフェースを表示する間、タッチ感知面451上の接触を検出したことに応じて、ディスプレイ450及び別々のタッチ感知面451を有するデバイス上で実行される。 6A-6AJ illustrate a first representation of a virtual object in a first user interface area, a second representation of the virtual object in a second user interface area, and one or more cameras, according to some embodiments. FIG. 7 illustrates an example user interface for displaying a third representation of a virtual object having a representation of a field of view. The user interfaces in these figures are representative of the processes described below, including the processes in FIGS. Used to illustrate. For convenience of explanation, some of the embodiments are discussed with reference to operations performed on a device having a touch-sensitive display system 112. In such embodiments, the focus selector optionally includes a respective finger or stylus contact, a representational point corresponding to the finger or stylus contact (e.g., a face center of the respective contact or a point associated with the respective contact). (point), or the face center of two or more contacts detected on the touch-sensitive display system 112. However, similar operations may optionally be performed on display 450 and in response to detecting contact on touch-sensitive surface 451 while displaying a graphically displayed user interface on display 450, in conjunction with a focus selector. Runs on a device that has a touch sensitive surface 451.

図6Aは、受信したテキストメッセージ5012を含むメッセージバブル5010、送信したテキストメッセージ5016を含むメッセージバブル5014、メッセージにおいて受信した仮想オブジェクト(例えば、仮想椅子5020)を含むメッセージバブル5018及び仮想椅子5020が拡張現実視において(例えば、デバイス100の1つ以上の表示されたカメラの視野の範囲内で)見えるオブジェクトであることを示す仮想オブジェクトインジケータ5022を含む、メッセージ送信ユーザーインターフェース5008を図示する。メッセージ送信ユーザーインターフェース5008は、図5Bに関して更に詳細に記載される。 FIG. 6A shows message bubble 5010 containing a received text message 5012, message bubble 5014 containing a sent text message 5016, message bubble 5018 containing a virtual object (e.g., virtual chair 5020) received in the message, and virtual chair 5020 expanded. A messaging user interface 5008 is illustrated that includes a virtual object indicator 5022 that indicates an object that is visible in real life (eg, within the field of view of one or more displayed cameras of device 100). Message sending user interface 5008 is described in further detail with respect to FIG. 5B.

図6B~6Cは、仮想椅子5020の回転を生じさせる入力を図示する。図6Bにおいて、デバイス100のタッチスクリーン112との接触6002が検出される。接触6002は、矢印6004によって示されるパスに沿って、タッチスクリーン112にわたって移動する。図6Cにおいて、接触の移動に応答して、メッセージ送信ユーザーインターフェース5008は上方へスクロールされて(メッセージバブル5010をディスプレイからスクロールオフさせ、メッセージバブル5014及び5018を上方へスクロールさせ、付加的なメッセージバブル6005を現し)、そして、仮想椅子5020は回転する(例えば、上方へ傾けられる)。仮想椅子5020の回転の大きさ及び方向は、矢印6004によって示されるパスに沿った接触6002の移動に対応する。図6Dにおいて、接触6002は、タッチスクリーン112からリフトオフしている。いくつかの実施形態では、メッセージバブル5018内の仮想椅子5020のこの回転の挙動が、仮想椅子5020がデバイス100のカメラの視野を含む拡張現実環境において見える仮想オブジェクトであるという徴候として、使われる。 6B-6C illustrate inputs that cause rotation of virtual chair 5020. In FIG. 6B, a contact 6002 with the touch screen 112 of the device 100 is detected. Contact 6002 moves across touchscreen 112 along a path indicated by arrow 6004. In FIG. 6C, in response to the movement of the contact, the message sending user interface 5008 is scrolled upward (scrolling message bubble 5010 off the display, scrolling message bubbles 5014 and 5018 upward, and adding an additional message bubble. 6005) and virtual chair 5020 is rotated (eg, tilted upward). The magnitude and direction of rotation of virtual chair 5020 corresponds to movement of contact 6002 along the path indicated by arrow 6004. In FIG. 6D, the contact 6002 has lifted off from the touch screen 112. In some embodiments, this rotational behavior of the virtual chair 5020 within the message bubble 5018 is used as an indication that the virtual chair 5020 is a virtual object visible in the augmented reality environment that includes the field of view of the device 100 camera.

図6E~6Lは、メッセージ送信ユーザーインターフェース5008をステージングユーザーインターフェース6010により置き換えさせ、そして仮想椅子5020の向きをその後変える入力を、図示する。図6Eにおいて、デバイス100のタッチスクリーン112との接触6006が検出される。強度レベルメータ5028で示すように、接触の特性強度は、接触検出強度閾値ITを上回り、そして、ヒント押圧強度閾値ITを下回る。図6Fにおいて、強度レベルメータ5028で示すように、ヒント押圧強度閾値ITを上回る接触6006の特性強度の増加によって、メッセージバブル5018の領域が増大し、仮想椅子5020のサイズが増大し、そしてメッセージ送信ユーザーインターフェース5008がメッセージバブル5018(例えば、接触の特性強度を増加させる効果の視覚フィードバックをユーザーに提供する)の後方でぼやけ始めた。図6Gにおいて、強度レベルメータ5028で示すように、軽い押圧強度閾値ITを上回る接触6006の特性強度の増加によって、メッセージバブル5018がプラッタ6008に置き換えられ、仮想椅子5020のサイズが更に増大し、そしてプラッタ6008の後方のメッセージ送信ユーザーインターフェース5008のぼやけを増加させた。図6Hにおいて、強度レベルメータ5028で示すように、深い押圧強度閾値ITを上回る接触6006の特性強度の増加により、メッセージ送信ユーザーインターフェース5008が表示されなくなり、ステージングユーザーインターフェース6010のフェードイン(点線によって示される)が起動される。加えて、図6Hで示すように、深い押圧強度閾値ITを上回る接触6006の特性強度の増加によって、デバイス100の触知出力生成器167に触知出力を(6012で図示されるように)出力させ、メッセージ送信ユーザーインターフェース5008をステージングユーザーインターフェース6010に置き換えるための基準が満たされたことを示す。 6E-6L illustrate input that causes message sending user interface 5008 to be replaced by staging user interface 6010 and subsequently reorients virtual chair 5020. In FIG. 6E, a contact 6006 with the touch screen 112 of the device 100 is detected. As indicated by intensity level meter 5028, the characteristic intensity of the touch is above the touch detection intensity threshold IT 0 and below the hint press intensity threshold IT H. In FIG. 6F, as indicated by intensity level meter 5028, an increase in the characteristic intensity of contact 6006 above tip press intensity threshold ITH increases the area of message bubble 5018, increases the size of virtual chair 5020, and The sending user interface 5008 begins to blur behind the message bubble 5018 (eg, providing visual feedback to the user of the effect of increasing the characteristic strength of the touch). In FIG. 6G, an increase in the characteristic intensity of the contact 6006 above the light pressure intensity threshold IT L causes the message bubble 5018 to be replaced by a platter 6008, further increasing the size of the virtual chair 5020, as indicated by the intensity level meter 5028; and increased blurring of the messaging user interface 5008 behind the platter 6008. In FIG. 6H, an increase in the characteristic intensity of the contact 6006 above the deep press intensity threshold IT D causes the message sending user interface 5008 to disappear and the staging user interface 6010 to fade in (as indicated by the dotted line), as indicated by the intensity level meter 5028. ) is activated. In addition, as shown in FIG. 6H, an increase in the characteristic intensity of the contact 6006 above the deep press intensity threshold IT D causes a tactile output to the tactile output generator 167 of the device 100 (as illustrated at 6012). output to indicate that the criteria for replacing message sending user interface 5008 with staging user interface 6010 have been met.

いくつかの実施形態では、接触6006の特性強度が深い押圧強度閾値ITに及ぶ前に、図6Hで図示するように、図6E~6Gに図示される進行は可逆である。例えば、図6F及び/又は6Gに図示される増加の後に接触6006の特性強度を低下させることは、接触6006の減少した強度レベルに、対応するインターフェース状態が表示されるようにする(例えば、図6Gで示すインターフェースは接触の減少した特性強度が軽い押圧強度閾値ITを上回るという判定にしたがって示され、図6Fで示すインターフェースは接触の減少した特性強度がヒント押圧強度閾値ITを上回るという判定にしたがって示され、そして、図6Eで示すインターフェースは接触の減少した特性強度がヒント押圧強度閾値ITを下回るという判定にしたがって示される)。いくつかの実施形態では、図6F及び/又は6Gに図示される増加の後に接触6006の特性強度を低下させることにより、図6Eで示すインターフェースが再表示させられる。 In some embodiments, the progression illustrated in FIGS. 6E-6G is reversible, as illustrated in FIG. 6H, before the characteristic intensity of contact 6006 reaches a deep press intensity threshold IT D. For example, decreasing the characteristic strength of contact 6006 after the increase illustrated in FIGS. 6F and/or 6G causes the decreased strength level of contact 6006 to display a corresponding interface state (e.g., The interface shown at 6G is shown according to the determination that the reduced characteristic intensity of the contact exceeds the light press intensity threshold IT L , and the interface shown in FIG. 6F is shown according to the determination that the reduced characteristic intensity of the contact exceeds the hint press intensity threshold IT H. and the interface shown in FIG. 6E is shown in accordance with the determination that the reduced characteristic intensity of the contact is below the hint press intensity threshold ITH ). In some embodiments, reducing the characteristic strength of contact 6006 after the increase illustrated in FIGS. 6F and/or 6G causes the interface illustrated in FIG. 6E to be redisplayed.

図6Iにおいて、ステージングユーザーインターフェース6010が表示される。ステージングユーザーインターフェース6010は、仮想椅子5020が表示されるステージ6014を含む。図6H~6Iから、仮想椅子5020は、図6Hの仮想椅子5020の位置から図6Iの仮想椅子5020の位置への遷移を示すために、アニメーション化される。例えば、仮想椅子5020は、ステージ6014(例えば、このようなその仮想椅子は、ステージ6014によってサポートされるように見える)に対して所定の位置、向き及び/又は距離に回転される。ステージングユーザーインターフェース6010はまた、(例えば、バック制御6016に対応する位置に入力されるタップによって)アクティブ化されると、前に表示されたユーザーインターフェース(例えば、メッセージ送信ユーザーインターフェース5008)を再表示させる、バック制御6016を含む。ステージングユーザーインターフェース6010はまた、現在のディスプレイモード(例えば、現在のディスプレイモードは強調された「3D」インジケータによって示されるように、ステージングユーザーインターフェースモードである)を示し、そして、アクティブ化されると選択されたディスプレイモードに遷移する、トグル制御6018を含む。例えば、ステージングユーザーインターフェース6010が表示されている間に、トグル制御6018に対応する位置(例えば、テキスト「ワールド」を含むトグル制御6018の一部に対応する位置)での接触により入力されるタップによって、ステージングユーザーインターフェース6010はカメラの視野と置き換えられる。ステージングユーザーインターフェース6010はまた、(例えば、共有インターフェースを表示するための)シェア制御6020を含む。 In FIG. 6I, a staging user interface 6010 is displayed. Staging user interface 6010 includes a stage 6014 on which virtual chair 5020 is displayed. From FIGS. 6H-6I, virtual chair 5020 is animated to show the transition from the position of virtual chair 5020 in FIG. 6H to the position of virtual chair 5020 in FIG. 6I. For example, virtual chair 5020 is rotated to a predetermined position, orientation, and/or distance relative to stage 6014 (eg, such that the virtual chair appears to be supported by stage 6014). Staging user interface 6010 also causes a previously displayed user interface (e.g., message sending user interface 5008) to redisplay when activated (e.g., by a tap entered at a location corresponding to back control 6016). , back control 6016. The staging user interface 6010 also indicates the current display mode (e.g., the current display mode is the staging user interface mode, as indicated by the highlighted "3D" indicator) and, when activated, selects includes a toggle control 6018 for transitioning to a displayed display mode. For example, by a tap input by contact at a location corresponding to toggle control 6018 (e.g., a location corresponding to a portion of toggle control 6018 that includes the text "World") while staging user interface 6010 is displayed. , the staging user interface 6010 is replaced with a camera field of view. Staging user interface 6010 also includes share controls 6020 (eg, for displaying a shared interface).

図6J~6Lは、接触6006の移動によって生じるステージ6014に対する仮想椅子5020の回転を図示する。図6J~6Kにおいて、接触6006が矢印6022によって示されるパスに沿って移動するにつれて、仮想椅子5020は(例えば、接触6066の移動に対して垂直である第1の軸のまわりを)回転する。図6K~6Lにおいて、矢印6024によって示されるパスに沿って、そして、その後矢印6025によって示されるパスに沿って接触6006が移動するにつれて、仮想椅子5020は(例えば、接触6066の移動に対して垂直である第2の軸のまわりを)回転する。図6Mにおいて、接触6006はタッチスクリーン112からリフトオフしている。いくつかの実施形態では、図6J~6Lに示すように、仮想椅子5020の回転はステージ6014の表面によって拘束される。例えば、仮想椅子5020の少なくとも1つの脚部は、仮想椅子の回転の間、ステージ6014の表面と接触したままである。いくつかの実施形態では、ステージ6014の表面は、仮想椅子5020の動きに特定の制約をもたらすことのない、仮想椅子5020の自由回転及び垂直並進移動の基準系としての役割を果たす。 6J-6L illustrate rotation of virtual chair 5020 relative to stage 6014 caused by movement of contact 6006. 6J-6K, as contact 6006 moves along the path indicated by arrow 6022, virtual chair 5020 rotates (eg, about a first axis that is perpendicular to the movement of contact 6066). 6K-6L, as contact 6006 moves along the path indicated by arrow 6024 and then along the path indicated by arrow 6025, virtual chair 5020 moves (e.g., perpendicular to the movement of contact 6066). around the second axis). In FIG. 6M, the contact 6006 has lifted off from the touch screen 112. In some embodiments, the rotation of virtual chair 5020 is constrained by the surface of stage 6014, as shown in FIGS. 6J-6L. For example, at least one leg of virtual chair 5020 remains in contact with the surface of stage 6014 during rotation of the virtual chair. In some embodiments, the surface of the stage 6014 serves as a reference frame for free rotation and vertical translation of the virtual chair 5020 without imposing any particular constraints on the movement of the virtual chair 5020.

図6N~6Oは、仮想椅子5020の表示されたサイズを調整する入力を図示する。図6Nにおいて、タッチスクリーン112との第1の接触6026及び第2の接触6030が検出される。第1の接触6026は矢印6028によって示されるパスに沿って移動し、そして、第1の接触6026の移動と同時に、第2の接触6030は矢印6032によって示されるパスに沿って移動する。図6N~6Oにおいて、第1の接触6026及び第2の接触6030が、それぞれ(例えば、デピンチジェスチャにおいて)、矢印6028及び6032によって示されるパスに沿って移動するにつれて、仮想椅子5020の表示されるサイズは増大する。図6Pにおいて、第1の接触6030及び第2の接触6026はタッチスクリーン112からリフトオフしており、そして、仮想椅子5020は接触6026及び6030のリフトオフの後増大したサイズを維持する。 6N-6O illustrate inputs that adjust the displayed size of virtual chair 5020. In FIG. 6N, a first contact 6026 and a second contact 6030 with the touch screen 112 are detected. First contact 6026 moves along the path indicated by arrow 6028 and, simultaneously with the movement of first contact 6026, second contact 6030 moves along the path indicated by arrow 6032. 6N-6O, as the first contact 6026 and the second contact 6030 move along the paths indicated by arrows 6028 and 6032, respectively (e.g., in a de-pinch gesture), the display of the virtual chair 5020 changes. The size increases. In FIG. 6P, the first contact 6030 and the second contact 6026 have lifted off from the touch screen 112, and the virtual chair 5020 maintains the increased size after the lift-off of the contacts 6026 and 6030.

図6Q~6Uは、ステージングユーザーインターフェース6010をデバイス100の1つ以上のカメラの視野6036により置き換えさせる入力を、図示する。図6Qにおいて、デバイス100のタッチスクリーン112との接触6034が検出される。強度レベルメータ5028で示すように、接触の特性強度は、接触検出強度閾値ITを上回り、そして、ヒント押圧強度閾値ITを下回る。図6Rにおいて、強度レベルメータ5028で示すように、ヒント押圧強度閾値ITを上回る接触5026の特性強度の増加により、ステージングユーザーインターフェース6010が(点線によって示されるように)仮想椅子5020の後方でぼやけ始めた。図6Sにおいて、強度レベルメータ5028で示すように、軽い押圧強度閾値ITを上回る接触6034の特性強度の増加により、ステージングユーザーインターフェース6010が表示されなくなり、カメラの視野6036のフェードイン(点線によって示される)が起動される。図6Tにおいて、強度レベルメータ5028で示すように、深い押圧強度閾値ITを上回る接触6034の特性強度の増加により、カメラの視野6036が表示させられる。加えて、図6Tで示すように、深い押圧強度閾値ITを上回る接触6034の特性強度の増加によって、デバイス100の触知出力生成器167に触知出力を(6038で図示されるように)出力させ、ステージングユーザーインターフェース6010の表示をカメラの視野6036の表示に置き換えるための基準が満たされたことを示す。図6Uにおいて、接触6034はタッチスクリーン112からリフトオフしている。いくつかの実施形態では、接触6034の特性強度が深い押圧強度閾値ITに及ぶ前に、図6Tで図示するように、図6Q~6Tに図示される進行は可逆である。例えば、接触6034の特性強度を図6R及び/又は6Sに図示される増加の後に低下させることは、表示される接触6034の減少した強度レベルに対応するインターフェース状態を引き起こす。 6Q-6U illustrate input that causes the staging user interface 6010 to be replaced by the field of view 6036 of one or more cameras of the device 100. In FIG. 6Q, a contact 6034 with the touch screen 112 of the device 100 is detected. As indicated by intensity level meter 5028, the characteristic intensity of the touch is above the touch detection intensity threshold IT 0 and below the hint press intensity threshold IT H. In FIG. 6R, an increase in the characteristic intensity of the contact 5026 above the tip press intensity threshold ITH , as indicated by the intensity level meter 5028, causes the staging user interface 6010 to blur behind the virtual chair 5020 (as indicated by the dotted line). I started. In FIG. 6S, an increase in the characteristic intensity of the contact 6034 above the light pressure intensity threshold ITL , as indicated by the intensity level meter 5028, causes the staging user interface 6010 to disappear and the camera's field of view 6036 to fade in (as indicated by the dotted line). ) is activated. In FIG. 6T, an increase in the characteristic intensity of the contact 6034 above the deep press intensity threshold ITD causes the camera field of view 6036 to be displayed, as indicated by the intensity level meter 5028. In addition, as shown in FIG. 6T, an increase in the characteristic intensity of the contact 6034 above the deep press intensity threshold IT D causes a tactile output to the tactile output generator 167 of the device 100 (as illustrated at 6038). output to indicate that the criteria for replacing the display of the staging user interface 6010 with the display of the camera field of view 6036 has been met. In FIG. 6U, contact 6034 has lifted off from touch screen 112. In some embodiments, the progression illustrated in FIGS. 6Q-6T is reversible, as illustrated in FIG. 6T, before the characteristic intensity of contact 6034 reaches a deep pressure intensity threshold IT D. For example, decreasing the characteristic intensity of contact 6034 after the increase illustrated in FIGS. 6R and/or 6S causes an interface state corresponding to the reduced intensity level of contact 6034 being displayed.

図6Q~6Uから、仮想椅子5020は検出されたプレーンに(例えば、デバイス100による仮想椅子5020が床面5038などの検出水平面上の直立した向きに置かれるように構成されるという決定にしたがって)配置され、そして、仮想椅子5020のサイズは調整される(例えば、カメラの視野6036で示す物理スペース5002に対する仮想椅子5020の縮尺は、仮想椅子5020の所定の「実世界」サイズ及び/又はカメラの視野6036のオブジェクト(例えばテーブル5004)の検出サイズに基づいて、決定される)。ステージングインターフェース6010が表示された間に、(例えば、図6J~6Kに関して記載されているように)仮想椅子5020の回転によって生じる仮想椅子5020の向きは、仮想椅子5020がステージングユーザーインターフェース6010からカメラの視野6036まで遷移するのにつれて維持される。例えば、床面5038に対する仮想椅子5020の向きは、ステージ5014の表面に対する仮想椅子5020の最終的な向きと同じである。いくつかの実施形態では、ステージングユーザーインターフェースの仮想オブジェクト5020のサイズの調整は、仮想椅子5020のサイズが物理スペース5002のサイズに対して視野6036において調整されるときに、考慮される。 From FIGS. 6Q-6U, virtual chair 5020 is placed in a detected plane (e.g., following a determination by device 100 that virtual chair 5020 is configured to be placed in an upright orientation on a detected horizontal surface, such as a floor surface 5038). and the size of the virtual chair 5020 is adjusted (e.g., the scale of the virtual chair 5020 relative to the physical space 5002 indicated by the camera's field of view 6036 is adjusted according to the predetermined "real world" size of the virtual chair 5020 and/or the camera's (determined based on the detected size of an object (eg, table 5004) in the field of view 6036). While the staging interface 6010 is displayed, the orientation of the virtual chair 5020 caused by the rotation of the virtual chair 5020 (e.g., as described with respect to FIGS. 6J-6K) is determined by the orientation of the virtual chair 5020 from the staging user interface 6010. It is maintained as the field of view 6036 is transitioned. For example, the orientation of virtual chair 5020 with respect to floor surface 5038 is the same as the final orientation of virtual chair 5020 with respect to the surface of stage 5014. In some embodiments, adjusting the size of the staging user interface virtual object 5020 is taken into account when the size of the virtual chair 5020 is adjusted in the field of view 6036 relative to the size of the physical space 5002.

図6V~6Yは、カメラの視野6036をステージングユーザーインターフェース6010により置き換えさせる入力を、図示する。図6Vにおいて、トグル制御6018(例えば、テキスト「3D」を含むトグル制御6018の一部に対応する位置)に対応する位置で、接触6040による入力(例えば、タップ入力)が検出される。図6W~6Yにおいて、接触6040による入力に応答して、カメラの視野6036は(図6Wの点線によって示すように)フェードアウトし、ステージングユーザーインターフェース6010は(図6Xの点線によって示すように)フェードインし、そして、ステージングユーザーインターフェース6010は(図6Yに示すように)完全に表示される。図6V~6Yから、仮想椅子5020のサイズは調整され、そして、仮想椅子5020の位置は変化する(例えば、仮想椅子5020をステージングユーザーインターフェースのための所定の位置及びサイズに戻すために)。 6V-6Y illustrate input that causes camera field of view 6036 to be replaced by staging user interface 6010. In FIG. 6V, an input (eg, a tap input) by contact 6040 is detected at a location corresponding to toggle control 6018 (eg, a location corresponding to a portion of toggle control 6018 that includes the text "3D"). In FIGS. 6W-6Y, in response to input by contact 6040, camera field of view 6036 fades out (as shown by the dotted line in FIG. 6W) and staging user interface 6010 fades in (as shown by the dotted line in FIG. 6X). The staging user interface 6010 is then fully displayed (as shown in FIG. 6Y). From FIGS. 6V-6Y, the size of virtual chair 5020 is adjusted and the position of virtual chair 5020 is changed (eg, to return virtual chair 5020 to a predetermined position and size for the staging user interface).

図6Z~6ACは、ステージングユーザーインターフェース6010をメッセージ送信ユーザーインターフェース5008により置き換えさせる入力を、図示する。図6Zにおいて、接触6042による入力(例えば、タップ入力)は、バック制御6016に対応する位置で検出される。図6AA~6ACにおいて、接触6042による入力に応答して、ステージングユーザーインターフェース6010は(図6AAの点線によって示すように)フェードアウトし、メッセージ送信ユーザーインターフェース5008は(図6ABの点線によって示すように)フェードインし、そして、メッセージ送信ユーザーインターフェース5008は(図6ACに示すように)完全に表示される。図6Z~6ABから、仮想椅子5020のサイズ、向き及び位置は、ディスプレイ上で連続的に調整される(例えば、仮想椅子5020をメッセージ送信ユーザーインターフェース5008のための所定の位置、サイズ及び向きに戻すために)。 6Z-6AC illustrate inputs that cause staging user interface 6010 to be replaced by message sending user interface 5008. In FIG. 6Z, an input by contact 6042 (eg, a tap input) is detected at a position corresponding to back control 6016. 6AA-6AC, in response to input by contact 6042, staging user interface 6010 fades out (as shown by the dotted line in FIG. 6AA) and message sending user interface 5008 fades out (as shown by the dotted line in FIG. 6AB). and the message sending user interface 5008 is fully displayed (as shown in FIG. 6AC). From FIGS. 6Z-6AB, the size, orientation, and position of virtual chair 5020 are continuously adjusted on the display (e.g., returning virtual chair 5020 to a predetermined position, size, and orientation for message sending user interface 5008). for).

図6AD~6AJは、メッセージ送信ユーザーインターフェース5008を(例えば、ステージングユーザーインターフェース6010の表示をバイパスして)カメラの視野6036により置き換えさせる入力を、図示する。図6ADにおいて、接触6044は仮想椅子5020に対応する位置で検出される。接触6044による入力は、長いタッチジェスチャ(その間は接触6044が、少なくとも所定の閾値時間に対して閾値移動量未満の仮想オブジェクト5020の表現に対応するタッチ感知面上の場所に維持される)とそれに続く(上方へ仮想椅子5020をドラッグする)上方へのスワイプジェスチャを含む。図6AD~6AEに示すように、仮想椅子5020は接触6044が矢印6046によって示されるパスに沿って移動するにつれて、上方へドラッグされる。図6AEにおいて、メッセージ送信ユーザーインターフェース5008は仮想椅子5020の後方でフェードアウトする。図6AE~6AFに示すように、接触6044が矢印6048によって示されるパスに沿って移動するにつれて、仮想椅子5020は上方へドラッグされ続ける。図6AFにおいて、カメラの視野5036は、仮想椅子5020の後方でフェードインする。図6AGにおいて、長いタッチジェスチャとそれに続く上方へのスワイプジェスチャを含む接触6044による入力に応答して、カメラの視野5036は完全に表示される。図6AHにおいて、接触6044はタッチスクリーン112からリフトオフする。図6AH~6AJにおいて、接触6044のリフトオフに応答して、仮想椅子5020は、(例えば、仮想椅子5020がもはや接触によって高速されないか又はドラッグされないので)リリースされて、プレーン(例えば、水平の(床)表面が仮想椅子5020に対応するという判定にしたがって、床面5038)に落ちる。加えて、図6AJで図示するように、デバイス100の触知出力生成器167は、触知出力を(6050で図示するように)出力して、仮想椅子5020が床面5038にランディングしたことを示す。 6AD-6AJ illustrate input that causes message sending user interface 5008 to be replaced by camera field of view 6036 (eg, bypassing display of staging user interface 6010). In FIG. 6AD, contact 6044 is detected at a location corresponding to virtual chair 5020. Input via contact 6044 includes a long touch gesture during which contact 6044 is maintained at a location on the touch-sensitive surface corresponding to a representation of virtual object 5020 that is less than a threshold amount of movement for at least a predetermined threshold amount of time; followed by an upward swipe gesture (dragging the virtual chair 5020 upward). As shown in FIGS. 6AD-6AE, virtual chair 5020 is dragged upward as contact 6044 moves along the path indicated by arrow 6046. In FIG. 6AE, message sending user interface 5008 fades out behind virtual chair 5020. As shown in FIGS. 6AE-6AF, virtual chair 5020 continues to be dragged upward as contact 6044 moves along the path indicated by arrow 6048. In FIG. 6AF, camera field of view 5036 fades in behind virtual chair 5020. In FIG. 6AG, the camera's field of view 5036 is fully displayed in response to input by contact 6044, which includes a long touch gesture followed by an upward swipe gesture. In FIG. 6AH, contact 6044 lifts off from touch screen 112. In FIGS. 6AH-6AJ, in response to the lift-off of contact 6044, virtual chair 5020 is released (e.g., because virtual chair 5020 is no longer sped up or dragged by the contact) and placed in a plane (e.g., horizontal (floor)). ) falls onto the floor surface 5038) according to the determination that the surface corresponds to the virtual chair 5020. Additionally, as illustrated in FIG. 6AJ, the tactile output generator 167 of the device 100 outputs a tactile output (as illustrated at 6050) to indicate that the virtual chair 5020 has landed on the floor surface 5038. show.

図7A~7Pは、いくつかの実施形態にしたがって、アイテムが仮想三次元オブジェクトに対応することを示すための視覚的な指示を有するアイテムを表示するための、例示ユーザーインターフェースを図示する。これらの図におけるユーザーインターフェースは、図8A~8E、9A~9D、10A~10D、16A~16G、17A~17D、18A~18I、19A~19H及び20A~20Fにおけるプロセスを含む、以下に説明するプロセスを例示するために用いられる。説明の便宜上、実施形態のいくつかは、タッチ感知ディスプレイシステム112を有するデバイス上で実行される操作を参照して議論される。そのような実施形態では、フォーカスセレクタは任意選択で、それぞれの指若しくはスタイラスの接触、指若しくはスタイラスの接触に対応する表現的な点(例えば、それぞれの接触の面心若しくはそれぞれの接触と関連付けられた点)、又はタッチ感知ディスプレイシステム112上で検出された2つ以上の接触の面心である。しかしながら、同様の操作は任意選択で、フォーカスセレクタと共に、ディスプレイ450上の図に表示されるユーザーインターフェースを表示する間、タッチ感知面451上の接触を検出したことに応じて、ディスプレイ450及び別々のタッチ感知面451を有するデバイス上で実行される。 7A-7P illustrate example user interfaces for displaying items with visual indications to indicate that the items correspond to virtual three-dimensional objects, according to some embodiments. The user interfaces in these figures are representative of the processes described below, including the processes in FIGS. Used to illustrate. For convenience of explanation, some of the embodiments are discussed with reference to operations performed on a device having a touch-sensitive display system 112. In such embodiments, the focus selector optionally includes a respective finger or stylus contact, a representational point corresponding to the finger or stylus contact (e.g., a face center of the respective contact or a point associated with the respective contact). or the center of the face of two or more contacts detected on the touch-sensitive display system 112. However, similar operations may optionally be performed on display 450 and in response to detecting contact on touch-sensitive surface 451 while displaying a graphically displayed user interface on display 450, in conjunction with a focus selector. Runs on a device that has a touch sensitive surface 451.

図7Aは、アプリケーションのメニューのためのユーザーインターフェース400が表示される間に検出される入力を図示する。入力は要求に対応して、第1のユーザーインターフェース(例えば、インターネットブラウザユーザーインターフェース5060)を表示する。図7Aにおいて、接触7000による入力(例えば、タップ入力)がブラウザモジュール147のためのアイコン420に対応する位置で検出される。入力に応答して、図7Bに示すように、インターネットブラウザユーザーインターフェース5060が表示される。 FIG. 7A illustrates inputs detected while a user interface 400 for an application's menu is displayed. The input displays a first user interface (eg, Internet browser user interface 5060) in response to the request. In FIG. 7A, an input (eg, a tap input) by contact 7000 is detected at a location corresponding to icon 420 for browser module 147. In FIG. In response to the input, an Internet browser user interface 5060 is displayed, as shown in FIG. 7B.

図7Bは、(例えば、図5AEに関して詳細に説明したような)インターネットブラウザユーザーインターフェース5060を図示する。インターネットブラウザユーザーインターフェース5060は、ウェブオブジェクト5066、5068、5070、5072、5074及び5076を含む。ウェブオブジェクト5066、5068及び5072はそれぞれ、仮想オブジェクトインジケータ5078、5080及び5082によって示されるような、三次元仮想オブジェクトの二次元の表現を含む。ウェブオブジェクト5070、5074及び5076は、二次元画像を含む(しかし、ウェブオブジェクト5070、5074及び5076の二次元画像は、仮想オブジェクトインジケータの欠如によって示されるように、三次元仮想オブジェクトに対応しない)。 FIG. 7B illustrates an Internet browser user interface 5060 (eg, as described in detail with respect to FIG. 5AE). Internet browser user interface 5060 includes web objects 5066, 5068, 5070, 5072, 5074, and 5076. Web objects 5066, 5068, and 5072 each include a two-dimensional representation of a three-dimensional virtual object, as indicated by virtual object indicators 5078, 5080, and 5082, respectively. Web objects 5070, 5074, and 5076 include two-dimensional images (but the two-dimensional images of web objects 5070, 5074, and 5076 do not correspond to three-dimensional virtual objects, as indicated by the lack of virtual object indicators).

図7C~7Dは、インターネットブラウザユーザーインターフェース5060の並進移動(例えば、スクロール)が生じさせる入力を図示する。図7Bにおいて、タッチスクリーン112との接触7002が検出される。図7C~7Dにおいて、接触7002が矢印7004によって示されるパスに沿って移動するにつれて、ウェブオブジェクト5066、5068、5070、5072、5074及び5076は上方へスクロールし、付加的なウェブオブジェクト7003及び7005を現す。加えて、接触7002が矢印7004によって示されるパスに沿って移動するにつれて、仮想オブジェクトインジケータ5078、5080及び5082をそれぞれ含むウェブオブジェクト5066、5068及び5072の仮想オブジェクトは、入力の(上方へ垂直な)方向にしたがって回転する(例えば、上方へ傾く)。例えば、仮想ランプ5084は、図7Cの第1の向きから図7Dの第2の向きまで上方へ傾く。ウェブオブジェクト5070、5074及び5076の二次元画像は、接触がインターネットブラウザユーザーインターフェース5060をスクロールするにつれて回転はしない。図7Eにおいて、接触7002はタッチスクリーン112からリフトオフしている。いくつかの実施形態では、ウェブオブジェクト5066、5068及び5072で表されるオブジェクトの回転挙動は、これらのウェブオブジェクトが拡張現実環境において見える対応する三次元仮想オブジェクトを有するという視覚的な指示として使われ、その一方で、ウェブオブジェクト5070、5074及び5076で表されるオブジェクトのこのような回転挙動の欠如は、これらのウェブオブジェクトが拡張現実環境において見える対応する三次元仮想オブジェクトを有しないという視覚的な指示として使われる。 7C-7D illustrate the inputs that translation (eg, scrolling) of the Internet browser user interface 5060 causes. In FIG. 7B, contact 7002 with touch screen 112 is detected. 7C-7D, as contact 7002 moves along the path indicated by arrow 7004, web objects 5066, 5068, 5070, 5072, 5074, and 5076 scroll upward, causing additional web objects 7003 and 7005 to scroll upward. manifest Additionally, as contact 7002 moves along the path indicated by arrow 7004, the virtual objects of web objects 5066, 5068, and 5072, including virtual object indicators 5078, 5080, and 5082, respectively, Rotate according to the direction (for example, tilt upward). For example, virtual lamp 5084 tilts upward from a first orientation in FIG. 7C to a second orientation in FIG. 7D. The two-dimensional images of web objects 5070, 5074, and 5076 do not rotate as the touch scrolls through the Internet browser user interface 5060. In FIG. 7E, contact 7002 has lifted off from touch screen 112. In some embodiments, the rotational behavior of objects represented by web objects 5066, 5068, and 5072 is used as a visual indication that these web objects have corresponding three-dimensional virtual objects visible in the augmented reality environment. , on the other hand, the lack of such rotational behavior of the objects represented by web objects 5070, 5074, and 5076 is due to the visual effect that these web objects have no corresponding three-dimensional virtual objects visible in the augmented reality environment. used as an instruction.

図7F~7Gは、仮想オブジェクトが物理的世界に対するデバイス100の向きの変化に応答してディスプレイ上で回転する視差効果を図示する。 7F-7G illustrate a parallax effect in which virtual objects rotate on the display in response to changes in the orientation of the device 100 relative to the physical world.

図7F1は、デバイス100が実質的に垂直向きとなるように、ユーザー7006によってユーザーの手5006に保持されるデバイス100を図示する。図7F2は、デバイス100が図7F1において図示される向きにあるときにデバイス100によって表示される、インターネットブラウザユーザーインターフェース5060を図示する。 FIG. 7F1 illustrates device 100 being held by user 7006 in user's hand 5006 such that device 100 is in a substantially vertical orientation. FIG. 7F2 illustrates an Internet browser user interface 5060 displayed by device 100 when device 100 is in the orientation illustrated in FIG. 7F1.

図7G1は、デバイス100が実質的に横向きとなるように、ユーザー7006によってユーザーの手5006に保持されるデバイス100を図示する。図7G2は、デバイス100が図7G1において図示される向きにあるときにデバイス100によって表示される、インターネットブラウザユーザーインターフェース5060を図示する。図7F2から図7G2までに、仮想オブジェクトインジケータ5078、5080及び5082をそれぞれ含むウェブオブジェクト5066、5068及び5072の仮想オブジェクトの向きは、デバイスの方向の変化にしたがって回転する(例えば、上方へ傾く)。例えば、仮想ランプ5084は、物理空間におけるデバイス向きの同時並行の変化にしたがって、図7F2の第1の向きから図7G2の第2の向きまで上方へ傾く。ウェブオブジェクト5070、5074及び5076の二次元画像は、デバイスの向きが変化するにつれて回転はしない。いくつかの実施形態では、ウェブオブジェクト5066、5068及び5072で表されるオブジェクトの回転挙動は、これらのウェブオブジェクトが拡張現実環境において見える対応する三次元仮想オブジェクトを有するという視覚的な指示として使われ、その一方で、ウェブオブジェクト5070、5074及び5076で表されるオブジェクトのこのような回転挙動の欠如は、これらのウェブオブジェクトが拡張現実環境において見える対応する三次元仮想オブジェクトを有しないという視覚的な指示として使われる。 FIG. 7G1 illustrates device 100 being held by user 7006 in user's hand 5006 such that device 100 is in a substantially landscape orientation. FIG. 7G2 illustrates the Internet browser user interface 5060 displayed by the device 100 when the device 100 is in the orientation illustrated in FIG. 7G1. 7F2 through FIG. 7G2, the virtual object orientation of web objects 5066, 5068, and 5072, including virtual object indicators 5078, 5080, and 5082, respectively, rotates (eg, tilts upward) according to the change in device orientation. For example, virtual lamp 5084 tilts upward from a first orientation in FIG. 7F2 to a second orientation in FIG. 7G2 in accordance with a concurrent change in device orientation in physical space. The two-dimensional images of web objects 5070, 5074, and 5076 do not rotate as the device orientation changes. In some embodiments, the rotational behavior of objects represented by web objects 5066, 5068, and 5072 is used as a visual indication that these web objects have corresponding three-dimensional virtual objects visible in the augmented reality environment. , on the other hand, the lack of such rotational behavior of the objects represented by web objects 5070, 5074, and 5076 is due to the visual artifact that these web objects have no corresponding three-dimensional virtual objects visible in the augmented reality environment. used as an instruction.

図7H~7Lは、第2のユーザーインターフェース(例えば、メッセージ送信ユーザーインターフェース5008)を表示する要求に対応する入力を図示する。図7Hにおいて、接触7008がディスプレイ112の下側縁部に対応する位置で検出される。図7H~7Iにおいて、接触7008は、矢印7010によって示されるパスに沿って、上方へ移動する。図7I~7Jにおいて、接触7008は、矢印7012によって示されるパスに沿って上方へ移動し続ける。図7H~7Jにおいて、接触7008が上方へディスプレイ112の下側縁部から上方へ移動するにつれて、図7Iに示すように、インターネットブラウザユーザーインターフェース5060のサイズは減少し、そして、図7Jで、マルチタスキングユーザーインターフェース7012が(例えば、接触7008による上方へのエッジスワイプジェスチャに応答して)表示される。マルチタスキングユーザーインターフェース7012は、保持された状態(例えば、保持された状態は、それぞれのアプリケーションがデバイス上で実行されるフォアグラウンドのアプリケーション用であったときの、それぞれのアプリケーションの最後の状態である)及び各種の制御インターフェース(例えば、図7Jで図示するように、制御センターユーザーインターフェース7014、インターネットブラウザユーザーインターフェース5060及びメッセージ送信ユーザーインターフェース5008)を有する各種のアプリケーションの中からインターフェースの選択を可能にするように、構成される。図7Kにおいて、接触7008はタッチスクリーン112からリフトオフする。図7Lにおいて、接触7016による入力(例えば、タップ入力)がメッセージ送信ユーザーインターフェース5008に対応する位置で検出される。接触7016による入力に応答して、図7Mで図示するように、メッセージ送信ユーザーインターフェース5008が表示される。 7H-7L illustrate input corresponding to a request to display a second user interface (eg, message sending user interface 5008). In FIG. 7H, a contact 7008 is detected at a location corresponding to the lower edge of display 112. In FIG. In FIGS. 7H-7I, contact 7008 moves upward along the path indicated by arrow 7010. In FIGS. 7I-7J, contact 7008 continues to move upward along the path indicated by arrow 7012. 7H-7J, as the contact 7008 moves upwardly from the bottom edge of the display 112, the size of the Internet browser user interface 5060 decreases, as shown in FIG. 7I, and in FIG. A tasking user interface 7012 is displayed (eg, in response to an upward edge swipe gesture by contact 7008). The multitasking user interface 7012 displays the retained state (e.g., the retained state is the last state of the respective application when the respective application was for a foreground application running on the device). ) and various control interfaces (e.g., a control center user interface 7014, an internet browser user interface 5060, and a message sending user interface 5008, as illustrated in FIG. 7J). It is composed as follows. In FIG. 7K, contact 7008 lifts off from touch screen 112. In FIG. 7L, input by contact 7016 (eg, tap input) is detected at a location corresponding to message sending user interface 5008. In response to input by contact 7016, message sending user interface 5008 is displayed, as illustrated in FIG. 7M.

図7Mは、メッセージで受け取られる仮想オブジェクト(例えば、仮想椅子5020)と、仮想椅子5020が仮想三次元オブジェクト(例えば、拡張現実ビューにおいて見えるオブジェクト及び/又は異なる角度から見えるオブジェクト)であることを示すための仮想オブジェクトインジケータ5022とを含むメッセージバブル5018を含む、(例えば、図5Bに関する更なる詳細にて説明したような)メッセージ送信ユーザーインターフェース5008を図示する。メッセージ送信ユーザーインターフェース5008はまた、送信したテキストメッセージを含むメッセージバブル6005及び絵文字7020を含む受信したテキストメッセージを含むメッセージバブル7018を含む。絵文字7020は、仮想三次元オブジェクトに対応しない二次元画像である。このために、絵文字7020は、仮想オブジェクトインジケータなしで表示される。 FIG. 7M shows a virtual object (e.g., virtual chair 5020) received in the message and that virtual chair 5020 is a virtual three-dimensional object (e.g., an object visible in an augmented reality view and/or an object visible from different angles). 5B illustrates a message sending user interface 5008 (e.g., as described in further detail with respect to FIG. 5B) including a message bubble 5018 that includes a virtual object indicator 5022 for a message. Message sending user interface 5008 also includes a message bubble 6005 containing sent text messages and a message bubble 7018 containing received text messages including emojis 7020. The pictogram 7020 is a two-dimensional image that does not correspond to a virtual three-dimensional object. To this end, pictogram 7020 is displayed without a virtual object indicator.

図7Nは、マップ7024を含むマップユーザーインターフェース7022、第1の関心地点のための関心地点情報領域7026及び第2の関心地点のための関心地点情報領域7032を図示する。例えば、第1の関心地点及び第2の関心地点は、検索入力領域7025の検索入力「Apple」に対応するマップ7024によって示される領域の中であるかすぐ近くの検索結果である。第1の関心地点情報領域7026において、第1の関心地点オブジェクト7028が仮想オブジェクトインジケータ7030によって表示されて、第1の関心地点オブジェクト7028が仮想三次元オブジェクトであることを示す。第2の関心地点情報領域7032において、第2の関心地点オブジェクト7034は仮想オブジェクトインジケータなしで表示され、それは第2の関心地点オブジェクト7034が拡張現実ビューにおいて見える仮想三次元オブジェクトに対応しないからである。 FIG. 7N illustrates a map user interface 7022 that includes a map 7024, a points of interest information area 7026 for a first point of interest, and a points of interest information area 7032 for a second point of interest. For example, the first point of interest and the second point of interest are search results within or immediately adjacent to the area indicated by map 7024 that corresponds to the search input "Apple" in search input area 7025. In the first point of interest information region 7026, a first point of interest object 7028 is displayed by a virtual object indicator 7030 to indicate that the first point of interest object 7028 is a virtual three-dimensional object. In the second point of interest information area 7032, a second point of interest object 7034 is displayed without a virtual object indicator because the second point of interest object 7034 does not correspond to a virtual three-dimensional object visible in the augmented reality view. .

図7Oは、ファイル管理制御7038、ファイル管理検索入力領域7040、第1のファイル(例えば、ポータブルドキュメントフォーマット(PDF)ファイル)のためのファイル情報領域7042、第2のファイル(例えば、写真ファイル)のためのファイル情報領域7044、第3のファイル(例えば、仮想椅子オブジェクト)のためのファイル情報領域7046及び第4のファイル(例えば、PDFファイル)のためのファイル情報領域7048を含む、ファイル管理ユーザーインターフェース7036を図示する。第3のファイル情報領域7046は、第3のファイルが仮想三次元オブジェクトに対応することを示すためにファイル情報領域7046のファイルプレビューオブジェクト7045に隣接して表示される仮想オブジェクトインジケータ7050を含む。第1のファイル情報領域7042、第2のファイル情報領域7044及び第4のファイル情報領域7048は、これらのファイル情報領域に対応するファイルが拡張現実環境において見える対応する仮想三次元オブジェクトを有しないので、仮想オブジェクトインジケータなしで表示される。 FIG. 7O shows a file management control 7038, a file management search input area 7040, a file information area 7042 for a first file (e.g., a Portable Document Format (PDF) file), and a file information area 7042 for a second file (e.g., a photo file). a file information area 7044 for a third file (e.g., a virtual chair object), a file information area 7046 for a fourth file (e.g., a PDF file), and a file information area 7048 for a fourth file (e.g., a PDF file). 7036 is illustrated. Third file information area 7046 includes a virtual object indicator 7050 that is displayed adjacent to file preview object 7045 of file information area 7046 to indicate that the third file corresponds to a virtual three-dimensional object. The first file information area 7042, the second file information area 7044, and the fourth file information area 7048 are different because the files corresponding to these file information areas do not have corresponding virtual three-dimensional objects visible in the augmented reality environment. , displayed without virtual object indicators.

図7Pは、電子メールナビゲーション制御7054、電子メール情報領域7056及び第1のアタッチメント7060の表現及び第2のアタッチメント7062の表現を含む電子メールコンテンツ領域7058を含む電子メールユーザーインターフェース7052を図示する。第1のアタッチメント7060の表現は、第1のアタッチメントが拡張現実環境において見える仮想三次元オブジェクトであることを示すための仮想オブジェクトインジケータ7064を含む。第2のアタッチメントが拡張現実環境において見える仮想三次元オブジェクトでないので、第2のアタッチメント7062は仮想オブジェクトインジケータなしで表示される。 FIG. 7P illustrates an email user interface 7052 that includes email navigation controls 7054, an email information area 7056, and an email content area 7058 that includes a representation of a first attachment 7060 and a representation of a second attachment 7062. The representation of the first attachment 7060 includes a virtual object indicator 7064 to indicate that the first attachment is a virtual three-dimensional object visible in the augmented reality environment. The second attachment 7062 is displayed without a virtual object indicator because the second attachment is not a virtual three-dimensional object visible in the augmented reality environment.

図8A~8Eは、いくつかの実施形態にしたがって、仮想オブジェクトの表現を表示すると共に第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することに切り替える、方法800を図示しているフローチャートである。方法800は、ディスプレイ、タッチ感知面及び1つ以上のカメラ(例えば、ディスプレイ及びタッチ感知面から反対側のデバイスの側の1つ以上の背面カメラ)を有する電子デバイス(例えば、図3のデバイス300、又は図1Aのポータブル型多機能デバイス100)で実行される。いくつかの実施形態では、ディスプレイはタッチスクリーンディスプレイであり、タッチ感知面はディスプレイ上にあるか又はディスプレイと統合される。いくつかの実施形態では、ディスプレイは、タッチ感知面から分離している。方法800のいくつかの操作は任意選択的に組み合わされ、かつ/又は、いくつかの操作の順序は任意選択的に変更される。 8A-8E illustrate a method 800 of displaying a representation of a virtual object and switching from displaying a first user interface area to displaying a second user interface area, according to some embodiments. FIG. Method 800 includes an electronic device (e.g., device 300 of FIG. , or the portable multifunction device 100 of FIG. 1A). In some embodiments, the display is a touch screen display and the touch sensitive surface is on or integrated with the display. In some embodiments, the display is separate from the touch-sensitive surface. Some operations of method 800 are optionally combined and/or the order of some operations is optionally changed.

方法800は、仮想オブジェクトの表現を第1のユーザーインターフェース領域に表示するデバイスのタッチ感知面で接触によって入力を検出することに関する。入力に応答して、デバイスは、第1のユーザーインターフェース領域の少なくとも一部の表示をデバイスの1つ以上のカメラの視野に置き換えると共に、連続的に仮想オブジェクトの表現を表示するべきかどうか判定するための基準を使用する。第1のユーザーインターフェース領域の少なくとも一部の表示を1つ以上のカメラの視野に置き換えると共に、連続的に仮想オブジェクトの表現を表示するべきかどうか判定するための基準を使用することにより、入力に応答して複数の異なるタイプの操作の実行することが可能となる。入力に応答して(例えば、ユーザーインターフェースの少なくとも一部の表示を1つ以上のカメラの視野に置き換えるか、又は第1のユーザーインターフェース領域の少なくとも一部の表示を1つ以上のカメラの視野の表現に置き換えることなく、第1のユーザーインターフェース領域の表示を維持することによって)複数の異なるタイプの操作の実行を可能にすることは、ユーザーがこれらの操作を実行することのできる効率性を増大させ、それによって、デバイスの操作性を高め、加えてそれが、電力使用量を減らして、ユーザーがより迅速かつ効率よくデバイスを使用することができることによってデバイスのバッテリ寿命を改善する。 Method 800 relates to detecting input by touch on a touch-sensitive surface of a device that displays a representation of a virtual object in a first user interface area. In response to the input, the device replaces the display of at least a portion of the first user interface area with a field of view of one or more cameras of the device and determines whether to continuously display a representation of the virtual object. Use standards for the input by replacing the display of at least a portion of the first user interface area with the field of view of one or more cameras and using criteria for determining whether to continuously display representations of the virtual object; It is possible to perform several different types of operations in response. in response to an input (e.g., replacing the display of at least a portion of the user interface with the field of view of one or more cameras, or replacing the display of at least a portion of the first user interface area with the field of view of one or more cameras). Enabling the performance of multiple different types of operations (by maintaining the visibility of the first user interface area without replacing the representation) increases the efficiency with which users can perform these operations and thereby enhance the operability of the device; in addition, it improves the battery life of the device by reducing power usage and allowing the user to use the device more quickly and efficiently.

デバイスは、ディスプレイ112上の第1のユーザーインターフェース領域(例えば、二次元のグラフィックユーザーインターフェース又は一部(例えば、家具画像の一覧可能なリスト、1つ以上の選択可能なオブジェクトを含んでいる画像など))に仮想オブジェクトの表現(例えば、仮想椅子5020、仮想ランプ5084、靴、家具、手工具、装飾、人々、絵文字、ゲームキャラクタ、仮想家具などの、三次元オブジェクトのグラフィック表現)を表示する(802)。例えば、第1のユーザーインターフェース領域は、図5Bで示すメッセージ送信ユーザーインターフェース5008又は図5AEで示すインターネットブラウザユーザーインターフェース5060である。いくつかの実施形態では、第1のユーザーインターフェース領域は、デバイスを囲んでいる物理的環境の画像以外のバックグラウンドを含む(例えば、第1のユーザーインターフェース領域のバックグラウンドは、予め選択された背景色/パターンであるか、又は、1つ以上のカメラによって並行して取り込まれる出力像と異なり、かつ1つ以上のカメラの視野の有効なコンテンツと異なる背景画像である)。 The device displays a first user interface area (e.g., a two-dimensional graphical user interface or portion (e.g., an indexable list of furniture images, an image containing one or more selectable objects, etc.) on the display 112. )) displays a representation of a virtual object (e.g., a graphical representation of a three-dimensional object, such as a virtual chair 5020, a virtual lamp 5084, shoes, furniture, hand tools, decorations, people, emojis, game characters, virtual furniture, etc.) ( 802). For example, the first user interface area is the message sending user interface 5008 shown in FIG. 5B or the internet browser user interface 5060 shown in FIG. 5AE. In some embodiments, the first user interface area includes a background other than an image of the physical environment surrounding the device (e.g., the background of the first user interface area includes a preselected background). (or a background image that is different from the output images captured in parallel by the one or more cameras and different from the effective content of the field of view of the one or more cameras).

ディスプレイ上の第1のユーザーインターフェース領域の仮想オブジェクトの第1の表現を表示すると共に、デバイスは、ディスプレイ上の仮想オブジェクトの表現に対応するタッチ感知面112上の位置で、接触による第1の入力を検出する(804)(例えば、接触はタッチスクリーンディスプレイ上の仮想オブジェクトの第1の表現上で検出されるか、又は、接触は、仮想オブジェクトの第1の表現を有する第1のユーザーインターフェース領域において並行して表示され、そして、接触によって起動されると仮想オブジェクトのARビューの表示をトリガするように構成されるアフォーダンス上で、検出される)。例えば、第1の入力は、図5C~5Fに関して記載されている接触5020による入力又は図5AF~5ALに関して記載されている接触5086による入力である。 While displaying a first representation of the virtual object in a first user interface area on the display, the device generates a first input by contact at a location on the touch-sensitive surface 112 that corresponds to the representation of the virtual object on the display. (e.g., the contact is detected on a first representation of a virtual object on a touch screen display, or the contact is detected on a first user interface area having a first representation of a virtual object). and is configured to trigger the display of an AR view of the virtual object when activated by contact). For example, the first input is the input by contact 5020 described with respect to FIGS. 5C-5F or the input by contact 5086 described with respect to FIGS. 5AF-5AL.

接触によって第1の入力を検出することに応答して(806)、接触による第1の入力が第1の(例えば、ARトリガ)基準を満たすという判定にしたがって(例えば、ARトリガ基準は、スワイプ入力、タッチホールド入力、押圧入力、タップ入力、所定の強度閾値以上の強度を有する激しい押圧又は、カメラのアクティブ化、デバイスを囲んでいる物理的環境の拡張現実(AR)ビューの表示、物理的環境の拡張現実ビュー内部の仮想オブジェクトの三次元の配置及び/若しくは上記のアクションの2つ以上の組合せをトリガすることに関連した、所定の別のタイプの入力ジェスチャを識別するように構成される基準である)、デバイスは、第1のユーザーインターフェース領域の少なくとも一部の表示を1つ以上のカメラの視野の表現に置き換えることを含むディスプレイ上の第2のユーザーインターフェース領域を表示し、そして、デバイスは、仮想オブジェクトの表現を連続的に表示すると共に、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することに切り替える。例えば、ディスプレイ上の第2のユーザーインターフェース領域は、図5Hに関して記載されているプラッタ5030のカメラの視野5034又は図5AHに関して記載されているカメラの視野5034である。図5C~5Iにおいて、接触5026による入力が深い押圧強度閾値ITを上回って増加する特性強度を有するという判定にしたがって、仮想椅子オブジェクト5020は、連続的に表示されると共に、第1のユーザーインターフェース領域(メッセージ送信ユーザーインターフェース5008)を表示することから、メッセージ送信ユーザーインターフェース5008の一部の表示をプラッタ5030のカメラの視野5034に置き換える第2のユーザーインターフェース領域を表示することに切り替える。図5AF~5AHにおいて、接触5086による入力が深い押圧強度閾値ITを上回って増加する特性強度を有するという判定にしたがって、仮想ランプオブジェクト5084は、連続的に表示されると共に、第1のユーザーインターフェース領域(インターネットブラウザユーザーインターフェース5060)を表示することから、インターネットブラウザユーザーインターフェース5060の一部の表示をカメラの視野5034に置き換える第2のユーザーインターフェース領域を表示することに切り替える。 In response to detecting a first input by touch (806), the first input by touch meets a first (e.g., AR trigger) criterion (e.g., the AR trigger criterion is a swipe input, touch-hold input, press input, tap input, hard press with an intensity above a predetermined intensity threshold, or activation of a camera, display of an augmented reality (AR) view of the physical environment surrounding the device, physical configured to identify another predetermined type of input gesture associated with three-dimensional positioning of the virtual object within the augmented reality view of the environment and/or triggering a combination of two or more of the above actions; (reference), the device displays a second user interface area on the display that includes replacing the display of at least a portion of the first user interface area with a representation of the field of view of the one or more cameras; The device continuously displays the representation of the virtual object and switches from displaying the first user interface area to displaying the second user interface area. For example, the second user interface area on the display is the camera view 5034 of the platter 5030 as described with respect to FIG. 5H or the camera view 5034 as described with respect to FIG. 5AH. 5C-5I, the virtual chair object 5020 is continuously displayed and the first user interface (messaging user interface 5008) to displaying a second user interface region that replaces the display of a portion of the messaging user interface 5008 with the field of view 5034 of the camera on the platter 5030. 5AF-5AH, in accordance with the determination that the input by contact 5086 has a characteristic intensity that increases above the deep press intensity threshold IT_D , virtual lamp object 5084 is continuously displayed and the first user interface (Internet browser user interface 5060) to display a second user interface region that replaces the display of a portion of Internet browser user interface 5060 with camera field of view 5034.

いくつかの実施形態では、連続的に仮想オブジェクトの表現を表示することは、仮想オブジェクトの表現の表示を維持するか又は仮想オブジェクトの第2の表現に変化している仮想オブジェクトの第1の表現のアニメーション化された遷移(例えば、異なるサイズの、異なる視角からの、異なる描画スタイルの、又は、ディスプレイ上の異なる位置の、仮想オブジェクトのビュー)を表示することを含む。いくつかの実施形態では、1つ以上のカメラの視野5034は、デバイスの位置及び向きが(例えば、図5K~5Lで図示されるように)物理的環境に対して変化するときにリアルタイムに更新される、デバイスを囲んでいる物理的環境5002のライブ画像を表示する。いくつかの実施形態では、第2のユーザーインターフェース領域は、ディスプレイ上の第1のユーザーインターフェース領域を完全に置き換える。 In some embodiments, continuously displaying the representation of the virtual object includes maintaining the display of the representation of the virtual object or changing the representation of the virtual object to the second representation of the virtual object. (e.g., views of the virtual object at different sizes, from different viewing angles, in different drawing styles, or at different positions on the display). In some embodiments, the field of view 5034 of one or more cameras is updated in real time as the position and orientation of the device changes relative to the physical environment (e.g., as illustrated in FIGS. 5K-5L). A live image of the physical environment 5002 surrounding the device is displayed. In some embodiments, the second user interface area completely replaces the first user interface area on the display.

いくつかの実施形態では、第2のユーザーインターフェース領域は、第1のユーザーインターフェース領域の一部に重なる(例えば、第1のユーザーインターフェース領域の一部は、ディスプレイの端に沿って、又は、ディスプレイの境界周辺に示される)。いくつかの実施形態では、第2のユーザーインターフェース領域は、第1のユーザーインターフェース領域の隣にポップアップする。いくつかの実施形態では、第1のユーザーインターフェース領域の中のバックグラウンドは、カメラの視野5034のコンテンツと置き換えられる。いくつかの実施形態では、デバイスは、第1のユーザーインターフェース領域で示す第1の向きから第2の向き(例えば、1つ以上のカメラの視野において捕えられる物理的環境の一部の現在の向きに対して所定の向き)まで(例えば、図5E~5Iで図示されるように)移動して回転している仮想オブジェクトを示す、アニメーション化された遷移を表示する。例えば、アニメーションは、仮想オブジェクトの二次元の表現を表示すると共に第1のユーザーインターフェース領域を表示することから、仮想オブジェクトの三次元の表現を表示すると共に第2のユーザーインターフェース領域を表示することへの遷移を含む。いくつかの実施形態では、仮想オブジェクトの三次元の表現は、二次元のグラフィカルユーザーインターフェース(例えば、第1のユーザーインターフェース領域)に示すように仮想オブジェクトの形状及び向きに基づいて予め定義されるアンカー平面を有する。拡張現実ビュー(例えば、第2のユーザーインターフェース領域)に遷移するときに、仮想オブジェクトの三次元の表現はディスプレイ上の仮想オブジェクトの元の位置からディスプレイ上の新しい位置まで(例えば、拡張現実ビューの中央又は拡張現実ビューの別の所定の位置まで)移動されて、サイズ変更されて、方向変更されて、そして、移動の間、又は、移動の終了後、仮想オブジェクトの三次元の表現が1つ以上のカメラの視野において識別される所定のプレーン(例えば、仮想オブジェクトの三次元の表現のためのサポートプレーンとして役割を果たすことができる直立壁又は水平床面などの物理表面)に対する所定の位置及び/又は向きにあるように、仮想オブジェクトの三次元の表現は方向変更される。 In some embodiments, the second user interface area overlaps a portion of the first user interface area (e.g., a portion of the first user interface area overlaps the edge of the display or (shown around the border). In some embodiments, a second user interface area pops up next to the first user interface area. In some embodiments, the background in the first user interface area is replaced with the content of the camera's field of view 5034. In some embodiments, the device is configured to change from a first orientation shown in the first user interface area to a second orientation (e.g., a current orientation of a portion of the physical environment captured in the field of view of the one or more cameras). An animated transition is displayed showing the virtual object moving and rotating (eg, as illustrated in FIGS. 5E-5I) up to a predetermined orientation relative to the virtual object. For example, the animation may move from displaying a two-dimensional representation of the virtual object and displaying a first user interface area to displaying a three-dimensional representation of the virtual object and displaying a second user interface area. Contains transitions. In some embodiments, the three-dimensional representation of the virtual object includes anchors that are predefined based on the shape and orientation of the virtual object as shown in a two-dimensional graphical user interface (e.g., a first user interface area). It has a flat surface. When transitioning to an augmented reality view (e.g., a second user interface area), the three-dimensional representation of the virtual object changes from the virtual object's original position on the display to its new position on the display (e.g., the second user interface area). a three-dimensional representation of the virtual object during or after the end of the movement; a predetermined position relative to a predetermined plane (e.g., a physical surface such as an upright wall or a horizontal floor surface that can serve as a support plane for a three-dimensional representation of a virtual object) identified in the field of view of the camera; and and/or the three-dimensional representation of the virtual object is reoriented.

いくつかの実施形態では、第1の基準は、少なくとも所定の時間(例えば、長い押圧の時間閾値)の間に閾値移動量未満で仮想オブジェクトの表現に対応する、タッチ感知面上の場所に接触が維持されるときに(例えば、そうであるという判定にしたがって)満たされる基準を含む(808)。いくつかの実施形態では、接触が別のタイプのジェスチャ(例えば、タップ)を認識するための基準を満たすという判定にしたがって、デバイスはARユーザーインターフェースをトリガさせること以外の別の所定の機能を実行すると共に仮想オブジェクトの表示を維持する。連続的に仮想オブジェクトの表現を表示すると共に第1のユーザーインターフェース領域の少なくとも一部の表示をカメラの視野に置き換えるべきかどうかを判定することは、接触が少なくとも所定の時間の間に閾値移動量未満で仮想オブジェクトの表現に対応するタッチ感知面上の場所に維持されるかどうかに応じて、入力に応答した複数の異なるタイプの操作の実行を可能にする。入力に応答して複数の異なるタイプの操作の実行を可能にすることは、ユーザーがこれらの操作を実行することができる効率性を増大させ、それによって、デバイスの操作性を高め、加えてそれが、電力使用量を減らして、ユーザーがより迅速かつ効率よくデバイスを使用することができることによってデバイスのバッテリ寿命を改善する。 In some embodiments, the first criterion is touching a location on the touch-sensitive surface that corresponds to a representation of the virtual object with less than a threshold amount of movement for at least a predetermined amount of time (e.g., a long press time threshold). includes criteria that are met when (e.g., according to a determination that is the case) is maintained (808). In some embodiments, the device performs another predetermined function other than causing the AR user interface to trigger in accordance with the determination that the contact meets criteria for recognizing another type of gesture (e.g., a tap). and maintain the display of virtual objects. Continuously displaying a representation of the virtual object and determining whether the display of at least a portion of the first user interface area should be replaced with the field of view of the camera is configured such that the contact is at least a threshold amount of movement for at least a predetermined period of time. Allows the execution of several different types of operations in response to input, depending on whether or not it is maintained in a location on the touch-sensitive surface that corresponds to the representation of the virtual object. Enabling the performance of multiple different types of operations in response to input increases the efficiency with which users can perform these operations, thereby increasing the usability of the device, as well as increasing the improves device battery life by reducing power usage and allowing users to use their devices more quickly and efficiently.

いくつかの実施形態では、第1の基準は、接触の特性強度が第1の強度閾値(例えば、軽い押圧強度閾値IT又は深い押圧強度閾値IT)を上回って増加するときに(例えば、そうであるという判定にしたがって)満たされる基準を含む(810)。例えば、図5C~5Fに関して記載されているように、基準は、強度レベルメータ5028によって示されるように、接触5026の特性強度が深い押圧強度閾値ITを上回って増加するときに満たされる。いくつかの実施形態では、接触が別のタイプのジェスチャ(例えば、タップ)を認識するための基準を満たすという判定にしたがって、デバイスはARユーザーインターフェースをトリガさせること以外の別の所定の機能を実行すると共に仮想オブジェクトの表示を維持する。いくつかの実施形態では、第1の基準は、第1の入力がタップ入力でない(例えば、入力が、時間的閾値より大きい接触のタッチダウンとタップ接触のリフトオフの間の経過時間を有する)ことを要求する。連続的に仮想オブジェクトの表現を表示すると共に第1のユーザーインターフェース領域の少なくとも一部の表示をカメラの視野に置き換えるべきかどうかを判定することは、接触の特性強度が第1の強度閾値を上回って増加するかどうかに応じて、入力に応答した複数の異なるタイプの操作の実行を可能にする。入力に応答して複数の異なるタイプの操作の実行を可能にすることは、ユーザーがこれらの操作を実行することができる効率性を増大させ、それによって、デバイスの操作性を高め、加えてそれが、電力使用量を減らして、ユーザーがより迅速かつ効率よくデバイスを使用することができることによってデバイスのバッテリ寿命を改善する。 In some embodiments, the first criterion is (e.g., when the characteristic intensity of the contact increases above a first intensity threshold (e.g., light press intensity threshold IT L or deep press intensity threshold IT D )) 810) includes criteria that are met (according to a determination that such is the case). For example, as described with respect to FIGS. 5C-5F, the criterion is met when the characteristic intensity of the contact 5026 increases above the deep press intensity threshold IT D , as indicated by the intensity level meter 5028. In some embodiments, the device performs another predetermined function other than causing the AR user interface to trigger in accordance with the determination that the contact meets criteria for recognizing another type of gesture (e.g., a tap). and maintain the display of virtual objects. In some embodiments, the first criterion is that the first input is not a tap input (e.g., the input has an elapsed time between touch touchdown and tap contact liftoff that is greater than a temporal threshold). request. Determining whether to continuously display the representation of the virtual object and replace the display of at least a portion of the first user interface area with the field of view of the camera includes determining whether the characteristic intensity of the contact exceeds the first intensity threshold; Enables the execution of several different types of operations in response to input, depending on whether it increases or decreases. Enabling the performance of multiple different types of operations in response to input increases the efficiency with which users can perform these operations, thereby increasing the usability of the device, as well as increasing the improves device battery life by reducing power usage and allowing users to use their devices more quickly and efficiently.

いくつかの実施形態では、第1の基準は、接触の移動が所定の移動基準に合うときに(例えば、そうであるという判定にしたがって)満たされる基準を含む(812)(例えば、接触が所定の閾値位置(例えば、第1のユーザーインターフェース領域の境界に対応する位置、接触の元の位置から間隔をおいた閾値距離である位置など)を越えたタッチ感知面にわたって移動する、接触が所定の閾値速度より大きい速度で移動する、接触の移動が押圧入力によって終了する、などである)。いくつかの実施形態では、仮想オブジェクトの表現は接触の移動の初期部分の間、接触によってドラッグされ、そして仮想オブジェクトは、第1の基準が満たされようとしていることを示すために所定の移動の基準を接触の移動が満たそうとするときに、接触とともに移動するのを止め、そして、接触の移動が続いて所定の移動の基準が接触の連続的な移動によって満たされる場合、第2のユーザーインターフェース領域を表示して、拡張現実ビューの範囲内に仮想オブジェクトを表示する遷移が始まる。いくつかの実施形態では、仮想オブジェクトが第1の入力の初期部分の間ドラッグされるときに、オブジェクトサイズ及びビューイング視点は変化せず、そして、いったん拡張現実ビューが表示されて仮想オブジェクトが拡張現実ビューの位置にドロップされると、仮想オブジェクトは、拡張現実ビューの仮想オブジェクトのドロップオフの位置によって表される物理的位置に依存したサイズ及びビューイング視点によって表示される。連続的に仮想オブジェクトの表現を表示すると共に第1のユーザーインターフェース領域の少なくとも一部の表示をカメラの視野に置き換えるべきかどうかを判定することは、接触の移動が所定の移動基準を満たすかどうかに応じて、入力に応答した複数の異なるタイプの操作の実行を可能にする。入力に応答して複数の異なるタイプの操作の実行を可能にすることは、ユーザーがこれらの操作を実行することができる効率性を増大させ、それによって、デバイスの操作性を高め、加えてそれが、電力使用量を減らして、ユーザーがより迅速かつ効率よくデバイスを使用することができることによってデバイスのバッテリ寿命を改善する。 In some embodiments, the first criterion includes a criterion that is met (812) when the movement of the contact meets a predetermined movement criterion (e.g., according to a determination that The contact moves across the touch-sensitive surface beyond a threshold location (e.g., a location corresponding to the boundary of the first user interface area, a location that is a threshold distance spaced apart from the original location of the contact, etc.). moving at a speed greater than a threshold speed, contact movement being terminated by a press input, etc.). In some embodiments, the representation of the virtual object is dragged by the contact during an initial portion of the contact movement, and the virtual object is dragged by the contact during an initial portion of the movement of the contact, and the virtual object the second user stops moving with the contact when the movement of the contact attempts to satisfy the criterion, and if the movement of the contact continues and the predetermined movement criterion is satisfied by continued movement of the contact; A transition begins to display the interface area and display the virtual object within the augmented reality view. In some embodiments, the object size and viewing perspective do not change when the virtual object is dragged during the initial portion of the first input, and once the augmented reality view is displayed and the virtual object is expanded. When dropped into a position in the real view, the virtual object is displayed with a size and viewing perspective that is dependent on the physical position represented by the drop-off position of the virtual object in the augmented reality view. Determining whether to continuously display a representation of the virtual object and replace the display of at least a portion of the first user interface area with the field of view of the camera includes determining whether the movement of the contact satisfies a predetermined movement criterion. Depending on the input, it is possible to perform several different types of operations in response to input. Enabling the performance of multiple different types of operations in response to input increases the efficiency with which users can perform these operations, thereby increasing the usability of the device, as well as increasing the improves device battery life by reducing power usage and allowing users to use their devices more quickly and efficiently.

いくつかの実施形態では、接触によって第1の入力を検出することに応答して、接触による第1の入力が第1の基準を満たしたという判定にしたがって、デバイスは、1つ以上の触知出力生成器167で、触知出力(例えば、図5Fに関して記載されている触知出力5032又は図5AHに関して記載されている触知出力5088)を出力して、第1の入力によって第1の基準が満たされていることを示す(814)。いくつかの実施形態では、触覚は1つ以上のカメラの視野が画面に現れる前に発生する。例えば、触覚は、1つ以上のカメラのアクティブ化及び1つ以上のカメラの視野の次のプレーン検出をトリガする第1の基準が満たされていることを示す。カメラがアクティブ化されて視野が表示に利用可能となるために時間かかるので、触覚は、デバイスが必要な入力を検出したというユーザーに対する非視覚信号としての役割を果たし、デバイスが準備できるとすぐに拡張現実ユーザーインターフェースを提示する。 In some embodiments, in response to detecting the first input through contact, the device detects one or more tactile inputs in accordance with the determination that the first input through contact satisfies the first criteria. Output generator 167 outputs a tactile output (e.g., tactile output 5032 described with respect to FIG. 5F or tactile output 5088 described with respect to FIG. 5AH) to generate a first reference by a first input. is satisfied (814). In some embodiments, the haptic sensation occurs before the field of view of the one or more cameras appears on the screen. For example, a tactile sensation indicates that a first criterion has been met that triggers activation of one or more cameras and detection of a next plane of view of the one or more cameras. Since it takes time for the camera to activate and the field of view to become available for display, haptics serve as a non-visual signal to the user that the device has detected the required input, and as soon as the device is ready. Presenting an augmented reality user interface.

触知出力を出力して(例えば、ユーザーインターフェースの少なくとも一部の表示をカメラの視野に置き換えるために)基準が満たされていることを示すことは、与えられている入力が基準を満たすことを示すためのフィードバックをユーザー提供する。改良された触知フィードバックを提供することは、デバイスの操作性を高め(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザーを支援し、ユーザーの誤りを削減することによって)、加えてそれが、ユーザーがデバイスを更に迅速かつ効率よく使用することを可能にすることによって電力使用量を削減し、デバイスのバッテリ寿命を改善する。 Outputting tactile output to indicate that a criterion has been met (e.g., to replace the display of at least a portion of a user interface with a camera's field of view) indicates that the input being provided satisfies the criterion. Users provide feedback to show. Providing improved tactile feedback can improve device usability (e.g., by assisting the user in providing appropriate input when operating/interacting with the device and reducing user errors). ), in addition, it reduces power usage and improves the device's battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第1の入力の少なくとも初期部分を(例えば、接触を検出するか、又は第1の基準を満たすことのないそれぞれの所定の基準を満たす接触によって入力を検出するか、又は第1の基準を満たす入力を検出することを含んで)検出することに応答して、デバイスは1つ以上のカメラの視野を分析して、1つ以上のカメラの視野の1つ以上のプレーン(例えば、床面5038、テーブル面5046、壁など)を検出する(816)。いくつかの実施形態では、1つ以上のカメラは第1の入力の少なくとも一部を検出することに応答してアクティブ化され、カメラがアクティブ化されると同時にプレーン検出が同時に起動される。いくつかの実施形態では、1つ以上のカメラの視野の表示は、1つ以上のカメラのアクティブ化の後に(例えば、1つ以上のカメラがアクティブ化される時から少なくとも1つのプレーンがカメラの視野において検出される時まで)遅らされる。いくつかの実施形態では、1つ以上のカメラの視野の表示は1つ以上のカメラがアクティブ化される時に起動され、そしてプレーン検出は、視野がディスプレイに(例えば、第2のユーザーインターフェース領域に)すでに見えたあと、完了する。いくつかの実施形態では、1つ以上のカメラの視野のそれぞれのプレーンを検出した後に、デバイスは、1つ以上のカメラの視野に対するそれぞれのプレーンの相対位置に基づいて、仮想オブジェクトの表現のサイズ及び/又は位置を決定する。いくつかの実施形態では、電子デバイスが移動されるにつれて、仮想オブジェクトの表現のサイズ及び/又は位置は、1つ以上のカメラの視野の位置が(例えば、図5K~5Lに関して記載されているように)それぞれのプレーンに対して変化するにつれて更新される。カメラの視野において検出されるそれぞれのプレーンの位置に基づいて(例えば、カメラの視野に対する仮想オブジェクトのサイズ及び/又は位置の更なるユーザー入力を要求せずに)仮想オブジェクトの表現のサイズ及び/又は位置を決定することは、デバイスの操作性を高め、加えてそれが、ユーザーがデバイスを更に迅速かつ効率よく使用することを可能にすることによって電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, at least an initial portion of the first input (e.g., detecting a touch or detecting an input by a touch that satisfies a respective predetermined criterion without satisfying the first criterion; or detecting an input that satisfies the first criterion), the device analyzes the field of view of the one or more cameras to detect the field of view of the one or more cameras. A plane (eg, floor surface 5038, table surface 5046, wall, etc.) is detected (816). In some embodiments, the one or more cameras are activated in response to detecting at least a portion of the first input, and plane detection is activated simultaneously upon activation of the cameras. In some embodiments, the display of the field of view of the one or more cameras is performed after the activation of the one or more cameras (e.g., if at least one plane of the camera is (until the time it is detected in the field of view). In some embodiments, displaying the field of view of one or more cameras is activated when one or more cameras are activated, and plane detection causes the field of view to appear on the display (e.g., in a second user interface area). ) completed after already seen. In some embodiments, after detecting each plane of the field of view of the one or more cameras, the device sizes the representation of the virtual object based on the relative position of the respective plane with respect to the field of view of the one or more cameras. and/or determining location. In some embodiments, as the electronic device is moved, the size and/or position of the representation of the virtual object changes depending on the position of the field of view of one or more cameras (e.g., as described with respect to FIGS. 5K-5L). ) are updated as they change for each plane. The size and/or of the representation of the virtual object based on the position of each plane detected in the camera's field of view (e.g., without requiring further user input of the size and/or position of the virtual object relative to the camera's field of view). Determining location increases the usability of the device, in addition it reduces power usage and improves the device's battery life by allowing the user to use the device more quickly and efficiently. do.

いくつかの実施形態では、1つ以上のカメラの視野を分析して1つ以上のカメラの視野の1つ以上のプレーンを検出することは、ディスプレイ上の仮想オブジェクトの表現に対応するタッチ感知面上の場所での接触の検出に応答して(例えば、仮想椅子5020に対応するタッチスクリーン112上の位置での接触5026の検出に応答して)起動される(818)。例えば、カメラのアクティブ化及びカメラの視野のプレーンの検出は、第1の基準が第1の入力によって満たされる前に(例えば、図5Fに関して記載されているように、接触5026の特性強度が深い押圧強度閾値ITを上回って増加する前に)、そして、第2のユーザーインターフェース領域が表示される前に、始まる。仮想オブジェクトとの任意のインタラクションの検出に際してプレーン検出を始めることによって、プレーン検出はARトリガ基準が満たされる前に完了することができ、したがって、ARトリガ基準が第1の入力によって満たされるときに、拡張現実ビューに仮想オブジェクト遷移を見るにあたってユーザーには目に見える遅延がない。分析を起動して仮想オブジェクトの表現の位置での接触の検出に応答して(例えば、カメラの視野の分析を起動するための更なるユーザー入力を必要とせずに)カメラの視野の1つ以上のプレーンを検出することは、デバイスの有効性を強化し、加えてそれが、ユーザーがデバイスを更に迅速かつ効率よく使用することを可能にすることによって電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, analyzing the field of view of the one or more cameras to detect one or more planes of the field of view of the one or more cameras includes a touch-sensitive surface corresponding to a representation of the virtual object on the display. is activated (818) in response to the detection of a contact at a location on the touch screen 112 (eg, in response to the detection of a contact 5026 at a location on the touch screen 112 that corresponds to the virtual chair 5020). For example, activation of the camera and detection of the plane of view of the camera occurs before the first criterion is satisfied by the first input (e.g., the characteristic strength of contact 5026 is deep, as described with respect to FIG. 5F). (before the pressure intensity threshold IT_D ) is increased above the pressure intensity threshold IT_D) and before the second user interface area is displayed. By starting plane detection upon detection of any interaction with a virtual object, plane detection can be completed before the AR trigger criteria are met, so that when the AR trigger criteria are met by the first input, There is no visible delay to the user in seeing virtual object transitions in the augmented reality view. one or more of the camera's fields of view (e.g., without requiring further user input to trigger analysis of the camera's field of view) in response to detection of contact at the location of the representation of the virtual object to trigger analysis Detecting planes enhances the effectiveness of the device, in addition it reduces power usage and extends the device's battery life by allowing the user to use the device even more quickly and efficiently. improve.

いくつかの実施形態では、1つ以上のカメラの視野を分析して1つ以上のカメラの視野の1つ以上のプレーンを検出することは、接触によって、第1の基準が第1の入力によって満たされていることを検出することに応答して(例えば、図5Fに関して記載されているように、接触5026の特性強度が深い押圧強度閾値ITを上回って増加することを検出することに応答して)起動される(820)。例えば、カメラのアクティブ化及びカメラの視野のプレーンの検出は、第1の基準が第1の入力によって満たされるときに始まり、そして、カメラの視野は平面検出が完了する前に表示される。ARトリガ基準が満たされる際にカメラアクティブ化及びプレーン検出を始めることによって、カメラ及びプレーン検出は不必要にアクティブ化されずまた続行されず、それがバッテリ電力を節約してバッテリ寿命及びカメラ寿命を延ばす。 In some embodiments, analyzing the field of view of the one or more cameras to detect the one or more planes of the field of view of the one or more cameras includes, by contact, the first reference being determined by the first input. (e.g., in response to detecting that the characteristic strength of the contact 5026 increases above the deep press strength threshold IT D , as described with respect to FIG. (820). For example, activation of the camera and detection of a plane of the camera's field of view begins when a first criterion is met by a first input, and the camera's field of view is displayed before plane detection is completed. By initiating camera activation and plane detection when the AR trigger criteria are met, camera and plane detection are not activated or continued unnecessarily, which conserves battery power and extends battery life and camera life. extend.

いくつかの実施形態では、1つ以上のカメラの視野を分析して1つ以上のカメラの視野の1つ以上のプレーンを検出することは、第1の入力の初期部分が第1の基準を満たすことのないプレーン検出トリガ基準を満たすことを検出することに応答して、起動される(822)。例えば、カメラのアクティブ化及びカメラの視野のプレーンの検出は、いくつかの基準(例えば、ARトリガ基準より厳しくない基準)が第1の入力の初期部分によって満たされるときに始まり、そして、カメラの視野は平面検出が完了する前に任意選択的に表示される。接触の検出の際ではなくむしろ特定の基準が満たされた後に、カメラアクティブ化及びプレーン検出を始めることによって、カメラ及びプレーン検出は不必要にアクティブ化されずまた続行されず、それがバッテリ電力を節約してバッテリ寿命及びカメラ寿命を延ばす。ARトリガ基準が満たされる前にカメラアクティブ化及びプレーン検出を始めることによって、ARトリガ基準が第1の入力によって満たされると、拡張現実ビューへの仮想オブジェクト遷移を表示するための遅延(カメラアクティブ化及びプレーン検出による)は減じられる。 In some embodiments, analyzing the field of view of the one or more cameras to detect the one or more planes of the field of view of the one or more cameras includes an initial portion of the first input that matches the first reference. is activated (822) in response to detecting that an unsatisfied plane detection trigger criterion is met. For example, activation of the camera and detection of the plane of view of the camera begins when some criterion (e.g., a criterion less stringent than the AR trigger criteria) is met by an initial portion of the first input, and The field of view is optionally displayed before plane detection is completed. By initiating camera activation and plane detection not upon detection of a contact, but rather after certain criteria are met, camera and plane detection are not activated or continued unnecessarily, which conserves battery power. Save money and extend battery life and camera life. By starting camera activation and plane detection before the AR trigger criteria are met, a delay (camera activation and plane detection) are reduced.

いくつかの実施形態では、デバイスは、仮想オブジェクト(例えば、仮想椅子5020)が1つ以上のカメラの視野5034において検出されるそれぞれのプレーンに対する所定の角度(例えば、仮想椅子5020の4本の脚部の下側を床面5038から切り離している距離が無い(又はわずかな距離である)ような)で配向されるように、それぞれの方法で第2のユーザーインターフェース領域に仮想オブジェクトの表現を表示する(824)。例えば、それぞれのプレーンに対する仮想オブジェクトの向き及び/又は位置は、二次元のグラフィカルユーザーインターフェースに示すように、仮想オブジェクトの形状及び向きに基づいて予め定義される(例えば、それぞれのプレーンは拡張現実ビューの仮想オブジェクトの三次元表現のための支持面として役割を果たすことができる水平物理表面(例えば、花瓶をサポートする水平テーブル面)に対応するか、又は、それぞれのプレーンは、拡張現実ビューの仮想オブジェクトの三次元表現のための支持面として役割を果たすことができる垂直物理表面(例えば、仮想画枠を懸下する水平壁)である)。いくつかの実施形態では、仮想オブジェクトの向き及び/又は位置は、仮想オブジェクトのそれぞれの表面又は境界(例えば、底面、底部境界点、側面及び/又は側部境界点)によって画定される。いくつかの実施形態では、それぞれのプレーンに対応するアンカー平面は、仮想オブジェクトの一組の特性の中の1つの特性であり、仮想オブジェクトが表すことになっている物理的オブジェクトの性質にしたがって指定される。いくつかの実施形態では、仮想オブジェクトは、1つ以上のカメラの視野において検出される複数のプレーンに対して所定の向き及び/又は位置に配置される(例えば、仮想オブジェクトの複数のそれぞれの側は、カメラの視野において検出されるそれぞれのプレーンと関連付けられる)。いくつかの実施形態では、仮想オブジェクトのために予め定義される向き及び/又は位置が仮想オブジェクトの横下部プレーンに対して定められる場合、仮想オブジェクトの下部プレーンは、カメラの視野において検出される床平面に表示される(例えば、仮想オブジェクトの水平下部プレーンは、床平面から距離ゼロで床平面と平行である)。いくつかの実施形態では、仮想オブジェクトのために予め定義される向き及び/又は位置が仮想オブジェクトの垂直バックプレーンに対して定められる場合、仮想オブジェクトの背面は、1つ以上のカメラの視野において検出される壁面に対して配置される(例えば、仮想オブジェクトの垂直バックプレーンは、壁面から距離ゼロで壁面と平行である)。いくつかの実施形態では、仮想オブジェクトは、それぞれのプレーンに対して固定の距離かつ/又はそれぞれのプレーンに対してゼロ又は直角以外の角度で配置される。カメラの視野において検出されるプレーンに対して(例えば、カメラの視野の平面に対して仮想オブジェクトを表示するための更なるユーザー入力を必要とせずに)仮想オブジェクトの表現を表示することは、デバイスの操作性を高め、加えてそれが、ユーザーがデバイスを更に迅速かつ効率よく使用することを可能にすることによって電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the device detects a predetermined angle (e.g., four legs of the virtual chair 5020) relative to each plane in which the virtual object (e.g., the virtual chair 5020) is detected in the field of view 5034 of one or more cameras. displaying a representation of the virtual object in the second user interface area in a respective manner such that the underside of the virtual object is oriented such that there is no (or only a small) distance separating the underside of the part from the floor surface 5038; (824). For example, the orientation and/or position of the virtual object relative to each plane may be predefined based on the shape and orientation of the virtual object, as shown in a two-dimensional graphical user interface (e.g., each plane may be Each plane corresponds to a horizontal physical surface (e.g., a horizontal table surface supporting a vase) that can serve as a support surface for the three-dimensional representation of a virtual object in the augmented reality view of the virtual A vertical physical surface that can serve as a support surface for a three-dimensional representation of an object (e.g., a horizontal wall from which a virtual picture frame is suspended). In some embodiments, the orientation and/or position of the virtual object is defined by a respective surface or boundary of the virtual object (eg, a bottom surface, a bottom boundary point, a side and/or a side boundary point). In some embodiments, the anchor plane corresponding to each plane is one property among a set of properties of the virtual object, specified according to the properties of the physical object that the virtual object is supposed to represent. be done. In some embodiments, the virtual object is placed in a predetermined orientation and/or position relative to a plurality of planes detected in the field of view of one or more cameras (e.g., a plurality of respective sides of the virtual object). is associated with each plane detected in the camera's field of view). In some embodiments, if the predefined orientation and/or position for the virtual object is defined relative to the lateral bottom plane of the virtual object, the bottom plane of the virtual object is the floor detected in the field of view of the camera. Displayed in a plane (eg, the virtual object's horizontal lower plane is parallel to the floor plane at zero distance from the floor plane). In some embodiments, when a predefined orientation and/or position for the virtual object is defined relative to a vertical backplane of the virtual object, the back surface of the virtual object is detected in the field of view of the one or more cameras. (e.g., the virtual object's vertical backplane is parallel to the wall at zero distance from the wall). In some embodiments, the virtual objects are positioned at a fixed distance with respect to the respective planes and/or at angles other than zero or normal to the respective planes. Displaying a representation of a virtual object relative to the plane detected in the camera's field of view (e.g., without requiring further user input to display the virtual object relative to the plane of the camera's field of view) In addition, it reduces power usage and improves the device's battery life by allowing users to use the device more quickly and efficiently.

いくつかの実施形態では、1つ以上のカメラの視野のそれぞれのプレーンを検出することに応答して、デバイスは、1つ以上の触知出力生成器167で、触知出力を出力して、1つ以上のカメラの視野のそれぞれのプレーンの検出を示す(826)。いくつかの実施形態では、それぞれの触知出力は、カメラの視野において検出される各プレーン(例えば、床面5038及び/又はテーブル面5046)に発生する。いくつかの実施形態では、プレーン検出が完了するときに、触知出力は発生する。いくつかの実施形態では、触知出力には、第2のユーザーインターフェース部に示される視野の視野平面の視覚的な指示(例えば、検出された視野平面の瞬間的な強調表示)が伴う。触知出力を出力してカメラの視野におけるプレーンの検出を示すことは、ユーザーにプレーンが検出されたことを示すためのフィードバックを提供する。改良された触知フィードバックを提供することはデバイスの操作性を高め(例えば、ユーザーが適切な入力を提供するのを支援しかつ仮想オブジェクトを配置するための必要な追加入力を減らすことによって)、加えてそれが、ユーザーがデバイスを更に迅速かつ効率よく使用することを可能にすることによって電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, in response to detecting each plane of the field of view of the one or more cameras, the device outputs a tactile output at one or more tactile output generators 167; Detection of each plane of the field of view of one or more cameras is indicated (826). In some embodiments, a respective tactile output is generated in each plane detected in the camera's field of view (eg, floor surface 5038 and/or table surface 5046). In some embodiments, tactile output occurs when plane detection is complete. In some embodiments, the tactile output is accompanied by a visual indication of a viewing plane of the field of view shown in the second user interface portion (eg, momentary highlighting of a detected viewing plane). Outputting a tactile output to indicate detection of a plane in the camera's field of view provides feedback to the user to indicate that a plane has been detected. Providing improved tactile feedback enhances the usability of the device (e.g., by assisting the user in providing appropriate input and reducing the additional input required to position virtual objects); Additionally, it reduces power usage and improves the device's battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することに切り替えると共に、デバイスは、仮想オブジェクトの表現が第2のユーザーインターフェース領域に遷移する(例えば、移動し、回転し、サイズ変更し、及び/又は異なるスタイルに再描画されるなど)につれて、それぞれのプレーンに対して所定の位置に(例えば、図5F~5Iで図示されるように)、アニメーションを表示し(828)、そして、それぞれのプレーンに対して所定の角度で仮想オブジェクトの表現を表示することと連動して(例えば、それぞれのプレーンに対して所定の向き及び/又は位置で、そして拡張現実ビューに表示される最終状態に達するそのサイズ、回転角及び外観で)、デバイスは、1つ以上の触知出力生成器167で触知出力を出力して、第2のユーザーインターフェース領域のそれぞれのプレーンに対して所定の角度で仮想オブジェクトの表示を示す。例えば、図5Iで図示するように、デバイスは、床面5038に対して所定の角度で仮想椅子5020を表示することと連動して、触知出力5036を出力する。いくつかの実施形態では、発生する触知出力は、仮想オブジェクト又は仮想オブジェクトによって表される物理オブジェクトの、重量(例えば、重い対軽い)、材料(例えば、金属、綿、木、大理石、液体、ゴム、ガラス)、サイズ(例えば、大きい対小さい)、形状(例えば、薄い対厚い、長い対短い、丸い対とがったなど)、弾性(例えば、弾力あり対固い)、性質(例えば、陽気対厳粛、穏やか対力強いなど)及び他の特性を反映している特徴(例えば、振動数、サイクル数、変調、振幅、付随する音声波など)を有するように、構成される。例えば、触知出力は図4F~4Kで図示される触知出力パターンの1つ以上を使用する。いくつかの実施形態では、1つ以上の特性に対する経時的な1つ以上の変化を含む予め設定されたプロフィールは仮想オブジェクト(例えば、絵文字)に対応する。例えば、「よく弾む」触知出力プロフィールは、「にこにこした」絵文字仮想オブジェクトのために提供される。触知出力を出力してそれぞれのプレーンに対して仮想オブジェクトの表現の配置を示すことは、ユーザーにフィードバックを提供して、仮想オブジェクトの表現がそれぞれのプレーンに対して自動的に配置されたことを示す。改良された触知フィードバックを提供することはデバイスの操作性を高め(例えば、ユーザーが適切な入力を提供するのを支援しかつ仮想オブジェクトを配置するための必要な追加入力を減らすことによって)、加えてそれが、ユーザーがデバイスを更に迅速かつ効率よく使用することを可能にすることによって電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, upon switching from displaying the first user interface area to displaying the second user interface area, the device causes the representation of the virtual object to transition to the second user interface area ( (e.g., as it is moved, rotated, resized, and/or redrawn to a different style, etc.) and in position relative to its respective plane (e.g., as illustrated in FIGS. 5F-5I) , displaying an animation (828), and in conjunction with displaying a representation of the virtual object at a predetermined angle relative to each plane (e.g., at a predetermined orientation and/or position relative to each plane). , and its size, rotation angle, and appearance to reach the final state displayed in the augmented reality view), the device outputs a tactile output at one or more tactile output generators 167 to communicate with the second user interface. A representation of the virtual object is shown at a predetermined angle relative to each plane of the region. For example, as illustrated in FIG. 5I, the device outputs a tactile output 5036 in conjunction with displaying a virtual chair 5020 at a predetermined angle relative to a floor surface 5038. In some embodiments, the generated tactile output is based on the weight (e.g., heavy vs. light), material (e.g., metal, cotton, wood, marble, liquid, etc.) of the virtual object or the physical object represented by the virtual object. rubber, glass), size (e.g., large vs. small), shape (e.g., thin vs. thick, long vs. short, round vs. pointy, etc.), elasticity (e.g., bouncy vs. hard), nature (e.g., cheerful vs. solemn) , gentle vs. forceful, etc.) and other characteristics (e.g., frequency, number of cycles, modulation, amplitude, accompanying sound waves, etc.). For example, the tactile output uses one or more of the tactile output patterns illustrated in FIGS. 4F-4K. In some embodiments, the predefined profile that includes one or more changes to one or more characteristics over time corresponds to a virtual object (eg, an emoji). For example, a "bouncy" tactile output profile is provided for a "smiling" emoji virtual object. Outputting tactile output to indicate the placement of the virtual object representation relative to each plane provides feedback to the user that the virtual object representation has been automatically placed relative to the respective plane. shows. Providing improved tactile feedback enhances the usability of the device (e.g., by assisting the user in providing appropriate input and reducing the additional input required to position virtual objects); Additionally, it reduces power usage and improves the device's battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態(830)において、触知出力は、仮想オブジェクトの特性(例えば、サイズ、密度、質量及び/又は材料などの擬似的な物理的特性)に対応する触知出力プロフィールを有する。いくつかの実施形態では、触知出力プロフィールは、仮想オブジェクトの1つ以上の特性(例えば、重量、材料、サイズ、形状及び/又は弾力)に基づいて変化する特性(例えば、周波数、サイクル数、変調、振幅、付随する音声波など)を有する。例えば、触知出力は図4F~4Kで図示される触知出力パターンの1つ以上を使用する。いくつかの実施形態では、触知出力の振幅及び/又は期間は、仮想オブジェクトのサイズ、重量及び/又は質量が増加するにつれて増加する。いくつかの実施形態では、触知出力パターンは、仮想オブジェクトが構成される仮想材料に基づいて選択される。仮想オブジェクトの特性に対応するプロフィールを有する触知出力を出力することは、ユーザーにフィードバックを提供して仮想オブジェクトの特性に関する情報を示す。改良された触知フィードバックを提供することはデバイスの操作性を高め(例えば、ユーザーが適切な入力を提供するのを支援しかつ仮想オブジェクトを配置するための必要な追加入力を減らして、特性に関する表示された情報とのユーザーインターフェースを混乱させることなくユーザーが仮想オブジェクトの特性を知覚することを可能にする感覚情報を提供することによって)、加えてそれが、ユーザーがデバイスを更に迅速かつ効率よく使用することを可能にすることによって電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments (830), the tactile output has a tactile output profile that corresponds to properties of the virtual object (eg, simulated physical properties such as size, density, mass, and/or material). In some embodiments, the tactile output profile includes characteristics (e.g., frequency, number of cycles, modulation, amplitude, accompanying sound waves, etc.). For example, the tactile output uses one or more of the tactile output patterns illustrated in FIGS. 4F-4K. In some embodiments, the amplitude and/or duration of the tactile output increases as the size, weight, and/or mass of the virtual object increases. In some embodiments, the tactile output pattern is selected based on the virtual material from which the virtual object is constructed. Outputting a tactile output having a profile corresponding to the characteristics of the virtual object provides feedback to the user indicating information regarding the characteristics of the virtual object. Providing improved tactile feedback enhances the usability of the device (e.g., assisting the user in providing appropriate input and reducing the additional input required to position virtual objects, By providing sensory information that allows the user to perceive the properties of virtual objects without confusing the user interface with displayed information), in addition it allows the user to use the device even more quickly and efficiently. Reduce power usage and improve device battery life by allowing more power to be used.

いくつかの実施形態において、第2のユーザーインターフェース領域の仮想オブジェクトの表現を調整すると共に、デバイスは、(図5K~5Lで図示するように)1つ以上のカメラの視野5034を調整するデバイスの移動(例えば、デバイスの横方向の移動及び/又は回転)を検出し(832)、そして、デバイスの移動を検出することに応答して、デバイスは、第2のユーザーインターフェース領域の仮想オブジェクト(例えば、仮想椅子5020)の表現を、仮想オブジェクトと1つ以上のカメラの視野のそれぞれのプレーン(例えば、床面5038)の間の固定された空間関係(例えば、向き及び/又は位置)にしたがって、1つ以上のカメラの視野が調整されるにつれて、調整する(例えば、仮想オブジェクトは、仮想オブジェクトの表現とプレーンの間の固定角が維持される(例えば、仮想オブジェクトがプレーン上の固定位置にとどまるか又は視野平面に沿って転がるように見える)ような向き及び位置によってディスプレイ上に表示される)。例えば、図5K~5Lで、カメラの視野5034を含む第2のユーザーインターフェース領域の仮想椅子5020は、デバイス100が移動されるにつれて、床面5038に対して固定された向き及び位置を維持する。いくつかの実施形態では、仮想オブジェクトは周囲の物理的環境5002に対して静止していてかつ変化しないように見え、すなわち、仮想オブジェクトの表現は、デバイスの位置及び/又は向きが変化するにつれて、デバイスが周囲の物理的環境に対して移動すると1つ以上のカメラの視野が変化するので、ディスプレイ上のサイズ、位置及び/又は向きが変化する。仮想オブジェクトとそれぞれのプレーンの間の固定関係にしたがって(例えば、それぞれのプレーンに対して仮想オブジェクトの位置を維持するための更なるユーザー入力を必要とせずに)仮想オブジェクトの表現を調整することはデバイスの操作性を高め、加えてそれが、ユーザーがデバイスを更に迅速かつ効率よく使用することを可能にすることによって電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, while adjusting the representation of the virtual object in the second user interface area, the device adjusts the field of view 5034 of one or more cameras (as illustrated in FIGS. 5K-5L). Movement (e.g., lateral movement and/or rotation of the device) is detected (832), and in response to detecting the movement of the device, the device detects a virtual object (e.g., , virtual chair 5020) according to a fixed spatial relationship (e.g., orientation and/or position) between the virtual object and each plane of view of the one or more cameras (e.g., floor plane 5038). As the field of view of one or more cameras is adjusted (e.g., the virtual object remains in a fixed position on the plane), a fixed angle between the representation of the virtual object and the plane is maintained (e.g., the virtual object remains in a fixed position on the plane) (as shown on the display) by such an orientation and position that it appears to roll along the viewing plane). For example, in FIGS. 5K-5L, the virtual chair 5020 in the second user interface area that includes the camera field of view 5034 maintains a fixed orientation and position relative to the floor surface 5038 as the device 100 is moved. In some embodiments, the virtual object appears stationary and unchanging relative to the surrounding physical environment 5002, i.e., the representation of the virtual object changes as the position and/or orientation of the device changes. As the device moves relative to its surrounding physical environment, the field of view of one or more cameras changes, resulting in changes in size, position, and/or orientation on the display. Adjusting the representation of the virtual object according to a fixed relationship between the virtual object and the respective plane (e.g., without requiring further user input to maintain the position of the virtual object with respect to the respective plane) In addition to increasing the usability of the device, it reduces power usage and improves the battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、(例えば、第1のユーザーインターフェース領域の少なくとも一部の表示を1つ以上のカメラの視野の表現に置き換えることに対応するときに、)デバイスは、仮想オブジェクト(例えば、仮想椅子5020)の表現が連続的に表示されるにつれて、(例えば、5F~5Iで図示するように)アニメーション(例えば、移動、1つ以上の軸の周りの回転及び/又はスケーリング)を表示すると共に第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することに切り替える(834)。例えば、アニメーションは、仮想オブジェクトの二次元の表現を表示すると共に第1のユーザーインターフェース領域を表示することから、仮想オブジェクトの三次元の表現を表示すると共に第2のユーザーインターフェース領域を表示することへの遷移を含む。いくつかの実施形態では、仮想オブジェクトの三次元の表現は、1つ以上のカメラの視野において捕えられる物理的環境の一部の現在の向きに対して予め定義される向きを有する。いくつかの実施形態では、拡張現実ビューに遷移するときに、仮想オブジェクトの表現はディスプレイ上の初期位置からディスプレイ上の新しい位置(例えば、拡張現実ビューの中央又は拡張現実ビューの別の所定の位置)まで移動され、サイズ変更され、方向変更されて、移動の間、又は、移動の終了後、仮想オブジェクトがカメラの視野において検出されるプレーン(例えば、仮想オブジェクトの表現を支持することができる直立壁又は水平床面などの物理表面)に対して固定角であるように、方向変更される。いくつかの実施形態では、アニメーション化された遷移が発生するにつれて、仮想オブジェクトの照明及び/又は仮想オブジェクトによる影投射は(例えば、1つ以上のカメラの視野において検出される環境照明と一致するように)調整される。仮想オブジェクトの表現としてアニメーションを表示すると共に第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域に切り替えることは、第1の入力が第1の基準を満たすことを示すためのフィードバックをユーザーに提供する。改良されたフィードバックを提供することは、デバイスの操作性を高め(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザーを支援し、ユーザーの誤りを削減することによって)、加えてそれが、ユーザーがデバイスを更に迅速かつ効率よく使用することを可能にすることによって電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the device (e.g., when responsive to replacing the display of at least a portion of the first user interface area with a representation of the field of view of one or more cameras) displays a virtual object (e.g., displaying an animation (e.g., translation, rotation about one or more axes and/or scaling) as the representation of the virtual chair 5020) is continuously displayed (e.g., as illustrated at 5F-5I); and switching from displaying the first user interface area to displaying the second user interface area (834). For example, the animation may move from displaying a two-dimensional representation of the virtual object and displaying a first user interface area to displaying a three-dimensional representation of the virtual object and displaying a second user interface area. Contains transitions. In some embodiments, the three-dimensional representation of the virtual object has a predefined orientation relative to the current orientation of the portion of the physical environment captured in the field of view of one or more cameras. In some embodiments, when transitioning to an augmented reality view, the representation of the virtual object changes from its initial position on the display to a new position on the display (e.g., the center of the augmented reality view or another predetermined position in the augmented reality view). ), resized, and reoriented to a plane in which the virtual object is detected in the camera's field of view during or after the movement (e.g., an upright plane that can support the representation of the virtual object). reoriented so that it is at a fixed angle with respect to a physical surface (such as a wall or a horizontal floor). In some embodiments, as the animated transition occurs, the lighting of the virtual object and/or the shadow cast by the virtual object (e.g., to match the ambient lighting detected in the field of view of one or more cameras). ) adjusted. Displaying the animation as a representation of the virtual object and switching from displaying the first user interface area to the second user interface area provides feedback to indicate that the first input satisfies the first criteria. Provide to users. Providing improved feedback enhances the usability of the device (e.g., by assisting the user in providing appropriate input and reducing user errors when operating/interacting with the device); Additionally, it reduces power usage and improves the device's battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、ディスプレイ上に第2のユーザーインターフェース領域を表示すると共に、デバイスは第2の接触(例えば、接触5040)によって第2の入力を検出し(836)、そこにおいて、第2の入力は(任意選択的に、仮想オブジェクトの表現を選択するための第2の接触による押圧又はタッチ入力、及び)(例えば、図5N~5Pで図示するように)ディスプレイにわたる第1のパスに沿った第2の接触の移動を含み、そして、第2の接触によって第2の入力を検出することに応答して、デバイスは、第1のパスに対応する(例えば、同じものであるか、又はそれに拘束された)2本目のパスに沿った第2のユーザーインターフェース領域に仮想オブジェクト(例えば、仮想椅子5020)の表現を移動する。いくつかの実施形態では、第2の接触は第1の接触とは異なり、第1の接触のリフトオフの後に(例えば、(図5C~5Fの接触5026のリフトオフの後に検出される)図5N~5Pの接触5040で示すように)検出される。いくつかの実施形態では、第2の接触は、(例えば、(ARトリガ基準を満たして、その後、タッチスクリーン112を横切って仮想ランプ5084を移動する)接触5086による入力で示すように)タッチ感知面上で連続的に維持される第1の接触と同じである。いくつかの実施形態では、仮想オブジェクト上のスワイプ入力は仮想オブジェクトを回転させると共に、仮想オブジェクトの移動は任意選択的にカメラの視野のプレーンによって拘束される(例えば、スワイプ入力は、カメラの視野の床面上の椅子の表現を回転させる)。入力を検出することに応答して仮想オブジェクトの表現を移動することは、仮想オブジェクトの表示された位置がユーザー入力に応答して移動可能なことを示すためのフィードバックをユーザーに提供する。改良されたフィードバックを提供することは、デバイスの操作性を高め(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザーを支援し、ユーザーの誤りを削減することによって)、加えてそれが、ユーザーがデバイスを更に迅速かつ効率よく使用することを可能にすることによって電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, while displaying a second user interface area on the display, the device detects (836) a second input by a second contact (e.g., contact 5040), wherein the second (optionally, a second contact press or touch input to select a representation of the virtual object) in a first pass across the display (e.g., as illustrated in FIGS. 5N-5P). and in response to detecting a second input by the second contact, the device moves the second input along the first path (e.g., is the same, moving a representation of a virtual object (eg, virtual chair 5020) to a second user interface area along a second path (or constrained thereto); In some embodiments, the second contact is different from the first contact and occurs after lift-off of the first contact (e.g., detected after lift-off of contact 5026 in FIGS. 5C-5F). 5P contact 5040) is detected. In some embodiments, the second contact is touch sensitive (e.g., as shown by the input by contact 5086 (meeting the AR trigger criteria and then moving virtual ramp 5084 across touch screen 112)). It is the same as the first contact maintained continuously on the surface. In some embodiments, a swipe input on a virtual object rotates the virtual object, and movement of the virtual object is optionally constrained by the plane of the camera's field of view (e.g., a swipe input rotates the virtual object (rotating the representation of the chair on the floor). Moving the representation of the virtual object in response to detecting the input provides feedback to the user to indicate that the displayed position of the virtual object is movable in response to the user input. Providing improved feedback enhances the usability of the device (e.g., by assisting the user in providing appropriate input and reducing user errors when operating/interacting with the device); Additionally, it reduces power usage and improves the device's battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、仮想オブジェクトの表現が接触の移動及び仮想オブジェクトに対応するそれぞれのプレーンに基づいて2本目のパスに沿って移動するにつれて、デバイスは仮想オブジェクトの表現のサイズを(例えば、視野の仮想オブジェクトの正確な視点を維持するために、仮想オブジェクトの表現からユーザーまでの仮想距離に基づいて)調整する(838)。例えば、図5N~5Pで、仮想椅子5020のサイズは、仮想椅子が、デバイス100から離れてかつテーブル5004の方へカメラの視野5034の中により深く移動するにつれて、減少する。仮想オブジェクトの表現が接触の移動及び仮想オブジェクトに対応するプレーンに基づいて第2のパスに沿って移動するにつれて、(例えば、仮想オブジェクトの表現をカメラの視野の環境に対して現実的なサイズに維持するように仮想オブジェクトの表現のサイズを調整するための更なるユーザー入力必要とせずに)仮想オブジェクトの表現のサイズを調整することは、デバイスの操作性を高め、加えてそれが、ユーザーがデバイスを更に迅速かつ効率よく使用することを可能にすることによって電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the device changes the size of the virtual object representation (e.g., (based on the virtual distance from the representation of the virtual object to the user) to maintain an accurate perspective of the virtual object in the field of view (838). For example, in FIGS. 5N-5P, the size of the virtual chair 5020 decreases as the virtual chair moves deeper into the camera's field of view 5034, away from the device 100 and toward the table 5004. As the representation of the virtual object moves along the second path based on the movement of the contact and the plane corresponding to the virtual object (e.g., resizing the representation of the virtual object to a size realistic for the environment of the camera's field of view). Adjusting the size of the virtual object representation (without requiring further user input to adjust the size of the virtual object representation to maintain the Reduce power usage and improve device battery life by allowing devices to be used more quickly and efficiently.

いくつかの実施形態では、仮想オブジェクトの表現が(例えば、図5AI~5ALで図示するように)第2のパスに沿って移動するにつれて、デバイスは仮想オブジェクト(例えば、仮想ランプ5084)の表現の第1のサイズを維持し(840)、デバイスは第2の接触(例えば、図5AL~午前5時で図示するように、第2の接触のリフトオフを検出することを含む)によって第2の入力の終了を検出し、そして、第2の接触によって第2の入力の終了を検出することに応答して、デバイスは第2のユーザーインターフェース領域のドロップオフの位置(例えば、テーブル面5046に)に仮想オブジェクトの表現を配置して、第1のサイズとは異なる第2のサイズで第2のユーザーインターフェース領域のドロップオフの位置に仮想オブジェクトの表現を表示する(例えば、図5AMの仮想ランプ5084のサイズは、接触5086による入力の終了の後、接触5086による入力の終了の前の図5ALの仮想ランプ5084のサイズとは異なる)。例えば、接触によってドラッグされている間、オブジェクトはそのサイズ及びビューイング視点を変えず、そして、オブジェクトが拡張現実ビューのその最終位置下ろされると、オブジェクトはカメラの視野に表示される仮想オブジェクトのドロップオフの位置に対応する物理的環境の物理的位置に基づいて決定されるサイズ及びビューイング視点によって表示され、それにより、ドロップオフの位置がカメラの視野の第1の位置であるという決定にしたがって、オブジェクトは第2のサイズを有する、そして、ドロップオフの位置がカメラの視野の第2の位置であるという決定にしたがって、オブジェクトは第2のサイズと異なる第3のサイズを有し、そこにおいて、第2及び第3のサイズは1つ以上のカメラからのドロップオフの位置の距離に基づいて選択される。仮想オブジェクトを移動する第2の入力の終了の検出に応答して、(例えば、仮想オブジェクトをカメラの視野の環境に対して現実的なサイズに維持するように仮想オブジェクトのサイズを調整するための更なるユーザー入力必要とせずに)仮想オブジェクトの表現を変更されたサイズで表示することは、デバイスの操作性を高め、加えてそれが、ユーザーがデバイスを更に迅速かつ効率よく使用することを可能にすることによって電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the device changes the representation of the virtual object (e.g., virtual lamp 5084) as the representation of the virtual object moves along the second path (e.g., as illustrated in FIGS. 5AI-5AL). Maintaining the first size (840), the device receives a second input by a second contact (e.g., including detecting lift-off of the second contact, as illustrated in FIG. 5AL-5:00 AM). and in response to detecting the end of the second input by the second contact, the device moves the second user interface area to a drop-off position (e.g., on table surface 5046). positioning a representation of the virtual object to display the representation of the virtual object at a drop-off location in a second user interface area at a second size that is different than the first size (e.g., in the virtual lamp 5084 of FIG. 5AM); The size is different from the size of virtual lamp 5084 in FIG. 5AL after termination of input by contact 5086 and before termination of input by contact 5086). For example, an object does not change its size and viewing perspective while being dragged by contact, and when the object is lowered to its final position in the augmented reality view, the object is a drop of the virtual object that appears in the camera's field of view. displayed by a size and viewing perspective determined based on the physical location of the physical environment corresponding to the drop-off location, thereby following the determination that the drop-off location is the first location of the camera's field of view. , the object has a second size, and according to the determination that the drop-off position is the second position of the camera's field of view, the object has a third size different from the second size, where , the second and third sizes are selected based on the distance of the drop-off location from the one or more cameras. in response to detecting the end of a second input that moves the virtual object (e.g., for adjusting the size of the virtual object to maintain the virtual object at a size realistic for the environment of the camera's field of view). Displaying a representation of a virtual object at a modified size (without requiring further user input) increases the usability of the device, and in addition it allows the user to use the device even more quickly and efficiently. Reduce power usage and improve your device's battery life by

いくつかの実施形態では、ディスプレイにわたる第1のパスに沿った第2の接触の移動が第2の基準を満たす(例えば、第1のパスの終わりに、接触は、ディスプレイの端(例えば、下端、上端、又は側端)の閾値距離内若しくはそれの外側か、又は第2のユーザーインターフェース領域の端にある)という判定にしたがって、デバイス(842)は、1つ以上のカメラの視野の表現を含んでいる第2のユーザーインターフェース領域を表示することをやめ、そして、仮想オブジェクトの表現を有する(完全な)第1のユーザーインターフェース領域を再表示する(例えば、第1のユーザーインターフェース領域の一部が以前第2のユーザーインターフェース領域と並行して表示されている場合、第2のユーザーインターフェース領域がもはや表示されなくなった後に、デバイスは完全な第1のユーザーインターフェース領域を表示する)。例えば、図5V~5Xで図示するように、タッチスクリーン112の端に仮想椅子5054をドラッグする接触5054の移動に応答して、カメラの視野5034は表示されなくなり、図5Y~5ADで図示するように、完全なメッセージ送信ユーザーインターフェース5008が再表示される。いくつかの実施形態では、接触がディスプレイの端又は第2のユーザーインターフェース領域の端に接近するにつれて、第2のユーザーインターフェース領域がフェードアウトし(例えば、図5X~5Yで図示されるように)、かつ/又は、第1のユーザーインターフェース領域(の表示されないか又はブロックされる部分)がフェードインする(例えば、図5Z~5AAで図示されるように)。いくつかの実施形態では、非ARビュー(例えば、第1のユーザーインターフェース領域)からARビュー(例えば、第2のユーザーインターフェース領域)まで遷移するためのジェスチャ及びARビューから非ARビューまで遷移するためのジェスチャは、同一である。例えば、現在表示されているユーザーインターフェースの閾値位置を越えた(例えば、現在表示されているユーザーインターフェース領域の境界の閾値距離の範囲内、又は、現在表示されているユーザーインターフェース領域の境界を越えた)仮想オブジェクト上のドラッグジェスチャは、現在表示されているユーザーインターフェース領域から相手方ユーザーインターフェース領域への(例えば、第1のユーザーインターフェース領域を表示することから第2のユーザーインターフェース領域を表示することへの、あるいは、第2のユーザーインターフェース領域を表示することから第1のユーザーインターフェース領域を表示することへの)遷移を引き起こす。いくつかの実施形態では、視覚的な指示(例えば、現在表示されているユーザーインターフェース領域をフェードアウトさせて、相手方ユーザーインターフェースをフェードインさせる)は、第1/第2の基準が満たされる前に表示され、そして、入力が続いて、かつ入力(例えば、接触のリフトオフ)の終了が検出される前に第1/第2の基準が満たされない場合はその逆にできる。入力基準を満たす入力を検出することに応答して第1のユーザーインターフェースを再表示することは、第2のユーザーインターフェースを追加的な表示された制御(例えば、第2のユーザーインターフェースから第1のユーザーインターフェースを表示するための制御)で混乱させることのない追加的な制御オプションを提供する。第2のユーザーインターフェースを追加的な表示された制御で混乱させることのない追加的な制御オプションを提供することはデバイスの操作性を高め、加えてそれが、ユーザーがデバイスを更に迅速かつ効率よく使用することを可能にすることによって電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, movement of the second contact along the first path across the display satisfies the second criterion (e.g., at the end of the first pass, the contact moves toward an edge of the display (e.g., bottom edge)). , top edge, or side edge), or at the edge of the second user interface area), the device (842) causes the device (842) to display a representation of the field of view of the one or more cameras. ceasing to display the containing second user interface area and redisplaying the (complete) first user interface area with the representation of the virtual object (e.g. a portion of the first user interface area was previously displayed in parallel with the second user interface area, the device displays the complete first user interface area after the second user interface area is no longer displayed). For example, in response to a movement of the contact 5054 that drags the virtual chair 5054 to the edge of the touch screen 112, as illustrated in FIGS. 5V-5X, the camera's field of view 5034 disappears, as illustrated in FIGS. 5Y-5AD. The complete message sending user interface 5008 is redisplayed. In some embodiments, as the contact approaches an edge of the display or an edge of the second user interface area, the second user interface area fades out (e.g., as illustrated in FIGS. 5X-5Y); and/or (an undisplayed or blocked portion of) the first user interface area fades in (eg, as illustrated in FIGS. 5Z-5AA). In some embodiments, a gesture for transitioning from a non-AR view (e.g., a first user interface area) to an AR view (e.g., a second user interface area) and a gesture for transitioning from an AR view to a non-AR view. gestures are the same. For example, a threshold position of the currently displayed user interface is exceeded (e.g., within a threshold distance of the boundary of the currently displayed user interface area, or beyond the boundary of the currently displayed user interface area) ) A drag gesture on a virtual object moves from the currently displayed user interface area to the other user interface area (e.g. from displaying a first user interface area to displaying a second user interface area). , or, alternatively, cause a transition (from displaying the second user interface area to displaying the first user interface area). In some embodiments, the visual instructions (e.g., fading out the currently displayed user interface area and fading in the other user interface) are displayed before the first/second criteria are met. and vice versa if the input continues and the first/second criterion is not met before the end of the input (eg, contact lift-off) is detected. Redisplaying the first user interface in response to detecting input that meets the input criteria causes the second user interface to display additional displayed controls (e.g., from the second user interface to the first user interface). Provide additional control options without confusing the user interface (controls for displaying the user interface). Providing additional control options without cluttering the secondary user interface with additional displayed controls enhances the usability of the device, and in addition it allows users to use the device more quickly and efficiently. Reduce power usage and improve device battery life by allowing more power to be used.

いくつかの実施形態では、第1のユーザーインターフェース領域を再表示することに対応する時間に、デバイスは、第2のユーザーインターフェース領域に仮想オブジェクトの表現を表示することから第1のユーザーインターフェース領域に仮想オブジェクトの表現を表示する(例えば、図5AB~5ADの仮想椅子5020のアニメーションで図示するように)ことへのアニメーション化された遷移(例えば、移動、1つ以上の軸のまわりの回転及び/又はスケーリング)を表示する(844)。第2のユーザーインターフェースの仮想オブジェクトの表現を表示することから第1のユーザーインターフェースの仮想オブジェクトの表現を表示することへのアニメーション化された遷移を(例えば、更にユーザー入力が第1のユーザーインターフェースの仮想オブジェクトを再位置付けすることを必要とせずに)表示することはデバイスの操作性を高め、加えてそれが、ユーザーがデバイスを更に迅速かつ効率よく使用することを可能にすることによって電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, at a time corresponding to redisplaying the first user interface area, the device changes the representation of the virtual object from displaying the representation of the virtual object in the second user interface area to the first user interface area. Animated transitions (e.g., translation, rotation about one or more axes and/or or scaling) (844). An animated transition from displaying a representation of a virtual object in a second user interface to displaying a representation of a virtual object in a first user interface (e.g., when further user input is Displaying virtual objects (without the need to reposition them) increases the usability of the device, in addition it reduces power usage by allowing users to use the device more quickly and efficiently. and improve your device's battery life.

いくつかの実施形態では、第2の接触が第1のパスに沿って移動するにつれて、デバイスは、接触の現在位置に対応する1つ以上のカメラの視野において識別される1つ以上のそれぞれのプレーンの外観を変える(例えば、1つ以上のプレーンの外観を強調し、マークし、輪郭を描き、かつ/又は、さもなければ視覚的に変える)(846)。例えば、接触5042が図5O~5Pの矢印5042及び5044で示すようにパスに沿って仮想椅子5020をドラッグするにつれて、床面5038は強調される(例えば、接触5042の移動の前の図5Mと比較して)。いくつかの実施形態では、接触がカメラの視野において検出される第1のプレーンに対応する位置にあるという判定にしたがって、第1のプレーンが強調される。接触がカメラの視野で検出される第2のプレーンに対応する位置へ(例えば、図5S~5Uで図示するように)移動したという判定にしたがって、第1のプレーン(例えば、床面5038)は強調されなくなり、そして第2のプレーン(例えば、テーブル面5046)が強調される。いくつかの実施形態では、複数のプレーンが同時に強調される。いくつかの実施形態では、複数の視覚的に変更されたプレーンの第1のプレーンは、他のプレーンが視覚的に変えられる方法とは異なった方法で視覚的に変更されて、接触が第1のプレーンに対応する位置にあることを示す。カメラの視野において識別される1つ以上のそれぞれのプレーンの外観を変えることは、プレーン(例えば、これに対して仮想オブジェクトを配置することができる)が識別されたことを示すためのフィードバックをユーザーに提供する。改良された視覚フィードバックを提供することは、デバイスの操作性を高め(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザーを支援し、ユーザーの誤りを削減することによって)、加えてそれが、ユーザーがデバイスを更に迅速かつ効率よく使用することを可能にすることによって電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, as the second contact moves along the first path, the device causes each of the one or more cameras identified in the field of view of the one or more cameras to correspond to the current location of the contact Altering the appearance of the planes (eg, highlighting, marking, delineating, and/or otherwise visually altering the appearance of one or more planes) (846). For example, as contact 5042 drags virtual chair 5020 along a path as shown by arrows 5042 and 5044 in FIGS. 5O-5P, floor surface 5038 is emphasized (e.g., as shown in FIG. Compared to). In some embodiments, the first plane is emphasized in accordance with a determination that the contact is at a location corresponding to the first plane detected in the field of view of the camera. The first plane (e.g., floor surface 5038) is moved in accordance with the determination that the contact has moved to a position corresponding to the second plane detected in the camera's field of view (e.g., as illustrated in FIGS. 5S-5U). The second plane (eg, table surface 5046) is de-emphasized and the second plane (eg, table surface 5046) is enhanced. In some embodiments, multiple planes are enhanced simultaneously. In some embodiments, a first plane of the plurality of visually modified planes is visually modified in a manner that is different from the way in which the other planes are visually modified such that contact occurs in the first plane. indicates that it is located at a position corresponding to the plane of Changing the appearance of each one or more planes identified in the camera's field of view provides feedback to the user to indicate that the plane (for example, against which a virtual object can be placed) has been identified. Provided to. Providing improved visual feedback increases the usability of the device (e.g., by assisting the user in providing appropriate input and reducing user errors when operating/interacting with the device). , in addition, it reduces power usage and improves the device's battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、接触によって第1の入力を検出することに応答して、接触による第1の入力が第3の(例えば、ステージングユーザーインターフェースディスプレイ)基準(例えば、ステージングユーザーインターフェースディスプレイ基準は、スワイプ入力、タッチホールド入力、押圧入力、タップ入力又は所定の強度閾値を上回った強度を有する激しい押圧を識別するように構成される基準である)を満たすという判定にしたがって、デバイスはディスプレイ上に第3のユーザーインターフェース領域を表示して、第1のユーザーインターフェース領域の少なくとも一部の表示を(例えば、仮想オブジェクトの2D画像を置き換える仮想オブジェクトの三次元モデルを含んで)置き換えることを含む(848)。いくつかの実施形態では、ステージングユーザーインターフェース(例えば、図6Iに関して記載されているステージングユーザーインターフェース6010)を表示すると共に、デバイスは、ステージングユーザーインターフェースに対応する仮想オブジェクトの表現の外観を、(例えば、方法900を参照して下記でより詳細に説明するように)検出される入力に基づいて更新する。いくつかの実施形態では、仮想オブジェクトがステージングユーザーインターフェースで表示されている間に別の入力が検出され、その入力が第2のユーザーインターフェース領域を表示することに遷移するための基準を満たすときに、デバイスは連続的に仮想オブジェクトを表示すると共に、ステージングユーザーインターフェースの表示を第2のユーザーインターフェース領域に置き換える。更なる詳細を方法900に関して記載する。第1の入力が第3の基準を満たすという判定にしたがって第3のユーザーインターフェースを表示することは、第1のユーザーインターフェースを追加的な表示された制御(例えば、第1のユーザーインターフェースから第3のユーザーインターフェースを表示するための制御)で混乱させることのない追加的な制御オプションを提供する。第2のユーザーインターフェースを追加的な表示された制御で混乱させることのない追加的な制御オプションを提供することはデバイスの操作性を高め、加えてそれが、ユーザーがデバイスを更に迅速かつ効率よく使用することを可能にすることによって電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, in response to detecting the first input by contact, the first input by contact causes a third (e.g., staging user interface display) reference (e.g., the staging user interface display reference is , a swipe input, a touch-and-hold input, a press input, a tap input, or a criterion configured to identify a hard press having an intensity above a predetermined intensity threshold. displaying a third user interface area to replace the display of at least a portion of the first user interface area (e.g., including a three-dimensional model of the virtual object replacing a 2D image of the virtual object) (848); ). In some embodiments, while displaying a staging user interface (e.g., staging user interface 6010 described with respect to FIG. 6I), the device displays an appearance of a representation of a virtual object that corresponds to the staging user interface (e.g., (as described in more detail below with reference to method 900); In some embodiments, when another input is detected while the virtual object is being displayed in the staging user interface and that input meets the criteria for transitioning to displaying the second user interface area. , the device continuously displays the virtual object and replaces the display of the staging user interface with the second user interface area. Further details are described with respect to method 900. Displaying the third user interface in accordance with the determination that the first input satisfies the third criterion may include displaying additional displayed controls (e.g., displaying the third user interface from the first user interface). Provide additional control options without confusing the user interface (controls for displaying the user interface). Providing additional control options without cluttering the secondary user interface with additional displayed controls enhances the usability of the device, and in addition it allows users to more quickly and efficiently navigate the device. Reduce power usage and improve device battery life by allowing more power to be used.

いくつかの実施形態では、接触による第1の入力(例えば、第1のユーザーインターフェース領域をスクロールすることに対応するスワイプ入力又は要求に対応して第1のユーザーインターフェース領域のコンテンツに対応するウェブページ又は電子メールを表示するタップ入力)が第1の(例えば、ARトリガ)基準を満たさないという判定にしたがって、デバイスは、第1のユーザーインターフェース領域の少なくとも一部の表示を(例えば、図6B~6Cに関して記載されているように)1つ以上のカメラの視野の表現に置き換えることなく第1のユーザーインターフェース領域の表示を維持する(850)。第1のユーザーインターフェース領域の表示を維持するべきであるか又は連続的に仮想オブジェクトの表現を表示するべきかどうか決定するための第1の基準を使用すると共に、第1のユーザーインターフェース領域の少なくとも一部の表示を1つ以上のカメラの視野に置き換えることで、入力に応答して複数の異なるタイプの操作を実行することが可能になる。入力に応答して(例えば、ユーザーインターフェースの少なくとも一部の表示を1つ以上のカメラの視野に置き換えるか又は第1のユーザーインターフェース領域の少なくとも一部の表示を1つ以上のカメラの視野の表現に置き換えることなく第1のユーザーインターフェース領域の表示を維持することによって)複数の異なるタイプの操作の実行を可能にすることは、ユーザーがこれらの操作を実行することができる効率性を増大させ、それによって、デバイスの操作性を高め、加えてそれが、ユーザーがデバイスを更に迅速かつ効率よく使用することを可能にすることによって電力使用量を削減し、デバイスのバッテリ寿命を改善する。 In some embodiments, a web page corresponding to the content of the first user interface area in response to a first input by contact (e.g., a swipe input corresponding to scrolling the first user interface area or a request to scroll the first user interface area) or a tap input that displays an email) does not meet the first (e.g., AR trigger) criteria, the device causes the device to display at least a portion of the first user interface area (e.g., in FIGS. 6B-6B). 6C) maintains the display of the first user interface area without replacing it with a representation of the field of view of the one or more cameras (850). using the first criteria to determine whether to maintain the display of the first user interface area or to continuously display the representation of the virtual object; By replacing some of the displays with the field of view of one or more cameras, it is possible to perform multiple different types of operations in response to input. in response to input (e.g., replacing the display of at least a portion of the user interface with a field of view of one or more cameras, or replacing the display of at least a portion of a first user interface area with a field of view of one or more cameras; Enabling the performance of multiple different types of operations (by maintaining the display of the first user interface area without replacing the first user interface area) increases the efficiency with which users can perform these operations; Thereby, it enhances the operability of the device, in addition it reduces power usage and improves the battery life of the device by allowing the user to use the device more quickly and efficiently.

図8A~8Eの動作について記載された特定の順序は単なる例にすぎず、記載された順序が操作を実行することができる唯一の順序であることを示すことを意図するものではないことを理解されたい。当業者であれば、本明細書において記載されている操作を再び順序付けする各種の方法を認識するであろう。加えて、本明細書において記載されている他の方法(例えば、方法900及び1000)に関して本明細書において記載されている他のプロセスの詳細はまた、図8A~8Eに関して上述した方法800にも、類似の様式で適用できる点に留意されたい。例えば、方法800を参照して上述した接触、入力、仮想オブジェクト、ユーザーインターフェース領域、強度閾値、触知出力、視野、移動及び/又はアニメーションは、任意選択的に、本明細書に記載される他の方法(例えば、方法900、1000、16000、17000、18000、19000、及び20000)を参照して本明細書に記載される接触、入力、仮想オブジェクト、ユーザーインターフェース領域、強度閾値、触知出力、視野、移動及び/又はアニメーションの特性のうちの1つ以上を有する。簡潔にするために、これらの詳細はここで繰り返さない。 It is understood that the particular order described for the operations of FIGS. 8A-8E is merely an example and is not intended to indicate that the described order is the only order in which the operations may be performed. I want to be Those skilled in the art will recognize various ways to reorder the operations described herein. Additionally, other process details described herein with respect to other methods described herein (e.g., methods 900 and 1000) also apply to method 800 described above with respect to FIGS. 8A-8E. , can be applied in a similar manner. For example, the contacts, inputs, virtual objects, user interface regions, intensity thresholds, tactile outputs, fields of view, movement, and/or animations described above with reference to method 800 are optionally other than those described herein. (e.g., methods 900, 1000, 16000, 17000, 18000, 19000, and 20000); having one or more of the following properties: field of view, movement, and/or animation. For the sake of brevity, these details will not be repeated here.

図9A~9Dは、いくつかの実施形態による、第1のユーザーインターフェース領域の仮想オブジェクトの第1の表現、第2のユーザーインターフェース領域の仮想オブジェクトの第2の表現及び1つ以上のカメラの視野の表現を有する仮想オブジェクトの第3の表現を表示する方法900を図示しているフローチャートである。方法900は、ディスプレイ、タッチ感知面及び1つ以上のカメラ(例えば、ディスプレイ及びタッチ感知面から反対側のデバイスの側上の1つ以上の後面カメラ)を有する電子デバイス(例えば、図3のデバイス300、又は図1Aのポータブル型多機能デバイス100)で実行される。いくつかの実施形態では、ディスプレイはタッチスクリーンディスプレイであり、タッチ感知面はディスプレイ上にあるか又はディスプレイと統合される。いくつかの実施形態では、ディスプレイは、タッチ感知面から分離している。方法900のいくつかの操作は任意選択的に組み合わされ、かつ/又は、いくつかの操作の順序は任意選択的に変更される。 9A-9D illustrate a first representation of a virtual object in a first user interface area, a second representation of a virtual object in a second user interface area, and one or more camera fields of view, according to some embodiments. 9 is a flowchart illustrating a method 900 of displaying a third representation of a virtual object having a representation of . Method 900 includes an electronic device (e.g., the device of FIG. 300 or the portable multifunction device 100 of FIG. 1A). In some embodiments, the display is a touch screen display and the touch sensitive surface is on or integrated with the display. In some embodiments, the display is separate from the touch-sensitive surface. Some operations of method 900 are optionally combined and/or the order of some operations is optionally changed.

後述するように、方法900は、第1のユーザーインターフェース(例えば、二次元のグラフィックユーザーインターフェース)の仮想オブジェクトの表現を表示するデバイスのタッチ感知面での接触によって入力を検出することに関する。第1の入力に応答して、デバイスは、第2のユーザーインターフェース(例えば、仮想オブジェクトの三次元表現を移動し、サイズ変更し、かつ/又は方向変更することができるステージングユーザーインターフェース)に仮想オブジェクトの第2の表現を表示するべきかどうか決定するための基準を使用する。第2のユーザーインターフェースに仮想オブジェクトの第2の表現を表示すると共に、第2の入力に応答して、デバイスは第2の入力に基づいて仮想オブジェクトの第2の表現の表示特性を変えるか又はデバイスの1つ以上のカメラの視野を含む第3のユーザーインターフェースの仮想オブジェクトの第3の表現を表示する。入力に応答して(例えば、仮想オブジェクトの表示特性を変えるか又は第3のユーザーインターフェースに仮想オブジェクトを表示することによって)複数の異なるタイプの操作の実行を可能にすることは、ユーザーがこれらの操作を実行することが出来る効率を増大させ、それによって、デバイスの操作性を高め、加えてそれが、ユーザーがデバイスを更に迅速かつ効率よく使用することを可能にすることによって電力使用量を削減し、デバイスのバッテリ寿命を改善する。 As described below, method 900 involves detecting input by contact with a touch-sensitive surface of a device displaying a representation of a virtual object of a first user interface (eg, a two-dimensional graphical user interface). In response to the first input, the device displays the virtual object in a second user interface (e.g., a staging user interface that can move, resize, and/or reorient the three-dimensional representation of the virtual object). using criteria to determine whether to display the second representation of . while displaying a second representation of the virtual object on the second user interface and responsive to the second input, the device changes display characteristics of the second representation of the virtual object based on the second input; Displaying a third representation of a virtual object of a third user interface that includes a field of view of one or more cameras of the device. Enabling users to perform multiple different types of operations in response to input (e.g., by changing the display characteristics of a virtual object or displaying a virtual object in a third user interface) Increases the efficiency with which operations can be performed, thereby increasing the usability of the device; in addition, it reduces power usage by allowing users to use the device more quickly and efficiently and improve your device's battery life.

デバイスは、ディスプレイ112上の第1のユーザーインターフェース領域(例えば、二次元のグラフィックユーザーインターフェース又は一部(例えば、家具画像の一覧可能なリスト、1つ以上の選択可能なオブジェクトを含んでいる画像など))に仮想オブジェクトの表現(例えば、仮想椅子5020、仮想ランプ5084、靴、家具、手工具、装飾、人々、絵文字、ゲームキャラクタ、仮想家具などの、三次元オブジェクトのグラフィック表現)を表示する(902)。例えば、第1のユーザーインターフェース領域は、図6Aで示すメッセージ送信ユーザーインターフェース5008である。いくつかの実施形態では、第1のユーザーインターフェース領域は、デバイスを囲んでいる物理的環境の画像以外のバックグラウンドを含む(例えば、第1のユーザーインターフェース領域のバックグラウンドは、予め選択された背景色/パターンであるか、又は、1つ以上のカメラによって並行して取り込まれる出力像と異なり、かつ1つ以上のカメラの視野の有効なコンテンツと異なる背景画像である)。 The device displays a first user interface area (e.g., a two-dimensional graphical user interface or portion (e.g., an indexable list of furniture images, an image containing one or more selectable objects, etc.) on the display 112. )) displays a representation of a virtual object (e.g., a graphical representation of a three-dimensional object, such as a virtual chair 5020, a virtual lamp 5084, shoes, furniture, hand tools, decorations, people, emojis, game characters, virtual furniture, etc.) ( 902). For example, the first user interface area is the message sending user interface 5008 shown in FIG. 6A. In some embodiments, the first user interface area includes a background other than an image of the physical environment surrounding the device (e.g., the background of the first user interface area includes a preselected background). (or a background image that is different from the output images captured in parallel by the one or more cameras and different from the effective content of the field of view of the one or more cameras).

ディスプレイ上の第1のユーザーインターフェース領域の仮想オブジェクトの第1の表現を表示すると共に、デバイスは、ディスプレイ上の仮想オブジェクトの第1の表現に対応するタッチ感知面上の場所で、第1の接触による第1の入力を検出する(904)(例えば、第1の接触はタッチスクリーンディスプレイ上の仮想オブジェクトの第1の表現上で検出されるか、又は、第1の接触は、仮想オブジェクトの第1の表現を有する第1のユーザーインターフェース領域において並行して表示され、そして、接触によって起動されると仮想オブジェクトのARビュー(例えば、カメラの視野6036)及び/又は仮想オブジェクト(例えば、仮想椅子5020)の表現を含むステージングユーザーインターフェース6010の表示をトリガするように構成されるアフォーダンス(例えば、トグル制御6018)上で、検出される)。例えば、第1の入力は、図6E~6Iに関して記載されている接触6006による入力である。 While displaying a first representation of a virtual object in a first user interface area on the display, the device makes a first contact at a location on the touch-sensitive surface that corresponds to the first representation of the virtual object on the display. detecting (904) a first input by (e.g., the first touch is detected on a first representation of the virtual object on a touch screen display, or the first touch is detected on a first representation of the virtual object 1 and, when activated by touch, an AR view of a virtual object (e.g. camera field of view 6036) and/or a virtual object (e.g. virtual chair 5020). ) detected on an affordance (e.g., toggle control 6018) that is configured to trigger display of a staging user interface 6010 that includes a representation of. For example, the first input is the contact 6006 input described with respect to FIGS. 6E-6I.

第1の接触によって、そして、第1の接触による第1の入力が第1の(例えば、ステージング-トリガ)基準を満たすという判定にしたがって第1の入力を検出することに応答して、(例えば、ステージング-トリガ基準は、入力されるスワイプを識別するように構成される基準、タッチホールド入力、押圧入力、タップ入力、接触のタッチダウン、接触の最初の移動又はカメラのアクティブ化及び/又はカメラの視野の視野平面の検出をトリガすることと関係している別のタイプの所定の入力ジェスチャである)、デバイスは、第1のユーザーインターフェース領域と異なる第2のユーザーインターフェース領域の仮想オブジェクトの第2の表現を表示する(906)(例えば、第2のユーザーインターフェース領域は、カメラの視野を含まないで、そして、ユーザー入力に応答して仮想オブジェクトの三次元表現が操作される(例えば、回転されて、移動される)ことができる、擬似的な三次元空間を含むステージングユーザーインターフェース6010である)。例えば、図6E~6Hで、接触6006による入力が深い押圧強度閾値ITを上回って増加する特性強度を有するという判定にしたがって、メッセージ送信ユーザーインターフェース5008(例えば、図6Eに示すように)とは異なるステージングユーザーインターフェース6010(例えば、図6Iに示すように)で、仮想椅子オブジェクト5020は、表示される。 in response to detecting the first input by the first contact and in accordance with a determination that the first input by the first contact satisfies a first (e.g., staging-trigger) criterion (e.g., , staging-trigger criteria are criteria configured to identify an input swipe, a touch-hold input, a press input, a tap input, a touch-down, a first movement of a touch or a camera activation and/or a camera another type of predetermined input gesture associated with triggering the detection of a field of view plane in a field of view), the device detects a second user interface area of the virtual object in a second user interface area that is different from the first user interface area. displaying (906) a representation of the virtual object (e.g., the second user interface area does not include the field of view of the camera) and the three-dimensional representation of the virtual object is manipulated (e.g., rotation) in response to user input. A staging user interface 6010 that includes a simulated three-dimensional space that can be moved and moved). For example, in FIGS. 6E-6H, the message sending user interface 5008 (e.g., as shown in FIG . 6E) may In a different staging user interface 6010 (eg, as shown in FIG. 6I), a virtual chair object 5020 is displayed.

いくつかの実施形態では、第1の入力を検出することに応答して、そして、第1の入力がステージングトリガ基準を満たすという判定にしたがって、デバイスは、第1のユーザーインターフェース領域で示す第1の向き(例えば、図6Eのメッセージ送信ユーザーインターフェース5008で示す仮想椅子5020の第1の向き)から、デバイスを囲んでいる物理的環境に対してデバイスの現在の向きから独立して方向付けられるディスプレイ上の仮想的なプレーンに基づいて決定される第2の向き(例えば、図6Iで示すステージ平面6014に基づいて決定される仮想椅子5020の第2の向き)まで、移動されて方向変更されている仮想オブジェクトの三次元表現を示す第1のアニメーション化された遷移を表示する。例えば、仮想オブジェクトの三次元の表現は(例えば、二次元のグラフィカルユーザーインターフェースで示す仮想オブジェクトの形状及び向きづけに基づいて)プレーンから所定の向き及び/又は距離を有し、そして、ステージングビュー(例えば、ステージングユーザーインターフェース6010)に遷移するときに、三次元の表現はディスプレイ上の仮想オブジェクトの元の位置からディスプレイ上の新しい位置(例えば、仮想ステージ6014の中心)まで移動され、サイズ変更され、方向変更され、そして、移動の間、又は、移動の終了後、デバイスを囲んでいる物理的環境から独立して定められる所定のステージング仮想的なプレーン6014に対して仮想オブジェクトが固定角であるように、三次元の表現は方向変更される。 In some embodiments, in response to detecting the first input and in accordance with the determination that the first input satisfies the staging trigger criteria, the device controls the first (e.g., the first orientation of the virtual chair 5020 shown in the messaging user interface 5008 of FIG. 6E), the display is oriented independently of the current orientation of the device relative to the physical environment surrounding the device. The virtual chair 5020 is moved and reoriented to a second orientation determined based on the virtual plane above (e.g., a second orientation of the virtual chair 5020 determined based on the stage plane 6014 shown in FIG. 6I). displaying a first animated transition showing a three-dimensional representation of the virtual object; For example, a three-dimensional representation of a virtual object has a predetermined orientation and/or distance from the plane (e.g., based on the shape and orientation of the virtual object shown in a two-dimensional graphical user interface), and the staging view ( For example, upon transitioning to a staging user interface 6010), the three-dimensional representation is moved and resized from the virtual object's original position on the display to a new position on the display (e.g., the center of the virtual stage 6014); The orientation is changed so that during or after the movement, the virtual object is at a fixed angle with respect to a predetermined staging virtual plane 6014 that is defined independently of the physical environment surrounding the device. , the three-dimensional representation is reoriented.

第2のユーザーインターフェース領域に仮想オブジェクトの第2の表現を表示すると共に、デバイスは第2の入力(例えば、図6Q~6Tで図示される接触6034による入力)を検出する(908)。いくつかの実施形態では、第2の入力を検出することは、仮想オブジェクトの第2の表現に対応するタッチスクリーン上の位置で1つ以上の第2の接触を検出すること、第2の接触によって起動されるとデバイスを囲んでいる物理的環境の拡張現実ビューの表示をトリガするように構成されるアフォーダンス上で第2の接触を検出すること、第2の接触の移動を検出すること、及び/又は第2の接触のリフトオフを検出することを含む。いくつかの実施形態では、第2の入力は、同じ接触による第1の入力の継続(例えば、第2の入力は、図6E~6Iで図示する接触6006の後の、図6Q~6Tで図示する接触6034による入力である(例えば、接触のリフトオフなしで))、又は完全に異なる接触による別々の入力(例えば、第2の入力は、図6E~6Iで図示する接触6006による第1の入力の後の、図6Q~6Tで図示する接触6034による入力である(接触のリフトオフによる))、又は追加の接触による入力の継続(例えば、第2の入力は、図6E~6Iで図示する接触6006による第1の入力の後の、図6J~6Lで図示する接触6006による入力である)である。例えば、第2の入力は、スワイプ入力、第2のタップ入力、第2の押圧入力、第1の入力に続いた押圧入力、第2のタッチホールド入力、第1の入力から続く維持されたタッチ、などの継続でもよい。 While displaying a second representation of the virtual object in the second user interface area, the device detects a second input (eg, input via contact 6034 illustrated in FIGS. 6Q-6T) (908). In some embodiments, detecting the second input includes detecting one or more second contacts at a location on the touch screen that corresponds to the second representation of the virtual object, the second contact detecting a second contact on the affordance configured to trigger display of an augmented reality view of a physical environment surrounding the device when activated by the device; detecting movement of the second contact; and/or detecting lift-off of the second contact. In some embodiments, the second input is a continuation of the first input with the same contact (e.g., the second input is a continuation of the first input as illustrated in FIGS. 6Q-6T after contact 6006 illustrated in FIGS. 6E-6I). (e.g., without lift-off of the contact)) or separate inputs from completely different contacts (e.g., the second input is the input from the first input through contact 6006 as illustrated in FIGS. 6E-6I). 6Q-6T (by lift-off of the contact)) or a continuation of the input with an additional contact (e.g., the second input is the contact 6034 illustrated in FIGS. 6E-6I) 6J-6L) after the first input by contact 6006). For example, the second input can be a swipe input, a second tap input, a second press input, a press input following the first input, a second touch hold input, a sustained touch following the first input. , etc. may be continued.

第2の入力を検出することに応答して(910)、第2の入力が(例えば、拡張現実ビューに遷移せずに)第2のユーザーインターフェース領域の仮想オブジェクトを操作する要求に対応するという決定にしたがって、デバイスは第2の入力に基づいて第2のユーザーインターフェース領域の中の仮想オブジェクトの第2の表現の表示特性を変更し、そして、第2の入力が拡張現実環境に仮想オブジェクトを表示する要求に対応するという決定にしたがって、デバイスは1つ以上のカメラの視野の表現を有する仮想オブジェクトの第3の表現を表示する(例えば、デバイスは、1つ以上のカメラの視野6036を含む第3のユーザーインターフェースを表示し、デバイスを囲んでいる物理的環境5002の物理的なプレーン(例えば、床)に対応するカメラの視野の中で検出される仮想的なプレーン(例えば、床面5038)上に、仮想オブジェクトの三次元表現(例えば、仮想椅子5020)を配置する)。 In response to detecting (910) a second input, the second input corresponds to a request to manipulate the virtual object in the second user interface area (e.g., without transitioning to an augmented reality view). In accordance with the determination, the device changes display characteristics of the second representation of the virtual object in the second user interface area based on the second input, and the second input changes the display characteristics of the second representation of the virtual object in the augmented reality environment. In accordance with the decision to respond to the request to display, the device displays a third representation of the virtual object having a representation of the one or more camera fields of view (e.g., the device includes the one or more camera fields of view 6036 displaying a third user interface and displaying a virtual plane (e.g., a floor surface 5038 ) on which a three-dimensional representation of a virtual object (eg, virtual chair 5020) is placed.

いくつかの実施形態では、第2のユーザーインターフェース領域の仮想オブジェクトを操作する要求に対応する第2の入力は、第2のユーザーインターフェース領域の仮想オブジェクトの第2の表現に対応するタッチ感知面上の場所での第2の接触によるピンチ又はスワイプである。例えば、第2の入力は、図6J~6Lに図示する接触6006による入力又は図6N~6Oに図示する接触6026及び6030による入力である。 In some embodiments, the second input corresponding to the request to manipulate the virtual object in the second user interface area is on the touch-sensitive surface corresponding to the second representation of the virtual object in the second user interface area. A pinch or swipe with a second touch at the location. For example, the second input is the input by contact 6006 illustrated in FIGS. 6J-6L or the input by contacts 6026 and 6030 illustrated in FIGS. 6N-6O.

いくつかの実施形態では、仮想オブジェクトを拡張現実環境に表示する要求に対応する第2の入力は、第2のユーザーインターフェース領域の仮想オブジェクトの表現に対応するタッチ感知面上の場所での、又は、そこからの、タップ入力、押圧入力又はタッチホールド若しくは押圧入力に続くドラッグ入力である。例えば、第2の入力は、図6Q~6Tで図示する接触6034によって入力される深い押圧である。 In some embodiments, the second input corresponding to the request to display the virtual object in the augmented reality environment is at a location on the touch-sensitive surface that corresponds to the representation of the virtual object in the second user interface area, or , a tap input, a press input, or a drag input following a touch-hold or press input. For example, the second input is a deep press input by contact 6034 illustrated in FIGS. 6Q-6T.

いくつかの実施形態では、第2の入力に基づいて第2のユーザーインターフェース領域の中で仮想オブジェクトの第2の表現の表示特性を変えることは、1つ以上の軸のまわりを回転すること(例えば、垂直及び/又は横スワイプを経て)、サイズ変更すること(例えば、サイズ変更するピンチ)、1つ以上の軸のまわりで傾けること(例えば、デバイスを傾けることによって)、視点を変化させること(例えば、1つ以上の視野面を検出するための1つ以上のカメラの視野の分析のためにいくつかの実施形態において使われる、水平にデバイスを動かすことによって)、及び/又は仮想オブジェクトの表現の色を変えることを含む。例えば、仮想オブジェクトの第2の表現の表示特性を変えることは、図6J~6Kで図示するように、接触6006によって水平スワイプジェスチャに応答して仮想椅子5020を回転させること、図6K~6Lで図示するように、接触6006によって斜めのスワイプジェスチャに応答して仮想椅子5020を回転させること、又は図6N~6Oで図示するように、接触6026及び6030によってデピンチジェスチャに応答して仮想椅子5020のサイズを増加させることを含む。いくつかの実施形態において、仮想オブジェクトの第2の表現の表示特性が変えられる量は、第2の入力特性が変化する量(例えば、接触による移動の距離又は速度、接触の強度、接触の期間など)と相関している。 In some embodiments, changing the display characteristics of the second representation of the virtual object within the second user interface area based on the second input includes rotating about one or more axes ( (e.g., via vertical and/or horizontal swipes), resizing (e.g., pinch to resize), tilting around one or more axes (e.g., by tilting the device), changing perspective. (e.g., by moving the device horizontally, as used in some embodiments for analysis of the field of view of one or more cameras to detect one or more viewing planes), and/or of virtual objects. Including changing the color of the expression. For example, changing the display characteristics of the second representation of the virtual object may include rotating the virtual chair 5020 in response to a horizontal swipe gesture by contact 6006, as illustrated in FIGS. 6J-6K, Rotating the virtual chair 5020 in response to a diagonal swipe gesture by contact 6006, as illustrated, or rotating the virtual chair 5020 in response to a depinch gesture by contacts 6026 and 6030, as illustrated in FIGS. 6N-6O. Including increasing the size of. In some embodiments, the amount by which the display characteristics of the second representation of the virtual object are changed is the amount by which the second input characteristics are changed (e.g., distance or speed of movement by contact, intensity of contact, duration of contact). etc.).

いくつかの実施形態では、第2の入力が拡張現実環境に(例えば、図6Tに関して記載されている1つ以上のカメラの視野6036に)仮想オブジェクトを表示する要求に対応するという決定にしたがって、デバイスは、ディスプレイ上の仮想的なプレーンに対するそれぞれの向き(例えば、図6Rに示す仮想椅子5020の向き)から、1つ以上のカメラの視野において捕えられる物理的環境の部分の現在の向きに基づいて決定される第3の方向(例えば、図6Tに示す仮想椅子5020の向き)まで方向変更される、仮想オブジェクトの三次元表現を示す第2のアニメーション化された遷移を表示する。例えば、仮想オブジェクトの三次元の表現は、仮想オブジェクトの三次元表現が、カメラの視野において捕えられる物理的環境5002(例えば、仮想オブジェクトの三次元表現を支持することができる直立壁又は水平床面などの物理表面)のライブ画像において識別される所定のプレーン(例えば、床面5038)に対して固定角であるように、方向変更される。いくつかの実施形態では、拡張現実ビューの仮想オブジェクトの向きは、少なくとも1つの態様においてステージングユーザーインターフェースの仮想オブジェクトの向きによって拘束される。例えば、三次元座標系の少なくとも1つの軸のまわりの仮想オブジェクトの回転角度は、仮想オブジェクトをステージングユーザーインターフェースから拡張現実ビューに遷移するときに維持される(例えば、図6Q~6Uに関して記載されているように、図6J~6Kに関して記載されている仮想椅子5020の回転は維持される)。いくつかの実施形態では、第2のユーザーインターフェース領域の仮想オブジェクトの表現上への光投射源は仮想光源である。いくつかの実施形態では、第3のユーザーインターフェース領域の仮想オブジェクトの第3の表現は、(例えば、1つ以上のカメラの視野において検出され、かつ/又はそれから判定されるような)実世界光源によって照らされる。 In some embodiments, in accordance with the determination that the second input corresponds to a request to display a virtual object in the augmented reality environment (e.g., in the field of view of one or more cameras 6036 as described with respect to FIG. 6T); The device determines the current orientation of portions of the physical environment captured in the field of view of one or more cameras from their respective orientations relative to a virtual plane on the display (e.g., the orientation of the virtual chair 5020 shown in FIG. 6R). displaying a second animated transition showing the three-dimensional representation of the virtual object being reoriented to a third orientation (eg, the orientation of the virtual chair 5020 shown in FIG. 6T) determined by the virtual object. For example, the three-dimensional representation of the virtual object may be captured in the physical environment 5002 (e.g., an upright wall or horizontal floor surface that can support the three-dimensional representation of the virtual object) in which the three-dimensional representation of the virtual object is captured in the field of view of the camera. The object is reoriented to be at a fixed angle with respect to a predetermined plane (e.g., floor surface 5038) identified in the live image of the physical surface (e.g., floor surface 5038). In some embodiments, the orientation of the virtual object in the augmented reality view is constrained in at least one aspect by the orientation of the virtual object in the staging user interface. For example, the rotation angle of the virtual object about at least one axis of the three-dimensional coordinate system is maintained when transitioning the virtual object from a staging user interface to an augmented reality view (e.g., as described with respect to FIGS. 6Q-6U). 6J-6K is maintained). In some embodiments, the source of light projection onto the representation of the virtual object in the second user interface area is a virtual light source. In some embodiments, the third representation of the virtual object in the third user interface area is a real-world light source (e.g., as detected in and/or determined from the field of view of one or more cameras). illuminated by.

いくつかの実施形態では、第1の基準は、第1の入力が仮想オブジェクトインジケータ5022(例えば、ディスプレイ上の仮想オブジェクトの表現に重ねてかつ/又はそれと隣接して表示されるアイコンなどのインジケータ)に対応するタッチ感知面上の場所に第1の接触によって入力されるタップを含むときに(例えば、そうであるという判定にしたがって)満たされる基準を含む(912)。例えば、仮想オブジェクトインジケータ5022は、それが一致する仮想オブジェクトがステージングビュー(例えば、ステージングユーザーインターフェース6010)及び拡張現実ビュー(例えば、カメラの視野6036)において見えるという表示を、(例えば、方法1000に関して下記により詳細に説明するように)提供する。第1の入力が入力されるタップを含むかどうかに応じて、第2のユーザーインターフェース領域に仮想オブジェクトの第2の表現を表示するかどうかを決定することにより、第1の入力に応答して複数の異なるタイプの操作を実行することができる。入力に応答して複数の異なるタイプの操作の実行を可能にすることは、ユーザーがこれらの操作を実行することができる効率性を増大させ、それによって、デバイスの操作性を高め、加えてそれが、電力使用量を減らして、ユーザーがより迅速かつ効率よくデバイスを使用することができることによってデバイスのバッテリ寿命を改善する。 In some embodiments, the first criterion is that the first input is a virtual object indicator 5022 (e.g., an indicator such as an icon displayed over and/or adjacent to a representation of the virtual object on a display). (e.g., according to a determination that such is the case) (912). For example, virtual object indicator 5022 provides an indication that the virtual object it matches is visible in a staging view (e.g., staging user interface 6010) and an augmented reality view (e.g., camera field of view 6036) (e.g., described below with respect to method 1000). (as described in more detail). responsive to the first input by determining whether to display a second representation of the virtual object in the second user interface area depending on whether the first input includes the input tap; Multiple different types of operations can be performed. Enabling the performance of multiple different types of operations in response to input increases the efficiency with which users can perform these operations, thereby increasing the usability of the device, as well as increasing the improves device battery life by reducing power usage and allowing users to use their devices more quickly and efficiently.

いくつかの実施形態では、第1の基準は、少なくとも所定の時間(例えば、長いプレスの時間閾値)の間に閾値移動量未満で仮想オブジェクトの第1の表現に対応する、タッチ感知面上の場所に第1の接触が維持されるときに(例えば、そうであるという判定にしたがって)満たされる基準を含む(914)。例えば、第1の基準は、タッチホールド入力によって満たされる。いくつかの実施形態では、第1の基準は、基準が満たされるために、少なくとも所定の閾値時間の間に閾値移動量未満で仮想オブジェクトの表現に対応するタッチ感知面上の場所に第1の接触が維持された後に第1の接触の移動を必要とする基準を含む。例えば、第1の基準は、タッチホールド入力に続くドラッグ入力によって満たされる。仮想オブジェクトの第2の表現を第2のユーザーインターフェース領域に表示するべきかどうかを決定することは、接触が少なくとも所定の時間の間に閾値移動量未満で仮想オブジェクトの表現に対応するタッチ感知面上の場所に維持されるかどうかに応じて、入力に応答した複数の異なるタイプの操作の実行を可能にする。入力に応答して複数の異なるタイプの操作の実行を可能にすることは、ユーザーがこれらの操作を実行することができる効率性を増大させ、それによって、デバイスの操作性を高め、加えてそれが、電力使用量を減らして、ユーザーがより迅速かつ効率よくデバイスを使用することができることによってデバイスのバッテリ寿命を改善する。 In some embodiments, the first criterion is that the touch-sensitive surface corresponds to a first representation of the virtual object with less than a threshold amount of movement for at least a predetermined period of time (e.g., a long press time threshold). Includes criteria that are met when a first contact is maintained at the location (e.g., in accordance with a determination that such is the case) (914). For example, the first criterion is met by touch and hold input. In some embodiments, the first criterion is such that the first criterion is at a location on the touch-sensitive surface corresponding to the representation of the virtual object less than a threshold amount of movement for at least a predetermined threshold time for the criterion to be met. Includes criteria requiring movement of the first contact after contact is maintained. For example, the first criterion is met by a touch and hold input followed by a drag input. Determining whether the second representation of the virtual object should be displayed in the second user interface area comprises: determining whether the second representation of the virtual object is to be displayed in the second user interface area; Allows the execution of several different types of operations in response to input, depending on whether it is kept in place or not. Enabling the performance of multiple different types of operations in response to input increases the efficiency with which users can perform these operations, thereby increasing the usability of the device, as well as increasing the improves device battery life by reducing power usage and allowing users to use their devices more quickly and efficiently.

いくつかの実施形態では、第1の基準は、第1の接触の特性強度が第1の強度閾値(例えば、深い押圧強度閾値IT)を上回って増加するときに(例えば、そうであるという判定にしたがって)満たされる基準を含む(916)。例えば、図6Q~6Tに関して記載されているように、基準は、強度レベルメータ5028によって示されるように、接触6034の特性強度が深い押圧強度閾値ITを上回って増加するときに満たされる。いくつかの実施形態では、接触が別のタイプのジェスチャ(例えば、タップ)を認識するための基準を満たすという判定にしたがって、デバイスは第2の(例えば、ステージング)ユーザーインターフェースをトリガさせること以外の別の所定の機能を実行すると共に仮想オブジェクトの表示を維持する。いくつかの実施形態では、第1の基準は、第1の入力がタップ入力でない(例えば、接触のリフトオフの前に閾値強度を上回ったものに達する激しいタップ入力が、接触の最初のタッチダウンのタップ時間閾値の範囲内で検出される)ことを必要とする。いくつかの実施形態では、第1の基準は、基準が満たされるために、第1の接触の強度が第1の強度閾値を超えた後に第1の接触の移動を必要とする基準を含む。例えば、第1の基準は、押圧入力に続くドラッグ入力によって満たされる。接触の特性強度が第1の強度閾値を上回って増加するかどうかに応じて、第2のユーザーインターフェース領域に仮想オブジェクトを表示するかどうかを決定することにより、第1の入力に応答して複数の異なるタイプの操作を実行することができる。入力に応答して複数の異なるタイプの操作の実行を可能にすることは、ユーザーがこれらの操作を実行することができる効率性を増大させ、それによって、デバイスの操作性を高め、加えてそれが、電力使用量を減らして、ユーザーがより迅速かつ効率よくデバイスを使用することができることによってデバイスのバッテリ寿命を改善する。 In some embodiments, the first criterion is (e.g., when the characteristic intensity of the first contact increases above a first intensity threshold (e.g., deep press intensity threshold IT D )). (916) including the criteria to be met (according to the determination). For example, as described with respect to FIGS. 6Q-6T, the criterion is met when the characteristic intensity of the contact 6034 increases above the deep press intensity threshold ITD , as indicated by the intensity level meter 5028. In some embodiments, the device performs operations other than triggering a second (e.g., staging) user interface in accordance with a determination that the contact meets criteria for recognizing another type of gesture (e.g., a tap). Maintaining a display of the virtual object while performing another predetermined function. In some embodiments, the first criterion is that the first input is not a tap input (e.g., a severe tap input that reaches above a threshold intensity before liftoff of the contact is (detected within a tap time threshold). In some embodiments, the first criterion includes a criterion that requires movement of the first contact after the intensity of the first contact exceeds a first intensity threshold for the criterion to be met. For example, the first criterion is met by a drag input followed by a press input. in response to the first input by determining whether to display the virtual object in the second user interface area depending on whether the characteristic intensity of the contact increases above the first intensity threshold; can perform different types of operations. Enabling the performance of multiple different types of operations in response to input increases the efficiency with which users can perform these operations, thereby increasing the usability of the device, as well as increasing the improves device battery life by reducing power usage and allowing users to use their devices more quickly and efficiently.

一部の実施形態では、第1の接触による第1の入力の検出に応答して、第1の接触による第1の入力が第2の基準(例えば、インターフェーススクロール基準)を満たすことの判定に応じて(ただし、第2の基準は、第1の入力が閾値距離よりも長くにわたるタッチ感知面と交差する方向の第1の接触の移動を含むことを必要とする(例えば、第2の基準は、垂直スワイプ又は水平ジェスチャなどのスワイプジェスチャによって満たされる))、デバイスは、第1のユーザーインターフェース領域(及び仮想オブジェクトの表現)を第1の接触の移動方向に対応する方向にスクロールする(918)(例えば、第1の基準は満たされず、仮想オブジェクトの表現を第2のユーザーインターフェース領域に表示することは見合わせられる)。例えば、図6B~6Cに関して説明したように、接触6002による上向きの垂直スワイプジェスチャは、メッセージングユーザーインターフェース5008及び仮想椅子5020を上方へスクロールさせる一部の実施形態では、第1の基準が満たされるために、第1の基準も、第1の入力が閾値距離よりも長くにわたる第1の接触の移動を含むことを必要とし、デバイスは、第1の入力の初期部分がオブジェクト選択基準(例えば、仮想オブジェクトの表現に対するタッチ保持又は押圧)を満たすか否かに基づいて、第1の入力が、第1の基準(例えば、ステージングトリガ基準)、又は第2の基準(例えば、インターフェーススクロール基準)を満たすか否かを判定する。一部の実施形態では、第2の基準は、仮想オブジェクト及び仮想オブジェクトのARアイコン)の位置の外側のタッチ位置で開始されるスワイプ入力によって満たされる。第1の入力が第2の基準を満たすか否かによって、第1の入力に応答して第1のユーザーインターフェース領域をスクロールするか否かを判定することで、第1の入力に応答して複数の異なるタイプの動作を実行することができる。入力に応答して複数の異なるタイプの動作の実行を可能にすることで、ユーザーがこれらの動作を実行できる効率を高め、それによってデバイスの操作性を向上させ、更に、ユーザーがデバイスをより素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用量を削減し、電池寿命を改善する。 In some embodiments, in response to detecting the first input by the first contact, the method includes determining that the first input by the first contact satisfies a second criterion (e.g., an interface scrolling criterion). (e.g., the second criterion requires that the first input includes movement of the first contact in a direction intersecting the touch-sensitive surface for greater than a threshold distance) is filled by a swipe gesture, such as a vertical swipe or a horizontal gesture), the device scrolls (918) the first user interface area (and the representation of the virtual object) in a direction corresponding to the direction of movement of the first contact. ) (e.g., the first criterion is not met and displaying the representation of the virtual object in the second user interface area is forgone). For example, as described with respect to FIGS. 6B-6C, an upward vertical swipe gesture by contact 6002 causes the messaging user interface 5008 and virtual chair 5020 to scroll upward in some embodiments because the first criterion is met. , the first criteria also requires the first input to include movement of the first contact over a distance greater than a threshold distance, and the device specifies that the initial portion of the first input is based on object selection criteria (e.g., virtual the first input satisfies a first criterion (e.g., a staging trigger criterion) or a second criterion (e.g., an interface scroll criterion) Determine whether or not. In some embodiments, the second criterion is met by a swipe input initiated at a touch location outside the location of the virtual object and the virtual object's AR icon). responsive to the first input by determining whether to scroll the first user interface area in response to the first input depending on whether the first input satisfies a second criterion; Multiple different types of operations can be performed. By allowing users to perform multiple different types of actions in response to input, they increase the efficiency with which users can perform these actions, thereby improving the usability of the device and also allowing users to use the device more quickly. Reduce device power usage and improve battery life by enabling efficient use.

一部の実施形態では、第1の接触による第1の入力の検出に応答して、第1の接触による第1の入力が第3の(例えば、ARトリガ)基準を満たすことの判定に応じて、デバイスは、仮想オブジェクトの第3の表現を1つ以上のカメラの視野の表現と共に表示する(920)。例えば、図6AD~6AGに関して説明したように、接触6044による長いタッチ入力とそれに続く仮想椅子5020をドラッグする接触6044による上向きのドラッグ入力によって、仮想椅子5020は、カメラの視野6036と共に表示される。 In some embodiments, in response to detecting the first input by the first contact, the first input by the first contact satisfies a third (e.g., AR trigger) criterion. Then, the device displays (920) a third representation of the virtual object along with a representation of the field of view of the one or more cameras. For example, as described with respect to FIGS. 6AD-6AG, a long touch input with contact 6044 followed by an upward drag input with contact 6044 that drags virtual chair 5020 causes virtual chair 5020 to be displayed with camera field of view 6036.

一部の実施形態では、第3の基準は、例えば、1つ以上のカメラがアクティブ状態にあり、デバイスの向きが規定の範囲(例えば、既定の元の向きから、1つ以上の軸まわりの規定の回転角)内に収まり、接触による入力が選択入力(例えば、長いタッチ)とそれに続くドラッグ入力を含む((例えば、ディスプレイの縁部から所定の距離内まで)ディスプレイ上で仮想オブジェクトを移動させる接触の移動)、接触の特性強度はARトリガ強度閾値(例えば、ライト押圧閾値IT又はディープ押圧閾値IT))を超えて増大し、接触の持続時間はARトリガ持続時間閾値(例えば、長い押圧閾値)を超えて増大し、及び/又はこの接触により移動する距離はARトリガ距離閾値(例えば、長いスワイプ閾値)を超えて増大する、という判定に応じて満足させられる基準を含む。一部の実施形態では、第2のユーザーインターフェース領域(例えば、ステージングユーザーインターフェース6010)に仮想オブジェクトの表現を表示する制御(例えば、トグル制御6018)は、仮想オブジェクトの表現及び1つ以上のカメラの視野6036を含むユーザーインターフェース(例えば、第2のユーザーインターフェース領域のうちの少なくとも一部に置き換わる第3のユーザーインターフェース領域)に表示される。 In some embodiments, the third criterion is, e.g., one or more cameras are active and the device orientation is within a defined range (e.g., from a default original orientation, about one or more axes). moving the virtual object on the display (e.g., to within a predetermined distance from the edge of the display), and the contact input includes a selection input (e.g., a long touch) followed by a drag input (e.g., to within a predetermined distance from the edge of the display) movement of the contact), the characteristic intensity of the contact increases above an AR trigger intensity threshold (e.g., light press threshold IT L or deep press threshold IT D )), and the duration of the contact increases beyond an AR trigger duration threshold (e.g. and/or the distance traveled by this contact increases beyond an AR triggering distance threshold (e.g., a long swipe threshold). In some embodiments, a control (e.g., toggle control 6018) that displays a representation of the virtual object in a second user interface area (e.g., staging user interface 6010) includes a representation of the virtual object and one or more cameras. Displayed in a user interface (eg, a third user interface area that replaces at least a portion of the second user interface area) that includes a field of view 6036.

一部の実施形態では、第1のユーザーインターフェース領域(例えば、非AR、非ステージング、タッチスクリーンUIビュー)から第3のユーザーインターフェース領域(例えば、拡張現実ビュー)へ直接に遷移する際に、デバイスは、ディスプレイ上のタッチスクリーンUI(例えば、非AR、非ステージングビュー)に表されるそれぞれの向きから1つ以上のカメラの視野内に取り込まれた物理的環境の一部の現在の向きに対して予め定められている向きへ仮想オブジェクトの三次元表現の向きが変えられることを示すアニメーション化された遷移を表示する。例えば、図6AD~6AJに示すように、第1のユーザーインターフェース領域(例えば、図6ADに示すようなメッセージングユーザーインターフェース5008)から第3のユーザーインターフェース領域(例えば、図6AJに示すようなカメラの視野6036を含む拡張現実ユーザーインターフェース)へ直接に遷移する際に、仮想椅子5020は、図6AD~6AHに示すような第1の向きから(例えば、図6AJに示すような)カメラの視野6036内に取り込まれるような物理的環境5002内の床面5038に対する所定の向きへ変化する。例えば、仮想オブジェクトの三次元表現は、仮想オブジェクトの三次元表現が物理的環境5002のライブ画像中で識別される所定のプレーン(例えば、仮想オブジェクトの三次元表現を支持することができる垂直壁又は水平床面(例えば、床面5038)などの物理的表面)に対して一定の角度であるように向きが変えられる。第1の入力が第3の基準を満たすか否かによって、第1の入力に応答してカメラの視野と共に仮想オブジェクトの第3の表現を表示するか否かを判定することで、第1の入力に応答して複数の異なるタイプの動作を実行することができる。入力に応答して複数の異なるタイプの動作の実行を可能にすることで、ユーザーがこれらの動作を実行できる効率を高め、それによってデバイスの操作性を向上させ、更に、ユーザーがデバイスをより素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用量を削減し、電池寿命を改善する。 In some embodiments, when transitioning directly from a first user interface area (e.g., a non-AR, non-staging, touchscreen UI view) to a third user interface area (e.g., an augmented reality view), the device for the current orientation of a portion of the physical environment captured within the field of view of one or more cameras from each orientation represented in a touchscreen UI (e.g., non-AR, non-staging view) on a display. displaying an animated transition indicating that the three-dimensional representation of the virtual object is reoriented to a predetermined orientation. For example, as shown in FIGS. 6AD-6AJ, from a first user interface area (e.g., messaging user interface 5008 as shown in FIG. 6AJ) to a third user interface area (e.g., a camera field of view as shown in FIG. 6AJ) 6036), the virtual chair 5020 is placed within the camera's field of view 6036 (e.g., as shown in FIG. 6AJ) from a first orientation as shown in FIGS. 6AD-6AH. It changes to a predetermined orientation relative to a floor surface 5038 within the physical environment 5002 in which it is captured. For example, the three-dimensional representation of the virtual object may be attached to a predetermined plane (e.g., a vertical wall or It is oriented at an angle with respect to a horizontal floor (eg, a physical surface such as floor 5038). determining whether to display a third representation of the virtual object along with the camera field of view in response to the first input, depending on whether the first input satisfies a third criterion; Multiple different types of operations can be performed in response to input. By allowing users to perform multiple different types of actions in response to input, they increase the efficiency with which users can perform these actions, thereby improving the usability of the device and also allowing users to use the device more quickly. Reduce device power usage and improve battery life by enabling efficient use.

一部の実施形態では、第1の接触による第1の入力の検出に応答して、デバイスは、1つ以上のデバイス方向センサによって、デバイスの現在のデバイス向き(例えば、デバイスの周囲の物理的環境に対する向き)を決定し(922)、第3の基準(例えば、ARトリガ基準)は、第3の基準が満たされるために、現在のデバイス向きが第1の向き範囲内にあることを必要とする(例えば、デバイスとグラウンドの間の角度が、(介在状態をバイパスするために)デバイスがグラウンドに対して十分に平行であることを示す閾値角度未満であるときに、第2の基準は満たされる)。一部の実施形態では、第1の基準(例えば、ステージングトリガ基準)は、第1の基準が満たされるために、現在のデバイスの向きが第2の向き範囲内にあることを必要とする(例えば、デバイスとグラウンドの間の角度が、まず介在状態に行くためにデバイスがグラウンドに対して十分に直立であることを示す閾値から90度の値の範囲内にあるときに、第1の基準は満たされる。デバイスの向きがある向き範囲内にあるか否かによって、第1の入力に応答してカメラの視野と共に仮想オブジェクトの第3の表現を表示するか否かを判定することで、第1の入力に応答して複数の異なるタイプの動作を実行することができる。入力に応答して複数の異なるタイプの動作の実行を可能にすることで、ユーザーがこれらの動作を実行できる効率を高め、それによってデバイスの操作性を向上させ、更に、ユーザーがデバイスをより素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用量を削減し、電池寿命を改善する。 In some embodiments, in response to detecting the first input by the first contact, the device detects a current device orientation of the device (e.g., a physical location around the device) by one or more device orientation sensors. an orientation relative to the environment), and a third criterion (e.g., an AR trigger criterion) requires that the current device orientation be within the first orientation range for the third criterion to be satisfied. (e.g., when the angle between the device and ground is less than a threshold angle indicating that the device is sufficiently parallel to ground (to bypass intervening conditions), the second criterion is It is filled). In some embodiments, a first criterion (e.g., a staging trigger criterion) requires that the current device orientation be within a second orientation range for the first criterion to be satisfied ( For example, the first criterion is when the angle between the device and the ground is within a value of 90 degrees from a threshold indicating that the device is sufficiently upright to the ground to go to the intervening state. is satisfied.Determining whether to display a third representation of the virtual object along with the camera field of view in response to the first input depending on whether the orientation of the device is within an orientation range; A plurality of different types of actions may be performed in response to the first input. Enabling the performance of multiple different types of actions in response to the input increases the efficiency with which a user can perform these actions. , thereby improving device operability, and further reducing device power usage and improving battery life by allowing users to use the device more quickly and efficiently.

一部の実施形態では、仮想オブジェクトの第2の表現の少なくとも1つの表示特性(例えば、サイズ、形状、ヨー軸、ピッチ軸、ロール軸など周りのそれぞれの角度)は、仮想オブジェクトの第3の表現に適用される(924)。例えば、図6Q~6Uに関して説明したように、仮想椅子5020の第3の表現が(例えば、図6Uに示すような)カメラの視野6036を含む拡張現実ビューに表示されるときに、図6J~6Kに関して説明したように、ステージングユーザーインターフェース6010に適用される仮想椅子5020の第2の表現の回転は維持される。一部の実施形態では、拡張現実ビューにおける仮想オブジェクトの向きは、少なくとも1つの態様におけるステージングユーザーインターフェースにおける仮想オブジェクトの向きによって制約される。例えば、仮想オブジェクトをステージングビューから拡張現実ビューに遷移するときに、所定の三次元座標系の少なくとも1つの軸(例えば、ヨー、ピッチ、又はロール軸)の周りの仮想オブジェクトの回転角度は維持される。一部の実施形態では、仮想オブジェクトの第2の表現がユーザー入力によっていくつかのやり方で操作(例えば、サイズ、形状、テクスチャ、向き等が変更)される場合、仮想オブジェクトの第2の表現の少なくとも1つの表示特性は、仮想オブジェクトの第3の表現にのみ適用される。言い換えれば、オブジェクトが、1つ以上のやり方で拡張現実ビューに示されるときに又は拡張現実ビュー内でオブジェクトの外観を制約するために使用されるときに、ステージングビューになされる変化は、維持される。(例えば、仮想オブジェクトの第2の表現及び仮想オブジェクトの第3の表現に同一の表示特性を適用するために更なるユーザー入力を必要とせずに)仮想オブジェクトの第2の表現の少なくとも1つの表示特性を仮想オブジェクトの第3の表現に適用することにより、(例えば、仮想オブジェクトの大きなバージョンが第2のユーザーインターフェースに表示されている間にユーザーが第2の仮想オブジェクトに回転を適用することを可能にし、1つ以上のカメラの視野の表現と共に表示される仮想オブジェクトの第3の表現に回転を適用することによって)デバイスの操作性を向上させ、更に、ユーザーがデバイスをより素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用量を削減し、電池寿命を改善する。 In some embodiments, at least one display characteristic (e.g., size, shape, respective angle about a yaw axis, pitch axis, roll axis, etc.) of the second representation of the virtual object is different from a third representation of the virtual object. applied to the expression (924). For example, as described with respect to FIGS. 6Q-6U, when a third representation of virtual chair 5020 is displayed in an augmented reality view that includes a camera field of view 6036 (e.g., as shown in FIG. 6U), FIGS. 6K, the rotation of the second representation of virtual chair 5020 applied to staging user interface 6010 is maintained. In some embodiments, the orientation of the virtual object in the augmented reality view is constrained by the orientation of the virtual object in the staging user interface in at least one aspect. For example, when transitioning a virtual object from a staging view to an augmented reality view, the rotation angle of the virtual object about at least one axis (e.g., yaw, pitch, or roll axis) of a predetermined three-dimensional coordinate system is maintained. Ru. In some embodiments, when the second representation of the virtual object is manipulated in some way (e.g., changing size, shape, texture, orientation, etc.) by user input, The at least one display characteristic applies only to the third representation of the virtual object. In other words, changes made to the staging view are maintained when the object is shown in the augmented reality view in one or more ways or when used to constrain the appearance of the object within the augmented reality view. Ru. Displaying at least one of the second representations of the virtual objects (e.g., without requiring further user input to apply the same display characteristics to the second representation of the virtual objects and the third representation of the virtual objects) By applying the property to a third representation of the virtual object (e.g., when a user applies a rotation to the second virtual object while a larger version of the virtual object is displayed in the second user interface) Improve device usability (by enabling and applying rotation to a third representation of a virtual object that is displayed along with a representation of one or more camera fields of view), and furthermore, allow the user to use the device more quickly and efficiently. Reduce your device's power usage and improve battery life by allowing it to be used for

一部の実施形態では、(例えば、第1の接触の検出、又は第1の基準を満たさずにそれぞれの所定の基準を満たす第1の接触による入力の検出、あるいは第1の基準を満たす入力の検出を含む)第1の接触による第1の入力のうちの少なくとも初期部分の検出に応答して(926)、デバイスは、1つ以上のカメラを起動し(例えば、ディスプレイ上にカメラの視野を直ちに表示することなくカメラを起動し)、デバイスは、1つ以上のカメラの視野を分析して、1つ以上のカメラの視野内の1つ以上のプレーンを検出する。一部の実施形態では、(例えば、拡張現実環境に仮想オブジェクトを表示する要求に対応する第2の入力が検出されるまで、少なくとも1つの視野平面が検出されるまで、又は仮想オブジェクトに対して定められるアンカー平面に対応する視野平面が検出されるまで)1つ以上のカメラの視野6036を表示することは、1つ以上のカメラの起動後に遅延される。一部の実施形態では、1つ以上のカメラの視野6036は、1つ以上のカメラの起動に対応する時点で(例えば、それと同時に)表示される。一部の実施形態では、1つ以上のカメラの視野内でプレーンが検出される前(例えば、接触による第1の入力の検出に応答して判定に応じて1つ以上のカメラの視野が表示される前)に、1つ以上のカメラの視野6036が表示される。(例えば、仮想オブジェクトの第3の表現を1つ以上のカメラの視野の表現と共に表示する前に)カメラを起動しカメラの視野を分析して、第1の入力の初期部分の検出に応答して1つ以上の視野平面の検出することで、(例えば、カメラの視野内のそれぞれのプレーンに対する仮想オブジェクトの第3の表現の位置及び/又は向きを決定するのに必要な時間を減少させることによって)デバイスの効率高め、更に、ユーザーがデバイスをより素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用量を削減し、電池寿命を改善する。 In some embodiments, (e.g., detecting a first contact, or detecting an input due to a first contact that satisfies a respective predetermined criterion without satisfying the first criterion, or detecting an input that satisfies the first criterion) In response to detecting (926) at least an initial portion of the first input by the first contact (including detecting a the device analyzes the field of view of the one or more cameras to detect one or more planes within the field of view of the one or more cameras. In some embodiments, until at least one viewing plane is detected (e.g., until a second input corresponding to a request to display a virtual object in an augmented reality environment is detected, or Displaying the field of view 6036 of the one or more cameras (until a viewing plane corresponding to the defined anchor plane is detected) is delayed after activation of the one or more cameras. In some embodiments, the field of view 6036 of one or more cameras is displayed at a time corresponding to (eg, simultaneously with) activation of the one or more cameras. In some embodiments, before a plane is detected within the field of view of the one or more cameras (e.g., the field of view of the one or more cameras is displayed as determined in response to the detection of the first input by contact). The field of view 6036 of one or more cameras is displayed. activating a camera and analyzing the camera's field of view (e.g., before displaying a third representation of the virtual object along with a representation of the one or more camera's fields of view) in response to detecting an initial portion of the first input; detecting one or more viewing planes (e.g., reducing the time required to determine the position and/or orientation of the third representation of the virtual object relative to each plane within the camera's field of view) In addition, it reduces device power usage and improves battery life by increasing device efficiency (by enabling users to use their devices more quickly and efficiently).

一部の実施形態では、デバイスは、1つ以上のカメラの視野内のそれぞれのプレーン(例えば、床面5038)の検出に応答して、1つ以上の触知出力生成器167を用いて、1つ以上のカメラの視野内のそれぞれのプレーンの検出を示す触知出力を出力する(928)。一部の実施形態では、視野平面が識別される前に、視野6036が示され得る。一部の実施形態では、追加のユーザーインターフェース制御及び/又はアイコンは、少なくとも1つの視野平面が検出された後に又は視野平面の全部が識別された後に、視野内で実世界画像上に重ね合わされる。カメラの視野内でプレーンを検出したことを示す触知出力を出力することで、プレーンが検出されたことを示すフィードバックをユーザーに提供する。改善された触覚的フィードバックを提供することにより、(例えば、適切な入力を提供するようにユーザーを支援し、仮想オブジェクトを配置する不要な追加の入力を減少させることによって)デバイスの操作性を向上させ、更に、ユーザーがデバイスをより素早くかつ効率的に使用することを可能にすることでデバイスの電力使用量を削減し、電池寿命を改善する。 In some embodiments, the device uses one or more tactile output generators 167 in response to detecting a respective plane (e.g., floor surface 5038) within the field of view of one or more cameras. A tactile output is output indicative of detection of each plane within the field of view of the one or more cameras (928). In some embodiments, the field of view 6036 may be shown before the viewing plane is identified. In some embodiments, additional user interface controls and/or icons are superimposed on the real-world image within the field of view after at least one viewing plane is detected or after all of the viewing planes are identified. . Provides feedback to the user that a plane has been detected by outputting a tactile output indicating that a plane has been detected within the camera's field of view. Improve device usability by providing improved tactile feedback (e.g. by assisting the user in providing appropriate input and reducing unnecessary additional input to position virtual objects) It also reduces device power usage and improves battery life by allowing users to use their devices more quickly and efficiently.

一部の実施形態では、ディスプレイ上の仮想オブジェクトの第3の表現のサイズは、仮想オブジェクトのシミュレートされた実世界サイズと、1つ以上のカメラと1つ以上のカメラの視野6036内の場所との間の距離とに基づいて決定され(930)、それと共に仮想オブジェクト(例えば、仮想椅子5020)の第3の表現は、一定の空間的関係(例えば、仮想オブジェクトが付される床面5038などのプレーン)を有する。一部の実施形態では、仮想オブジェクトの第3の表現のサイズは、1つ以上のカメラの視野に対する仮想オブジェクトの第3の表現のサイズの縮尺が維持されるように制約される。一部の実施形態では、1つ以上の物理的寸法パラメータ(例えば、長さ、幅、深さ、及び/又は半径)は、仮想オブジェクトについて定義される。一部の実施形態では、第2のユーザーインターフェース(例えば、ステージングユーザーインターフェース)において、仮想オブジェクトは、その定義された物理的寸法パラメータによって制約されない(例えば、仮想オブジェクトのサイズは、ユーザー入力に応答して変更可能である)。一部の実施形態では、仮想オブジェクトの第3の表現は、その定義された寸法パラメータによって制約される。視野内に表される物理的環境に対する拡張現実ビュー内の仮想オブジェクトの位置を変更するためのユーザー入力が検出されたとき、又は視野のズームレベルを変更するためのユーザー入力が検出されたとき、又はデバイスの周囲の物理的環境に対して移動させるためのユーザー入力が検出されたとき、仮想オブジェクトの外観(例えば、サイズ、ビューイング視点)は、(例えば、仮想オブジェクトのアンカー平面と拡張現実環境内のものとの間の一定の空間的関係によって表現されるような)仮想オブジェクトと物理的環境との間の一定の空間的関係と、仮想オブジェクトの所定の寸法パラメータ及び物理的環境の実際の寸法に基づく一定の縮尺とによって制約されるやり方で変化する。(例えば、仮想オブジェクトの実世界サイズをシミュレートするために仮想オブジェクトの第3の表現をリサイズように更なるユーザー入力を必要とせずに)仮想オブジェクトのシミュレートされた実世界サイズと、1つ以上のカメラと1つ以上のカメラの視野内の場所との間の距離に基づいて仮想オブジェクトの第3の表現のサイズを決定することにより、デバイスの操作性を向上させ、更に、ユーザーがデバイスをより素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用量を削減し、電池寿命を改善する。 In some embodiments, the size of the third representation of the virtual object on the display is determined by the simulated real-world size of the virtual object and the location within the field of view 6036 of the one or more cameras and the one or more cameras. and the third representation of the virtual object (e.g., virtual chair 5020) is determined 930 based on a certain spatial relationship (e.g., the floor surface 5038 to which the virtual object is attached). plane). In some embodiments, the size of the third representation of the virtual object is constrained such that scale of the size of the third representation of the virtual object relative to the field of view of the one or more cameras is maintained. In some embodiments, one or more physical dimension parameters (eg, length, width, depth, and/or radius) are defined for the virtual object. In some embodiments, in a second user interface (e.g., a staging user interface), the virtual object is not constrained by its defined physical dimension parameters (e.g., the size of the virtual object is responsive to user input). (can be changed). In some embodiments, the third representation of the virtual object is constrained by its defined dimensional parameters. when a user input is detected to change the position of a virtual object in the augmented reality view relative to the physical environment represented in the field of view, or when a user input is detected to change a zoom level of the field of view; or when user input is detected to cause the device to move relative to the surrounding physical environment, the virtual object's appearance (e.g., size, viewing perspective) may change (e.g., the virtual object's anchor plane and the augmented reality environment). a certain spatial relationship between the virtual object and the physical environment (as expressed by a certain spatial relationship between It varies in a manner constrained by a constant scale based on dimensions. the simulated real-world size of the virtual object (e.g., without the need for further user input) to resize the third representation of the virtual object to simulate the real-world size of the virtual object; improves the usability of the device by determining the size of the third representation of the virtual object based on the distance between the one or more cameras and a location within the field of view of the one or more cameras; Reduce your device's power usage and improve battery life by allowing it to be used more quickly and efficiently.

一部の実施形態では、仮想オブジェクトを拡張現実環境内に表示する要求に対応する第2の入力は、(例えば、距離閾値を超えて増大する距離だけ、定められた境界を越えて、及び/又ディスプレイ若しくは第2のユーザーインターフェース領域の縁部(例えば、底縁、上縁、及び又は側縁)の閾値距離内にある位置まで)仮想オブジェクトの第2の表現を(選択して)ドラッグする入力を含む(932)。仮想オブジェクトを拡張現実環境内に表示する要求に対応する第2の入力の検出に応答して、仮想オブジェクトの第3の表現をカメラの視野の表現と共に表示することによって、第2のユーザーインターフェースを追加の表示された制御(例えば、第2のユーザーインターフェースから拡張現実環境を表示する制御)で乱すことなく追加の制御オプションを提供する。第2のユーザーインターフェースを追加の表示された制御で乱すことなく追加の制御オプションを提供することによって、デバイスの操作性を向上させ、更に、ユーザーがデバイスをより素早くかつ効率的に使用することを可能にすることでデバイスの電力使用量を削減し、電池寿命を改善する。 In some embodiments, the second input corresponding to a request to display a virtual object within an augmented reality environment (e.g., by an increasing distance above a distance threshold, beyond a defined boundary, and/or and (selectively) dragging a second representation of the virtual object to a position that is within a threshold distance of an edge (e.g., a bottom edge, a top edge, and/or a side edge) of the display or second user interface area. Contains input (932). the second user interface by displaying a third representation of the virtual object along with a representation of the field of view of the camera in response to detecting a second input corresponding to a request to display the virtual object within the augmented reality environment; Additional displayed controls (e.g., controls for displaying an augmented reality environment from a second user interface) provide additional control options without clutter. Improves the usability of the device by providing additional control options without cluttering the secondary user interface with additional visible controls, and also allows the user to use the device more quickly and efficiently. Reduce your device's power usage and improve battery life by enabling

一部の実施形態では、第2のユーザーインターフェース領域(例えば、図6Zに示すようなステージングユーザーインターフェース6010)に仮想オブジェクトの第2の表現を表示しつつ、デバイスは、第1のユーザーインターフェース領域を再表示するそれぞれの基準を満たす第4の入力(例えば、仮想オブジェクトの第2の表現に対応するタッチ感知面上の場所、又はタッチ感知面上の別の場所(例えば、第2のユーザーインターフェース領域の底部又は縁部)でのタップ、強い押圧、又はタッチ保持及びドラッグ入力、並びに/あるいは第1のユーザーインターフェースの領域に復帰する制御に対応するタッチ感知面上の位置での入力)を検出し(934)、この第4の入力の検出に応答して、デバイスは、第2のユーザーインターフェース領域に仮想オブジェクトの第2の表現を表示するのを中止し、デバイスは、第1のユーザーインターフェース領域に仮想オブジェクトの第1の表現を再表示する。例えば、図6Z~6ACに示すように、ステージングユーザーインターフェース6010に表示されたバック制御6016に対応する位置での接触6042による入力に応答して、デバイスは、第2のユーザーインターフェース領域(例えば、ステージングユーザーインターフェース6010)に仮想椅子5020の第2の表現を表示するのを中止し、デバイスは、第1のユーザーインターフェース領域(例えば、メッセージングユーザーインターフェース5008)に仮想椅子5020の第1の表現を再表示する。一部の実施形態では、仮想オブジェクトの第1の表現は、ステージングビュー及び/又は拡張現実ビューに遷移する前に示されたものと同じ外観、位置、及び/又は向きで第1のユーザーインターフェース領域に表示される。例えば、図6ACにおいて、仮想椅子5020は、図6Aにおけるメッセージングユーザーインターフェース5008に表示される仮想椅子5020と同じ向きでメッセージングユーザーインターフェース5008に表示される。一部の実施形態では、デバイスは、第1のユーザーインターフェース領域における仮想オブジェクトの表示に戻るように遷移する際に、仮想オブジェクトをスクリーン上に連続的に表示する。例えば、図6Y~6Cにおいて、仮想椅子5020は、ステージングユーザーインターフェース6010の表示からメッセージングユーザーインターフェース5008の表示への遷移中に連続的に表示される。第2のユーザーインターフェースに仮想オブジェクトの第2の表現を表示しつつ検出された第4の入力が第1のユーザーインターフェースを再表示する基準を満たすか否かによって、第1のユーザーインターフェースに仮想オブジェクトの第1の表現を再表示するか否かを判定することで、第4の入力に応答して複数の異なるタイプの動作を実行することができる。入力に応答して複数の異なるタイプの動作の実行を可能にすることで、ユーザーがこれらの動作を実行できる効率を高め、それによってデバイスの操作性を向上させ、更に、ユーザーがデバイスをより素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用量を削減し、電池寿命を改善する。 In some embodiments, the device displays a second representation of the virtual object in a second user interface area (e.g., a staging user interface 6010 as shown in FIG. 6Z) while displaying a second representation of the virtual object in the first user interface area. A fourth input (e.g., a location on the touch-sensitive surface that corresponds to the second representation of the virtual object, or another location on the touch-sensitive surface (e.g., a second user interface area) that satisfies the respective criteria for redisplaying a tap, a hard press, or a touch hold and drag input (on the bottom or edge of the user interface) and/or an input at a location on the touch-sensitive surface that corresponds to a control returning to the area of the first user interface); (934), in response to detecting this fourth input, the device ceases displaying the second representation of the virtual object in the second user interface area; redisplaying the first representation of the virtual object at . For example, as shown in FIGS. 6Z-6AC, in response to input by contact 6042 at a location corresponding to back control 6016 displayed on staging user interface 6010, the device moves to a second user interface area (e.g., staging the device redisplays the first representation of the virtual chair 5020 in the first user interface area (e.g., messaging user interface 5008); do. In some embodiments, the first representation of the virtual object is displayed in the first user interface area with the same appearance, position, and/or orientation as shown before transitioning to the staging view and/or the augmented reality view. will be displayed. For example, in FIG. 6AC, virtual chair 5020 is displayed on messaging user interface 5008 in the same orientation as virtual chair 5020 displayed on messaging user interface 5008 in FIG. 6A. In some embodiments, the device continuously displays the virtual object on the screen when transitioning back to displaying the virtual object in the first user interface area. For example, in FIGS. 6Y-6C, virtual chair 5020 is continuously displayed during the transition from displaying staging user interface 6010 to displaying messaging user interface 5008. the virtual object in the first user interface depending on whether the detected fourth input satisfies the criteria for redisplaying the first user interface while displaying the second representation of the virtual object in the second user interface; A plurality of different types of actions can be performed in response to the fourth input by determining whether to redisplay the first representation of the fourth input. By allowing users to perform multiple different types of actions in response to input, they increase the efficiency with which users can perform these actions, thereby improving the usability of the device and also allowing users to use the device more quickly. Reduce device power usage and improve battery life by enabling efficient use.

一部の実施形態では、(例えば、図6Uに示すように)1つ以上のカメラの視野5036の表現と共に仮想オブジェクトの第3の表現を表示しつつ、デバイスは、第2のユーザーインターフェース領域を再表示するそれぞれの基準を満たす第5の入力(例えば、仮想オブジェクトの第3の表現に対応するタッチ感知面上の位置又はタッチ感知面上の別の位置でのタップ、強い押圧、又はタッチ及びドラッグ入力、並びに/あるいは第2のユーザーインターフェース領域の表示に復帰する制御に対応するタッチ感知面上の場所での入力)を検出し(936)、この第5の入力の検出に応答して、デバイスは、仮想オブジェクトの第3の表現及び1つ以上のカメラの視野の表現を表示するのを中止し、第2のユーザーインターフェース領域に仮想オブジェクトの第2の表現を再表示する。例えば、図6V~図6Yに示すように、カメラの視野6036を含む第3のユーザーインターフェースに表示されるトグル制御6018に対応する位置での接触6040による入力に応答して、デバイスは、カメラの視野6036を表示するのを中止し、ステージングユーザーインターフェース6010を再表示する。一部の実施形態では、仮想オブジェクトの第2の表現は、拡張現実ビューに示されるものと同じ向きで第2のユーザーインターフェース領域に表示される。一部の実施形態では、デバイスは、第2のユーザーインターフェース領域における仮想オブジェクトの表示に戻るように遷移する際に、仮想オブジェクトをスクリーン上に連続的に表示する。例えば、図6V~6Yにおいて、仮想椅子5020は、カメラの視野6036の表示からステージングユーザーインターフェース6010の表示への遷移中に連続的に表示される。カメラの視野と共に仮想オブジェクトの第3の表現を表示しつつ検出された第5の入力が、第2のユーザーインターフェースを再表示する基準を満たすか否かによって、第2のユーザーインターフェースに仮想オブジェクトの第2の表現を再表示するか否かを判定することで、第5の入力に応答して複数の異なるタイプの動作の実行を可能にする。入力に応答して複数の異なるタイプの動作の実行を可能にすることで、ユーザーがこれらの動作を実行できる効率を高め、それによってデバイスの操作性を向上させ、更に、ユーザーがデバイスをより素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用量を削減し、電池寿命を改善する。 In some embodiments, the device displays the third representation of the virtual object along with the representation of the one or more camera fields of view 5036 (e.g., as shown in FIG. 6U), while the device displays the second user interface area. a fifth input that satisfies the respective criteria for redisplay (e.g., a tap, a hard press, or a touch and detecting (936) a drag input and/or an input at a location on the touch-sensitive surface corresponding to a control to return the second user interface area to display, and in response to detecting the fifth input; The device ceases displaying the third representation of the virtual object and the representation of the field of view of the one or more cameras and redisplays the second representation of the virtual object in the second user interface area. For example, as shown in FIGS. 6V-6Y, in response to input by a contact 6040 at a location corresponding to a toggle control 6018 displayed in a third user interface that includes a camera's field of view 6036, the device Stop displaying field of view 6036 and redisplay staging user interface 6010. In some embodiments, the second representation of the virtual object is displayed in the second user interface area in the same orientation as shown in the augmented reality view. In some embodiments, the device continuously displays the virtual object on the screen when transitioning back to displaying the virtual object in the second user interface area. For example, in FIGS. 6V-6Y, virtual chair 5020 is continuously displayed during the transition from displaying camera field of view 6036 to displaying staging user interface 6010. displaying a third representation of the virtual object in the second user interface depending on whether a fifth input detected while displaying the third representation of the virtual object in conjunction with the camera's field of view satisfies the criteria for redisplaying the second user interface. Determining whether to redisplay the second representation allows for performing a plurality of different types of actions in response to the fifth input. By allowing users to perform multiple different types of actions in response to input, they increase the efficiency with which users can perform these actions, thereby improving the usability of the device and also allowing users to use the device more quickly. Reduce device power usage and improve battery life by enabling efficient use.

一部の実施形態では、仮想オブジェクトの第3の表現を1つ以上のカメラの視野の表現6036と共に表示しつつ、デバイスは、第1のユーザーインターフェース領域(例えば、メッセージングユーザーインターフェース5008)を再表示するそれぞれの基準を満たす第6の入力を検出し(938)、この第6の入力の検出に応答して、デバイスは、(例えば、図6Uに示すような)仮想オブジェクト(例えば、仮想椅子5020)の第3の表現及び1つ以上のカメラの視野6036の表現を表示するのを中止し、デバイスは、(例えば、図6ACに示すように)仮想オブジェクトの第1の表現を第1のユーザーインターフェースの領域に再表示する。一部の実施形態では、第6の入力は、例えば、仮想オブジェクトの第3の表現の表現に対応するタッチ感知面上の場所又はタッチ感知面上の別の位置でのタップ、強い押圧、又はタッチ及びドラッグ入力であり、並びに/あるいは第1のユーザーインターフェース領域の表示に復帰する制御に対応するタッチ感知面上の位置での入力である。一部の実施形態では、仮想オブジェクトの第1の表現は、ステージングビュー及び/又は拡張現実ビューに遷移する前に示されたものと同じ外観及び位置で第1のユーザーインターフェース領域に表示される。一部の実施形態では、デバイスは、第1のユーザーインターフェース領域における仮想オブジェクトの表示に戻るように遷移する際に、仮想オブジェクトをスクリーン上に連続的に表示する。カメラの視野と共に仮想オブジェクトの第3の表現を表示しつつ検出された第6の入力が第1のユーザーインターフェースを再表示する基準を満たすか否かによって、第1のユーザーインターフェースに仮想オブジェクトの第1の表現を再表示するか否かを判定することで、第6の入力に応答して複数の異なるタイプの動作を実行することができる。入力に応答して複数の異なるタイプの動作の実行を可能にすることで、ユーザーがこれらの動作を実行できる効率を高め、それによってデバイスの操作性を向上させ、更に、ユーザーがデバイスをより素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用量を削減し、電池寿命を改善する。 In some embodiments, the device redisplays the first user interface area (e.g., messaging user interface 5008) while displaying the third representation of the virtual object along with the one or more camera field of view representations 6036. 938, and in response to detecting the sixth input, the device detects (938) a sixth input that satisfies respective criteria to ) and the representation of the one or more camera fields of view 6036, the device displays the first representation of the virtual object to the first user (e.g., as shown in FIG. 6AC). Redisplay in area of interface. In some embodiments, the sixth input is, for example, a tap at a location on the touch-sensitive surface or another location on the touch-sensitive surface that corresponds to the representation of the third representation of the virtual object, a hard press, or touch and drag inputs and/or inputs at locations on the touch sensitive surface that correspond to controlling return to display of the first user interface area. In some embodiments, the first representation of the virtual object is displayed in the first user interface area with the same appearance and position as shown before transitioning to the staging view and/or the augmented reality view. In some embodiments, the device continuously displays the virtual object on the screen when transitioning back to displaying the virtual object in the first user interface area. A third representation of the virtual object is displayed in the first user interface depending on whether the detected sixth input satisfies the criteria for redisplaying the first user interface while displaying the third representation of the virtual object along with the camera's field of view. Determining whether to redisplay the first representation may perform multiple different types of actions in response to the sixth input. By allowing users to perform multiple different types of actions in response to input, they increase the efficiency with which users can perform these actions, thereby improving the usability of the device and also allowing users to use the device more quickly. Reduce device power usage and improve battery life by enabling efficient use.

一部の実施形態では、第1の接触による第1の入力の検出に応答し、第1の接触による入力が第1の基準を満たすという判定に応じて、デバイスは、第1のユーザーインターフェース領域(例えば、メッセージングユーザーインターフェース5008)の表示から第2のユーザーインターフェース領域(例えば、ステージングユーザーインターフェース6010)の表示へ遷移するときに、第1のユーザーインターフェース領域内の仮想オブジェクトの第1の表現を第2のユーザーインターフェース領域内の仮想オブジェクトの第2の表現に変形するアニメーション(例えば、移動、1つ以上の軸を中心にした回転、及び/又はスケーリング)の表示を含んで、仮想オブジェクトを連続的に表示する(940)。例えば、図6E~6Iにおいて、仮想椅子5020は、メッセージングユーザーインターフェース5008の表示からステージングユーザーインターフェース6010の表示への遷移中に連続的に表示され、アニメーション化される(例えば、仮想椅子5020の向きが変化する)。一部の実施形態では、仮想オブジェクトは、(例えば、第1のユーザーインターフェース領域に示されるような仮想オブジェクトの第1の表現の形状及び向きに基づいて定められる)カメラの視野内のプレーンに対する定められた向き、位置、及び/又は距離を有し、第2のユーザーインターフェース領域に遷移するときに、仮想オブジェクトの第1の表現は、ディスプレイ上の新しい位置(例えば、第2のユーザーインターフェース領域内の仮想ステージングプレーンの中心)で仮想オブジェクトの第2の表現に移動し、リサイズし、及び/又は向きを変え、移動中又は移動終了時に、デバイスの周囲の物理的環境から独立して定められる所定の仮想ステージングプレーンに対して仮想オブジェクトが所定の角度であるように、仮想オブジェクトは向きを変える。第1のユーザーインターフェースにおける仮想オブジェクトの第1の表現が第2のユーザーインターフェースにおける仮想オブジェクトの第2の表現に変形するときにアニメーションを表示することにより、第1の入力が第1の基準を満たすことを示すフィードバックをユーザーに提供する。改善されたフィードバックを提供することにより、(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザーを支援し、ユーザーの誤りを削減することによって)デバイスの操作性を向上させ、更に、ユーザーがデバイスをより素早くかつ効率的に使用することを可能にすることでデバイスの電力使用量を削減し、電池寿命を改善する。 In some embodiments, in response to detecting the first input by the first contact and in response to determining that the input by the first contact satisfies the first criteria, the device controls the first user interface area. When transitioning from displaying a second user interface area (e.g., messaging user interface 5008) to displaying a second user interface area (e.g., staging user interface 6010), the first representation of the virtual object in the first user interface area is Continuously displaying an animation (e.g., translation, rotation about one or more axes, and/or scaling) that transforms the virtual object into a second representation of the virtual object within a second user interface area. (940). For example, in FIGS. 6E-6I, virtual chair 5020 is continuously displayed and animated (e.g., the orientation of virtual chair 5020 is Change). In some embodiments, the virtual object is defined relative to a plane within the field of view of the camera (e.g., defined based on the shape and orientation of the first representation of the virtual object as shown in the first user interface area). When transitioning to a second user interface area, the first representation of the virtual object has a new position on the display (e.g., within the second user interface area). during the movement or at the end of the movement, the second representation of the virtual object (at the center of the virtual staging plane of The virtual object is oriented such that the virtual object is at a predetermined angle with respect to the virtual staging plane of the virtual object. The first input satisfies the first criterion by displaying an animation when the first representation of the virtual object in the first user interface transforms into the second representation of the virtual object in the second user interface. Provide feedback to users indicating that Improve the usability of the device by providing improved feedback (e.g. by assisting the user in providing appropriate input when operating/interacting with the device and reducing user errors) , further reduces device power usage and improves battery life by allowing users to use their devices more quickly and efficiently.

一部の実施形態では、第2の接触による第2の入力の検出に応答し、第2の接触による第2の入力が拡張現実環境に仮想オブジェクトを表示する要求に対応するという判定に応じて、デバイスは、第2のユーザーインターフェース領域(例えば、ステージングユーザーインターフェース6010)の表示から1つ以上のカメラの視野6036を含む第3のユーザーインターフェース領域の表示へ遷移するときに、第2のユーザーインターフェース領域内の仮想オブジェクトの第2の表現を、1つ以上のカメラの視野を含む第3のユーザーインターフェース領域内の仮想オブジェクトの第3の表現に変形するアニメーション(例えば、移動、1つ以上の軸を中心にした回転、及び/又はスケーリング)の表示を含んで仮想オブジェクトを連続的に表示する(942)。例えば、図6Q~6Uにおいて、仮想椅子5020は、ステージングユーザーインターフェース6010の表示からカメラの視野6036の表示への遷移中に連続的に表示され、アニメーション化される(例えば、仮想椅子5020の位置及びサイズが変化する)。一部の実施形態では、仮想オブジェクトは、1つ以上のカメラの視野内で検出される視野平面(例えば、ユーザーインターフェースオブジェクトの三次元表現を支持することができる垂直壁又は水平床面などの物理的表面)に対して仮想オブジェクトが所定の向き、位置、及び/又は距離にあるように向きを変える。第2のユーザーインターフェースにおける仮想オブジェクトの第2の表現が第3のユーザーインターフェースにおける仮想オブジェクトの第3の表現に変形するときにアニメーションを表示することで、仮想オブジェクトを拡張現実環境に表示する要求に第2の入力が対応することを示すフィードバックをユーザーに提供する。改善された視覚的フィードバックをユーザーに提供することにより、(例えば、デバイスを操作/対話するときに適切な入力を提供するようにユーザーを支援し、ユーザーの誤りを削減することによって)デバイスの操作性を向上させ、更に、ユーザーがデバイスをより素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用量を削減し、電池寿命を改善する。 In some embodiments, in response to detecting the second input by the second contact, and in response to determining that the second input by the second contact corresponds to a request to display the virtual object in the augmented reality environment. , when the device transitions from displaying a second user interface area (e.g., staging user interface 6010) to displaying a third user interface area including one or more camera fields of view 6036, the device displays the second user interface area (e.g., staging user interface 6010). An animation that transforms a second representation of a virtual object within a region into a third representation of a virtual object within a third user interface region that includes a field of view of one or more cameras (e.g., movement, one or more axes) (942). For example, in FIGS. 6Q-6U, virtual chair 5020 is continuously displayed and animated (e.g., the position of virtual chair 5020 and size changes). In some embodiments, the virtual object is a physical field of view detected within the field of view of one or more cameras (e.g., a physical field such as a vertical wall or horizontal floor that can support a three-dimensional representation of a user interface object). The virtual object is turned so that it is at a predetermined orientation, position, and/or distance with respect to the target surface. Displaying an animation when a second representation of the virtual object in the second user interface transforms into a third representation of the virtual object in the third user interface satisfies the need for displaying the virtual object in an augmented reality environment. Feedback is provided to the user indicating that the second input corresponds. Operation of the device by providing improved visual feedback to the user (e.g., by assisting the user to provide appropriate inputs and reducing user errors when operating/interacting with the device) It also reduces device power usage and improves battery life by allowing users to use their devices more quickly and efficiently.

図9A~9Dにおける動作について説明された特定の順序は単なる例であり、説明された順序は、動作を実行することができる唯一の順序であることを示すことを意図するものではないことを理解されたい。当業者であれば、本明細書で説明される動作を再順序付けるための様々な方法を認識するであろう。加えて、本明細書に記載される他の方法(例えば、方法800、900、16000、17000、18000、19000、及び20000)に関して本明細書に記載される他のプロセスの詳細は、図9A~9Dに関して上記した方法900にも、同様に適用可能であることに留意されたい。例えば、方法900を参照して上記した接触、入力、仮想オブジェクト、ユーザーインターフェース領域、強度閾値、視野、触知出力、移動、及び/又はアニメーションは、任意選択的に、本明細書に記載される他の方法(例えば、方法800、900、16000、17000、18000、19000、及び20000)を参照して本明細書に記載した接触、入力、仮想オブジェクト、ユーザーインターフェース領域、強度閾値、視野、触知出力、移動、及び/又はアニメーションの特徴のうちの1つ以上を有する。簡潔にするために、これらの詳細はここでは繰り返さない。 It is understood that the particular order described for the operations in FIGS. 9A-9D is merely an example and that the described order is not intended to indicate that the operations are the only order in which the operations may be performed. I want to be Those skilled in the art will recognize various ways to reorder the operations described herein. In addition, other process details described herein with respect to other methods described herein (e.g., methods 800, 900, 16000, 17000, 18000, 19000, and 20000) are shown in FIGS. Note that method 900 described above with respect to 9D is equally applicable. For example, the contacts, inputs, virtual objects, user interface regions, intensity thresholds, fields of view, tactile output, movement, and/or animations described above with reference to method 900 are optionally described herein. Contact, input, virtual objects, user interface areas, intensity thresholds, field of view, tactility as described herein with reference to other methods (e.g., methods 800, 900, 16000, 17000, 18000, 19000, and 20000) having one or more of the following features: output, movement, and/or animation. For the sake of brevity, these details will not be repeated here.

図10A~10Dは、一部の実施形態による、アイテムが仮想三次元オブジェクトに対応することを示すために視覚的な指示と共にアイテムを表示する方法1000を示すフロー図である。方法1000は、ディスプレイ及びタッチ感知面(例えば、ディスプレイとタッチ感知面の両方としての役割を果たすタッチスクリーンディスプレイ)を有する電子デバイス(例えば、図3のデバイス300、又は図1Aのポータブル多機能デバイス100)で実行される。一部の実施形態では、ディスプレイはタッチスクリーンディスプレイであり、タッチ感知面がディスプレイ上にあるか又はこれに組み込まれている。一部の実施形態では、ディスプレイはタッチ感知面から分離している。方法1000の一部の動作は任意選択で組み合わされ、及び/又は一部の動作の順序は任意選択で変更される。 10A-10D are flow diagrams illustrating a method 1000 of displaying an item with a visual indication to indicate that the item corresponds to a virtual three-dimensional object, according to some embodiments. Method 1000 includes an electronic device (e.g., device 300 of FIG. 3 or portable multifunction device 100 of FIG. 1A) having a display and a touch-sensitive surface (e.g., a touchscreen display that serves as both a display and a touch-sensitive surface). ) is executed. In some embodiments, the display is a touch screen display with a touch sensitive surface on or integrated into the display. In some embodiments, the display is separate from the touch-sensitive surface. Some acts of method 1000 are optionally combined and/or the order of some acts is optionally changed.

以下に説明するように、方法1000は、第1及び第2のユーザーインターフェースにアイテムを表示することに関する。各アイテムは、アイテムがそれぞれの仮想三次元オブジェクトに対応するか否かによって、アイテムが仮想三次元オブジェクトに対応することを示す視覚的な指示と共に、又は視覚的な指示なしで表示される。アイテムが仮想三次元オブジェクトであるか否かユーザーに指示を与えることで、(例えば、アイテムが仮想三次元オブジェクトであるか否かによって適切な入力を提供するようにユーザーを支援することによって)ユーザーが第1のアイテムに対して動作を実行できる効率を高め、それによってデバイスの操作性を向上させ、更に、ユーザーがデバイスをより素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用量を削減し、電池寿命を改善する。 As described below, method 1000 relates to displaying items on first and second user interfaces. Each item is displayed with or without a visual indication that the item corresponds to a virtual three-dimensional object, depending on whether the item corresponds to a respective virtual three-dimensional object. the user by providing an indication to the user whether the item is a virtual three-dimensional object (e.g., by assisting the user to provide appropriate input depending on whether the item is a virtual three-dimensional object) Reduces the power of the device by increasing the efficiency with which the device can perform operations on the first item, thereby improving the usability of the device, and further enabling the user to use the device more quickly and efficiently. Reduce usage and improve battery life.

デバイスは、第1のアイテム(例えば、アイコン、サムネイル画像、画像、絵文字、添付物、ステッカー、アプリアイコン、アバター等)を含む第1のユーザーインターフェースを表示する要求を受信する(1002)。例えば、一部の実施形態では、要求は、第1のアイテムの表現を第1のアイテムに関連付けられた所定の環境に表示するユーザーインターフェース(例えば、図7Bに示すような、インターネットブラウザユーザーインターフェース5060)を開く(例えば、図7に関して説明したような)入力である。所定の環境は、任意選択で、アプリケーション(例えば、電子メールアプリケーション、メッセージングアプリケーション、ブラウザアプリケーション、ワード処理アプリケーション、電子リーダアプリケーション等)のユーザーインターフェース、又はシステムユーザーインターフェース(例えば、ロック画面、通知インターフェース、サジェスチョンインターフェース、コントロールパネルユーザーインターフェース、ホーム画面ユーザーインターフェース等)である。 A device receives a request to display a first user interface that includes a first item (eg, an icon, thumbnail image, image, emoji, attachment, sticker, app icon, avatar, etc.) (1002). For example, in some embodiments, the request includes a user interface (e.g., Internet browser user interface 5060, as shown in FIG. 7B) that displays a representation of the first item in a predetermined environment associated with the first item. ) (eg, as described with respect to FIG. 7). The predetermined environment optionally includes a user interface of an application (e.g., email application, messaging application, browser application, word processing application, e-reader application, etc.) or a system user interface (e.g., lock screen, notification interface, suggestion interface, control panel user interface, home screen user interface, etc.).

第1のユーザーインターフェースを表示する要求に応答して、デバイスは、第1のユーザーインターフェース(例えば、図7Bで示すように、インターネットブラウザユーザーインターフェース5060)を第1のアイテムの表現と共に表示する(1004)。第1のアイテムがそれぞれの仮想三次元オブジェクトに対応するとの判定に応じて、デバイスは、第1のアイテムがそれぞれの第1の仮想三次元オブジェクトに対応することを示すために、第1のアイテムの表現を視覚的な指示と共に表示する(例えば、第1のアイテム、輪郭、及び/又はテキストの表現に対応する位置で表示されるアイコン及び/又は背景パネルなどの画像)。第1のアイテムがそれぞれの仮想三次元オブジェクトに対応していないとの判定に応じて、デバイスは、第1のアイテムの表現を視覚的な指示なしで表示する。例えば、インターネットブラウザユーザーインターフェース5060では、図7Bに示すように、(仮想三次元ランプオブジェクト5084の表現を含む)ウェブオブジェクト5068は、仮想ランプ8084が仮想三次元オブジェクトであることを示すために視覚的な指示(仮想オブジェクトインジケータ5080)と共に表示され、ウェブオブジェクト5074は、ウェブオブジェクト5074が仮想三次元オブジェクトに対応するアイテムを含んでいないので、視覚的なオブジェクインジケータなしで表示される。 In response to the request to display the first user interface, the device displays (1004) a first user interface (e.g., Internet browser user interface 5060, as shown in FIG. 7B) with a representation of the first item. ). In response to determining that the first item corresponds to the respective first virtual three-dimensional object, the device may detect the first item to indicate that the first item corresponds to the respective first virtual three-dimensional object. (e.g., an image such as an icon and/or background panel displayed at a position corresponding to the first item, outline, and/or text representation) with visual instructions. In response to determining that the first item does not correspond to the respective virtual three-dimensional object, the device displays a representation of the first item without visual indication. For example, in Internet browser user interface 5060, as shown in FIG. 7B, web object 5068 (including a representation of virtual three-dimensional lamp object 5084) is visually The web object 5074 is displayed without a visual object indicator because the web object 5074 does not include an item corresponding to a virtual three-dimensional object.

第1のアイテムの表現を表示した後に、デバイスは、第2のアイテム(例えば、アイコン、サムネイル画像、画像、絵文字、添付物、ステッカー、アプリアイコン、アバター等)を含む第2のユーザーインターフェース(例えば、図7Mに示すような、メッセージングユーザーインターフェース5008)を表示するために要求(例えば、図7H~7Lに関して説明したような入力)を受信する(1006)。第2のアイテムは第1のアイテムとは異なり、第2のユーザーインターフェースは第1のユーザーインターフェースとは異なる。例えば、一部の実施形態では、要求は、第2のアイテムに関連付けられた所定の環境に第2のアイテムの表現を表示するユーザーインターフェースを開く別の入力である。所定の環境は、任意選択で、第1のアイテムを示すのに使用されるアプリケーション以外のアプリケーション(例えば、電子メールアプリケーション、メッセージングアプリケーション、ブラウザアプリケーション、ワード処理アプリケーション、電子リーダアプリケーション等)のユーザーインターフェースであり、又は第1のアイテムを示すのに使用されるシステムユーザーインターフェース以外のシステムユーザーインターフェース(例えば、ロック画面、通知インターフェース、サジェスチョンインターフェース、コントロールパネルユーザーインターフェース、ホーム画面ユーザーインターフェース等)にある。 After displaying the representation of the first item, the device displays a second user interface (e.g., , a request (eg, input as described with respect to FIGS. 7H-7L) is received (1006) to display a messaging user interface 5008, such as that shown in FIG. 7M. The second item is different from the first item and the second user interface is different from the first user interface. For example, in some embodiments, the request is another input that opens a user interface that displays a representation of the second item in a predetermined environment associated with the second item. The predetermined environment is optionally a user interface of an application other than the application used to present the first item (e.g., an email application, a messaging application, a browser application, a word processing application, an electronic reader application, etc.). Yes, or in a system user interface other than the system user interface used to represent the first item (e.g., lock screen, notification interface, suggestion interface, control panel user interface, home screen user interface, etc.).

第2のユーザーインターフェースを表示する要求に応答して、デバイスは、第2のユーザーインターフェース(例えば、図7Mで示すように、メッセージングユーザーインターフェース5008)を第2のアイテムの表現と共に表示する(1008)。第2のアイテムがそれぞれの仮想三次元オブジェクトに対応するとの判定に応じて、デバイスは、第2のアイテムがそれぞれの第2の仮想三次元オブジェクトに対応することを示すために、第2のアイテムの表現を視覚的な指示(例えば、第1のアイテムが仮想三次元オブジェクトに対応することを示す同一の視覚的な指示)と共に表示する。第2のアイテムがそれぞれの仮想三次元オブジェクトに対応していないとの判定に応じて、デバイスは、第2のアイテムの表現を視覚的な指示なしで表示する。例えば、メッセージングユーザーインターフェース5008において、図7Mに示すように、仮想三次元椅子オブジェクト5020は、仮想椅子5020が仮想三次元オブジェクトであることを示す視覚的な指示(仮想オブジェクトインジケータ5022)と共に表示され、絵文字7020は、仮想三次元オブジェクトに対応するアイテムを絵文字7020が含んでいないので、視覚的なオブジェクトインジケータなしで表示される。 In response to the request to display the second user interface, the device displays (1008) a second user interface (e.g., messaging user interface 5008, as shown in FIG. 7M) with a representation of the second item. . In response to determining that the second item corresponds to the respective virtual three-dimensional object, the device may display the second item to indicate that the second item corresponds to the respective second virtual three-dimensional object. displaying a representation of the item along with a visual indication (eg, the same visual indication that the first item corresponds to a virtual three-dimensional object). In response to determining that the second item does not correspond to the respective virtual three-dimensional object, the device displays a representation of the second item without visual indication. For example, in the messaging user interface 5008, as shown in FIG. 7M, a virtual three-dimensional chair object 5020 is displayed with a visual indication (virtual object indicator 5022) that the virtual chair 5020 is a virtual three-dimensional object; The glyph 7020 is displayed without a visual object indicator because the glyph 7020 does not include an item that corresponds to a virtual three-dimensional object.

一部の実施形態では、第1のアイテムがそれぞれの第1の仮想三次元オブジェクトに対応することを示すために、第1のアイテム(例えば、仮想ランプ5084)の表現を視覚的な指示(例えば、仮想オブジェクトインジケータ5080)と共に表示することは、(例えば、方向センサ(例えば、デバイス100の1つ以上の加速度計168)により検出されるような)第1のデバイス向きから第2のデバイス向きへの変化という結果になるデバイスの移動の検出に応答して、第1のデバイス向きから第2のデバイス向きへの変化に対応する第1のアイテムの移動(例えば、第1のユーザーインターフェースに対する第1のアイテムの傾斜及び/又は第1のアイテムの移動)を表示することを含む(1010)。例えば、第1のデバイス向きは、図7F1に示すようなデバイス100の向きであり、第2のデバイス向きは、図7G1に示すようなデバイス100の向きである。図7F1~図7G1に示す移動に応答して、第1のアイテム(例えば、仮想ランプ5084)は、(例えば、図7F2~図7G2に示すように)傾斜する。一部の実施形態では、第2のオブジェクトが仮想三次元オブジェクトに対応する場合、第2のオブジェクトは、(例えば、第2のオブジェクトも仮想三次元オブジェクトに対応することを示すために)上記のようにデバイスの移動の検出にも応答する。 In some embodiments, a representation of the first item (e.g., virtual lamp 5084) is provided with a visual indication (e.g., , virtual object indicator 5080) from a first device orientation (e.g., as detected by an orientation sensor (e.g., one or more accelerometers 168 of device 100)) to a second device orientation. in response to detecting a movement of the device that results in a change in the orientation of the first item (e.g., a movement of the first item relative to the first user interface) corresponding to a change from the first device orientation to the second device orientation. and/or movement of the first item). For example, the first device orientation is the orientation of the device 100 as shown in FIG. 7F1, and the second device orientation is the orientation of the device 100 as shown in FIG. 7G1. In response to the movement shown in FIGS. 7F1-7G1, the first item (eg, virtual lamp 5084) tilts (eg, as shown in FIGS. 7F2-7G2). In some embodiments, if the second object corresponds to a virtual three-dimensional object, the second object is one of the above (e.g., to indicate that the second object also corresponds to a virtual three-dimensional object) It also responds to detection of device movement.

第1のデバイス向きから第2のデバイス向きへの変化に対応する第1のアイテムの移動を表示することによって、仮想三次元オブジェクトの挙動を示すユーザーへの視覚的フィードバックを提供する。改善された視覚的フィードバックをユーザーに提供することにより、(例えば、ユーザーが、更なる入力を行う必要がない向きから仮想三次元オブジェクトを見ることを可能にすることによって)デバイスの操作性を向上させ、更に、ユーザーがデバイスをより素早くかつ効率的に使用することを可能にすることでデバイスの電力使用量を削減し、電池寿命を改善する。 Visual feedback to a user indicating the behavior of the virtual three-dimensional object is provided by displaying a movement of the first item corresponding to a change from a first device orientation to a second device orientation. Improved device usability by providing improved visual feedback to the user (e.g., by allowing the user to view virtual three-dimensional objects from an orientation without the need for further input) It also reduces device power usage and improves battery life by allowing users to use their devices more quickly and efficiently.

一部の実施形態では、第1のアイテムがそれぞれの第1の仮想三次元オブジェクトに対応することを示すための視覚的な指示と共に第1のアイテムの表現を表示することは、第1のアイテムの表現が第1のユーザーインターフェースに表示されている間に第1のユーザーインターフェースをスクロールする第1の接触による第1の入力(例えば、第1の方向の第1のユーザーインターフェース上のスワイプ入力、又はスクロールバー端部上のスクロールボタンに対するタッチ保持入力)の検出に応答して、デバイスは、第1のユーザーインターフェースのスクロールに応じてディスプレイ上で第1のアイテムの表現を並進し(例えば、第1のユーザーインターフェースになされるスクロール量に基づく距離だけ、及びスクロールの反対方向に、第1のアイテムのアンカー位置を移動させる(例えば、第1のユーザーインターフェースがタッチ感知面をわたって移動する接触によって上方にドラッグされるときに、第1のアイテムの表現は、第1のユーザーインターフェースと共にディスプレイ上で上方に移動する))、このデバイスは、第1のユーザーインターフェースがスクロールされる方向に応じて第1のユーザーインターフェース(又はディスプレイ)によって定められるプレーンに対して第1のアイテムの表現を回転することを含む(1012)。例えば、図7C~7Dに示すように、仮想ランプ5084の表現がインターネットブラウザユーザーインターフェース5060に表示されている間にインターネットブラウザユーザーインターフェース5060をスクロールする接触7002による入力の検出に応答して、仮想ランプ5084はインターネットブラウザユーザーインターフェース5060のスクロールにしたがって並進させられ、仮想ランプ5084は接触7002の移動経路の方向にしたがってディスプレイ112に対して回転する。一部の実施形態では、第1のユーザーインターフェースが上方にドラッグされているとの判定に応じて、第1のアイテムの表現が第1のユーザーインターフェースと共に上方に移動し、第1のユーザーインターフェース上に示すような第1のアイテムのビューイング視点が、ユーザーが異なる視野角(例えば、低い角度)から第1のアイテムを見ているかのように変化する。一部の実施形態では、第2のユーザーインターフェースが上方にドラッグされているとの判定に応じて、第2のアイテムの表現は第2のユーザーインターフェースと共に上方に移動し、第2のユーザーインターフェース上に示すような第2のアイテムのビューイング視点が、ユーザーが異なる視野角(例えば、低い角度)から第2のアイテムを見ているかのように変化する。 In some embodiments, displaying the representation of the first item with a visual indication to indicate that the first item corresponds to a respective first virtual three-dimensional object comprises: a first input by a first touch that scrolls the first user interface while a representation of is displayed on the first user interface (e.g., a swipe input on the first user interface in a first direction; or a touch-and-hold input to a scroll button on a scroll bar end), the device translates a representation of the first item on the display in response to scrolling the first user interface (e.g., moving the anchor position of the first item by a distance based on the amount of scrolling made to the first user interface and in the opposite direction of the scrolling (e.g., by a touch that the first user interface moves across a touch-sensitive surface). When dragged upwards, the representation of the first item moves upwards on the display together with the first user interface), the device (1012), including rotating a representation of the first item relative to a plane defined by a user interface (or display) of the first item. For example, as shown in FIGS. 7C-7D, in response to detecting an input by a contact 7002 scrolling the Internet browser user interface 5060 while a representation of the virtual ramp 5084 is displayed on the Internet browser user interface 5060, the virtual ramp 5084 is translated according to the scrolling of the Internet browser user interface 5060 and the virtual lamp 5084 is rotated relative to the display 112 according to the direction of the travel path of the contact 7002. In some embodiments, in response to determining that the first user interface is being dragged upwardly, the representation of the first item moves upwardly with the first user interface; The viewing perspective of the first item as shown in FIG. 1 changes as if the user were viewing the first item from a different viewing angle (eg, a lower angle). In some embodiments, in response to determining that the second user interface is being dragged upward, the representation of the second item moves upward with the second user interface; The viewing perspective of the second item as shown in FIG. 1 changes as if the user were viewing the second item from a different viewing angle (eg, a lower angle).

移動が第1のデバイス向きから第2のデバイス向きへの変化に対応する場合、アイテムの移動を表示することによって、デバイス向きの変化を示すユーザーへの視覚的フィードバックを提供する。改善された視覚的フィードバックをユーザーに提供することにより、(例えば、ユーザーが、更なる入力を行う必要がない向きから仮想三次元オブジェクトを見ることを可能にすることによって)デバイスの操作性を向上させ、更に、ユーザーがデバイスをより素早くかつ効率的に使用することを可能にすることでデバイスの電力使用量を削減し、電池寿命を改善する。 If the movement corresponds to a change from the first device orientation to the second device orientation, displaying the movement of the item provides visual feedback to the user indicating the change in device orientation. Improved device usability by providing improved visual feedback to the user (e.g., by allowing the user to view virtual three-dimensional objects from an orientation without the need for further input) It also reduces device power usage and improves battery life by allowing users to use their devices more quickly and efficiently.

一部の実施形態では、第1のユーザーインターフェース(例えば、図7Bに示すようなインターネットブラウザユーザーインターフェース5060)に第1のアイテム(例えば、ランプオブジェクト5084)の表現を視覚的な指示(例えば、視覚的なオブジェクトインジケータ5080)と共に表示しつつ、デバイスは、第3のアイテムの表現を表示する(1014)ものであり、第3のアイテムが仮想三次元オブジェクトに対応していない(例えば、第3のアイテムは、拡張現実環境内でレンダリングできる任意の三次元オブジェクトに対応していない)ことを示すために、第3のアイテムの表現は、視覚的な指示なしで表示される。例えば、インターネットブラウザユーザーインターフェース5060において、図7Bで示すように、ウェブオブジェクト5074、5070、及び5076は、ウェブオブジェクト5074、5070、及び5076が仮想三次元オブジェクトに対応していないため、視覚的なオブジェクトインジケータなしで表示される。 In some embodiments, a representation of the first item (e.g., lamp object 5084) is provided to the first user interface (e.g., Internet browser user interface 5060 as shown in FIG. the device displays (1014) a representation of a third item, and the third item does not correspond to a virtual three-dimensional object (e.g., a virtual three-dimensional object indicator 5080); A representation of the third item is displayed without visual indication to indicate that the item does not correspond to any three-dimensional object that can be rendered within an augmented reality environment. For example, in the Internet browser user interface 5060, as shown in FIG. 7B, web objects 5074, 5070, and 5076 are visual Displayed without indicators.

第1のユーザーインターフェースに、第1のアイテムが仮想三次元オブジェクトであることを示すための視覚的な指示と共に第1のアイテムを表示すると共に、視覚的な指示なしで表示される第3のアイテムを表示することで、(例えば、ユーザーが対話しているアイテムが仮想三次元オブジェクトであるのかないのかによって適切な入力を提供するようにユーザーを支援することによって)ユーザーが第1のユーザーインターフェースを用いて動作を実行できる効率を高め、それによってデバイスの操作性を向上させ、更に、ユーザーがデバイスをより素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用量を削減し、電池寿命を改善する。 displaying the first item in the first user interface with a visual indication to indicate that the first item is a virtual three-dimensional object; and a third item being displayed without the visual indication. (e.g., by assisting the user in providing appropriate input depending on whether the item with which the user is interacting is a virtual three-dimensional object or not) increase the efficiency with which the device can be used to perform operations, thereby improving the usability of the device, and further reducing the power usage of the device by allowing the user to use the device more quickly and efficiently; Improve battery life.

一部の実施形態では、第2のユーザーインターフェース(例えば、図7Mに示すようなメッセージングユーザーインターフェース5008)に、第2のアイテム(例えば、仮想椅子5020)の表現を視覚的な指示(例えば、仮想オブジェクトインジケータ5022)と共に表示しつつ、デバイスは、第4のアイテム(例えば、絵文字7020)の表現を表示し(1016)、第4のアイテムがそれぞれの仮想三次元オブジェクトに対応していないことを示すために、第4のアイテムの表現は視覚的な指示なしで表示される。 In some embodiments, a second user interface (e.g., messaging user interface 5008 as shown in FIG. 7M) includes visual instructions (e.g., virtual object indicator 5022), the device displays (1016) a representation of a fourth item (e.g., a glyph 7020), indicating that the fourth item does not correspond to the respective virtual three-dimensional object. Therefore, a representation of the fourth item is displayed without visual indication.

第2のユーザーインターフェースに、第2のアイテムが仮想三次元オブジェクトであることを示すための視覚的な指示と共に第2のアイテムを表示すると共に、視覚的な指示なしで表示される第4のアイテムを表示することで、(例えば、ユーザーが対話しているアイテムが仮想三次元オブジェクトであるのかないのかによって適切な入力を提供するようにユーザーを支援することによって)ユーザーが第2のユーザーインターフェースを用いて動作を実行できる効率を高め、それによってデバイスの操作性を向上させ、更に、ユーザーがデバイスをより素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用量を削減し、電池寿命を改善する。 displaying the second item in the second user interface with a visual indication to indicate that the second item is a virtual three-dimensional object; and a fourth item being displayed without the visual indication. (e.g., by assisting the user in providing appropriate input depending on whether the item the user is interacting with is a virtual three-dimensional object or not). increase the efficiency with which the device can be used to perform operations, thereby improving the usability of the device, and further reducing the power usage of the device by allowing the user to use the device more quickly and efficiently; Improve battery life.

一部の実施形態において(1018)、第1のユーザーインターフェース(例えば、図7Bに示すようなインターネットブラウザユーザーインターフェース5060)は、第1のアプリケーション(例えば、インターネットブラウザアプリケーション)に対応し、第2のユーザーインターフェース(例えば、図7Mに示すようなメッセージングユーザーインターフェース5008)は、第1のアプリケーションとは別個の第2のアプリケーション(例えば、メッセージングアプリケーション)に対応し、視覚的な指示(例えば、仮想オブジェクトインジケータ5080)と共に表示される第1のアイテム(例えば、ランプオブジェクト5084)の表現、及び視覚的な指示(例えば、仮想オブジェクトインジケータ5022)と共に表示される第2のアイテム(例えば、仮想椅子5022)の表現は、所定の1組の視覚特性及び/又は挙動特性を共有する(例えば、同じインジケータアイコンを使用し、同じテクスチャ若しくはレンダリングのスタイル、及び/又は所定のタイプの入力によって引き起こされるときの挙動を有する)。例えば、仮想オブジェクトインジケータ5080及び仮想オブジェクトインジケータ5022のためのアイコンは、同一のシンボルを含む。 In some embodiments (1018), a first user interface (e.g., Internet browser user interface 5060 as shown in FIG. 7B) corresponds to a first application (e.g., an Internet browser application) and a second A user interface (e.g., messaging user interface 5008 as shown in FIG. 7M) corresponds to a second application (e.g., a messaging application) that is separate from the first application and includes visual instructions (e.g., virtual object indicators). 5080) and a representation of a second item (e.g., virtual chair 5022) displayed with a visual indication (e.g., virtual object indicator 5022). share a predetermined set of visual and/or behavioral characteristics (e.g., use the same indicator icon, have the same texture or rendering style, and/or have behavior when triggered by a predetermined type of input). ). For example, the icons for virtual object indicator 5080 and virtual object indicator 5022 include the same symbol.

第1のアイテム及び第2のアイテムの視覚的な指示が所定の1組の視覚特性及び/又は挙動特性を共有するように、第1のアプリケーションの第1のユーザーインターフェースに第1のアイテムを視覚的な指示と共に表示すると共に、第2のアプリケーションの第2のユーザーインターフェースに第2のアイテムを視覚的な指示と共に表示することによって、(例えば、ユーザーが対話しているアイテムが仮想三次元オブジェクトであるのかないのかによって適切な入力を提供するようにユーザーを支援することによって)ユーザーが第2のユーザーインターフェースを用いて動作を実行できる効率を高め、それによってデバイスの操作性を向上させ、更に、ユーザーがデバイスをより素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用量を削減し、電池寿命を改善する。 visualizing the first item in the first user interface of the first application such that the visual indications of the first item and the second item share a predetermined set of visual and/or behavioral characteristics; displaying the second item with visual instructions and displaying the second item with visual instructions on a second user interface of the second application (e.g., if the item with which the user is interacting is a virtual three-dimensional object); increasing the efficiency with which the user can perform operations with the second user interface (by assisting the user in providing appropriate input depending on the presence or absence), thereby improving the usability of the device; Reduce device power usage and improve battery life by allowing users to use their devices faster and more efficiently.

一部の実施形態では、第1のユーザーインターフェースは、インターネットブラウザアプリケーションのユーザーインターフェース(例えば、図7Bに示すような、インターネットブラウザユーザーインターフェース5060)であり(1020)、第1のアイテムは、ウェブページの要素である(例えば、第1のアイテムは、埋込画像、ハイパーリンク、アプレット、絵文字、埋め込まれたメディアオブジェクト等としてウェブページ内で表される)。例えば、第1のアイテムは、ウェブオブジェクト5068の仮想ランプオブジェクト5084である。 In some embodiments, the first user interface is an Internet browser application user interface (e.g., Internet browser user interface 5060, as shown in FIG. 7B) (1020), and the first item is a web page. (e.g., the first item is represented within the web page as an embedded image, hyperlink, applet, emoji, embedded media object, etc.). For example, the first item is virtual lamp object 5084 of web object 5068.

ウェブページ要素が仮想三次元オブジェクトであることを示す視覚的な指示と共にウェブページ要素を表示することによって、(例えば、ユーザーが対話しているウェブページ要素が仮想三次元オブジェクトであるのかないのかによって適切な入力を提供するようにユーザーを支援することによって)ユーザーがインターネットブラウザアプリケーションを用いて動作を実行できる効率を高め、それによってデバイスの操作性を向上させ、更に、ユーザーがデバイスをより素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用量を削減し、電池寿命を改善する。 By displaying a web page element with a visual indication that the web page element is a virtual three-dimensional object (e.g., depending on whether the web page element with which a user is interacting is a virtual three-dimensional object or not) Increase the efficiency with which users can perform actions with Internet browser applications (by assisting users in providing appropriate input), thereby improving the usability of the device, and also allowing users to use the device more quickly and Reduce your device's power usage and improve battery life by allowing it to be used more efficiently.

一部の実施形態では、第1のユーザーインターフェースは、電子メールアプリケーションユーザーインターフェース(例えば、図7Pに示すような電子メールユーザーインターフェース7052)であり(1022)、第1のアイテムは、電子メールに対する添付物(例えば、添付物7060)である。 In some embodiments, the first user interface is an email application user interface (e.g., email user interface 7052 as shown in FIG. 7P) (1022), and the first item is an attachment to the email. (e.g., attachment 7060).

電子メール添付物が仮想三次元オブジェクトであることを示す視覚的な指示と共に電子メール添付物を表示することによって、(例えば、ユーザーが対話している電子メール添付物が仮想三次元オブジェクトであるのかないのかによって適切な入力を提供するようにユーザーを支援することによって)ユーザーが電子メールアプリケーションユーザーインターフェースを用いて動作を実行できる効率を高め、それによってデバイスの操作性を向上させ、更に、ユーザーがデバイスをより素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用量を削減し、電池寿命を改善する。 By displaying an email attachment with a visual indication that the email attachment is a virtual three-dimensional object (e.g., indicating that the email attachment with which a user is interacting is a virtual three-dimensional object) Increases the efficiency with which users can perform actions with email application user interfaces (by assisting users in providing appropriate input depending on whether the user Reduce device power usage and improve battery life by allowing devices to be used more quickly and efficiently.

一部の実施形態では、第1のユーザーインターフェースは、メッセージングアプリケーションユーザーインターフェース(例えば、図7Mに示すようなメッセージングユーザーインターフェース5008)であり(1024)、第1のアイテムは、メッセージ中の添付物又は要素(例えば、仮想椅子5020)である(例えば、第1のアイテムは、画像、ハイパーリンク、ミニプログラム、絵文字、メディアオブジェクト等である)。 In some embodiments, the first user interface is a messaging application user interface (e.g., messaging user interface 5008 as shown in FIG. 7M) (1024), and the first item is an attachment or An element (eg, virtual chair 5020) (eg, the first item is an image, hyperlink, mini-program, emoticon, media object, etc.).

メッセージの添付物又は要素が仮想三次元オブジェクトであることを示す視覚的な指示と共にメッセージの添付物又は要素を表示することによって、(例えば、ユーザーが対話しているメッセージの添付物又は要素が仮想三次元オブジェクトであるのかないのかによって適切な入力を提供するようにユーザーを支援することによって)ユーザーがメッセージングユーザーインターフェースを用いて動作を実行できる効率を高め、それによってデバイスの操作性を向上させ、更に、ユーザーがデバイスをより素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用量を削減し、電池寿命を改善する。 By displaying a message attachment or element with a visual indication that the message attachment or element is a virtual three-dimensional object (e.g., the message attachment or element with which the user is interacting is improve the efficiency with which users can perform actions with messaging user interfaces (by assisting users in providing appropriate input depending on whether the object is a three-dimensional object or not), thereby improving the usability of the device; Additionally, it reduces device power usage and improves battery life by allowing users to use their devices more quickly and efficiently.

一部の実施形態では、第1のユーザーインターフェースは、ファイル管理アプリケーションユーザーインターフェース(例えば、図7Oに示すようなファイル管理ユーザーインターフェース7036)であり(1026)、第1のアイテムは、ファイルプレビューオブジェクト(例えば、ファイル情報領域7046中のファイルプレビューオブジェクト7045)である。 In some embodiments, the first user interface is a file management application user interface (e.g., file management user interface 7036 as shown in FIG. 7O) (1026), and the first item is a file preview object ( For example, the file preview object 7045 in the file information area 7046).

ファイルプレビューオブジェクトが仮想三次元オブジェクトであることを示す視覚的な指示と共にファイルプレビューオブジェクトを表示することによって、(例えば、ユーザーが対話しているファイルプレビューオブジェクトが仮想三次元オブジェクトであるのかないのかによって適切な入力を提供するようにユーザーを支援することによって)ユーザーがファイル管理アプリケーションユーザーインターフェースを用いて動作を実行できる効率を高め、それによってデバイスの操作性を向上させ、更に、ユーザーがデバイスをより素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用量を削減し、電池寿命を改善する。 By displaying a file preview object with a visual indication that the file preview object is a virtual three-dimensional object (e.g., depending on whether the file preview object with which the user is interacting is a virtual three-dimensional object or not) Increase the efficiency with which users can perform operations with file management application user interfaces (by assisting users in providing appropriate inputs), thereby improving the usability of the device, and further enabling users to Reduce device power usage and improve battery life by allowing quick and efficient use.

一部の実施形態では、第1のユーザーインターフェースは、地図アプリケーションユーザーインターフェース(例えば、地図アプリケーションユーザーインターフェース7024)であり(1028)、第1のアイテムは、地図内の対象地点の表現(例えば、対象地点オブジェクト7028)である(例えば、地図上の位置に対応する特徴の三次元表現(例えば、地図上の位置に対応する地形及び/又は構造物の三次元表現が挙げられる)、又は作動時に地図の三次元表現を表示させる制御)。 In some embodiments, the first user interface is a map application user interface (e.g., map application user interface 7024) (1028), and the first item is a representation of a point of interest in the map (e.g., a point object 7028) (e.g., a three-dimensional representation of a feature that corresponds to a location on a map (e.g., a three-dimensional representation of terrain and/or structures that correspond to a location on a map), or that when activated control to display a three-dimensional representation of).

地図内の対象地点の表現が仮想三次元オブジェクトであることを示す視覚的な指示と共に対象地点の表現を表示することによって、(例えば、ユーザーが対話している対象地点の表現が仮想三次元オブジェクトであるのかないのかによって適切な入力を提供するようにユーザーを支援することによって)ユーザーが地図アプリケーションユーザーインターフェースを用いて動作を実行できる効率を高め、それによってデバイスの操作性を向上させ、更に、ユーザーがデバイスをより素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用量を削減し、電池寿命を改善する。 By displaying the representation of the point of interest in the map with a visual indication that the representation of the point of interest is a virtual three-dimensional object (e.g., if the representation of the point of interest with which the user is interacting is a virtual three-dimensional object) increasing the efficiency with which a user can perform actions with a map application user interface (by assisting the user in providing appropriate input depending on whether the map is a map application user interface), thereby improving the usability of the device; Reduce device power usage and improve battery life by allowing users to use their devices faster and more efficiently.

一部の実施形態では、第1のアイテムがそれぞれの仮想三次元オブジェクトに対応するという視覚的な指示は、それぞれの三次元オブジェクトの表現に向けられる入力を必要とせずに発生する第1のアイテムのアニメーション(例えば、経時的に第1のアイテムに適用される連続的な移動又は視覚的効果の変化(例えば、スパークリング、きらめき等))を含む(1030)。 In some embodiments, the visual indication that the first item corresponds to the respective virtual three-dimensional object occurs without requiring input directed to the representation of the respective three-dimensional object. (e.g., continuous movement or changes in visual effects (e.g., sparkling, shimmering, etc.) applied to the first item over time) (1030).

それぞれの三次元オブジェクトの表現に向けられる入力なしで発生する第1のアイテムのアニメーションを表示することにより、(例えば、ユーザーが第1のアイテムの三次元態様を見るために必要な入力数を減少させることによって)デバイスの操作性を向上させ、更に、ユーザーがデバイスをより素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用量を削減し、電池寿命を改善する。 By displaying the animation of the first item that occurs without input directed to the representation of the respective three-dimensional object (e.g., reducing the number of inputs required for the user to see the three-dimensional aspect of the first item) It also reduces device power usage and improves battery life by allowing users to use the device more quickly and efficiently.

一部の実施形態では、デバイスは、第2のアイテムがそれぞれの仮想三次元オブジェクトに対応することを示すための視覚的な指示(例えば、仮想オブジェクトインジケータ5022)と共に第2のアイテム(例えば、仮想椅子5020)の表現を表示しつつ、第2のアイテムの表現に対応するタッチ感知面上の場所での第2の接触による第2の入力(例えば、図5C~5Fに関して説明したような入力)を検出し(1032)、第2の接触による第2の入力の検出に応答して、及び第2の接触による第2の入力が第1の(例えば、ARトリガ)基準を満たすとの判定に応じて、デバイスは、第2のユーザーインターフェース(例えば、メッセージングユーザーインターフェース5008)のうちの少なくとも一部の表示を(例えば、図5F~5Iに関して説明した)1つ以上のカメラの視野5036の表現で置き換えることを含めて、ディスプレイ上に第3のユーザーインターフェース領域を表示し、第2のユーザーインターフェースの表示から第3のユーザーインターフェース領域の表示に切り替えつつ第2の仮想三次元オブジェクトを連続的に表示する。(例えば、方法800を参照して本明細書により詳細に説明されるように)。一部の実施形態では、デバイスは、(例えば、動作834を参照して本明細書により詳細に説明するように)第2のユーザーインターフェースの一部を1つ以上のカメラの視野の表現と共に表示することから切り替えつつ、仮想オブジェクトの表現が連続的に表示されるようにアニメーションを表示する。 In some embodiments, the device displays the second item (e.g., virtual a second input (e.g., an input as described with respect to FIGS. 5C-5F) by a second contact at a location on the touch-sensitive surface that corresponds to a representation of a second item while displaying a representation of a chair 5020); (1032), in response to detecting the second input due to the second touch, and determining that the second input due to the second touch satisfies the first (e.g., AR trigger) criteria. In response, the device displays at least a portion of the second user interface (e.g., messaging user interface 5008) with a representation of one or more camera fields of view 5036 (e.g., as described with respect to FIGS. 5F-5I). displaying a third user interface area on the display, including replacing the display, and continuously displaying the second virtual three-dimensional object while switching from displaying the second user interface to displaying the third user interface area; do. (eg, as described in more detail herein with reference to method 800). In some embodiments, the device displays a portion of the second user interface with a representation of the field of view of the one or more cameras (e.g., as described in more detail herein with reference to act 834). The animation is displayed so that the representation of the virtual object is displayed continuously while switching from one to the next.

第3のユーザーインターフェース領域を表示するか否かを判定する第1の基準を用いることで、第2の入力に応答して複数の異なるタイプの動作を実行することができる。入力に応答して複数の異なるタイプの動作の実行を可能にすることで、ユーザーがこれらの動作を実行できる効率を高め、それによってデバイスの操作性を向上させ、更に、ユーザーがデバイスをより素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用量を削減し、電池寿命を改善する。 Using the first criteria to determine whether to display the third user interface area allows multiple different types of actions to be performed in response to the second input. By allowing users to perform multiple different types of actions in response to input, they increase the efficiency with which users can perform these actions, thereby improving the usability of the device and also allowing users to use the device more quickly. Reduce device power usage and improve battery life by enabling efficient use.

一部の実施形態では、(例えば、方法900を参照して本明細書により詳細に記載するように)第2のアイテムがそれぞれの仮想三次元オブジェクトに対応することを示すために第2のアイテム(例えば、仮想椅子5020)を視覚的な指示(例えば、仮想オブジェクトインジケータ5022)と共に表示しつつ、デバイスは、第2のアイテムの表現に対応するタッチ感知面上の場所で第3の接触による第3の入力(例えば、図6E~6Iに関して説明したような入力)を検出し(1034)、第3の接触による第3の入力の検出に応答し、第3の接触による第3の入力が第1の(例えば、ステージングトリガ)基準を満たすとの判定に応じて、デバイスは、第2のユーザーインターフェースとは異なる第4のユーザーインターフェース(例えば、方法900を参照してより詳細に説明したようなステージングユーザーインターフェース6010)に第2の仮想三次元オブジェクトを表示する。一部の実施形態では、第2の仮想三次元オブジェクトを第4のユーザーインターフェース(例えば、図6Iに示すように、ステージングユーザーインターフェース6010)に表示しつつ、デバイスは、第4の入力を検出し、この第4の入力の検出に応答して、第4の入力が第4のユーザーインターフェースにおける第2の仮想三次元オブジェクトを操作する要求に対応しているとの判定に応じて、デバイスは、(例えば、図6J~6Mに関して説明したような及び/又は図6N~6Pに関して説明したような)第4の入力に基づいて、第4のユーザーインターフェースにおける第2の仮想三次元オブジェクトの表示特性を変化させ、第4の入力が拡張現実環境内に第2の仮想オブジェクトを表示させる要求(例えば、第2のユーザーインターフェース領域内の仮想オブジェクトの表現に対応するタッチ感知面上の場所における又はその場所からのタップ入力、押圧入力、又はタッチ保持若しくは押圧入力とそれに続くドラッグ入力)に対応するとの判定に応じて、このデバイスは、(例えば、図6Q~6Uに関して説明したように)1つ以上のカメラの視野の表現と共に第2の仮想三次元オブジェクトを表示する。 In some embodiments, the second item is used to indicate that the second item corresponds to a respective virtual three-dimensional object (e.g., as described in more detail herein with reference to method 900). While displaying a virtual chair (e.g., virtual chair 5020) with a visual indication (e.g., virtual object indicator 5022), the device causes a third contact to occur at a location on the touch-sensitive surface that corresponds to the representation of the second item. detecting (1034) a third input (e.g., an input as described with respect to FIGS. 6E-6I); and in response to detecting the third input by the third touch, the third input by the third touch 1 (e.g., a staging trigger), the device may display a fourth user interface that is different from the second user interface (e.g., as described in more detail with reference to method 900). A second virtual three-dimensional object is displayed on a staging user interface (6010). In some embodiments, while displaying the second virtual three-dimensional object on a fourth user interface (e.g., staging user interface 6010, as shown in FIG. 6I), the device detects a fourth input. , in response to detecting the fourth input and determining that the fourth input corresponds to a request to manipulate the second virtual three-dimensional object in the fourth user interface, the device: display characteristics of the second virtual three-dimensional object in the fourth user interface based on a fourth input (e.g., as described with respect to FIGS. 6J-6M and/or as described with respect to FIGS. 6N-6P); and the fourth input requests to display a second virtual object within the augmented reality environment (e.g., at or at a location on the touch-sensitive surface that corresponds to the representation of the virtual object within the second user interface area). (e.g., as described with respect to FIGS. 6Q-6U). A second virtual three-dimensional object is displayed along with a representation of the field of view of the camera.

第2の三次元オブジェクトを第4のユーザーインターフェース(例えば、ステージングユーザーインターフェース6010)に表示しつつ、第4の入力に応答して、デバイスは、第4の入力に基づいて第2の三次元オブジェクトの表示特性を変化させる、又はデバイスの1つ以上のカメラの視野の表現と共に第2の三次元オブジェクトを表示する。(例えば、第2の三次元オブジェクトの表示特性を変化させることによって、又はデバイスの1つ以上のカメラの視野の表現と共に第2の三次元オブジェクトを表示することによって)入力に応答して複数の異なるタイプの動作の実行を可能にすることで、ユーザーがこれらの動作を実行できる効率を高め、それによってデバイスの操作性を向上させ、更に、ユーザーがデバイスをより素早くかつ効率的に使用することを可能にすることによってデバイスの電力使用量を削減し、電池寿命を改善する。 While displaying the second three-dimensional object on a fourth user interface (e.g., staging user interface 6010), in response to the fourth input, the device displays the second three-dimensional object based on the fourth input. or displaying a second three-dimensional object along with a representation of the field of view of one or more cameras of the device. (e.g., by changing the display characteristics of the second three-dimensional object or by displaying the second three-dimensional object in conjunction with a representation of the field of view of one or more cameras of the device) Enabling the performance of different types of operations increases the efficiency with which the user can perform these operations, thereby improving the usability of the device and further enabling the user to use the device more quickly and efficiently Reduce device power usage and improve battery life by enabling

図10A~10Dにおける動作について説明された特定の順序は単なる例であり、説明された順序は、動作を実行することができる唯一の順序であることを示すことを意図するものではないことを理解されたい。当業者であれば、本明細書で説明される動作を再順序付けるための様々な方法を認識するであろう。加えて、本明細書に記載される他の方法(例えば、方法800、900、16000、17000、18000、19000、及び20000)に関して本明細書に記載される他のプロセスの詳細は、図10A~10Dに関して上記した方法1000にも、同様に適用可能であることに留意されたい。例えば、方法1000を参照して上記した接触、入力、仮想オブジェクト、ユーザーインターフェース、ユーザーインターフェース領域、視野、移動、及び/又はアニメーションは、任意選択的に、本明細書に記載される他の方法(例えば、方法800、900、16000、17000、18000、19000、及び20000)を参照して本明細書に記載した接触、入力、仮想オブジェクト、ユーザーインターフェース、ユーザーインターフェース領域、視野、移動、及び/又はアニメーションの特徴のうちの1つ以上を有する。簡潔にするために、これらの詳細はここでは繰り返さない。 It is understood that the particular order described for the operations in FIGS. 10A-10D is merely an example and that the described order is not intended to indicate that the operations are the only order in which the operations may be performed. I want to be Those skilled in the art will recognize various ways to reorder the operations described herein. In addition, details of other processes described herein with respect to other methods described herein (e.g., methods 800, 900, 16000, 17000, 18000, 19000, and 20000) are shown in FIGS. Note that method 1000 described above with respect to 10D is equally applicable. For example, the contacts, inputs, virtual objects, user interfaces, user interface areas, fields of view, movement, and/or animations described above with reference to method 1000 may optionally be implemented using other methods described herein ( For example, contact, input, virtual objects, user interfaces, user interface regions, fields of view, movement, and/or animations described herein with reference to methods 800, 900, 16000, 17000, 18000, 19000, and 20000). have one or more of the following characteristics. For the sake of brevity, these details will not be repeated here.

図11A~11Vは、オブジェクト配置基準が満たされるか否かに応じて異なる視覚特性を有する仮想オブジェクトを表示するユーザーインターフェースの例を示す。これらの図におけるユーザーインターフェースは、図8A~8E、図9A~9D、図10A~10D、図16A~16G、図17A~17D、図18A~18I、図19A~19H、及び図20A~20Fにおけるプロセスを含む以下に説明するプロセスを例示するために用いられる。説明の便宜上、実施形態のいくつかは、タッチ感知ディスプレイシステム112を有するデバイス上で実行される操作を参照して議論される。そのような実施形態では、フォーカスセレクタは任意選択で、それぞれの指若しくはスタイラスの接触、指若しくはスタイラスの接触に対応する代表的な点(例えば、それぞれの接触の面心若しくはそれぞれの接触と関連付けられた点)、又はタッチ感知ディスプレイシステム112上で検出された2つ以上の接触の面心である。しかしながら、同様の操作は任意選択で、フォーカスセレクタと共に、ディスプレイ450上で図に示されるユーザーインターフェースを表示する間、タッチ感知面451上の接触を検出したことに応答して、ディスプレイ450及び別々のタッチ感知面451を有するデバイス上で実行される。 11A-11V illustrate examples of user interfaces that display virtual objects with different visual characteristics depending on whether object placement criteria are met. The user interfaces in these figures are similar to the processes in FIGS. is used to illustrate the process described below, including: For convenience of explanation, some of the embodiments are discussed with reference to operations performed on a device having a touch-sensitive display system 112. In such embodiments, the focus selector optionally includes each finger or stylus contact, a representative point corresponding to the finger or stylus contact (e.g., the face center of each contact or the point associated with each contact). (point), or the face center of two or more contacts detected on the touch-sensitive display system 112. However, similar operations may optionally be performed on display 450 and a separate Runs on a device that has a touch sensitive surface 451.

図11A~11Eは、ステージングビューに仮想オブジェクトを表示する入力を示す。例えば、三次元オブジェクトの二次元二次元(例えば、サムネイル)表現がユーザーインターフェース(例えば、電子メールユーザーインターフェース7052、ファイル管理ユーザーインターフェース7036、地図ユーザーインターフェース7022、メッセージングユーザーインターフェース5008、インターネットブラウザユーザーインターフェース5060、又はサードパーティアプリケーションユーザーインターフェース)に表示されている間に、入力が検出される。 11A-11E illustrate inputs for displaying virtual objects in staging views. For example, a two-dimensional two-dimensional (e.g., thumbnail) representation of a three-dimensional object may be used in a user interface (e.g., email user interface 7052, file management user interface 7036, map user interface 7022, messaging user interface 5008, internet browser user interface 5060, or a third party application user interface).

図11Aにおいて、インターネットブラウザユーザーインターフェース5060は、三次元仮想オブジェクト11002(椅子)の二次元表現を含む。接触11004による入力(例えば、タップ入力)は、仮想オブジェクト11002に対応する位置で検出される。タップ入力に応答して、インターネットブラウザユーザーインターフェース5060の表示は、ステージングユーザーインターフェース6010の表示によって置き換えられる。 In FIG. 11A, Internet browser user interface 5060 includes a two-dimensional representation of three-dimensional virtual object 11002 (chair). An input by contact 11004 (eg, a tap input) is detected at a position corresponding to virtual object 11002. In response to the tap input, the display of internet browser user interface 5060 is replaced by a display of staging user interface 6010.

図11B~11Eは、インターネットブラウザユーザーインターフェース5060がステージングユーザーインターフェース6010の表示によって置き換えられるときに生じる遷移を示す。一部の実施形態では、仮想オブジェクト10002は、遷移中に、徐々にビューにフェードインし、及び/又はステージングユーザーインターフェース6010の制御(例えば、バック制御6016、トグル制御6018、及び/又は共有制御6020)は、徐々にビューにフェードインする。例えば、(例えば、仮想オブジェクト11002の三次元表現がディスプレイ上にレンダリングされるのに必要な期間中、制御の表示を遅延させるために)仮想オブジェクト11002がビューにフェードインした後に、ステージングユーザーインターフェース6010の制御がビューにフェードインする。一部の実施形態では、仮想オブジェクト11002の「フェードイン」は、仮想オブジェクト11002の低解像度、二次元、及び/又はホログラフィックバージョンを表示することとそれに続く仮想オブジェクト11002の最終的な三次元表現を表示することを含む。図11B~11Dは、仮想オブジェクト11002の徐々のフェードインを示す。図11Dには、仮想オブジェクト11002の影11006が表示されている。図11D~11Eは、制御6016、6018、及び6020の徐々のフェードインを示す。 11B-11E illustrate the transition that occurs when Internet browser user interface 5060 is replaced by a display of staging user interface 6010. In some embodiments, virtual object 10002 gradually fades into view during the transition and/or controls of staging user interface 6010 (e.g., back control 6016, toggle control 6018, and/or shared control 6020) ) gradually fade into view. For example, the staging user interface 6010 may control fades into view. In some embodiments, "fading in" virtual object 11002 includes displaying a low-resolution, two-dimensional, and/or holographic version of virtual object 11002 followed by a final three-dimensional representation of virtual object 11002. including displaying. 11B-11D illustrate the gradual fading of virtual object 11002. In FIG. 11D, a shadow 11006 of the virtual object 11002 is displayed. 11D-11E illustrate the gradual fade-in of controls 6016, 6018, and 6020.

図11F~11Gは、仮想オブジェクト11002の三次元表現をデバイス100の1つ以上のカメラの視野6036を含むユーザーインターフェースに表示させる入力を示す。図11Fにおいて、接触11008による入力は、トグル制御6018に対応する位置で検出される。この入力に応答して、図11Gに示すように、ステージングユーザーインターフェース6010の表示が、カメラの視野6036を含むユーザーインターフェースの表示に置き換えられる。 11F-11G illustrate input that causes a three-dimensional representation of virtual object 11002 to be displayed on a user interface that includes the field of view 6036 of one or more cameras of device 100. In FIG. 11F, input by contact 11008 is detected at a position corresponding to toggle control 6018. In response to this input, the display of the staging user interface 6010 is replaced with a display of the user interface including the camera's field of view 6036, as shown in FIG. 11G.

図11G~11Hに示すように、カメラの視野6036が最初に表示されるときに(例えば、仮想オブジェクトに対応するプレーンが、カメラの視野6036内で検出されていないときに)、仮想オブジェクトの半透明表現が表示されてもよい。 As shown in FIGS. 11G-11H, when camera field of view 6036 is first displayed (e.g., when no plane corresponding to the virtual object has been detected within camera field of view 6036), half of the virtual object is A transparent representation may be displayed.

図11G~11Hは、カメラの視野6036を含むユーザーインターフェースに表示される仮想オブジェクト11002の半透明表現を示す。仮想オブジェクト11002の半透明表現は、ディスプレイ112に対して一定の位置に表示される。例えば、図11Gから図11Hまで、(例えば、カメラの視野6036内のテーブル5004の変化した位置によって示されるように)デバイス100が物理的環境5002に対して移動させられるとき、仮想オブジェクト11002は、ディスプレイ112に対して一定の位置のままである。 11G-11H illustrate a translucent representation of a virtual object 11002 displayed in a user interface that includes a camera's field of view 6036. A translucent representation of virtual object 11002 is displayed in a fixed position relative to display 112. For example, from FIGS. 11G to 11H, when device 100 is moved relative to physical environment 5002 (e.g., as shown by the changed position of table 5004 within camera field of view 6036), virtual object 11002 It remains in a constant position relative to display 112.

一部の実施形態では、仮想オブジェクトに対応するプレーンがカメラの視野6036内で検出されたとの判定に応じて、検出されたプレーン上に仮想オブジェクトが配置される。 In some embodiments, the virtual object is placed on the detected plane in response to determining that a plane corresponding to the virtual object is detected within the camera's field of view 6036.

図11Iにおいて、仮想オブジェクト11002に対応するプレーンが、カメラの視野6036内で検出されており、検出されたプレーン上に仮想オブジェクト11002が配置される。(例えば、少なくとも1つのプレーン(例えば、床面5038)がカメラの視野6036内で検出されたことを示すために)デバイスは、11010で示すように、触知出力を生成している。仮想オブジェクト11002がカメラの視野6036内で検出されるプレーンに対してある位置に配置されるとき、仮想オブジェクト11002は、1つ以上のカメラによって取り込まれた物理的環境5002に対して一定の位置のままである。図11Iから図11Jまで、(例えば、カメラの視野6036内に表示されたテーブル5004の変化した位置によって示されるように)デバイス100が、物理的環境5002に対して移動させられるとき、仮想オブジェクト11002は、物理的環境5002に対して一定の位置のままである。 In FIG. 11I, a plane corresponding to virtual object 11002 has been detected within the camera's field of view 6036, and virtual object 11002 is placed on the detected plane. The device is generating a tactile output, as shown at 11010 (eg, to indicate that at least one plane (eg, floor surface 5038) has been detected within the camera's field of view 6036). When the virtual object 11002 is placed at a position relative to the plane detected within the camera's field of view 6036, the virtual object 11002 is placed at a constant position relative to the physical environment 5002 captured by one or more cameras. It remains as it is. 11I to 11J, when the device 100 is moved relative to the physical environment 5002 (e.g., as shown by the changed position of the table 5004 displayed within the camera's field of view 6036), the virtual object 11002 remains in a constant position relative to the physical environment 5002.

一部の実施形態では、カメラの視野6036が表示される間、(例えば、入力が受信されない期間が経過との判定に応じて)制御(例えば、バック制御6016、トグル制御6018、及び/又は共有制御6020)は、表示されるのを中止する。図11J~11Lにおいて、制御6016、6018、及び6020は、(例えば、図11Kに示すように)徐々にフェードアウトし、(例えば、図11Lに示すように)カメラの視野6036が表示されるディスプレイ112の部分を増大させる。 In some embodiments, while camera field of view 6036 is displayed, controls (e.g., back control 6016, toggle control 6018, and/or share Control 6020) ceases to be displayed. 11J-11L, controls 6016, 6018, and 6020 gradually fade out (e.g., as shown in FIG. 11K) and display 112 displays camera field of view 6036 (e.g., as shown in FIG. 11L). increase the portion of

図11M~11Sは、仮想オブジェクトがカメラの視野6036を含むユーザーインターフェース内で表示されるときに、仮想オブジェクト11002を操作する入力を示す。 11M-11S illustrate inputs that manipulate virtual object 11002 when the virtual object is displayed within a user interface that includes camera field of view 6036.

図11M~11Nにおいて、仮想オブジェクト11002のシミュレートされた物理的サイズを変更する接触11012及び11014による入力(例えば、デピンチジェスチャ)が検出される。入力の検出に応答して、制御6016、6018、及び6020が再表示される。接触11012は矢印11016で示す経路に沿って移動し、接触11014は矢印11018で示す経路に沿って移動し、仮想オブジェクト11002のサイズは増大する。 In FIGS. 11M-11N, input through contacts 11012 and 11014 (eg, a de-pinch gesture) that changes the simulated physical size of virtual object 11002 is detected. In response to detecting the input, controls 6016, 6018, and 6020 are redisplayed. Contact 11012 moves along the path indicated by arrow 11016, contact 11014 moves along the path indicated by arrow 11018, and the size of virtual object 11002 increases.

図11N~11Pにおいて、仮想オブジェクト11002のシミュレートされた物理的サイズを変更する接触11012~1104による入力(例えば、ピンチジェスチャ)が検出される。(図11N~11O及び11O~11Pに示すように)接触11012は矢印11020で示す経路に沿って移動し、接触11014は矢印11022示す経路に沿って移動し、仮想オブジェクト11002のサイズが減少する。図11Oに示すように、仮想オブジェクト11002のサイズが、物理的環境5002に対してその元のサイズ(例えば、図11Iに示すように、物理的環境5002内の検出されたプレーン上に最初に配置されたときの仮想オブジェクト11002のサイズ)に調整されるとき、(例えば、仮想オブジェクト11002がその元のサイズに戻ったことを示すフィードバックを提供するために)(11024で示すような)触知出力が発生する。図11Qにおいて、接触11012及び11014は、タッチスクリーンディスプレイ112からリフトオフされている。 In FIGS. 11N-11P, inputs (eg, pinch gestures) through contacts 11012-1104 that change the simulated physical size of virtual object 11002 are detected. Contact 11012 moves along the path indicated by arrow 11020, contact 11014 moves along the path indicated by arrow 11022, and the size of virtual object 11002 decreases (as shown in FIGS. 11N-11O and 110-11P). As shown in FIG. 11O, the size of the virtual object 11002 is changed relative to the physical environment 5002 to its original size (e.g., as shown in FIG. 11I, the virtual object 11002 is a tactile output (as shown at 11024) when the virtual object 11002 is adjusted to its original size (e.g., to provide feedback indicating that the virtual object 11002 has returned to its original size); occurs. In FIG. 11Q, contacts 11012 and 11014 have been lifted off from touch screen display 112.

図11Rにおいて、仮想オブジェクト11002を物理的環境5002に対して元のサイズに戻すための入力(例えば、二重タップ入力)が検出される。入力は、接触11026によって示すように、仮想オブジェクト11002に対応する位置で検出される。この入力に応答して、仮想オブジェクト11002は、図11Rに示す縮小サイズから、図11Sに示すような仮想オブジェクト11002の元のサイズに調整される。図11Sに示すように、仮想オブジェクト11002のサイズが、物理的環境5002に対してその元のサイズに調整されるとき、(例えば、仮想オブジェクト11002がその元のサイズに戻ったことを示すフィードバックを提供するために)(11028で示すような)触知出力が発生する。 In FIG. 11R, an input (eg, a double tap input) is detected to restore virtual object 11002 to its original size relative to physical environment 5002. An input is detected at a location corresponding to virtual object 11002, as indicated by contact 11026. In response to this input, virtual object 11002 is adjusted from the reduced size shown in FIG. 11R to the original size of virtual object 11002 as shown in FIG. 11S. As shown in FIG. 11S, when the size of the virtual object 11002 is adjusted to its original size relative to the physical environment 5002 (e.g., providing feedback indicating that the virtual object 11002 has returned to its original size) A tactile output (as shown at 11028) is generated.

図11Tにおいて、接触11030による入力は、トグル制御6018に対応する位置で検出される。この入力に応答して、図11Uに示すように、カメラの視野6036を含むユーザーインターフェースの表示は、ステージングユーザーインターフェース6010によって置き換えられる。 In FIG. 11T, input by contact 11030 is detected at a position corresponding to toggle control 6018. In response to this input, the display of the user interface including camera field of view 6036 is replaced by staging user interface 6010, as shown in FIG. 11U.

図11Uにおいて、接触11032による入力が、バック制御6016に対応する位置で検出される。この入力に応答して、図11Vに示すように、ステージングユーザーインターフェース6010の表示は、インターネットブラウザユーザーインターフェース5060によって置き換えられる。 In FIG. 11U, input by contact 11032 is detected at a location corresponding to back control 6016. In response to this input, the display of staging user interface 6010 is replaced by Internet browser user interface 5060, as shown in FIG. 11V.

図12A~12Lは、デバイスの1つ以上のカメラの移動に応じて動的にアニメーション化される較正ユーザーインターフェースオブジェクトを表示するユーザーインターフェースの例を示す。これらの図におけるユーザーインターフェースは、図8A~8E、図9A~9D、図10A~10D、図16A~16G、図17A~17D、図18A~18I、図19A~19H、及び図20A~20Fにおけるプロセスを含む以下に説明するプロセスを例示するために用いられる。説明の便宜上、実施形態のいくつかは、タッチ感知ディスプレイシステム112を有するデバイス上で実行される操作を参照して議論される。そのような実施形態では、フォーカスセレクタは任意選択で、それぞれの指若しくはスタイラスの接触、指若しくはスタイラスの接触に対応する代表的な点(例えば、それぞれの接触の面心若しくはそれぞれの接触と関連付けられた点)、又はタッチ感知ディスプレイシステム112上で検出された2つ以上の接触の面心である。しかしながら、同様の操作は任意選択で、フォーカスセレクタと共に、ディスプレイ450上で図に示されるユーザーインターフェースを表示する間、タッチ感知面451上の接触を検出したことに応答して、ディスプレイ450及び別々のタッチ感知面451を有するデバイス上で実行される。 12A-12L illustrate example user interfaces that display calibration user interface objects that are dynamically animated in response to movement of one or more cameras of a device. The user interfaces in these figures are similar to the processes in FIGS. is used to illustrate the process described below, including: For convenience of explanation, some of the embodiments are discussed with reference to operations performed on a device having a touch-sensitive display system 112. In such embodiments, the focus selector optionally includes each finger or stylus contact, a representative point corresponding to the finger or stylus contact (e.g., the face center of each contact or the point associated with each contact). or the center of the face of two or more contacts detected on the touch-sensitive display system 112. However, similar operations, along with a focus selector, may optionally be performed on display 450 and a separate Runs on a device that has a touch sensitive surface 451.

一部の実施形態によれば、1つ以上のカメラの視野を含むユーザーインターフェースに仮想オブジェクトを表示するように要求を受信しているが、デバイスの較正のために追加データが必要とされる場合、較正ユーザーインターフェースオブジェクトが表示される。 According to some embodiments, if a request is received to display a virtual object on a user interface that includes a field of view of one or more cameras, but additional data is required for device calibration. , a calibration user interface object is displayed.

図12Aは、1つ以上のカメラの視野6036を含むユーザーインターフェースに仮想オブジェクト11002を表示することを要求する入力を示す。接触12002による入力は、トグル制御6018に対応する位置で検出される。図12Bに示すように、この入力に応答して、ステージングユーザーインターフェース6010の表示は、カメラの視野6036を含むユーザーインターフェースの表示によって置き換えられる。仮想オブジェクト11002の半透明表現は、カメラの視野6036を含むユーザーインターフェースに表示される。(例えば、仮想オブジェクト11002に対応するプレーンがカメラの視野6036内で検出されていないので)較正が必要とされるが、(例えば、以下に説明するように、プロンプト及び/又は較正オブジェクトの挙動を強調するために)カメラの視野6036はぼかされる。 FIG. 12A shows an input requesting to display a virtual object 11002 on a user interface that includes one or more camera fields of view 6036. Input by contact 12002 is detected at a position corresponding to toggle control 6018. As shown in FIG. 12B, in response to this input, the display of the staging user interface 6010 is replaced by a display of the user interface that includes the camera's field of view 6036. A translucent representation of virtual object 11002 is displayed in a user interface that includes camera field of view 6036. Calibration is required (e.g., because the plane corresponding to virtual object 11002 has not been detected within the camera's field of view 6036), but prompts and/or calibrate object behavior (e.g., as described below) (for emphasis) the camera's field of view 6036 is blurred.

図12B~12Dは、(例えば、較正が必要とされるとの判定に応じて表示される)ユーザーにデバイスの移動を促す動画像及びテキストを示す。動画像は、デバイス100の表現12004と、デバイス100の左右の移動が必要とされることを示す矢印12006及び12008と、(例えば、仮想オブジェクト11002に対応するプレーンを検出するためにプレーンに対してデバイス100が移動しなければならないことを示すための)プレーンの表現12010とを含む。テキストプロンプト12012は、較正が必要なデバイス100の移動に関する情報を提供する。図12B~12C、12C~12Dにおいて、デバイス100の表現12004及び矢印12006は、較正が必要なデバイス100の移動の指示を与えるために、プレーンの表現12010に対して調整される。図12Cから図12Dまで、デバイス100は、(例えば、カメラの視野6036内のテーブル5004の変化した位置によって示されるように)物理的環境5002に対して移動させられる。デバイス100の移動を検出した結果として、図12E-1に示すように、較正ユーザーインターフェースオブジェクト12014(立方体の輪郭)が表示される。 12B-12D illustrate animated images and text prompting the user to move the device (eg, displayed in response to a determination that calibration is required). The video image includes a representation 12004 of the device 100, arrows 12006 and 12008 indicating that side-to-side movement of the device 100 is required, 12010) to indicate that the device 100 must move. Text prompt 12012 provides information regarding movements of device 100 that require calibration. 12B-12C, 12C-12D, the representation 12004 of the device 100 and the arrow 12006 are adjusted relative to the plane representation 12010 to provide an indication of the movement of the device 100 that requires calibration. From FIGS. 12C to 12D, device 100 is moved relative to physical environment 5002 (eg, as indicated by the changed position of table 5004 within camera field of view 6036). As a result of detecting movement of the device 100, a calibration user interface object 12014 (outline of a cube) is displayed, as shown in FIG. 12E-1.

図12E-1から12I-1は、それぞれ図12E-2から12I-2に示すように、物理的環境5002に対するデバイス100の移動に対応する較正ユーザーインターフェースオブジェクト12014の挙動を示す。較正ユーザーインターフェースオブジェクト12014は、(例えば、較正に役立つ移動に関してユーザーにフィードバックを提供するために)デバイス100の移動(例えば、横移動)に応じてアニメーション化される(例えば、立方体の輪郭が回転する)。図12E-1において、較正ユーザーインターフェースオブジェクト12014は、デバイス100のカメラの視野6036を含むユーザーインターフェース内の第1の回転角度で示される。図12E-2には、物理的環境5002に対して第1の位置でユーザーの手5006で保持されたデバイス100が示されている。図12E-2から図12F-2まで、デバイス100は物理的環境5002に対して(右へ)横に移動している。移動の結果として、図12F-1に示すように、デバイス100によって表示されるようなカメラの視野6036は更新され、較正ユーザーインターフェースオブジェクト12014は(図12E-1におけるその位置に対して)回転している。図12F-2から図12G-2まで、デバイス100は、物理的環境5002に対してその右方に移動を継続している。移動の結果として、図12G-1に示すように、デバイス100によって表示されるようなカメラの視野6036は再び更新され、較正ユーザーインターフェースオブジェクト12014は更に回転させられる。図12G-2から図12H-2まで、デバイス100は、物理的環境5002に対して上方に移動している。移動の結果として、デバイス100によって表示されるようなカメラの視野6036は更新される。図12G-1から図12H-1に示すように、較正ユーザーインターフェースオブジェクト12014は、(例えば、デバイスの垂直移動が較正に寄与しないという指示をユーザーに与えるために)図12G-2から図12H-2に示すデバイスの上方移動に応じて回転しない。図12H-2から図12I-2まで、デバイス100は、物理的環境5002に対して更に右方に移動している。移動の結果として、図12I-1に示すように、デバイス100によって表示されるようなカメラの視野6036は再び更新され、較正ユーザーインターフェースオブジェクト12014は回転させられる。 12E-1 through 12I-1 illustrate the behavior of calibration user interface object 12014 in response to movement of device 100 relative to physical environment 5002, as shown in FIGS. 12E-2 through 12I-2, respectively. Calibration user interface object 12014 is animated (e.g., the outline of a cube rotates) in response to movement (e.g., lateral movement) of device 100 (e.g., to provide feedback to the user regarding the movement to aid in calibration). ). In FIG. 12E-1, the calibration user interface object 12014 is shown at a first rotation angle within the user interface that includes the field of view 6036 of the camera of the device 100. FIG. 12E-2 shows device 100 held in a user's hand 5006 in a first position relative to physical environment 5002. From FIG. 12E-2 to FIG. 12F-2, device 100 is moving laterally (to the right) relative to physical environment 5002. As a result of the movement, the camera field of view 6036 as displayed by device 100 is updated and the calibration user interface object 12014 is rotated (with respect to its position in FIG. 12E-1), as shown in FIG. 12F-1. ing. From FIG. 12F-2 to FIG. 12G-2, device 100 continues to move to its right relative to physical environment 5002. As a result of the movement, the camera field of view 6036 as displayed by the device 100 is again updated and the calibration user interface object 12014 is further rotated, as shown in FIG. 12G-1. From FIG. 12G-2 to FIG. 12H-2, device 100 is moving upward relative to physical environment 5002. As a result of the movement, the camera field of view 6036 as displayed by device 100 is updated. As shown in FIGS. 12G-1 through 12H-1, the calibration user interface object 12014 is configured to provide an indication to the user that vertical movement of the device does not contribute to the calibration (e.g., to provide an indication to the user that vertical movement of the device does not contribute to the calibration). 2 does not rotate in response to upward movement of the device. From FIG. 12H-2 to FIG. 12I-2, device 100 has moved further to the right relative to physical environment 5002. As a result of the movement, the camera field of view 6036 as displayed by the device 100 is again updated and the calibration user interface object 12014 is rotated, as shown in FIG. 12I-1.

図12Jにおいて、(例えば、図12E~12Iに示すような)デバイス100の移動は、必要な較正を満足している(例えば、仮想オブジェクト11002に対応するプレーンは、カメラの視野6036内で検出されている)。仮想オブジェクト11002は検出されたプレーン上に配置され、カメラの視野6036はぼかされるのを中止する。触知出力生成器は、プレーン(例えば、床面5038)がカメラの視野6036内で検出されたことを示す(12016で示すような)触知出力を出力する。床面5038は、検出されたプレーンの指示を与えるように強調される。 In FIG. 12J, the movement of device 100 (e.g., as shown in FIGS. 12E-12I) satisfies the required calibration (e.g., the plane corresponding to virtual object 11002 is detected within the camera's field of view 6036). ing). The virtual object 11002 is placed on the detected plane and the camera's field of view 6036 ceases to be blurred. The tactile output generator outputs a tactile output (as shown at 12016) indicating that a plane (eg, floor surface 5038) has been detected within the camera's field of view 6036. Floor surface 5038 is highlighted to give an indication of the detected plane.

仮想オブジェクト11002がカメラの視野6036内で検出されるプレーンに対してある位置に配置されているとき、仮想オブジェクト11002は、1つ以上のカメラによって取り込まれた物理的環境5002に対して一定の位置のままである。(図12K-2~図12L-2に示すように)デバイス100は、物理的環境5002に対して移動させられるとき、(図12K-1~図12L-1に示すように)仮想オブジェクト11002は、物理的環境5002に対して一定の位置のままである。 When the virtual object 11002 is placed at a position relative to the plane detected within the camera's field of view 6036, the virtual object 11002 is placed at a constant position relative to the physical environment 5002 captured by one or more cameras. It remains as it is. When the device 100 is moved relative to the physical environment 5002 (as shown in FIGS. 12K-2 to 12L-2), the virtual object 11002 (as shown in FIGS. 12K-1 to 12L-1) , remains constant relative to the physical environment 5002.

図13A~13Mは、軸を中心にした仮想オブジェクトの回転を制約するユーザーインターフェースの例を示す。これらの図におけるユーザーインターフェースは、図8A~8E、図9A~9D、図10A~10D、図16A~16G、図17A~17D、図18A~18I、図19A~19H、及び図20A~20Fにおけるプロセスを含む以下に説明するプロセスを例示するために用いられる。説明の便宜上、実施形態のいくつかは、タッチ感知ディスプレイシステム112を有するデバイス上で実行される操作を参照して議論される。そのような実施形態では、フォーカスセレクタは任意選択で、それぞれの指若しくはスタイラスの接触、指若しくはスタイラスの接触に対応する代表的な点(例えば、それぞれの接触の面心若しくはそれぞれの接触と関連付けられた点)、又はタッチ感知ディスプレイシステム112上で検出された2つ以上の接触の面心である。しかしながら、同様の操作は任意選択で、フォーカスセレクタと共に、ディスプレイ450上で図に示されるユーザーインターフェースを表示する間、タッチ感知面451上の接触を検出したことに応答して、ディスプレイ450及び別々のタッチ感知面451を有するデバイス上で実行される。 13A-13M illustrate examples of user interfaces that constrain the rotation of a virtual object about an axis. The user interfaces in these figures are similar to the processes in FIGS. is used to illustrate the process described below, including: For convenience of explanation, some of the embodiments are discussed with reference to operations performed on a device having a touch-sensitive display system 112. In such embodiments, the focus selector optionally includes each finger or stylus contact, a representative point corresponding to the finger or stylus contact (e.g., the face center of each contact or the point associated with each contact). or the center of the face of two or more contacts detected on the touch-sensitive display system 112. However, similar operations may optionally be performed on display 450 and a separate Runs on a device that has a touch sensitive surface 451.

図13Aにおいて、仮想オブジェクト11002は、ステージングユーザーインターフェース6010に示されている。x軸、y軸、及びz軸は、仮想オブジェクト11002に対して示されている。 In FIG. 13A, virtual object 11002 is shown in staging user interface 6010. The x, y, and z axes are shown for virtual object 11002.

図13B~13Cは、図13Aに示されるy軸周りに仮想オブジェクト11002を回転させるための入力を示す。図13Bにおいて、接触13002による入力は、仮想オブジェクト11002に対応する位置で検出される。入力は、矢印13004で示す経路に沿って距離dだけ移動する。入力が経路に沿って移動するとき、仮想オブジェクト11002は、図13Bに示される位置までy軸周りに(例えば、35度だけ)回転する。ステージングユーザーインターフェース6010において、仮想オブジェクト11002に対応する影13006が表示される。図13Bから図13Cへ、影13006は、仮想オブジェクト11002の位置変化に応じて変化する。 13B-13C illustrate inputs for rotating virtual object 11002 about the y-axis shown in FIG. 13A. In FIG. 13B, an input by contact 13002 is detected at a position corresponding to virtual object 11002. The input moves a distance d1 along the path indicated by arrow 13004. As the input moves along the path, virtual object 11002 rotates about the y-axis (eg, by 35 degrees) to the position shown in FIG. 13B. In the staging user interface 6010, a shadow 13006 corresponding to the virtual object 11002 is displayed. From FIG. 13B to FIG. 13C, the shadow 13006 changes as the position of the virtual object 11002 changes.

接触13002がタッチスクリーン112からリフトオフされた後、仮想オブジェクト11002は、(例えば、仮想オブジェクト11002が物理的オブジェクトのように振る舞う印象を与えるために、接触13002の移動により付与される「運動量」に応じて)図13C~13Dに示すように、回転し続ける。 After the contact 13002 is lifted off from the touch screen 112, the virtual object 11002 is moved (e.g., depending on the "momentum" imparted by the movement of the contact 13002, to give the impression that the virtual object 11002 behaves like a physical object). ) Continue rotating as shown in Figures 13C to 13D.

図13E~13Fは、図13Aに示すx軸周りに仮想オブジェクト11002を回転させる入力を示す。図13Eにおいて、接触13008による入力は、仮想オブジェクト11002に対応する位置で検出される。入力は、矢印13010で示す経路に沿って距離dだけ移動する。入力が経路に沿って移動するとき、仮想オブジェクト11002は、図13Fに示される位置までx軸周りに(例えば、5度だけ)回転する。接触13008は、接触13002が13B~13Cから移動したのと同じ距離dだけ図13E~13Fのx軸に沿って移動するが、図13E~13Fにおけるx軸周りの仮想オブジェクト11002の回転角は、図13B~13Cにおけるy軸周りの仮想オブジェクト11002 の回転角よりも小さい。 13E-13F illustrate input to rotate virtual object 11002 about the x-axis shown in FIG. 13A. In FIG. 13E, input by contact 13008 is detected at a location corresponding to virtual object 11002. The input moves a distance d 1 along the path indicated by arrow 13010. As the input moves along the path, virtual object 11002 rotates about the x-axis (eg, by 5 degrees) to the position shown in FIG. 13F. Contact 13008 moves along the x-axis in FIGS. 13E-13F by the same distance d 1 that contact 13002 moves from 13B-13C, but the rotation angle of virtual object 11002 about the x-axis in FIGS. 13E-13F is , is smaller than the rotation angle of the virtual object 11002 around the y-axis in FIGS. 13B to 13C.

図13F~13Gは、図13Aに示すx軸周りに仮想オブジェクト11002を回転させる更なる入力を示す。図13Fにおいて、接触13008はその移動を続け、矢印13012で示す経路に沿って(距離dよりも大きい)距離dだけ移動する。入力が経路に沿って移動するとき、仮想オブジェクト11002は、図13Gに示す位置までx軸周りに(25度だけ)回転する。図13E~13Gに示すように、距離d+dだけの接触13008の移動により、仮想オブジェクト11002はx軸周りに30度回転する一方、図13B~13Cにおいて、距離dだけの接触13004の移動により、仮想オブジェクト11002はy軸回りに35度回転する。 13F-13G illustrate further input to rotate virtual object 11002 about the x-axis shown in FIG. 13A. In FIG. 13F, contact 13008 continues its movement, moving a distance d 2 (greater than distance d 1 ) along the path indicated by arrow 13012. As the input moves along the path, virtual object 11002 rotates about the x-axis (by 25 degrees) to the position shown in FIG. 13G. As shown in FIGS. 13E-13G, movement of contact 13008 by distance d 1 +d 2 causes virtual object 11002 to rotate 30 degrees around the x-axis, while in FIGS. 13B-13C, movement of contact 13004 by distance d 1 Due to the movement, the virtual object 11002 is rotated by 35 degrees around the y-axis.

(例えば、接触13008の移動により、回転限界を越えて達する仮想オブジェクト11002の回転量を引き起こしたことを示すために)接触13008がタッチスクリーン112からリフトオフされた後、仮想オブジェクト11002は、図13G~13Hに示すように、接触13008の移動によって引き起こされる回転の方向とは反対の方向に回転する。 After the contact 13008 is lifted off the touch screen 112 (e.g., to indicate that the movement of the contact 13008 caused an amount of rotation of the virtual object 11002 to reach beyond the rotation limit), the virtual object 11002 is As shown at 13H, it rotates in a direction opposite to the direction of rotation caused by the movement of contact 13008.

図13G~13Iにおいて、影13006は、(例えば、オブジェクトを下から見たときには、仮想オブジェクト11002は影を投じないため)示されていない。 In FIGS. 13G-13I, shadow 13006 is not shown (eg, because virtual object 11002 does not cast a shadow when the object is viewed from below).

図13Iにおいて、(例えば、図13Aに示すように)仮想オブジェクト11002をそれが本来表示されていた視点に復帰させる入力(例えば、二重タップ入力)が検出される。入力は、接触13014によって示すように、仮想オブジェクト11002に対応する位置で行われる。この入力に応答して、仮想オブジェクト11002は、(図13E~13Hから生じた回転を逆にするために)y軸周りに回転させられると共に、(図13B~13Dから生じた回転を逆にするために)x軸周りに回転させられる。図13Jにおいて、接触13016による入力により、仮想オブジェクト11002は元々表示されていた視点に復帰する。 In FIG. 13I, an input (eg, a double tap input) is detected that causes virtual object 11002 to return to the perspective from which it was originally displayed (eg, as shown in FIG. 13A). The input is made at a location corresponding to virtual object 11002, as indicated by contact 13014. In response to this input, virtual object 11002 is rotated about the y-axis (to reverse the rotation resulting from FIGS. 13E-13H) and (to reverse the rotation resulting from FIGS. 13B-13D). ) is rotated around the x-axis. In FIG. 13J, input via contact 13016 causes virtual object 11002 to return to the originally displayed viewpoint.

一部の実施形態では、ステージングユーザーインターフェース6010が表示されている間に、仮想オブジェクト11002のサイズを調整するための入力が受信される。例えば、仮想オブジェクト11002のサイズを調整するための入力は、仮想オブジェクト11002のサイズを増大させる(例えば、図6N~6Oに関して説明したような)デピンチジェスチャ、又は仮想オブジェクト11002のサイズを減少させるピンチジェスチャである。 In some embodiments, input to adjust the size of virtual object 11002 is received while staging user interface 6010 is displayed. For example, the input to adjust the size of virtual object 11002 may be a de-pinch gesture (e.g., as described with respect to FIGS. 6N-6O) that increases the size of virtual object 11002, or a pinch that decreases the size of virtual object 11002. It's a gesture.

図13Jにおいて、ステージングユーザーインターフェース6010の表示をカメラの視野6036を含むユーザーインターフェースの表示に置き換えるための入力が受信される。接触13016による入力は、トグル制御6018に対応する位置で検出される。この入力に応答して、ステージングユーザーインターフェース6010の表示は、図13Kに示すように、カメラの視野6036を含むユーザーインターフェースに置き換えられる。 In FIG. 13J, input is received to replace the display of the staging user interface 6010 with a display of the user interface that includes the camera field of view 6036. Input by contact 13016 is detected at a position corresponding to toggle control 6018. In response to this input, the display of staging user interface 6010 is replaced with a user interface that includes camera field of view 6036, as shown in FIG. 13K.

図13Kにおいて、仮想オブジェクト11002は、カメラの視野6036を含むユーザーインターフェースに表示される。仮想オブジェクト11002に対応するプレーンがカメラの視野6036内で検出されたことを示すために(13018で示すように)触知出力が発生する。カメラの視野6036を含むユーザーインターフェースにおける仮想オブジェクト11002の回転角は、ステージングユーザーインターフェース6010における仮想オブジェクト11002の回転角に対応する。 In FIG. 13K, virtual object 11002 is displayed in a user interface that includes camera field of view 6036. A tactile output is generated (as shown at 13018) to indicate that a plane corresponding to virtual object 11002 has been detected within the camera's field of view 6036. The rotation angle of the virtual object 11002 in the user interface including the camera's field of view 6036 corresponds to the rotation angle of the virtual object 11002 in the staging user interface 6010.

カメラの視野6036を含むユーザーインターフェースが表示されるとき、図13L~13Mで示すように、横移動を含む入力は、カメラの視野6036を含むユーザーインターフェース内の仮想オブジェクト11002の横移動を引き起こす。図13Lにおいて、接触13020は仮想オブジェクト11002に対応する位置で検出され、接触は矢印13022で示す経路に沿って移動する。接触が移動すると、仮想オブジェクト11002は、(図13Lに示すような)第1の位置から(図13Mに示すような)第2の位置へ接触13020の移動に対応する経路に沿って移動する。 When a user interface that includes a camera's field of view 6036 is displayed, an input that includes a lateral movement causes a lateral movement of the virtual object 11002 within the user interface that includes the camera's field of view 6036, as shown in FIGS. 13L-13M. In FIG. 13L, contact 13020 is detected at a location corresponding to virtual object 11002, and the contact moves along the path indicated by arrow 13022. As the contact moves, virtual object 11002 moves along a path corresponding to the movement of contact 13020 from a first position (as shown in FIG. 13L) to a second position (as shown in FIG. 13M).

一部の実施形態では、図5AJ~5AMに関して説明したように、カメラの視野6036を含むユーザーインターフェースが表示されるときに提供される入力は、仮想オブジェクト11002を第1のプレーン(例えば、床面5038)から第2のプレーン(例えば、テーブル基準面5046)への移動させることができる。 In some embodiments, as described with respect to FIGS. 5AJ-5AM, the input provided when the user interface including the camera field of view 6036 is displayed may cause the virtual object 11002 to be in a first plane (e.g., a floor plane). 5038) to a second plane (eg, table reference plane 5046).

図14A~14Zは、移動の第1の閾値大きさが第1のオブジェクト操作挙動について満たされるとの判定に応じて、第2のオブジェクト操作挙動に必要な移動の第2の閾値大きさを増大させるユーザーインターフェースの例を示す。これらの図におけるユーザーインターフェースは、図8A~8E、図9A~9D、図10A~10D、図14AA~14AD、図16A~16G、図17A~17D、図18A~18I、図19A~19H、及び図20A~20Fにおけるプロセスを含む以下に説明するプロセスを例示するために用いられる。説明の便宜上、実施形態のいくつかは、タッチ感知ディスプレイシステム112を有するデバイス上で実行される操作を参照して議論される。そのような実施形態では、フォーカスセレクタは任意選択で、それぞれの指若しくはスタイラスの接触、指若しくはスタイラスの接触に対応する代表的な点(例えば、それぞれの接触の面心若しくはそれぞれの接触と関連付けられた点)、又はタッチ感知ディスプレイシステム112上で検出された2つ以上の接触の面心である。しかしながら、同様の操作は任意選択で、フォーカスセレクタと共に、ディスプレイ450上で図に示されるユーザーインターフェースを表示する間、タッチ感知面451上の接触を検出したことに応答して、ディスプレイ450及び別々のタッチ感知面451を有するデバイス上で実行される。 14A-14Z illustrate increasing a second threshold magnitude of movement required for a second object manipulation behavior in response to a determination that the first threshold magnitude of movement is satisfied for the first object manipulation behavior. An example of a user interface is shown below. The user interfaces in these figures are as shown in FIGS. It is used to illustrate the processes described below, including those in 20A-20F. For convenience of explanation, some of the embodiments are discussed with reference to operations performed on a device having a touch-sensitive display system 112. In such embodiments, the focus selector optionally includes each finger or stylus contact, a representative point corresponding to the finger or stylus contact (e.g., the face center of each contact or the point associated with each contact). or the center of the face of two or more contacts detected on the touch-sensitive display system 112. However, similar operations may optionally be performed on display 450 and a separate Runs on a device that has a touch sensitive surface 451.

図14Aにおいて、仮想オブジェクト11002は、カメラの視野6036を含むユーザーインターフェースに表示される。図14B~14Zに関して更に説明するように、並進移動量計14002、スケーリング移動量計14004、回転移動量計14006を用いて、オブジェクトの操作挙動(例えば、並進動作、スケーリング動作、及び/又は回転動作)に対応するそれぞれの移動の大きさを示す。並進移動量計14002は、タッチスクリーンディスプレイ112上に1組の接触の横(例えば、左向き又は右向きの)移動の大きさを示す。スケーリング移動量計14004は、タッチスクリーンディスプレイ112上に1組の接触におけるそれぞれの接触間の距離の増加又は減少の大きさ(例えば、ピンチジェスチャ又はデピンチジェスチャの大きさ)を示す。回転移動量計14006は、タッチスクリーンディスプレイ112上に1組の接触の回転移動の大きさを示す。 In FIG. 14A, a virtual object 11002 is displayed in a user interface that includes a camera field of view 6036. As further described with respect to FIGS. 14B-14Z, translational movement meter 14002, scaling movement meter 14004, and rotational movement meter 14006 are used to determine the manipulation behavior (e.g., translational movement, scaling movement, and/or rotational movement) of an object. ) indicates the magnitude of each movement. Translational movement meter 14002 indicates the amount of lateral (eg, leftward or rightward) movement of a set of contacts on touch screen display 112 . Scaling movement meter 14004 indicates the magnitude of the increase or decrease in distance between each contact in a set of contacts (eg, the magnitude of a pinch or de-pinch gesture) on touch screen display 112 . Rotational displacement meter 14006 indicates the magnitude of rotational displacement of a set of contacts on touch screen display 112.

図14B~14Eは、1つ以上のカメラの視野6036を含むユーザーインターフェースにおいて仮想オブジェクト11002を回転させる入力を示す。仮想オブジェクト11002を回転させる入力は、第1の接触14008が矢印14010で示す経路に沿って時計方向に回転移動し、第2の接触14012が矢印14014で示す経路に沿って時計方向に回転移動するジェスチャを含む。図14Bでは、タッチスクリーン112との接触14008及び14012が検出される。図14Cにおいて、接触14008は、矢印14010で示す経路に沿って移動しており、接触14012は、矢印14012で示す経路に沿って移動している。図14Cでは、接触14008及び接触14012の回転移動の大きさが、まだ閾値RTに達していないので、仮想オブジェクト11002は、まだ入力に応答して回転していない。図14Dにおいて、接触14008及び接触14012の回転移動の大きさは閾値RTを超えて増大しており、仮想オブジェクト11002は入力に応答して(図14Bに示す仮想オブジェクト11002の位置に対して)回転している。回転移動の大きさが閾値RTを超えて増大するとき、仮想オブジェクト11002をスケーリングするのに必要な移動の大きさは増大し(例えば、スケーリング閾値STは、スケーリング移動量計14004で示すように、STからST'に増大しており)、仮想オブジェクト11002を並進するのに必要な移動の大きさは増大する(例えば、並進移動量計14002で示すように、並進閾値TTは、TTからTT'に増大している)。図14Eにおいて、接触14008及び接触14012は、それぞれ矢印14010及び14014で示す回転経路に沿って移動し続けており、仮想オブジェクト11002は入力に応答して回転し続けている。図14Fにおいて、接触14008及び14012は、タッチスクリーン112からリフトオフされている。 14B-14E illustrate input to rotate virtual object 11002 in a user interface that includes one or more camera fields of view 6036. An input that rotates virtual object 11002 causes first contact 14008 to rotate clockwise along the path indicated by arrow 14010 and second contact 14012 to rotate clockwise along the path indicated by arrow 14014. Contains gestures. In FIG. 14B, contacts 14008 and 14012 with touch screen 112 are detected. In FIG. 14C, contact 14008 is moving along the path indicated by arrow 14010 and contact 14012 is moving along the path indicated by arrow 14012. In FIG. 14C, virtual object 11002 has not yet rotated in response to the input because the magnitude of the rotational movement of contact 14008 and contact 14012 has not yet reached threshold RT. In FIG. 14D, the magnitude of the rotational movement of contact 14008 and contact 14012 has increased above a threshold RT, causing virtual object 11002 to rotate (with respect to the position of virtual object 11002 shown in FIG. 14B) in response to the input. are doing. When the magnitude of rotational movement increases beyond threshold RT, the amount of movement required to scale virtual object 11002 increases (e.g., scaling threshold ST increases as shown by scaling movement meter 14004). (from ST to ST'), the amount of movement required to translate the virtual object 11002 increases (for example, as shown by the translation amount meter 14002, the translation threshold TT increases from TT to ST'). ). In FIG. 14E, contact 14008 and contact 14012 continue to move along rotational paths indicated by arrows 14010 and 14014, respectively, and virtual object 11002 continues to rotate in response to the input. In FIG. 14F, contacts 14008 and 14012 have been lifted off from touch screen 112.

図14G~14Iは、1つ以上のカメラの視野6036を含むユーザーインターフェース内の仮想オブジェクト11002をスケーリングする(例えば、そのサイズを増大する)入力を示す。仮想オブジェクト11002のサイズを増大させる入力は、(例えば、接触14016と接触14020との間の距離が増大するように)第1の接触14016が矢印14018で示す経路に沿って移動し、第2の接触14020が矢印14022で示す経路に沿って移動するジェスチャを含む。図14Gでは、タッチスクリーン112との接触14016及び14020が検出される。図14Hにおいて、接触14016は矢印14018で示す経路に沿って移動しており、接触14020は矢印14022で示す経路に沿って移動している。図14Hにおいて、接触14020から離れた接触14016の移動の大きさは、閾値STに達していないので、仮想オブジェクト11002のサイズは、入力に応答してまだ調整されていない。図14Iにおいて、接触14016及び接触14020のスケーリング移動の大きさは閾値STを超えて増大しており、仮想オブジェクト11002のサイズはその入力に応答して(図14Hに示す仮想オブジェクト11002のサイズに対して)増大している。スケーリング移動の大きさが閾値STを超えて増大するとき、仮想オブジェクト11002を回転させるのに必要な移動の大きさは増大し(例えば、回転移動量計14006で示すように、回転閾値RTはRTからRT'へ増大しており)、仮想オブジェクト11002を並進するのに必要な移動の大きさは増大する(例えば、並進移動量計14002で示すように、並進閾値TTはTTからTT'へ増大している)。図14Jにおいて、接触14016及び14020はタッチスクリーン112からリフトオフしている。 14G-14I illustrate input to scale (eg, increase the size of) a virtual object 11002 in a user interface that includes one or more camera fields of view 6036. An input that increases the size of virtual object 11002 causes first contact 14016 to move along the path indicated by arrow 14018 (e.g., such that the distance between contact 14016 and contact 14020 increases) and the second Contact 14020 includes a gesture that moves along the path indicated by arrow 14022. In FIG. 14G, contacts 14016 and 14020 with touch screen 112 are detected. In FIG. 14H, contact 14016 is moving along the path indicated by arrow 14018 and contact 14020 is moving along the path indicated by arrow 14022. In FIG. 14H, the magnitude of movement of contact 14016 away from contact 14020 has not reached threshold ST, so the size of virtual object 11002 has not yet been adjusted in response to the input. In FIG. 14I, the magnitude of the scaling movement of contacts 14016 and 14020 has increased above a threshold ST, and the size of virtual object 11002 has increased in response to that input (relative to the size of virtual object 11002 shown in FIG. 14H). ) is increasing. When the magnitude of the scaling movement increases beyond threshold ST, the magnitude of the movement required to rotate virtual object 11002 increases (e.g., as indicated by rotational movement meter 14006, rotation threshold RT (increases from TT to RT'), and the amount of movement required to translate the virtual object 11002 increases (for example, the translation threshold TT increases from TT to TT', as shown by the translation amount meter 14002). are doing). In FIG. 14J, contacts 14016 and 14020 have lifted off from touch screen 112.

図14K~14Mは、1つ以上のカメラの視野6036を含むユーザーインターフェース内で仮想オブジェクト11002を並進させる(例えば、仮想オブジェクト11002を左へ移動させる)入力を示す。仮想オブジェクト11002を移動させる入力は、(例えば、接触14024及び接触14028が共に左方へ移動するように)第1の接触14024が矢印14026で示す経路に沿って移動し、第2の接触14028が矢印1430で示す経路に沿って移動するジェスチャを含む。図14Kでは、タッチスクリーン112との接触14024及び14028が検出される。図14Lにおいて、接触14024は矢印14026で示す経路に沿って移動しており、接触14028は矢印14030で示す経路に沿って移動している。図14Lにおいて、接触14024及び14028の左方移動の大きさは閾値TTに達していないので、仮想オブジェクト11002は、まだ入力に応答して移動させられていない。図14Mにおいて、接触14024及び接触14028の左方移動の大きさは閾値TTを超えて増大しており、仮想オブジェクト11002は、接触14024及び14028の移動の方向に移動させられている。並進移動の大きさが閾値TTを超えて増大するとき、仮想オブジェクト11002をスケーリングするのに必要な移動の大きさは増大しており(例えば、スケーリング移動量計14004で示すように、スケーリング閾値STは、STからST'に増大している)、仮想オブジェクト11002を回転させるのに必要な移動の大きさは増大している(例えば、回転移動量計14006で示すように、回転閾値RTは、RTからRT'に増大している)。図14Nにおいて、接触14024及び14028はタッチスクリーン112からリフトオフされている。 14K-14M illustrate input to translate virtual object 11002 (eg, move virtual object 11002 to the left) within a user interface that includes one or more camera fields of view 6036. An input that moves virtual object 11002 causes first contact 14024 to move along the path indicated by arrow 14026 (such that contact 14024 and contact 14028 both move to the left) and second contact 14028 to move along the path indicated by arrow 14026. It includes a gesture that moves along a path indicated by arrow 1430. In FIG. 14K, contacts 14024 and 14028 with touch screen 112 are detected. In FIG. 14L, contact 14024 is moving along the path indicated by arrow 14026 and contact 14028 is moving along the path indicated by arrow 14030. In FIG. 14L, the leftward movement magnitude of contacts 14024 and 14028 has not reached threshold TT, so virtual object 11002 has not yet been moved in response to the input. In FIG. 14M, the magnitude of the leftward movement of contacts 14024 and 14028 has increased above the threshold TT, and virtual object 11002 has been moved in the direction of the movement of contacts 14024 and 14028. When the magnitude of translational movement increases beyond threshold TT, the magnitude of the movement required to scale virtual object 11002 is increasing (e.g., as indicated by scaling movement meter 14004, scaling threshold ST (increases from ST to ST'), and the amount of movement required to rotate the virtual object 11002 increases (for example, as shown by the rotational movement meter 14006, the rotation threshold RT is (increasing from RT to RT'). In FIG. 14N, contacts 14024 and 14028 have been lifted off from touch screen 112.

図14O~14Zは、仮想オブジェクト11002を並進させる(例えば、仮想オブジェクト11002を右に移動させる)、仮想オブジェクト11002をスケーリングする(例えば、仮想オブジェクト11002のサイズを増大させる)、及び仮想オブジェクト11002を回転させるジェスチャを含む入力を示す。図14Oでは、タッチスクリーン112との接触14032及び14036が検出される。図14O~14Pにおいて、接触14032は矢印14034で示す経路に沿って移動し、接触14036は矢印14038で示す経路に沿って移動する。接触14032及び14036の右方移動の大きさは、閾値TTを超えて増大しており、仮想オブジェクト11002は接触14032及び14036の移動方向に移動させられている。接触14032及び14036の移動による閾値TTの満足の結果として、仮想オブジェクト11002をスケーリングするのに必要な移動の大きさはST'に増大し、仮想オブジェクト11002を回転させるのに必要な移動の大きさはRT'になる。(図14Qにおける並進移動量計14002で示される高ウォーターマーク14043によって示すように)閾値TTを満足した後、接触14032及び14036の任意の横移動により、仮想オブジェクト11002の横移動を引き起こす。 14O-14Z illustrate translating virtual object 11002 (e.g., moving virtual object 11002 to the right), scaling virtual object 11002 (e.g., increasing the size of virtual object 11002), and rotating virtual object 11002. Indicates an input that includes a gesture. In FIG. 14O, contacts 14032 and 14036 with touch screen 112 are detected. In FIGS. 14O-14P, contact 14032 moves along the path indicated by arrow 14034 and contact 14036 moves along the path indicated by arrow 14038. The magnitude of the rightward movement of contacts 14032 and 14036 has increased beyond the threshold TT, and virtual object 11002 has been moved in the direction of movement of contacts 14032 and 14036. As a result of the satisfaction of threshold TT by the movement of contacts 14032 and 14036, the amount of movement required to scale virtual object 11002 increases to ST', and the amount of movement required to rotate virtual object 11002 increases to ST' becomes RT'. Any lateral movement of contacts 14032 and 14036 causes lateral movement of virtual object 11002 after satisfying threshold TT (as indicated by high watermark 14043 indicated by translation meter 14002 in FIG. 14Q).

図14Q~14Rにおいて、接触14032は矢印14040で示す経路に沿って移動し、接触14036は矢印14042で示す経路に沿って移動する。図14Rにおいて、接触14036から離れた接触14032の移動の大きさは、元のスケーリング閾値STを超えているが、増大したスケーリング閾値ST'に達していない。増大したスケーリング移動閾値ST'が効果的であるとき、接触14036から離れた接触14032の移動の大きさが増大したスケーリング移動閾値ST'を超えて増大するまでスケーリングは起こらず、したがって、仮想オブジェクト11002のサイズは、図14Q~14Rから変化していない。図14R~14Sにおいて、接触14032が矢印14044で示す経路に沿って移動し、接触14036が矢印14046で示す経路に沿って移動するとき、接触14032と14046の間の距離は増大し続ける。図14Sにおいて、接触14036から離れた接触14032の移動の大きさは、増大したスケーリング閾値ST'を超えており、仮想オブジェクト11002のサイズは増大している。(図14Tにおけるスケーリング移動量計14004で示す高ウォーターマーク14047によって示すように)閾値ST'が満足された後、接触14032及び14036の任意のスケーリング移動によって、仮想オブジェクト11002のスケーリングを引き起こす。 In FIGS. 14Q-14R, contact 14032 moves along the path indicated by arrow 14040 and contact 14036 moves along the path indicated by arrow 14042. In FIG. 14R, the magnitude of movement of contact 14032 away from contact 14036 exceeds the original scaling threshold ST, but does not reach the increased scaling threshold ST'. When the increased scaling movement threshold ST' is in effect, scaling does not occur until the amount of movement of the contact 14032 away from the contact 14036 increases beyond the increased scaling movement threshold ST', and thus virtual object 11002 The size of is unchanged from FIGS. 14Q-14R. 14R-14S, as contact 14032 moves along the path indicated by arrow 14044 and contact 14036 moves along the path indicated by arrow 14046, the distance between contacts 14032 and 14046 continues to increase. In FIG. 14S, the amount of movement of contact 14032 away from contact 14036 exceeds the increased scaling threshold ST', and the size of virtual object 11002 has increased. After the threshold ST' is satisfied (as indicated by the high watermark 14047 indicated by the scaling displacement meter 14004 in FIG. 14T), any scaling movement of contacts 14032 and 14036 causes scaling of virtual object 11002.

図14T~14Uにおいて、接触14032は矢印14048で示す経路に沿って移動し、接触14036は矢印14050で示す経路に沿って移動する。(並進移動量計14002で示す高ウォーターマーク14043によって示すように)閾値TTが満たされているので、仮想オブジェクト11002は、接触14032及び14036の横移動の方向に自由に移動する。 14T-14U, contact 14032 moves along the path indicated by arrow 14048 and contact 14036 moves along the path indicated by arrow 14050. Since the threshold TT is met (as indicated by the high watermark 14043 indicated by the translation meter 14002), the virtual object 11002 is free to move in the direction of the lateral movement of the contacts 14032 and 14036.

図14V~14Wにおいて、接触14032は矢印14052で示す経路に沿って移動し、接触14036は矢印14054で示す経路に沿って移動する。接触14032及び14036の移動は、並進移動(接触14032及び14036の左方移動)と、スケーリング移動(接触14032と接触14036との間の距離を減少させる移動(例えば、ピンチジェスチャ))とを含む。(並進移動量計14002で示される高ウォーターマーク14043によって示すように)並進閾値TTが満足させられたため、仮想オブジェクト11002は、接触14032及び14036の横移動の方向に自由に移動し、(スケーリング移動量計14004で示される高ウォーターマーク14047によって示すように)増大したスケーリング閾値ST'が満足させられたため、仮想オブジェクト11002は、接触14032の接触14036の方への移動に応じて自由にスケーリングする。図14Vから14Wまで、仮想オブジェクト11002のサイズは減少しており、仮想オブジェクト11002は、矢印14052で示す経路に沿った接触14032の移動、及び矢印14054で示す経路に沿った接触14036の移動に応じて左方に移動している。 14V-14W, contact 14032 moves along the path indicated by arrow 14052 and contact 14036 moves along the path indicated by arrow 14054. Movements of contacts 14032 and 14036 include translational movements (movements of contacts 14032 and 14036 to the left) and scaling movements (movements that decrease the distance between contacts 14032 and 14036 (eg, a pinch gesture)). Since the translation threshold TT has been satisfied (as indicated by the high watermark 14043 indicated by the translation meter 14002), the virtual object 11002 is free to move in the direction of the lateral movement of the contacts 14032 and 14036 (as indicated by the scaling movement Since the increased scaling threshold ST' has been satisfied (as indicated by the high watermark 14047 indicated by the scale 14004), the virtual object 11002 is free to scale in response to the movement of the contact 14032 towards the contact 14036. From FIGS. 14V to 14W, the size of virtual object 11002 is decreasing and virtual object 11002 responds to the movement of contact 14032 along the path shown by arrow 14052 and the movement of contact 14036 along the path shown by arrow 14054. and moving to the left.

図14X~14Zでは、接触14032が矢印14056で示す経路に沿って反時計方向に回転移動し、接触14036が矢印14058で示す経路に沿って反時計方向に回転移動する。図14Yにおいて、接触14032及び接触14036の回転移動の大きさは、元のスケーリング閾値RTを超えているが、増大したスケーリング閾値RT'に達していない。増大したスケーリング移動閾値RT'が効果的であるとき、接触14032及び14036の回転移動の大きさが増大した回転移動閾値RT'を超えて増大するまで仮想オブジェクト11002の回転は起こらず、したがって、仮想オブジェクト11002は、図14X~14Yから回転していない。図14Y~14Zにおいて、接触14032が矢印14060で示す経路に沿って移動し、接触14036が矢印14062で示す経路に沿って移動するとき、接触14032及び14046は反時計方向に回転移動し続ける。図14Zにおいて、接触14032及び接触14036の回転移動の大きさは増大したスケーリング閾値RT'を超えおり、仮想オブジェクト11002は入力に応答して回転している。 14X-14Z, contact 14032 rotates counterclockwise along the path indicated by arrow 14056, and contact 14036 rotates counterclockwise along the path indicated by arrow 14058. In FIG. 14Y, the magnitude of the rotational movement of contacts 14032 and 14036 exceeds the original scaling threshold RT, but does not reach the increased scaling threshold RT'. When the increased scaling movement threshold RT' is in effect, no rotation of the virtual object 11002 occurs until the magnitude of the rotational movement of contacts 14032 and 14036 increases beyond the increased scaling movement threshold RT', and thus the virtual Object 11002 has not been rotated from FIGS. 14X-14Y. 14Y-14Z, contacts 14032 and 14046 continue to rotate counterclockwise as contact 14032 moves along the path indicated by arrow 14060 and contact 14036 moves along the path indicated by arrow 14062. In FIG. 14Z, the magnitude of the rotational movement of contacts 14032 and 14036 exceeds the increased scaling threshold RT', and virtual object 11002 is rotating in response to the input.

図14AA~14ADは、移動の第1の閾値大きさが第1のオブジェクト操作挙動について満たされるとの判定に応じて、第2のオブジェクト操作挙動に必要な移動の第2の閾値大きさを増大させる動作を示すフロー図である。図14AA~14ADに関して説明する動作は、表示生成コンポーネント(例えば、ディスプレイ、プロジェクタ、ヘッドアップディスプレイ等)、及びタッチ感知面(例えば、タッチ感知面、又は表示生成コンポーネントとタッチ感知面の両方としての役割を果たすタッチスクリーンディスプレイ)を有する電子デバイス(例えば、図3のデバイス300、又は図1Aのポータブル多機能デバイス100)で実行される。図14AA~14ADに関して説明した一部の動作は任意選択で組み合わされ、及び/又は一部の動作の順序は任意選択で変更される。 14AA-14AD increase a second threshold magnitude of movement required for a second object manipulation behavior in response to a determination that the first threshold magnitude of movement is satisfied for the first object manipulation behavior. FIG. The operations described with respect to FIGS. 14AA-14AD may serve as a display-generating component (e.g., a display, a projector, a heads-up display, etc.) and a touch-sensitive surface (e.g., a touch-sensitive surface, or both a display-generating component and a touch-sensitive surface). (e.g., device 300 of FIG. 3 or portable multifunction device 100 of FIG. 1A). Some of the operations described with respect to FIGS. 14AA-14AD are optionally combined and/or the order of some of the operations is optionally changed.

動作14066で、1つ以上の接触の移動を含むユーザー入力の第1の部分が検出される。動作14068で、(例えば、仮想オブジェクト11002に対応する位置における)1つ以上の接触の移動が、オブジェクト回転閾値(例えば、回転移動量計14006が示す回転閾値RT)を超えて増大するか否かが判定される。1つ以上の接触の移動が(例えば、図14B~14Dに関して説明するように)オブジェクト回転閾値を超えて増大しているとの判定に応じて、流れは動作14070に進む。1つ以上の接触の移動がオブジェクト回転閾値を超えて増大していないとの判定に応じて、流れは動作14074に進む。 At operation 14066, a first portion of user input that includes one or more contact movements is detected. In operation 14068, whether the movement of one or more contacts (e.g., at a position corresponding to virtual object 11002) increases beyond an object rotation threshold (e.g., rotation threshold RT indicated by rotational movement meter 14006). is determined. In response to a determination that the movement of one or more contacts has increased above an object rotation threshold (eg, as described with respect to FIGS. 14B-14D), flow proceeds to operation 14070. In response to a determination that the movement of one or more contacts has not increased beyond an object rotation threshold, flow proceeds to operation 14074.

動作14070で、オブジェクト(例えば、仮想オブジェクト11002)は、(例えば、図14B~14Dに関して説明したように)ユーザー入力の第1の部分に基づいて回転させられる。動作14072で、オブジェクト並進閾値は(例えば、図14Dに関して説明したように、TTからTT'まで)増大し、オブジェクトスケーリング閾値は(例えば、図14Dに関して説明したように、STからST'まで)まで増大する。流れは、Aで示すように、動作14072から図14ABの動作14086に進む。 At operation 14070, an object (eg, virtual object 11002) is rotated based on a first portion of user input (eg, as described with respect to FIGS. 14B-14D). In operation 14072, the object translation threshold is increased (e.g., from TT to TT', as described with respect to FIG. 14D), and the object scaling threshold is increased (e.g., from ST to ST', as described with respect to FIG. 14D). increase Flow proceeds from operation 14072, as indicated at A, to operation 14086 in FIG. 14AB.

動作14074で、(例えば、仮想オブジェクト11002に対応する位置での)1つ以上の接触の移動が、オブジェクト並進閾値(例えば、並進移動量計14002によって示す並進閾値TT)を超えて増大しているか否かが判定される。(例えば、図14K~14Mに関して説明するように)1つ以上の接触の移動がオブジェクト並進閾値を超えて増大するとの判定に応じて、流れは動作14076へ進む。1つ以上の接触の移動がオブジェクト並進閾値を超えて増大していないとの判定に応じて、流れは動作14080へ進む。 In operation 14074, whether the movement of one or more contacts (e.g., at a location corresponding to virtual object 11002) has increased by more than an object translation threshold (e.g., translation threshold TT as indicated by translation meter 14002). It is determined whether or not. In response to a determination that the movement of one or more contacts increases above an object translation threshold (eg, as described with respect to FIGS. 14K-14M), flow proceeds to operation 14076. In response to a determination that the movement of one or more contacts has not increased beyond an object translation threshold, flow proceeds to operation 14080.

動作14076で、オブジェクト(例えば、仮想オブジェクト11002)は、(例えば、図14K~14Mに関して説明したように)ユーザー入力の第1の部分に基づいて並進される。動作14078で、オブジェクト回転閾値は(例えば、図14Mに関して説明したように、RTからRT'へ)増大させられ、オブジェクトスケーリング閾値は(例えば、図14Mに関して説明したように、STからST'へ)増大させられる。Bに示すように、流れは、動作14078から図14ACの動作14100に進む。 At operation 14076, the object (eg, virtual object 11002) is translated based on the first portion of the user input (eg, as described with respect to FIGS. 14K-14M). At act 14078, the object rotation threshold is increased (e.g., from RT to RT', as described with respect to FIG. 14M), and the object scaling threshold is increased (e.g., from ST to ST', as described with respect to FIG. 14M). Increased. As shown in FIG. 14B, flow proceeds from operation 14078 to operation 14100 in FIG. 14AC.

動作14080で、(例えば、仮想オブジェクト11002に対応する位置での)1つ以上の接触の移動は、オブジェクトスケーリング閾値(例えば、スケーリング移動量計14004で示すスケーリング閾値ST)を超えて増大するか否かが判定される。1つ以上の接触の移動が(例えば、図14G~14Iに関して説明したような)オブジェクトスケーリング閾値を超えて増大するとの判定に応じて、流れは動作14082に進む。1つ以上の接触の移動がオブジェクトスケーリング閾値を超えて増大していないとの判定に応じて、流れは動作14085に進む。 At operation 14080, it is determined whether the movement of one or more contacts (e.g., at a location corresponding to virtual object 11002) increases beyond an object scaling threshold (e.g., scaling threshold ST as indicated by scaling movement meter 14004). It is determined whether In response to a determination that the movement of one or more contacts increases above an object scaling threshold (eg, as described with respect to FIGS. 14G-14I), flow proceeds to operation 14082. In response to a determination that the movement of one or more contacts has not increased beyond an object scaling threshold, flow proceeds to operation 14085.

動作14082で、オブジェクト(例えば、仮想オブジェクト11002)は、(例えば、図14G~14Iに関して説明したように)ユーザー入力の第1の部分に基づいてスケーリングされる。動作14084では、オブジェクト回転閾値は(例えば、図14Iに関して説明するように、RTからRT'に)増大し、オブジェクト並進閾値は(例えば、図14Iに関して説明するように、TTからTT'に)増大する。Cで示すように、流れは動作14084から図14ADの動作14114へ進む。 At act 14082, an object (eg, virtual object 11002) is scaled based on the first portion of the user input (eg, as described with respect to FIGS. 14G-14I). In operation 14084, the object rotation threshold is increased (e.g., from RT to RT', as described with respect to FIG. 14I), and the object translation threshold is increased (e.g., from TT to TT', as described with respect to FIG. 14I). do. Flow proceeds from operation 14084 to operation 14114 in FIG. 14AD, as shown at C.

動作14085で、1つ以上の接触の移動を含むユーザー入力の追加部分が検出される。流れは、動作14086から動作14066へ進む。 At operation 14085, additional portions of user input that include movement of one or more contacts are detected. Flow proceeds from operation 14086 to operation 14066.

図14ABにおいて、動作14086で、1つ以上の接触の移動を含むユーザー入力の追加部分が検出される。流れは、動作14086から動作14088へ進む。 In FIG. 14AB, additional portions of user input including movement of one or more contacts are detected at operation 14086. Flow proceeds from operation 14086 to operation 14088.

動作14088で、1つ以上の接触の移動が回転運動であるか否かが判定される。1つ以上の接触の移動が回転運動であるとの判定に応じて、流れは動作14090に進む。1つ以上の接触の移動が回転運動でないとの判定に応じて、流れは動作14092に進む。 At operation 14088, it is determined whether the movement of the one or more contacts is a rotational movement. In response to determining that the movement of one or more contacts is a rotational movement, flow proceeds to operation 14090. In response to a determination that the movement of one or more contacts is not rotational movement, flow proceeds to operation 14092.

動作14090で、オブジェクト(例えば、仮想オブジェクト11002)は、(例えば、図14D~14Eに関して説明したように)ユーザー入力の追加部分に基づいて回転させられる。回転閾値が予め満たされていたので、オブジェクトは、追加の回転入力に応じて自由に回転する。 At operation 14090, the object (eg, virtual object 11002) is rotated based on additional portions of user input (eg, as described with respect to FIGS. 14D-14E). Since the rotation threshold was previously met, the object is free to rotate in response to additional rotation inputs.

動作14092で、1つ以上の接触の移動が、増大したオブジェクト並進閾値(例えば、図14Dの並進移動量計14002によって示す並進閾値TT')を超えて増大しているか否かが判定される。1つ以上の接触の移動が、増大したオブジェクト並進閾値を超えて増大しているとの判定に応じて、流れは動作14094に進む。1つ以上の接触の移動が増大したオブジェクト並進閾値を超えて増大していないとの判定に応じて、流れは動作14096に進む。 At operation 14092, it is determined whether the movement of one or more contacts has increased beyond an increased object translation threshold (eg, translation threshold TT' as indicated by translation meter 14002 in FIG. 14D). In response to a determination that the movement of one or more contacts has increased above an increased object translation threshold, flow proceeds to operation 14094. In response to a determination that the movement of the one or more contacts has not increased beyond an increased object translation threshold, flow proceeds to operation 14096.

動作14094では、オブジェクト(例えば、仮想オブジェクト11002)は、ユーザー入力の追加部分に基づいて並進される。 At operation 14094, the object (eg, virtual object 11002) is translated based on the additional portion of the user input.

動作14096では、1つ以上の接触の移動が、増大したオブジェクトスケーリング閾値(例えば、図14Dのスケーリング移動量計14004によって示されるスケーリング閾値ST')を超えて増大しているか否か判定される。1つ以上の接触の移動が、増大したオブジェクトスケーリング閾値を超えて増大しているとの判定に応じて、流れは動作14098に進む。1つ以上の接触の移動が、増大したオブジェクトスケーリング閾値を超えて増大していないとの判定に応じて、流れは動作14086に戻る。 In operation 14096, it is determined whether the movement of the one or more contacts has increased beyond an increased object scaling threshold (eg, scaling threshold ST' as indicated by scaling movement meter 14004 in FIG. 14D). In response to a determination that the movement of one or more contacts has increased above an increased object scaling threshold, flow proceeds to operation 14098. Flow returns to operation 14086 in response to a determination that the movement of the one or more contacts has not increased beyond the increased object scaling threshold.

動作14098で、オブジェクト(例えば、仮想オブジェクト11002)は、ユーザー入力の追加部分に基づいてスケーリングされる。 At operation 14098, the object (eg, virtual object 11002) is scaled based on the additional portion of the user input.

図14ACにおいて、動作14100で、1つ以上の接触の移動を含むユーザー入力の追加部分が検出される。流れは、動作14100から動作14102に進む。 In FIG. 14AC, at operation 14100, additional portions of user input that include movement of one or more contacts are detected. Flow proceeds from operation 14100 to operation 14102.

動作14102で、1つ以上の接触の移動が並進移動であるか否か判定される。1つ以上の接触の移動が並進移動であるとの判定に応じて、流れは動作140104に進む。1つ以上の接触の移動が並進移動でないとの判定に応じて、流れは動作14106に進む。 At operation 14102, it is determined whether the movement of one or more contacts is a translational movement. In response to determining that the movement of one or more contacts is a translational movement, flow proceeds to operation 140104. In response to a determination that the movement of one or more contacts is not translational, flow proceeds to operation 14106.

動作14104で、オブジェクト(例えば、仮想オブジェクト11002)は、ユーザー入力の追加部分に基づいて並進させられる。並進閾値が予め満たされていたので、オブジェクトは、追加の並進入力に応じて自由に並進する。 At operation 14104, the object (eg, virtual object 11002) is translated based on the additional portion of the user input. Since the translation threshold was previously met, the object is free to translate in response to additional translational inputs.

動作14106で、1つ以上の接触の移動が、増大したオブジェクト回転閾値(例えば、図14Mの回転移動量計14006で示す回転閾値RT')を超えて増大しているか否かが判定される。1つ以上の接触の移動が、増大したオブジェクト回転閾値を超えて増大しているとの判定に応じて、流れは動作14108に進む。1つ以上の接触の移動が、増大したオブジェクト回転閾値を超えて増大していないとの判定に応じて、流れは動作14110に進む。 At operation 14106, it is determined whether the movement of the one or more contacts has increased beyond an increased object rotation threshold (eg, rotation threshold RT' as indicated by rotational movement meter 14006 in FIG. 14M). In response to a determination that the movement of one or more contacts has increased above an increased object rotation threshold, flow proceeds to operation 14108. In response to a determination that the movement of one or more contacts has not increased beyond an increased object rotation threshold, flow proceeds to operation 14110.

動作14108で、オブジェクト(例えば、仮想オブジェクト11002)は、ユーザー入力の追加部分に基づいて回転させられる。 At operation 14108, the object (eg, virtual object 11002) is rotated based on the additional portion of user input.

動作14110で、1つ以上の接触の移動が増大したオブジェクトスケーリング閾値(例えば、図14Mのスケーリング移動量計14004で示すスケーリング閾値ST')を超えて増大しているか否かが判定される。1つ以上の接触の移動が増大したオブジェクトスケーリング閾値を超えて増大しているとの判定に応じて、流れは動作14112に進む。1つ以上の接触の移動が増大したオブジェクトスケーリング閾値を超えて増大していないとの判定に応じて、流れは動作14100に戻る。 At operation 14110, it is determined whether the movement of one or more contacts has increased beyond an increased object scaling threshold (eg, scaling threshold ST' as shown by scaling movement meter 14004 in FIG. 14M). In response to a determination that the movement of one or more contacts has increased above an increased object scaling threshold, flow proceeds to operation 14112. Flow returns to operation 14100 in response to a determination that the movement of one or more contacts has not increased beyond the increased object scaling threshold.

動作14112で、オブジェクト(例えば、仮想オブジェクト11002)は、ユーザー入力の追加部分に基づいてスケーリングされる。 At act 14112, the object (eg, virtual object 11002) is scaled based on the additional portion of the user input.

図14ADにおいて、動作14114で、1つ以上の接触の移動を含むユーザー入力の追加部分が検出される。流れは、動作14114から動作14116に進む。 In FIG. 14AD, additional portions of user input including movement of one or more contacts are detected at operation 14114. Flow proceeds from operation 14114 to operation 14116.

動作14116で、1つ以上の接触の移動がスケーリング移動であるか否かが判定される。1つ以上の接触の移動がスケーリング移動であるとの判定に応じて、流れは動作140118に進む。1つ以上の接触の移動がスケーリング移動でないとの判定に応じて、流れは動作14120に進む。 At operation 14116, it is determined whether the movement of one or more contacts is a scaling movement. In response to a determination that the movement of one or more contacts is a scaling movement, flow proceeds to operation 140118. In response to a determination that the one or more contact movements are not scaling movements, flow continues to operation 14120.

動作14118で、オブジェクト(例えば、仮想オブジェクト11002)は、ユーザー入力の追加部分に基づいてスケーリングされる。スケーリング閾値が予め満たされていたので、オブジェクトは、追加のスケーリング入力に応じて自由にスケーリングされる。 At operation 14118, the object (eg, virtual object 11002) is scaled based on the additional portion of the user input. Since the scaling threshold was previously met, the object is free to scale in response to additional scaling inputs.

動作14120で、1つ以上の接触の移動が、増大したオブジェクト回転閾値(例えば、図14Iの回転移動量計14006で示す回転閾値RT')を超えて増大しているか否かが判定される。1つ以上の接触の移動が、増大したオブジェクト回転閾値を超えて増大しているとの判定に応じて、流れは動作14122に進む。1つ以上の接触の移動が、増大したオブジェクト回転閾値を超えて増大していないとの判定に応じて、流れは動作14124に進む。 At operation 14120, it is determined whether the movement of one or more contacts has increased beyond an increased object rotation threshold (eg, rotation threshold RT' as indicated by rotational movement meter 14006 in FIG. 14I). In response to a determination that the movement of one or more contacts has increased above an increased object rotation threshold, flow proceeds to operation 14122. In response to a determination that the movement of the one or more contacts has not increased beyond an increased object rotation threshold, flow proceeds to operation 14124.

動作14122で、オブジェクト(例えば、仮想オブジェクト11002)は、ユーザー入力の追加部分に基づいて回転させられる。 At operation 14122, the object (eg, virtual object 11002) is rotated based on the additional portion of the user input.

動作14124で、1つ以上の接触の移動が、増大したオブジェクト並進閾値(例えば、図14Iの並進移動量計14002で示す並進閾値TT')を超えて増大しているか否かが判定される。1つ以上の接触の移動が、増大したオブジェクト並進閾値を超えて増大しているとの判定に応じて、流れは動作14126に進む。1つ以上の接触の移動が、増大したオブジェクト並進閾値を超えて増大していないとの判定に応じて、流れは動作14114に進む。 At operation 14124, it is determined whether the movement of the one or more contacts has increased beyond an increased object translation threshold (eg, translation threshold TT' as indicated by translation meter 14002 in FIG. 14I). In response to a determination that the movement of one or more contacts has increased above an increased object translation threshold, flow proceeds to operation 14126. In response to a determination that the movement of the one or more contacts has not increased beyond the increased object translation threshold, flow proceeds to operation 14114.

図15A~15AIは、デバイスが移動することで、1つ以上のデバイスカメラの表示された視野の外に仮想オブジェクトが移動したという判定に応じて音声警報を生成するユーザーインターフェースの例を示す。これらの図におけるユーザーインターフェースは、図8A~8E、図9A~9D、図10A~10D、図16A~16G、図17A~17D、図18A~18I、図19A~19H、及び図20A~20Fにおけるプロセスを含む以下に説明するプロセスを例示するために用いられる。説明の便宜上、実施形態のいくつかは、タッチ感知ディスプレイシステム112を有するデバイス上で実行される操作を参照して議論される。そのような実施形態では、フォーカスセレクタは任意選択で、それぞれの指若しくはスタイラスの接触、指若しくはスタイラスの接触に対応する代表的な点(例えば、それぞれの接触の面心若しくはそれぞれの接触と関連付けられた点)、又はタッチ感知ディスプレイシステム112上で検出された2つ以上の接触の面心である。しかしながら、同様の操作は任意選択で、フォーカスセレクタと共に、ディスプレイ450上で図に示されるユーザーインターフェースを表示する間、タッチ感知面451上の接触を検出したことに応答して、ディスプレイ450及び別々のタッチ感知面451を有するデバイス上で実行される。 15A-15AI illustrate an example user interface that generates an audio alert in response to a determination that movement of the device causes a virtual object to move outside the displayed field of view of one or more device cameras. The user interfaces in these figures are similar to the processes in FIGS. is used to illustrate the process described below, including: For convenience of explanation, some of the embodiments are discussed with reference to operations performed on a device having a touch-sensitive display system 112. In such embodiments, the focus selector optionally includes each finger or stylus contact, a representative point corresponding to the finger or stylus contact (e.g., the face center of each contact or the point associated with each contact). (point), or the face center of two or more contacts detected on the touch-sensitive display system 112. However, similar operations, along with a focus selector, may optionally be performed on display 450 and a separate Runs on a device that has a touch sensitive surface 451.

図15A~15AIは、アクセシビリティ特徴がアクティブであるときに行われるユーザーインターフェース及びデバイスの動作を示す。一部の実施形態では、アクセシビリティ特徴は、(例えば、能力に制限のあるユーザーが上記の入力ジェスチャを行うためにデバイス特徴にアクセスする容易性を高めるために)デバイス特徴にアクセスするために減少した数の入力又は代替入力が使用可能であるモードを含む。例えば、アクセシビリティモードは、利用可能なデバイスを介して動作を前進又は逆転させるために第1の入力ジェスチャ(例えば、スワイプ入力)が使用され、現在示されている動作を実行するために選択入力(例えば、二重タップ入力)が使用されるスイッチ制御モードである。ユーザーがデバイスと対話すると、(例えば、操作が行われたことを示すため、デバイスのステージングユーザーインターフェース又は1つ以上のカメラの視野に対して仮想オブジェクト11002の現在の表示状態を示すため等、ユーザーにフィードバックを提供するために)音声警報が生成される。 15A-15AI illustrate user interface and device operations that occur when accessibility features are active. In some embodiments, accessibility features have been reduced to access device features (e.g., to increase the ease with which users with limited capabilities can access device features to perform the input gestures described above). Includes modes in which numeric or alternative inputs are available. For example, accessibility mode is where a first input gesture (e.g., a swipe input) is used to advance or reverse an action through an available device, and a selection input (e.g., a swipe input) is used to perform the currently indicated action. For example, the switch control mode in which a double tap input) is used. When the user interacts with the device (e.g., to indicate that an action has taken place, to indicate the current display state of the virtual object 11002 relative to the device's staging user interface or to the field of view of one or more cameras, etc.), the user an audio alert (to provide feedback) is generated.

図15Aにおいて、メッセージングユーザーインターフェース5008は、三次元仮想オブジェクト11002の二次元表現を含む。(例えば、現在選択されている動作が、仮想オブジェクト11002上で実行される動作であることを示すために)選択カーソル15001が、三次元仮想オブジェクト11002の周囲に示されている。現在指示されている動作(例えば、ステージングユーザーインターフェース6010における仮想オブジェクト11002の三次元表現の表示)を行うために、接触15002による入力(例えば、二重タップ入力)が検出される。図15Bに示すように、この入力に応答して、メッセージングユーザーインターフェース5060の表示は、ステージングユーザーインターフェース6010の表示によって置き換えられる。 In FIG. 15A, messaging user interface 5008 includes a two-dimensional representation of three-dimensional virtual object 11002. A selection cursor 15001 is shown around the three-dimensional virtual object 11002 (eg, to indicate that the currently selected action is the action to be performed on the virtual object 11002). Input via contact 15002 (eg, a double-tap input) is detected to perform the currently instructed action (eg, displaying a three-dimensional representation of virtual object 11002 in staging user interface 6010). In response to this input, the display of messaging user interface 5060 is replaced by a display of staging user interface 6010, as shown in FIG. 15B.

図15Bにおいて、仮想オブジェクト11002は、ステージングユーザーインターフェース6010に表示される。デバイスの状態を示すために、15008で示すように、(例えば、デバイススピーカ111によって)音声警報が生成される。例えば、音声警報15008は、15010で示すように、「現在、椅子はステージングビューで示されている」というアナウンスを含む。 In FIG. 15B, virtual object 11002 is displayed in staging user interface 6010. An audio alert is generated (eg, by device speaker 111), as shown at 15008, to indicate the status of the device. For example, audio alert 15008 includes an announcement, as shown at 15010, that "chairs are currently shown in staging view."

図15Bには、(例えば、現在選択されている動作が、共有動作であることを示すために)選択カーソル15001が、共有制御6020の周囲に示されている。接触15004による入力(例えば、矢印15006で示す経路に沿った右向きのスワイプ)が検出される。この入力に応答して、選択された動作は次の動作に進む。 In FIG. 15B, a selection cursor 15001 is shown around the shared control 6020 (eg, to indicate that the currently selected action is a shared action). An input by contact 15004 (eg, a rightward swipe along the path indicated by arrow 15006) is detected. In response to this input, the selected operation advances to the next operation.

図15Cには、(例えば、現在選択されている動作が、表示された仮想オブジェクト11002を上方に傾斜させる動作であることを示すために)チルトアップ制御15012が表示されている。デバイスの状態を示すために、15014で示すように、音声警報が生成される。例えば、音声警報は、15016で示すように、「選択済み:チルトアップボタン」というアナウンスを含む。接触15018による入力(例えば、矢印15020で示す経路に沿った右向きのスワイプ)が検出される。この入力に応答して、選択された動作は次の動作に進む。 In FIG. 15C, a tilt up control 15012 is displayed (eg, to indicate that the currently selected action is to tilt the displayed virtual object 11002 upward). An audio alert is generated, as shown at 15014, to indicate the status of the device. For example, the audio alert includes an announcement, "Selected: Tilt Up Button," as shown at 15016. An input by contact 15018 (eg, a rightward swipe along the path indicated by arrow 15020) is detected. In response to this input, the selected operation advances to the next operation.

図15Dには、(例えば、現在選択されている動作が、表示された仮想オブジェクト11002を下方に傾斜させる動作であることを示すために)チルトダウン制御15022が表示されている。音声警報は、15024に示すように、デバイスの状態を示すために生成される。例えば、音声警報は、15026で示すように、「選択済み:チルトダウンボタン」というアナウンスを含む。接触15028による入力(例えば、二重タップ入力)が検出される。この入力に応答して、選択された動作が実行される(例えば、仮想オブジェクト11002は、ステージングビュー内で下方に傾斜させられる)。 In FIG. 15D, a tilt down control 15022 is displayed (eg, to indicate that the currently selected action is to tilt the displayed virtual object 11002 downward). An audio alert is generated to indicate the condition of the device, as shown at 15024. For example, the audio alert includes an announcement, "Selected: Tilt Down Button," as shown at 15026. An input by contact 15028 (eg, a double tap input) is detected. In response to this input, the selected action is performed (eg, virtual object 11002 is tilted downward in the staging view).

図15Eにおいて、仮想オブジェクト11002は、ステージングビューにおいて下方に傾斜している。デバイスの状態を示すために、15030に示すように、音声警報が生成される。例えば、音声警報は、「椅子が下に5度傾斜している」というアナウンスを含む。15032に示すように、現在、椅子は画面に向かって10度傾斜している。 In FIG. 15E, virtual object 11002 is tilted downward in the staging view. An audio alert is generated, as shown at 15030, to indicate the status of the device. For example, the audio alert includes an announcement that "the chair is tilted down 5 degrees." As shown at 15032, the chair is currently tilted 10 degrees toward the screen.

図15Fにおいて、接触15034による入力(例えば、矢印15036で示す経路に沿った右向きのスワイプ)が検出される。この入力に応答して、選択された動作は次の動作に進む。 In FIG. 15F, an input by contact 15034 (eg, a rightward swipe along the path indicated by arrow 15036) is detected. In response to this input, the selected operation advances to the next operation.

図15Gには、(例えば、現在選択されている動作が、表示された仮想オブジェクト11002を時計回りに回転させる動作であることを示すために)時計回り回転制御15038が表示されている。音声警報15040は、15042で示すように、「選択済み:時計回りにボタンを回転させる」というアナウンスを含む。接触15044による入力(例えば、矢印15046で示す経路に沿った右向きのスワイプ)が検出される。この入力に応答して、選択された動作は次の動作に進む。 In FIG. 15G, a clockwise rotation control 15038 is displayed (eg, to indicate that the currently selected action is to rotate the displayed virtual object 11002 clockwise). Audio alert 15040 includes the announcement, "Selected: Rotate button clockwise," as shown at 15042. An input by contact 15044 (eg, a rightward swipe along the path indicated by arrow 15046) is detected. In response to this input, the selected operation advances to the next operation.

図15Hにおいて、(例えば、現在選択されている動作が、表示された仮想オブジェクト11002を反時計回りに回転させる動作であることを示すために)反時計回り回転制御15048が表示される。音声警報15050は、15052で示すように、「選択済み:反時計回りにボタンを回転させる」というアナウンスを含む。接触15054による入力(例えば、二重タップ入力)が検出される。この入力に応答して、選択された動作が実行される(例えば、図15Iに示すように、仮想オブジェクト11002は、ステージングビュー内で反時計回りに回転させられる)。 In FIG. 15H, a counterclockwise rotation control 15048 is displayed (eg, to indicate that the currently selected action is to rotate the displayed virtual object 11002 counterclockwise). Audio alert 15050 includes the announcement, "Selected: Rotate button counterclockwise," as shown at 15052. An input by contact 15054 (eg, a double tap input) is detected. In response to this input, the selected action is performed (eg, virtual object 11002 is rotated counterclockwise within the staging view, as shown in FIG. 15I).

図15Iにおいて、15058に示すように、音声警報15056は、「椅子を反時計回りに5度回転します。次に、椅子をスクリーンから離れるように5度回転します。」というアナウンスを含む。 In FIG. 15I, as shown at 15058, audio alert 15056 includes the announcement, "Rotate your chair 5 degrees counterclockwise. Then rotate your chair 5 degrees away from the screen."

図15Jにおいて、接触15060による入力(例えば、矢印15062で示す経路に沿った右向きのスワイプ)が検出される。この入力に応答して、選択された動作は次の動作に進む。 In FIG. 15J, an input by contact 15060 (eg, a rightward swipe along the path indicated by arrow 15062) is detected. In response to this input, the selected operation advances to the next operation.

図15Kにおいて、(例えば、現在選択されている動作が、表示された仮想オブジェクト11002をズームする動作であることを示すために)ズーム制御15064が表示される。音声警報15066は、15068で示すように、「縮尺:調節可能」というアナウンスを含む。アナウンスにおいて制御名と併用されるキーワード「調整可能」は、制御を動作させるのにスワイプ入力(例えば、垂直スワイプ入力)が使用可能であることを示す。例えば、上向きのスワイプ入力は、矢印5072で示す経路に沿って接触5070が上方に移動するときに、接触5070によって与えられる。この入力に応答して、ズーム操作が行われる(例えば、図15K~15Lに示すように、仮想オブジェクト11002のサイズが増大する)。 In FIG. 15K, a zoom control 15064 is displayed (eg, to indicate that the currently selected action is to zoom the displayed virtual object 11002). Audio alert 15066 includes an announcement, "Scale: Adjustable," as shown at 15068. The keyword "adjustable" used with a control name in an announcement indicates that swipe input (eg, vertical swipe input) can be used to operate the control. For example, an upward swipe input is provided by contact 5070 as it moves upward along the path indicated by arrow 5072. In response to this input, a zoom operation is performed (eg, the size of virtual object 11002 is increased, as shown in FIGS. 15K-15L).

図15Lにおいて、音声警報15074は、15076で示すように、「現在、椅子は元のサイズの150パーセントに調整されている」というアナウンスを含む。仮想オブジェクト11002のサイズを縮小する入力(例えば、下向きのスワイプ入力)は、矢印5078で示す経路に沿って下方に移動する接触5078により与えられる。入力に応答して、ズーム操作が実行される(例えば、図15L~15Mに示すように、仮想オブジェクト11002のサイズは縮小される)。 In FIG. 15L, audio alert 15074 includes an announcement, as shown at 15076, "The chair is now adjusted to 150 percent of its original size." An input that reduces the size of virtual object 11002 (eg, a downward swipe input) is provided by contact 5078 that moves downward along the path indicated by arrow 5078. In response to the input, a zoom operation is performed (eg, the size of virtual object 11002 is reduced, as shown in FIGS. 15L-15M).

図15Mにおいて、音声警報15082は、15084で示すように、「現在、椅子は元のサイズの100パーセントに調整されている」というアナウンスを含む。仮想オブジェクト11002のサイズは、ステージングビュー6010において元々表示されたサイズに調整されるので、(例えば、仮想オブジェクト11002がその元のサイズに復帰したことを示すフィードバックを提供するために)(15086で示すような)触知出力が発生する。 In FIG. 15M, audio alert 15082 includes the announcement, "Chair is now adjusted to 100 percent of its original size," as shown at 15084. The size of the virtual object 11002 is adjusted to the size originally displayed in the staging view 6010 (e.g., to provide feedback that the virtual object 11002 has returned to its original size) (as shown at 15086). ) produces a tactile output.

図15Nにおいて、接触15088による入力(例えば、矢印15090で示す経路に沿った右向きのスワイプ)が検出される。この入力に応答して、選択された動作は次の動作に進む。 In FIG. 15N, an input by contact 15088 (eg, a rightward swipe along the path indicated by arrow 15090) is detected. In response to this input, the selected operation advances to the next operation.

図15Oにおいて、(例えば、現在選択されている動作が先のユーザーインターフェースに復帰する動作であることを示すために)選択カーソル15001がバック制御6016の周囲に示される。音声警報15092は、15094で示すように、「選択済み:復帰ボタン」というアナウンスを含む。接触15096による入力(例えば、矢印15098で示す経路に沿った右向きのスワイプ)が検出される。この入力に応答して、選択された動作は次の動作に進む。 In FIG. 15O, a selection cursor 15001 is shown around the back control 6016 (eg, to indicate that the currently selected action is an action that returns to a previous user interface). The audio alert 15092, as shown at 15094, includes the announcement "Selected: Return button." An input by contact 15096 (eg, a rightward swipe along the path indicated by arrow 15098) is detected. In response to this input, the selected operation advances to the next operation.

図15Pには、(例えば、現在選択されている動作が、ステージングユーザーインターフェース6010の表示とカメラの視野6036を含むユーザーインターフェースの表示との間でトグルする動作であることを示すために)選択カーソル15001が、トグル制御6018の周囲に示されている。音声警報15098は、50100で示すように、「選択済み:ワールドビュー/ステージングビュートグル」というアナウンスを含む。接触15102による入力(例えば、二重タップ入力)が検出される。(図15Qに示すように)この入力に応答して、ステージングユーザーインターフェース6010の表示は、カメラの視野6036を含むユーザーインターフェースの表示によって置き換えられる。 FIG. 15P shows a selection cursor (e.g., to indicate that the currently selected action is to toggle between displaying the staging user interface 6010 and displaying the user interface including the camera field of view 6036). 15001 is shown around toggle control 6018. Audible alert 15098 includes the announcement "Selected: World View/Staging View Toggle," as shown at 50100. An input by contact 15102 (eg, a double tap input) is detected. In response to this input, the staging user interface 6010 display is replaced by a user interface display that includes the camera field of view 6036 (as shown in FIG. 15Q).

図15Q~15Tは、(例えば、仮想オブジェクト11002に対応するプレーンは、カメラの視野6036内でまだ検出されていないので)カメラの視野6036が表示されるときに発生する較正シーケンスを示す。較正シーケンス中に、仮想オブジェクト11002の半透明表現が表示され、カメラの視野6036がぼかされ、(デバイス100の表現12004及びプレーンの表現12010を含む)動画像を含むプロンプトが表示されて、ユーザーにデバイスの移動を促す。図15Qにおいて、音声警報15102は、50104で示すように、「プレーンを検出するためにデバイスを移動させる」というアナウンスを含む。図15Qから図15Rまで、デバイス100は、(例えば、カメラの視野6036内のテーブル5004の変化した位置によって示されるように)物理的環境5002に対して移動する。デバイス100の移動の検出の結果として、図15Sで示すように、較正ユーザーインターフェースオブジェクト12014が表示される。 15Q-15T illustrate the calibration sequence that occurs when camera field of view 6036 is displayed (eg, because the plane corresponding to virtual object 11002 has not yet been detected within camera field of view 6036). During the calibration sequence, a translucent representation of the virtual object 11002 is displayed, the camera's field of view 6036 is blurred, and a prompt containing a moving image (including the device 100 representation 12004 and the plane representation 12010) is displayed to prompt the user. prompt you to move your device. In FIG. 15Q, audio alert 15102 includes an announcement, "Move device to detect plane," as shown at 50104. From FIG. 15Q to FIG. 15R, device 100 moves relative to physical environment 5002 (eg, as indicated by the changed position of table 5004 within camera field of view 6036). As a result of detecting movement of device 100, a calibration user interface object 12014 is displayed, as shown in FIG. 15S.

図15Sにおいて、音声警報15106は、50108で示すように、「プレーンを検出するためにデバイスを移動させる」というアナウンスを含む。図15S~15Tにおいて、較正ユーザーインターフェースオブジェクト12014は、(例えば、カメラの視野6036内のテーブル5004の変化した位置によって示されるように)デバイス100が物理的環境5002に対して移動するときに回転する。図15Tにおいて、カメラの視野6036内で検出される仮想オブジェクト11002に対応するプレーンについて十分な動きが生じており、音声警報15110は、50112で示すように、「プレーンが検出された」というアナウンスを含む。図15U~15Vにおいて、仮想オブジェクト11002の半透明性は減少し、仮想オブジェクト11002は検出されたプレーン上に配置される。 In FIG. 15S, audio alert 15106 includes an announcement, "Move device to detect plane," as shown at 50108. 15S-15T, the calibration user interface object 12014 rotates as the device 100 moves relative to the physical environment 5002 (e.g., as shown by the changed position of the table 5004 within the camera's field of view 6036). . In FIG. 15T, sufficient movement has occurred for the plane corresponding to the virtual object 11002 detected within the camera's field of view 6036, and the audio alert 15110 announces "Plane detected" as shown at 50112. include. In FIGS. 15U-15V, the translucency of virtual object 11002 is reduced and virtual object 11002 is placed on the detected plane.

図15Vにおいて、音声警報15114は、50116で示すように、「現在、椅子は、100パーセント可視でワールドに投影され、スクリーンの10パーセントを占める」というアナウンスを含む。触知出力生成器は、仮想オブジェクト11002がプレーン上に配置されていることを示す触知出力を(15118で示すように)出力する。仮想オブジェクト11002は、物理的環境5002に対して一定の位置に表示される。 In FIG. 15V, audio alert 15114 includes the announcement, as shown at 50116, "The chair is now projected into the world 100 percent visible and occupies 10 percent of the screen." The tactile output generator outputs a tactile output (as shown at 15118) indicating that the virtual object 11002 is placed on the plane. Virtual object 11002 is displayed in a fixed position relative to physical environment 5002.

図15V~15Wにおいて、デバイス100は、仮想オブジェクト11002がカメラの視野6036内でもはや見えないように(例えば、カメラの視野6036内のテーブル5004の変化した位置によって示されるように)物理的環境5002に対して移動させられる。カメラの視野6036の外に仮想オブジェクト11002が移動する結果として、音声警報15122は、50124に示すように、「椅子がスクリーン上にない」というアナウンスを含む。 15V-15W, the device 100 displays the physical environment 5002 such that the virtual object 11002 is no longer visible within the camera's field of view 6036 (e.g., as indicated by the changed position of the table 5004 within the camera's field of view 6036). be moved against. As a result of the virtual object 11002 moving outside of the camera's field of view 6036, the audio alert 15122 includes an announcement, "Chair not on screen," as shown at 50124.

図15W~15Xにおいて、デバイス100は、仮想オブジェクト11002が図15Xのカメラの視野6036内で再び見えるように物理的環境5002対して移動されている。仮想オブジェクト11002がカメラの視野6036内に移動する結果として、音声警報15118は、50120に示すように、「現在、椅子は、100パーセント可視でワールドに投影され、スクリーンの10パーセントを占める」というアナウンスを含んで生成される。 In FIGS. 15W-15X, device 100 has been moved relative to physical environment 5002 such that virtual object 11002 is again visible within the camera's field of view 6036 in FIG. 15X. As a result of the virtual object 11002 moving into the camera's field of view 6036, the audio alert 15118 announces, "The chair is now 100 percent visible and projected into the world and occupies 10 percent of the screen," as shown at 50120. is generated including.

図15X~15Yにおいて、デバイス100は、(例えば、カメラの視野6036内に投影されるときにデバイス100が仮想オブジェクト11002に対して「より近い」ように、及び仮想オブジェクト11002が図15Yのカメラの視野6036内で部分的に見えるように)物理的環境5002に対して移動されている。カメラの視野6036の外に部分的に仮想オブジェクト11002が移動する結果として、音声警報15126は、50128に示すように、「椅子は、90パーセント可視であり、スクリーンの20パーセントを占める」というアナウンスを含む。 In FIGS. 15X-15Y, the device 100 is configured such that the device 100 is "closer" to the virtual object 11002 (e.g., when projected into the camera's field of view 6036, and the virtual object 11002 is closer to the camera of FIG. 15Y). (partially visible within field of view 6036) relative to physical environment 5002. As a result of the virtual object 11002 moving partially outside of the camera's field of view 6036, the audible alert 15126 announces, "The chair is 90 percent visible and occupies 20 percent of the screen," as shown at 50128. include.

一部の実施形態では、仮想オブジェクト11002に対応する位置で与えられる入力により、仮想オブジェクト11002についての言語情報を含む音声メッセージが提供される。反対に、仮想オブジェクト11002及び制御から離れている位置で入力が与えられるときは、仮想オブジェクト11002についての言語情報を含む音声メッセージは提供されない。図15Zにおいて、ユーザーインターフェースにおける制御又は仮想オブジェクト11002の位置に対応しない位置で接触15132が検出されることを示すために、音声出力15130(例えば「クリック」又は「機械音」)が発生する。図15AAにおいて、接触15134による入力は、仮想オブジェクト11002の位置に対応する位置で検出される。この入力に応答して、50138に示すように、(例えば、仮想オブジェクト11002の状態を示す)仮想オブジェクト11002に対応する音声警報15136は、「椅子は、90パーセント可視であり、スクリーンの20パーセントを占める」というアナウンスを含んで生成される。 In some embodiments, input provided at a location corresponding to virtual object 11002 provides an audio message that includes linguistic information about virtual object 11002. Conversely, when input is provided at a location remote from virtual object 11002 and control, no audio message containing linguistic information about virtual object 11002 is provided. In FIG. 15Z, an audio output 15130 (eg, a "click" or "mechanical sound") is generated to indicate that a contact 15132 is detected at a location that does not correspond to the location of a control or virtual object 11002 in the user interface. In FIG. 15AA, input by contact 15134 is detected at a location corresponding to the location of virtual object 11002. In response to this input, as shown at 50138, an audible alert 15136 corresponding to virtual object 11002 (e.g., indicating the state of virtual object 11002) reads ``The chair is 90 percent visible and occupies 20 percent of the screen.'' It is generated with the announcement "Occupy".

図15AB~15AIは、カメラの視野6036を含むユーザーインターフェースが表示されている間に、スイッチ制御モードにおいて動作を選択及び実行する入力を示す。 15AB-15AI illustrate inputs for selecting and performing operations in switch control mode while a user interface including camera field of view 6036 is displayed.

図15ABにおいて、接触15140による入力(例えば、矢印15142で示す経路に沿った右向きのスワイプ)が検出される。この入力に応答して、図15ACで示すように、動作が選択される。 In FIG. 15AB, an input by contact 15140 (eg, a rightward swipe along the path indicated by arrow 15142) is detected. In response to this input, an action is selected as shown in FIG. 15AC.

図15ACにおいて、(例えば、現在選択されている動作が、仮想オブジェクト11002を右に移動させる動作であることを示すために)右方横移動制御15144が表示される。音声警報15146は、15148で示されるように、「選択済み:右ボタンを移動する」というアナウンスを含む。接触15150による入力(例えば、二重タップ入力)が検出される。この入力に応答して、選択された動作が実行される(例えば、仮想オブジェクト11002は、図15ADに示すように、カメラの視野6036内で右に移動させられる)。 In FIG. 15AC, a right lateral movement control 15144 is displayed (eg, to indicate that the currently selected action is to move virtual object 11002 to the right). Audio alert 15146 includes the announcement, "Selected: Move right button," as shown at 15148. An input by contact 15150 (eg, a double tap input) is detected. In response to this input, a selected action is performed (eg, virtual object 11002 is moved to the right within camera field of view 6036, as shown in FIG. 15AD).

図15ADにおいて、仮想オブジェクト11002の移動は、15154で示すように、「椅子は、100パーセント可視であり、スクリーンの30パーセントを占める」というアナウンスを含む音声警報15152によって報告される。 In FIG. 15AD, movement of virtual object 11002 is reported by audio alert 15152, as shown at 15154, including the announcement, "Chair is 100 percent visible and occupies 30 percent of the screen."

図15AEにおいて、接触15156による入力(例えば、矢印15158で示す経路に沿った右向きのスワイプ)が検出される。この入力に応答して、選択された動作は次の動作に進む。 In FIG. 15AE, an input by contact 15156 (eg, a rightward swipe along the path indicated by arrow 15158) is detected. In response to this input, the selected operation advances to the next operation.

図15AFにおいて、(例えば、現在選択されている動作が、仮想オブジェクト11002を左に移動させる動作であることを示すために)左方横移動制御15160が表示される。音声警報15162は、15164で示されるように、「選択済み:左に移動する」というアナウンスを含む。接触15166による入力(例えば、矢印15168で示す経路に沿った右向きのスワイプ)が検出される。この入力に応答して、選択された動作は次の動作に進む。 In FIG. 15AF, a left lateral movement control 15160 is displayed (eg, to indicate that the currently selected action is to move virtual object 11002 to the left). Audio alert 15162 includes the announcement "Selected: Move to the left," as shown at 15164. An input by contact 15166 (eg, a rightward swipe along the path indicated by arrow 15168) is detected. In response to this input, the selected operation advances to the next operation.

図15AGにおいて、(例えば、現在選択されている動作が、仮想オブジェクト11002を時計回りに回転させる動作であることを示すために)時計回り回転制御15170が表示される。音声警報15172は、15174で示すように、「選択済み:時計回りに回転する」というアナウンスを含む。接触15176による入力(例えば、矢印15178で示す経路に沿った右向きのスワイプ)が検出される。この入力に応答して、選択された動作は次の動作に進む。 In FIG. 15AG, a clockwise rotation control 15170 is displayed (eg, to indicate that the currently selected action is to rotate virtual object 11002 clockwise). Audio alert 15172 includes the announcement "Selected: Rotating clockwise" as shown at 15174. An input by contact 15176 (eg, a rightward swipe along the path indicated by arrow 15178) is detected. In response to this input, the selected operation advances to the next operation.

図15AHにおいて、(例えば、現在選択されている動作が、仮想オブジェクト11002を時計回りに回転させる動作であることを示すために)反時計回り回転制御15180が表示される。音声警報15182は、15184で示すように、「選択済み:反時計回りに回転する」というアナウンスを含む。接触15186による入力(例えば、二重タップ入力)が検出される。この入力に応答して、選択された動作が実行される(例えば、図15AIで示すように、仮想オブジェクト11002は反時計回りに回転させられる)。 In FIG. 15AH, a counterclockwise rotation control 15180 is displayed (eg, to indicate that the currently selected action is to rotate virtual object 11002 clockwise). Audible alert 15182 includes the announcement "Selected: Rotating counterclockwise" as shown at 15184. An input by contact 15186 (eg, a double tap input) is detected. In response to this input, the selected action is performed (eg, virtual object 11002 is rotated counterclockwise, as shown in FIG. 15AI).

図15AIにおいて、音声警報15190は、「椅子は反時計回りに5度だけ回転した」というアナウンスを含む。15164で示すように、椅子は、現在、スクリーンに対してゼロ度だけ回転している。 In FIG. 15AI, audio alert 15190 includes the announcement, "The chair has rotated 5 degrees counterclockwise." As shown at 15164, the chair is currently rotated by zero degrees relative to the screen.

一部の実施形態では、オブジェクト(例えば、仮想オブジェクト11002)の少なくとも1つの表面(例えば、下側面)で反射が生じる。反射は、デバイス100の1つ以上のカメラによって取り込まれる画像データを使用して生成される。例えば、反射は、1つ以上のカメラの視野6036内で検出される水プレーン(例えば、床面5038)に対応する取り込まれた画像データ(例えば、画像、画像のセット、及び/又は動画)のうちの少なくとも一部に基づく。一部の実施形態では、反射の発生は、(例えば、取り込まれた画像データを仮想の球のモデル上にマッピングすることにより)取り込まれた画像データを含む球状モデルを生成することを含む。 In some embodiments, reflection occurs on at least one surface (eg, the bottom surface) of the object (eg, virtual object 11002). The reflections are generated using image data captured by one or more cameras of device 100. For example, reflections of captured image data (e.g., an image, set of images, and/or video) that correspond to a water plane (e.g., floor surface 5038) detected within the field of view 6036 of one or more cameras. Based on at least some of them. In some embodiments, generating the reflection includes generating a spherical model that includes the captured image data (eg, by mapping the captured image data onto a virtual spherical model).

一部の実施形態では、オブジェクトの表面で生じる反射は、(例えば、プレーンにより近い表面の一部が、プレーンからより遠い表面の一部よりも大きい反射率の大きさを有するように)反射勾配を含む。一部の実施形態では、オブジェクトの表面で生じる反射の反射率の大きさは、表面に対応するテクスチャの反射率値に基づく。例えば、表面の非反射部では反射が生じない。 In some embodiments, reflections that occur at the surface of an object are defined by a reflection gradient (e.g., such that a portion of the surface closer to the plane has a larger reflectance magnitude than a portion of the surface farther from the plane). including. In some embodiments, the reflectance magnitude of the reflection that occurs at the surface of the object is based on the reflectance value of the texture corresponding to the surface. For example, no reflection occurs on non-reflective portions of the surface.

一部の実施形態では、反射は、経時的に調整される。例えば、反射は、オブジェクトを移動及び/又はスケーリングする入力を受信したときに調整される(例えば、オブジェクトが移動するとき、オブジェクトの反射は、オブジェクトに対応する位置にあるプレーンの一部を反射するように調整される)。一部の実施形態では、反射は、オブジェクトが(例えば、z軸周りに)回転しているときには調整されない。 In some embodiments, the reflection is adjusted over time. For example, the reflection is adjusted when it receives input that moves and/or scales the object (e.g., when the object moves, the object's reflection reflects the part of the plane at the position corresponding to the object. ). In some embodiments, reflections are not adjusted when the object is rotating (eg, about the z-axis).

一部の実施形態では、(例えば、オブジェクトに対応するカメラの視野6036内で検出されるプレーン上の)決定された位置でオブジェクトを表示する前に、オブジェクトの表面上で反射は生じない。例えば、(例えば、図11G~11Hに関して説明するように)オブジェクトの半透明表現が表示されるとき、及び/又は(例えば、図12B~12Iに関して説明するように)較正が実行されているとき、オブジェクトの表面上で反射は生じない。 In some embodiments, no reflections occur on the surface of the object prior to displaying the object at the determined position (eg, on a plane detected within the camera's field of view 6036 corresponding to the object). For example, when a translucent representation of an object is displayed (e.g., as described with respect to FIGS. 11G-11H) and/or when a calibration is being performed (e.g., as described with respect to FIGS. 12B-12I); No reflections occur on the surface of the object.

一部の実施形態では、オブジェクトの反射は、カメラの視野6036内で検出される1つ以上のプレーン上で生じる。一部の実施形態では、オブジェクトの反射は、カメラの視野6036内で生じない。 In some embodiments, the reflection of the object occurs on one or more planes detected within the camera's field of view 6036. In some embodiments, the reflection of the object does not occur within the camera's field of view 6036.

図16A~16Gは、オブジェクト配置基準が満たされているか否かによって異なる視覚特性を用いる1つ以上のカメラの視野を含むユーザーインターフェースに仮想オブジェクトを表示する方法16000を示すフロー図である。方法16000は、表示生成コンポーネント(例えば、ディスプレイ、プロジェクタ、ヘッドアップディスプレイ等)と、1つ以上の入力デバイス(例えば、タッチ感知面、又は表示生成コンポーネントとタッチ感知面の両方としての役割を果たすタッチスクリーンディスプレイ)と、1つ以上のカメラ(例えば、ディスプレイ及びタッチ感知面とは反対のデバイスの側の1つ以上の背面カメラ)とを有する電子デバイス(例えば、図3のデバイス300、又は図1Aのポータブル多機能デバイス100)で実行される。一部の実施形態では、ディスプレイはタッチスクリーンディスプレイであり、タッチ感知面がディスプレイ上にあるか又はこれに組み込まれている。一部の実施形態では、ディスプレイはタッチ感知面から分離している。方法16000の一部の動作は任意選択で組み合わされ、及び/又は一部の動作の順序は任意選択で変更される。 16A-16G are flow diagrams illustrating a method 16000 for displaying virtual objects in a user interface that includes one or more camera fields of view using different visual characteristics depending on whether object placement criteria are met. The method 16000 includes a display-generating component (e.g., a display, a projector, a heads-up display, etc.) and one or more input devices (e.g., a touch-sensitive surface, or a touch that serves as both a display-generating component and a touch-sensitive surface). an electronic device (e.g., device 300 of FIG. 3 or FIG. 1A portable multifunction device 100). In some embodiments, the display is a touch screen display with a touch sensitive surface on or integrated into the display. In some embodiments, the display is separate from the touch-sensitive surface. Some acts of method 16000 are optionally combined and/or the order of some acts is optionally changed.

デバイスは、(例えば、仮想オブジェクトの移動可能な表現を含むステージングユーザーインターフェースが表示されている間に、及びカメラの視野が表示される前に)1つ以上のカメラの視野のうちの少なくとも一部を含む第1のユーザーインターフェース領域(例えば、拡張現実ビューインターフェース)に仮想オブジェクト(例えば、三次元モデルの表現)を表示する要求を受信する(16002)(例えば、この要求は、タッチスクリーンディスプレイ上の仮想オブジェクトの表現上で検出される接触による入力であり、あるいはこの接触は、仮想オブジェクトの表現と同時に表示され、第1の接触により引き起こされるときにARビューの表示をトリガするように構成されているアフォーダンス(例えば、「ARビュー」又は「ワールドビュー」ボタン上のタップ)で検出される)。例えば、図11Fに関して説明したように、要求は、1つ以上のカメラの視野6036内に仮想オブジェクト11002を表示するための入力である。 The device controls at least a portion of the field of view of the one or more cameras (e.g., while a staging user interface including a movable representation of the virtual object is displayed and before the field of view of the camera is displayed). A request is received (16002) to display a virtual object (e.g., a representation of a three-dimensional model) in a first user interface area (e.g., an augmented reality view interface) that includes a virtual object (e.g., a representation of a three-dimensional model) on a touch screen display. the input is a contact detected on the representation of the virtual object, or the contact is displayed simultaneously with the representation of the virtual object and is configured to trigger the display of the AR view when triggered by the first contact; affordances (e.g., detected with a tap on the “AR View” or “World View” button). For example, as described with respect to FIG. 11F, the request is an input to display virtual object 11002 within the field of view 6036 of one or more cameras.

第1のユーザーインターフェース領域に仮想オブジェクトを表示する要求(例えば、デバイスの周囲の物理的環境のビューに仮想オブジェクトを表示する要求)に応答して、デバイスは、表示生成コンポーネントを介して、第1のユーザーインターフェース領域に含まれる1つ以上のカメラの視野のうちの少なくとも一部の上に仮想オブジェクトの表現を表示する(16004)(例えば、1つ以上のカメラの視野は、第1のユーザーインターフェースの領域に仮想オブジェクトを表示する要求に応答して表示される)ものであり、1つ以上のカメラの視野は、1つ以上のカメラが位置する物理的環境のビューである。例えば、図11Gに関して説明したように、仮想オブジェクト11002は、1つ以上のカメラが位置する物理的環境5002のビューである1つ以上のカメラの視野6036内に表示される。仮想オブジェクトの表現を表示することは、オブジェクト配置基準が満たされるために、1つ以上のカメラの視野内で仮想オブジェクトの配置位置(例えば、プレーン)が識別されることを必要とするオブジェクトの配置基準が満たされていないとの判定に応じて(例えば、第1のユーザーインターフェース領域内で1つ以上のカメラの視野に対して仮想オブジェクトを配置する位置又はプレーンでデバイスが識別されていない(例えば、プレーン識別がまだ進行中であり、又はプレーンを識別するのに十分な画像データがない)とき、オブジェクト配置基準は満たされていない)、第1の1組の視覚特性(例えば、第1の半透明レベル、又は第1の輝度レベル、又は第1の彩度レベル等)を伴うと共に、物理的環境の一部が1つ以上のカメラの視野内に表示されることから独立している第1の向きを伴って、仮想オブジェクトの表現を表示することを含んでおり、例えば、物理的環境(例えば、ステージングビューに設定された向き)から独立していると共に、カメラの視野内で生じる変化(例えば、物理的環境に対するデバイスの移動による変化)から独立して、仮想オブジェクトは、所定のプレーンに相対的である向きでカメラの視野の上で浮いている。例えば、図11G~11Hでは、仮想オブジェクト11002についての配置位置がカメラの視野6036内で識別されていないので、仮想オブジェクト11002の半透明バージョンが表示される。(図11G~11Hに示すように)デバイスが移動するとき、仮想オブジェクト11002の向きは変化しない。一部の実施形態では、オブジェクト配置基準は、視野が安定しており、物理的環境の静止画を提供するという要件を含む(例えば、カメラは少なくとも閾値時間中に閾値量よりも少なく移動し、及び/又は要求が受信されて以来少なくとも所定の時間が経過しており、及び/又は十分に前のデバイスの移動でプレーン検出のためにカメラが較正されている。オブジェクト配置基準が満たされている(例えば、第1のユーザーインターフェース領域内に、1つ以上のカメラの視野に対して仮想オブジェクトを配置する位置又は面をデバイスが識別していないときに、オブジェクト配置基準は満たされている)との判定に応じて、デバイスは、第1の1組の視覚特性とは異なるの(例えば、第2の半透明性レベル、又は第2の輝度レベル、又は第2の彩度レベル等で)第2の1組の視覚特性を有すると共に、1つ以上のカメラの視野内で検出される物理的環境内のプレーンに対応する第2の向きを有する、仮想オブジェクトの表現を表示する。例えば、図11Iでは、仮想オブジェクト11002の配置位置は、カメラの視野6036内で識別されているので(例えば、物理的環境5002内の床面5038に対応するプレーン)、仮想オブジェクト11002の非半透明バージョンが表示される。仮想オブジェクト11002の向き(例えば、タッチスクリーンディスプレイ112上の位置)は、図11Hに示す第1の向きから図11Iに示す第2の向きへ変化している。(図11Iから図11Jに示すように)デバイスが移動するとき、仮想オブジェクト11002の向きは、(仮想オブジェクト11002が物理的環境5002に対して一定の向きで現在表示されているため)変化する。オブジェクト配置基準が満たされるかどうかに応じて、仮想オブジェクトを第1の1組の視覚特性又は第2の1組の視覚特性と共に表示することにより、(例えば、仮想オブジェクトを表示する要求が受信されているが、1つ以上のカメラの視野内に仮想オブジェクトを配置するために追加の時間及び/又は較正情報が必要されていることを示すために)ユーザーに視覚的フィードバックを提供する。改善された視覚的フィードバックをユーザーに提供することにより、(例えば、プレーンに対応する第2の向きでオブジェクトを配置する前に、適切な入力を提供し、仮想オブジェクトを操作する入力をしようするのを防ぐようにユーザーを支援することによって)デバイスの操作性を向上させ、ユーザーデバイスインターフェースをより効率的にし、更に、ユーザーがデバイスをより素早くかつ効率的に使用することを可能にすることでデバイスの電力使用量を削減し、電池寿命を改善する。 In response to a request to display a virtual object in a first user interface area (e.g., a request to display a virtual object in a view of the physical environment surrounding the device), the device, through a display generation component, displays a virtual object in a first user interface area. displaying (16004) a representation of a virtual object over at least a portion of the field of view of one or more cameras included in a user interface area of the first user interface (e.g., the field of view of the one or more cameras is (displayed in response to a request to display a virtual object in a region of the virtual object), and the field of view of the one or more cameras is a view of the physical environment in which the one or more cameras are located. For example, as described with respect to FIG. 11G, the virtual object 11002 is displayed within the field of view 6036 of one or more cameras, which is a view of the physical environment 5002 in which the one or more cameras are located. Displaying a representation of a virtual object requires that a placement position (e.g., a plane) of the virtual object be identified within the field of view of one or more cameras in order for object placement criteria to be met. In response to a determination that the criteria are not met (e.g., the device is not identified in a position or plane in which to place the virtual object with respect to the field of view of the one or more cameras within the first user interface area (e.g., , when plane identification is still in progress or there is insufficient image data to identify a plane), the object placement criterion is not met), the first set of visual characteristics (e.g., the first a translucent level, or a first brightness level, or a first saturation level, etc.) and independent of part of the physical environment being displayed within the field of view of the one or more cameras. 1, including displaying a representation of a virtual object with an orientation that is independent of the physical environment (e.g., an orientation set in a staging view) and changes that occur within the field of view of a camera. The virtual object floats above the camera's field of view in an orientation that is relative to a predetermined plane (independent of changes due to movement of the device relative to the physical environment, for example). For example, in FIGS. 11G-11H, a translucent version of virtual object 11002 is displayed because no placement location for virtual object 11002 has been identified within camera field of view 6036. When the device moves (as shown in FIGS. 11G-11H), the orientation of virtual object 11002 does not change. In some embodiments, the object placement criteria include requirements that the field of view is stable and provides a still image of the physical environment (e.g., the camera moves less than a threshold amount during at least a threshold amount of time; and/or at least a predetermined amount of time has elapsed since the request was received, and/or the camera has been calibrated for plane detection with sufficient prior device movement. Object placement criteria are met. (For example, the object placement criterion is met when the device does not identify a location or plane within the first user interface area in which to place the virtual object relative to the field of view of one or more cameras.) In response to the determination, the device provides a second set of visual characteristics different from the first set of visual characteristics (e.g., at a second translucency level, or a second brightness level, or a second chroma level, etc.). Displaying a representation of a virtual object having a set of visual characteristics of 2 and a second orientation corresponding to a plane in the physical environment detected within the field of view of one or more cameras. 11I, the placement location of virtual object 11002 has been identified within the camera's field of view 6036 (e.g., a plane corresponding to floor surface 5038 in physical environment 5002), so a non-transparent version of virtual object 11002 is displayed. The orientation (e.g., position on touch screen display 112) of virtual object 11002 has changed from a first orientation shown in FIG. 11H to a second orientation shown in FIG. 11I (FIGS. 11I to 11J). When the device moves (as shown in Figure 1), the orientation of the virtual object 11002 changes (because the virtual object 11002 is currently displayed in a constant orientation relative to the physical environment 5002). The object placement criteria are met. by displaying the virtual object with a first set of visual characteristics or a second set of visual characteristics, depending on whether (e.g., a request to display a virtual object is received but one Provide visual feedback to the user (to indicate that additional time and/or calibration information is required to place the virtual object within the field of view of the camera). Improved visual feedback to the user assist the user in providing appropriate input and preventing input from manipulating the virtual object (e.g. before placing the object in a second orientation corresponding to the plane) by providing (by) improving device usability, making user device interfaces more efficient, and reducing device power usage by allowing users to use their devices more quickly and efficiently; Improve battery life.

一部の実施形態では、デバイスは、仮想オブジェクトの表現が第1の1組の視覚特性及び第1の向きを伴って表示されている間に、オブジェクト配置基準が満たされていることを検出する(16006)(例えば、仮想オブジェクトが、デバイスの周囲の物理的環境のビューの上に半透明状態でサスペンドされている間に、仮想オブジェクトを配置するプレーンが識別される)。オブジェクト配置基準の検出を開始するのに更なるユーザー入力を必要とせずに、仮想オブジェクトが第1の1組の視覚特性を伴って(例えば、半透明状態で)表示されている間に、オブジェクト配置基準が満たされていることを検出することで、オブジェクト配置に必要な入力数を減少させる。動作を行うために必要な入力の数を減少させることにより、デバイスの操作性を向上させ、ユーザーデバイスインターフェースをより効率的にし、更に、ユーザーがデバイスをより素早くかつ効率的に使用することを可能にすることでデバイスの電力使用量を削減し、電池寿命を改善する。 In some embodiments, the device detects that the object placement criterion is met while the representation of the virtual object is displayed with the first set of visual characteristics and the first orientation. (16006) (eg, a plane is identified in which to place the virtual object while the virtual object is suspended semi-transparently above a view of the physical environment around the device). While the virtual object is displayed with the first set of visual characteristics (e.g., in a translucent state) without requiring further user input to initiate detection of object placement criteria, the object Detecting when placement criteria are met reduces the number of inputs required for object placement. Improves device usability by reducing the number of inputs required to perform an action, making the user device interface more efficient and allowing users to use the device more quickly and efficiently Reduce your device's power usage and improve battery life.

一部の実施形態では、オブジェクトの配置基準が満たされていることの検出に応答して、デバイスは、表示生成コンポーネントを介して、第1の向きから第2の向きへ移る(例えば、回転する、スケーリングする、並進する、及び/又は上記の組合せ)と共に第1の1組の視覚特性を有することから第2の1組の視覚特性を有することへ変化する仮想オブジェクトの表現を示すアニメーション化された遷移を表示する(16008)。例えば、仮想オブジェクトを配置するプレーンがカメラの視野内で識別されると、仮想オブジェクトはその向き、サイズ、半透明性(等)を可視的に調整してそのプレーン上に配置される。(例えば、第1のユーザーインターフェース内で仮想オブジェクトの向きを変えるために更なるユーザー入力を必要とすることなく)第1の向きから第2の向きへアニメーション化された遷移を表示することで、オブジェクト配置に必要な入力数を減少させる。動作を行うために必要な入力の数を減少させることにより、デバイスの操作性を向上させ、ユーザーデバイスインターフェースをより効率的にし、更に、ユーザーがデバイスをより素早くかつ効率的に使用することを可能にすることでデバイスの電力使用量を削減し、電池寿命を改善する。 In some embodiments, in response to detecting that object placement criteria are met, the device moves (e.g., rotates) from the first orientation to the second orientation via the display generation component. , scaling, translating, and/or a combination of the above) showing a representation of a virtual object changing from having a first set of visual characteristics to having a second set of visual characteristics. Display the transition (16008). For example, once a plane in which to place a virtual object is identified within the field of view of the camera, the virtual object is placed on that plane with visibly adjusting its orientation, size, translucency (etc.). displaying an animated transition from a first orientation to a second orientation (e.g., without requiring further user input to reorient the virtual object within the first user interface); Reduce the number of inputs required for object placement. Improves device usability by reducing the number of inputs required to perform an action, making the user device interface more efficient and allowing users to use the device more quickly and efficiently Reduce your device's power usage and improve battery life.

一部の実施形態では、オブジェクト配置基準が満たされていることの検出(16010)は、1つ以上のカメラの視野内で平面が識別されたことの検出、(例えば、カメラの視野内の物理的環境の実質的に静止したビューに導く)少なくとも閾値時間にわたるデバイスと物理的環境との間の閾値移動量未満の検出、及び第1のユーザーインターフェース領域に仮想オブジェクトを表示させる要求を受信してから少なくとも所定の時間が経過したことの検出のうちの1つ以上を含む。(例えば、プレーンを検出するユーザー入力を必要とせずに1つ以上のカメラの視野内でプレーンを検出することによって)オブジェクト配置基準が満たされていることを検出することで、オブジェクト配置に必要な入力数を減少させる。動作を行うために必要な入力の数を減少させることにより、デバイスの操作性を向上させ、ユーザーデバイスインターフェースをより効率的にし、更に、ユーザーがデバイスをより素早くかつ効率的に使用することを可能にすることでデバイスの電力使用量を削減し、電池寿命を改善する。 In some embodiments, detecting that the object placement criteria are met (16010) includes detecting that a plane has been identified within the field of view of one or more cameras (e.g., a physical plane within the field of view of the camera). detecting less than a threshold amount of movement between the device and the physical environment for at least a threshold amount of time (leading to a substantially stationary view of the physical environment), and receiving a request to display the virtual object in the first user interface area; detecting that at least a predetermined amount of time has elapsed since. Detecting that object placement criteria are met (e.g., by detecting a plane within the field of view of one or more cameras without requiring user input to detect the plane) Reduce the number of inputs. Improves device usability by reducing the number of inputs required to perform an action, making the user device interface more efficient and allowing users to use the device more quickly and efficiently Reduce your device's power usage and improve battery life.

一部の実施形態では、デバイスは、1つ以上のカメラの視野内で取り込まれた物理的環境の第1の部分(例えば、物理的環境の第1の部分は、半透明の仮想オブジェクトを通じてユーザーに見える)にわたって、仮想オブジェクトの表現が、第1の1組の視覚特性及び第1の向きを伴って表示される間に(例えば、仮想オブジェクトが、デバイスの周囲の物理的環境のビューの上に半透明状態でサスペンドされている間に)1つ以上のカメラの第1の移動(例えば、デバイスの周囲の物理的環境に対するデバイスの回転及び/又は並進)を検出する(16012)。例えば、図11G~11Hにおいて、1つ以上のカメラは、仮想オブジェクト11002の半透明表現が表示されている間、(例えば、カメラの視野6036内のテーブル5004の変化した位置によって示されるように)移動する。カメラの視野6036内に取り込まれ、ユーザーインターフェースに表示される物理的環境の壁及びテーブルは、半透明性の仮想オブジェクト11002を通して見える。1つ以上のカメラの第1の移動を検出することに応答して、デバイスは、1つ以上のカメラの視野内に取り込まれる物理的環境の第2の部分にわたって第1の1組の視覚特性及び第1の向きを伴って仮想オブジェクトの表現を表示し(16014)、ただし、物理的環境の第2の部分は、物理的環境の第1の部分とは異なる。例えば、カメラの視野内に示される物理的環境の上で浮かんでいる仮想オブジェクトの半透明バージョンが表示されている間に、カメラの視野内の物理的環境のビューは、デバイスが物理的環境に対して移動するときに、(例えば、半透明性の仮想オブジェクトの背後で)シフト及びスケーリングする。したがって、デバイスの移動中、仮想オブジェクトの半透明バージョンは、カメラの視野内の物理的環境のビューの並進及びスケーリングの結果として、視野内で表される物理的環境の異なる部分の上に重ね合わされる。例えば、図11Hにおいて、カメラの視野6036は、図11Gに表示される物理的環境5002の第1の部分とは異なるの物理的環境5002の第2の部分を表示する。図11G~11Hにおいて1つ以上のカメラの移動が生じるときに、仮想オブジェクト11002の半透明表現の向きは変化しない。1つ以上のカメラの移動の検出に応答して第1の向きで仮想オブジェクトを表示することにより、(例えば、1つ以上のカメラの視野内で取り込まれた物理的環境の一部が1つ以上のカメラの移動に応じて変化するときに、仮想オブジェクトは物理的環境に対して一定の位置にまだ配置されておらず、したがって移動しないことを示すために)ユーザーに視覚的フィードバックを提供する。改善された視覚的フィードバックをユーザーに提供することにより、(例えば、プレーンに対応する第2の向きでオブジェクトを配置する前に、仮想オブジェクトを操作する入力をしようするのを防ぐようにユーザーを支援することによって)デバイスの操作性を向上させ、ユーザーデバイスインターフェースをより効率的にし、更に、ユーザーがデバイスをより素早くかつ効率的に使用することを可能にすることでデバイスの電力使用量を削減し、電池寿命を改善する。 In some embodiments, the device captures a first portion of the physical environment captured within the field of view of the one or more cameras (e.g., the first portion of the physical environment is visible to the user through a translucent virtual object). while a representation of the virtual object is displayed with a first set of visual characteristics and a first orientation (e.g., the virtual object is displayed above a view of the device's surrounding physical environment). detecting (16012) a first movement of one or more cameras (eg, a rotation and/or translation of the device relative to a physical environment around the device); For example, in FIGS. 11G-11H, one or more cameras are operated while a translucent representation of virtual object 11002 is displayed (e.g., as indicated by the changed position of table 5004 within the camera's field of view 6036). Moving. The walls and tables of the physical environment captured within the camera's field of view 6036 and displayed on the user interface are visible through the semi-transparent virtual object 11002. In response to detecting the first movement of the one or more cameras, the device detects the first set of visual characteristics over a second portion of the physical environment captured within the field of view of the one or more cameras. and a first orientation (16014), where the second portion of the physical environment is different from the first portion of the physical environment. For example, while a translucent version of a virtual object floating above the physical environment shown within the camera's field of view is displayed, the view of the physical environment within the camera's field of view is Shift and scale (e.g., behind a semi-transparent virtual object) when moving relative to the virtual object. Thus, during movement of the device, translucent versions of virtual objects are superimposed on different parts of the physical environment represented in the field of view of the camera as a result of translation and scaling of the view of the physical environment within the field of view of the camera. Ru. For example, in FIG. 11H, camera field of view 6036 displays a second portion of physical environment 5002 that is different from the first portion of physical environment 5002 displayed in FIG. 11G. The orientation of the translucent representation of virtual object 11002 does not change when one or more camera movements occur in FIGS. 11G-11H. By displaying a virtual object in a first orientation in response to detecting movement of the one or more cameras (e.g., a portion of the physical environment captured within the field of view of the one or more cameras is Provide visual feedback to the user (to indicate that the virtual object is not yet placed in a fixed position relative to the physical environment and therefore does not move when changing in response to camera movement) . By providing improved visual feedback to the user (e.g., assisting the user to prevent input from manipulating the virtual object before placing the object in a second orientation that corresponds to the plane) improve device usability (by making devices easier to use), make user-device interfaces more efficient, and reduce device power usage by allowing users to use their devices more quickly and efficiently. , improve battery life.

一部の実施形態では、デバイスは、1つ以上のカメラの視野内に取り込まれる物理的環境の第3の部分(例えば、物理的環境の第3の部分(例えば、仮想オブジェクトを支持する検出されたプレーンの一部)の直接ビューは、仮想オブジェクトによって遮られる)にわたって、仮想オブジェクトの表現が第2の1組の視覚特性及び第2の向きを伴って表示される間に(例えば、オブジェクト配置基準が満たされ、仮想オブジェクトがカメラの視野内の物理的環境内で検出されるプレーン上に配置された後に)、1つ以上のカメラの第2の移動(例えば、デバイスの周囲の物理的環境に対するデバイスの回転及び/又は並進)を検出する(16016)。例えば、図11I~11Jにおいて、1つ以上のカメラは、仮想オブジェクト11002の非半透明表現が表示されている間に、(例えば、カメラの視野6036内のテーブル5004の変化した位置によって示されるように)移動する。デバイスの第2の移動の検出に応答して、デバイスは、1つ以上のカメラの視野内に取り込まれる物理的環境がデバイスの第2の移動に応じて移動する(例えば、シフトする及びスケーリングする)間、1つ以上のカメラの視野内に取り込まれる物理的環境の第3の部分にわたって第2の1組の視覚特性及び第2の向きを伴った仮想オブジェクトの表現の表示を維持し(16018)、第2の向きは、1つ以上のカメラの視野内で検出される物理的環境内のプレーンに対応し続ける。例えば、仮想オブジェクトの非半透明性バージョンが、カメラの視野内で示される物理的環境内で検出されるプレーン上の静止位置でドロップされた後、仮想オブジェクトの位置及び向きは、カメラの視野内の物理的環境に対して固定され、仮想オブジェクトは、デバイスが物理的環境に対して移動するときにカメラの視野内の物理的環境と共にシフト及びスケーリングする(例えば、仮想オブジェクト11002の非半透明表現は、図11I~11J中で1つ以上のカメラの移動が起こるときに、物理的環境5002内の床面に対してある向きで固定されたままである)。1つ以上のカメラの移動の検出に応答して第2の向きで仮想オブジェクトの表示を維持することにより、(例えば、仮想オブジェクトは、物理的環境に対して一定の位置に配置され、したがって、1つ以上のカメラの移動に応じて、1つ以上のカメラの視野内に取り込まれる物理的環境の一部が変化するときに移動することを示すために)ユーザーに視覚的フィードバックを提供する。改善された視覚的フィードバックをユーザーに提供することにより、(例えば、プレーンに対応する第2の向きで配置された仮想オブジェクトについての適切な入力を提供するようにユーザーを支援することによって)デバイスの操作性を向上させ、ユーザーデバイスインターフェースをより効率的にし、更に、ユーザーがデバイスをより素早くかつ効率的に使用することを可能にすることでデバイスの電力使用量を削減し、電池寿命を改善する。 In some embodiments, the device captures a third portion of the physical environment (e.g., a third portion of the physical environment (e.g., a detected object supporting a virtual object) that is captured within the field of view of the one or more cameras. the direct view of a portion of the plane) that is occluded by the virtual object), while a representation of the virtual object is displayed with a second set of visual characteristics and a second orientation (e.g., object positioning). A second movement of the one or more cameras (e.g., after the criteria are met and the virtual object is placed on a plane that is detected within the physical environment within the field of view of the camera) 16016). For example, in FIGS. 11I-11J, one or more cameras are moved while a non-transparent representation of virtual object 11002 is displayed (e.g., as indicated by the changed position of table 5004 within camera field of view 6036). to) move. In response to detecting the second movement of the device, the device causes the physical environment captured within the field of view of the one or more cameras to move (e.g., shift and scale) in response to the second movement of the device. ) during (16018 ), the second orientation continues to correspond to a plane in the physical environment detected within the field of view of the one or more cameras. For example, after a non-transparent version of a virtual object is dropped at a static position on a plane that is detected within the physical environment shown within the camera's field of view, the position and orientation of the virtual object is is fixed relative to the physical environment of virtual object 11002, and the virtual object shifts and scales with the physical environment within the camera's field of view as the device moves relative to the physical environment (e.g., a non-transparent representation of virtual object 11002 remains fixed in an orientation relative to the floor within the physical environment 5002 as one or more camera movements occur in FIGS. 11I-11J). By maintaining the display of the virtual object in the second orientation in response to detecting movement of the one or more cameras (e.g., the virtual object is placed in a constant position relative to the physical environment, and thus In response to movement of the one or more cameras, visual feedback is provided to the user to indicate that a portion of the physical environment captured within the field of view of the one or more cameras moves as it changes. of the device by providing improved visual feedback to the user (e.g., by assisting the user to provide appropriate input for virtual objects placed in a second orientation that corresponds to the plane). Reduce device power usage and improve battery life by improving usability, making user device interfaces more efficient, and allowing users to use their devices more quickly and efficiently. .

一部の実施形態では、オブジェクト配置基準が満たされている(例えば、オブジェクト配置基準は、第1のユーザーインターフェース領域内の1つ以上のカメラの視野に対して仮想オブジェクトを配置する位置又はプレーンでデバイスが識別されていないときに満たされる)との判定に応じて、デバイスは、(例えば、下げられた半透明性レベル、又はより高い輝度レベル、又はより高い彩度レベル等で)第2の1組の視覚特性を有すると共に1つ以上のカメラの視野内で検出される物理的環境内のプレーンに対応する第2の向きを有する仮想オブジェクトの表現を表示すると共に、(例えば、デバイスの1つ以上の触知出力発生器を用いて)触知出力を生成する(16020)(例えば、触知出力の発生は、仮想オブジェクトの非半透明の外観への遷移の完了、並びに物理的環境内で検出されるプレーン上のドロップ位置に在る仮想オブジェクトの回転及び並進の完了と同期される)。例えば、図11Iに示すように、仮想オブジェクト11002に対応するプレーン(例えば、床面5038)に付された仮想オブジェクト11002の非半透明表現を表示すると共に、11010で示す触知出力が生成される。オブジェクト配置基準が満たされているとの判定に応じて、触知出力を生成することにより、(例えば、仮想オブジェクトを配置する動作がうまく実行されたことを示す)改善された触覚的フィードバックをユーザーに提供する。改善されたフィードバックをユーザーに提供することにより、(例えば、ユーザーインターフェースを表示情報で乱すことなくオブジェクト配置基準が満たされたことをユーザーが知覚することを可能にする感覚情報を提供することによって)デバイスの操作性を向上させ、ユーザーデバイスインターフェースをより効率的にし、更に、ユーザーがデバイスをより素早くかつ効率的に使用することを可能にすることでデバイスの電力使用量を削減し、電池寿命を改善する。 In some embodiments, object placement criteria are met (e.g., the object placement criteria are locations or planes in which to place the virtual object relative to the field of view of the one or more cameras within the first user interface area). In response to the determination that the device is not identified (satisfied when the device is not identified), the device may perform a second displaying a representation of a virtual object having a set of visual characteristics and a second orientation corresponding to a plane in the physical environment detected within the field of view of one or more cameras (e.g., one of the devices); generating (16020) a tactile output (using one or more tactile output generators) (e.g., generation of the tactile output may occur upon completion of the transition to a non-transparent appearance of the virtual object, as well as within the physical environment); (synchronized with the completion of the rotation and translation of the virtual object at the drop position on the plane detected by ). For example, as shown in FIG. 11I, a non-transparent representation of virtual object 11002 is displayed attached to a plane (e.g., floor surface 5038) corresponding to virtual object 11002, and tactile output shown at 11010 is generated. . Provide improved tactile feedback to the user (e.g., indicating that an action to place a virtual object was successfully performed) by generating a tactile output in response to a determination that object placement criteria have been met. Provided to. By providing improved feedback to the user (e.g., by providing sensory information that allows the user to perceive that object placement criteria have been met without cluttering the user interface with display information) It improves device usability, makes the user device interface more efficient, and also reduces device power usage and battery life by allowing users to use their devices faster and more efficiently. Improve.

一部の実施形態では、第2の1組の視覚特性を伴うと共に1つ以上のカメラの視野内で検出される物理的環境内のプレーンに対応する第2の向きを伴った仮想オブジェクトの表現を表示している間に、デバイスは、1つ以上のカメラの視野内で検出される物理的環境内のプレーンの少なくとも位置又は向きに関する更新を受信する(16022)(例えば、更新されたプレーンの位置及び向きは、最初のプレーン検出結果を使用して仮想オブジェクトを配置した後に蓄積された追加データ、又はより時間がかかる計算方法(例えば、より少ない近似等)に基づくより正確な計算の結果である)。1つ以上のカメラの視野内で検出される物理的環境内のプレーンの少なくとも位置又は向きに関する更新の受信に応答して、デバイスは、更新に応じて仮想オブジェクトの表現の少なくとも位置及び/又は向きを調整する(例えば、更新されたプレーンにより近い仮想オブジェクトを徐々に移動(例えば、並進及び回転)させる)(16024)。(例えば、プレーンに対して仮想オブジェクトを配置するユーザー入力を必要とせずに)物理的環境内のプレーンに関する更新の受信に応答して仮想オブジェクトの位置及び/又は向きを調整することにより、仮想オブジェクトの調整に必要な入力数を減少させる。動作を行うために必要な入力の数を減少させることにより、デバイスの操作性を向上させ、ユーザーデバイスインターフェースをより効率的にし、更に、ユーザーがデバイスをより素早くかつ効率的に使用することを可能にすることでデバイスの電力使用量を削減し、電池寿命を改善する。 In some embodiments, a representation of the virtual object with a second set of visual characteristics and a second orientation corresponding to a plane in the physical environment detected within the field of view of the one or more cameras. While displaying the updated plane, the device receives (16022) an update regarding at least the position or orientation of a plane in the physical environment detected within the field of view of the one or more cameras (e.g., The position and orientation may be the result of additional data accumulated after positioning the virtual object using the initial plane detection results, or more accurate calculations based on more time-consuming calculation methods (e.g. fewer approximations). be). In response to receiving an update regarding at least the position or orientation of a plane in the physical environment detected within the field of view of the one or more cameras, the device determines at least the position and/or orientation of the representation of the virtual object in response to the update. (eg, gradually move (eg, translate and rotate) the virtual object closer to the updated plane) (16024). By adjusting the position and/or orientation of the virtual object in response to receiving updates regarding a plane in the physical environment (e.g., without requiring user input to position the virtual object relative to the plane) Reduce the number of inputs required for adjustment. Improves device usability by reducing the number of inputs required to perform an action, making the user device interface more efficient and allowing users to use the device more quickly and efficiently Reduce your device's power usage and improve battery life.

一部の実施形態では、第1の1組の視覚特性は、第1のサイズと、第1の半透明レベルとを含み(16026)(例えば、ARビューの中におろされてしまう前、オブジェクトは、ディスプレイに対する一定のサイズと、一定の高い半透明レベルとを有し)、第2の1組の視覚特性は、第1のサイズとは異なるの第2のサイズ(例えば、ARビューにおろされると、オブジェクトは、物理的環境内のサイズ及びドロップ位置に関してシミュレートされた物理的サイズで表示される)と、第1の半透明レベル(例えば、オブジェクトは、ARビューにおいてもはや半透明でない)よりも低い(例えばそれよりも不透明な)第2の半透明レベルとを含む(16028)。例えば、図11Hにおいて、仮想オブジェクト11002の半透明表現は第1のサイズで示され、図11Iにおいて、仮想オブジェクト11004の非半透明表現は第2の(より小さい)サイズで示される。オブジェクト配置基準が満たされたか否かに応じて、第1のサイズ及び第1の半透明レベル、又は第2のサイズ及び第2の半透明レベルで、仮想オブジェクトを表示することにより、(例えば、仮想オブジェクトを表示する要求が受信されているが、1つ以上のカメラの視野内に仮想オブジェクトを配置するために追加の時間及び/又は較正情報が必要とされていることを示すために)ユーザーへの視覚的フィードバックを提供する。改善された視覚的フィードバックをユーザーに提供することにより、(例えば、適切な入力を提供し、プレーンに対応する第2の向きでオブジェクトを配置する前に仮想オブジェクトを操作する入力をしようするのを防ぐようにユーザーを支援することによって)デバイスの操作性を向上させ、ユーザーデバイスインターフェースをより効率的にし、更に、ユーザーがデバイスをより素早くかつ効率的に使用することを可能にすることでデバイスの電力使用量を削減し、電池寿命を改善する。 In some embodiments, the first set of visual characteristics includes a first size and a first translucency level (16026) (e.g., the object has a constant size for the display and a constant high level of translucency), and a second set of visual characteristics differs from the first size (e.g. the object is displayed at a simulated physical size with respect to its size in the physical environment and the drop location) and a first translucency level (e.g., the object is no longer translucent in the AR view). (16028) and a second translucency level that is less than (eg, more opaque than). For example, in FIG. 11H, a translucent representation of virtual object 11002 is shown at a first size, and in FIG. 11I, a non-transparent representation of virtual object 11004 is shown at a second (smaller) size. By displaying the virtual object at a first size and a first translucency level, or a second size and a second translucency level, depending on whether the object placement criterion is met (e.g., (to indicate that a request to display a virtual object has been received, but additional time and/or calibration information is required to place the virtual object within the field of view of one or more cameras) Provide visual feedback to By providing improved visual feedback to the user (e.g., providing the appropriate input and providing input to manipulate the virtual object before placing the object in a second orientation that corresponds to the plane) improve device usability (by assisting users in preventing devices), making user-device interfaces more efficient; Reduce power usage and improve battery life.

一部の実施形態では、仮想オブジェクトが、1つ以上のカメラの視野のうちの少なくとも一部を含まないそれぞれのユーザーインターフェース(例えば、ステージングユーザーインターフェース)に表示されている間に(例えば、仮想オブジェクトは、デバイスの物理的環境から独立している向きを有する仮想ステージに対して向けられる)、1つ以上のカメラの視野のうちの少なくとも一部を含む第1のユーザーインターフェース領域(例えば、ARビュー)に仮想オブジェクトを表示する要求が受信される(16030)。第1の向きは、仮想オブジェクトの向きに対応し、一方、仮想オブジェクトは、要求が受信された時点でそれぞれのユーザーインターフェースに表示される。例えば、図11Fに関して説明したように、(カメラの視野を含まない)ステージングユーザーインターフェース6010が表示されている間に、カメラの視野6036を含むユーザーインターフェースに仮想オブジェクト11002を表示する要求が受信される。図11Gの仮想オブジェクト11002の向き(仮想オブジェクト11002は、カメラの視野6036を含むユーザーインターフェース内に表示される)は、図11Fの仮想オブジェクト11002の向きに対応する(仮想オブジェクト11002は、ステージングユーザーインターフェース6010に表示される)。(予め表示した)インターフェース(例えば、ステージングユーザーインターフェース)に表示されるような仮想オブジェクトの向きに対応する向きで、第1のユーザーインターフェース(例えば、表示される拡張現実ビュー)に仮想オブジェクトを表示することにより、(例えば、ステージングユーザーインターフェースが表示されている間に与えられたオブジェクト操作入力を使用して、ARビュー内にオブジェクトの向きを確立することができることを示すために)ユーザーに視覚的フィードバックを提供する。改善された視覚的フィードバックをユーザーに提供することにより、(例えば、プレーンに対応する第2の向きでオブジェクトを配置する前に、適切な入力を提供し、仮想オブジェクトを操作する入力をしようするのを防ぐようにユーザーを支援することによって)デバイスの操作性を向上させ、ユーザーデバイスインターフェースをより効率的にし、更に、ユーザーがデバイスをより素早くかつ効率的に使用することを可能にすることでデバイスの電力使用量を削減し、電池寿命を改善する。 In some embodiments, while the virtual object is displayed in a respective user interface (e.g., a staging user interface) that does not include at least a portion of the field of view of one or more cameras (e.g., the virtual object a first user interface area that includes at least a portion of the field of view of one or more cameras (e.g., an AR view oriented with respect to a virtual stage having an orientation that is independent of the physical environment of the device); ) is received (16030). The first orientation corresponds to an orientation of the virtual object while the virtual object is displayed in a respective user interface at the time the request is received. For example, as described with respect to FIG. 11F, while the staging user interface 6010 (which does not include a camera field of view) is being displayed, a request to display virtual object 11002 in a user interface that includes a camera field of view 6036 is received. . The orientation of virtual object 11002 in FIG. 11G (virtual object 11002 is displayed within a user interface that includes camera field of view 6036) corresponds to the orientation of virtual object 11002 in FIG. 11F (virtual object 11002 is displayed within a staging user interface 6010). Displaying the virtual object in the first user interface (e.g., the displayed augmented reality view) in an orientation corresponding to the orientation of the virtual object as displayed in the (pre-displayed) interface (e.g., the staging user interface); by providing visual feedback to the user (e.g. to indicate that object manipulation input given while the staging user interface is displayed can be used to establish object orientation within the AR view) I will provide a. By providing the user with improved visual feedback (e.g., providing appropriate input before placing the object in a second orientation that corresponds to the plane, and using the input to manipulate the virtual object) improve device usability (by assisting users to prevent reduce power usage and improve battery life.

一部の実施形態では、第1の向きは、所定の向き(例えば、1つ以上のカメラの視野のうちの少なくとも一部を含まないそれぞれのユーザーインターフェース内に最初に仮想オブジェクトを表示するときに仮想オブジェクトが表示される向きなどのデフォルトの向き)に対応する(16032)。第1のユーザーインターフェース(例えば、表示される拡張現実ビュー)に第1の1組の視覚特性及び所定の向きを伴って仮想オブジェクトを表示することで(例えば、ステージングユーザーインターフェースに確立される向きに応じて半透明表現をレンダリングするのではなく、予め生成された仮想オブジェクトの半透明表現を表示することを可能にすることによって)、デバイスの電力使用量を削減し、電池寿命を改善する。 In some embodiments, the first orientation is a predetermined orientation (e.g., when initially displaying the virtual object within the respective user interface that does not include at least a portion of the field of view of the one or more cameras). (16032) corresponds to the default orientation (such as the orientation in which the virtual object is displayed). By displaying a virtual object with a first set of visual characteristics and a predetermined orientation in a first user interface (e.g., a displayed augmented reality view) (e.g., an orientation established in a staging user interface). (by enabling display of pre-generated translucent representations of virtual objects rather than rendering translucent representations accordingly), reducing device power usage and improving battery life.

一部の実施形態では、第1のユーザーインターフェース領域(例えば、ARビュー)に第2の1組の視覚特性と1つ以上のカメラの視野内で検出される物理的環境内のプレーンに対応する第2の向きとを伴って仮想オブジェクトを表示する間に、デバイスは、1つ以上のカメラの視野内に取り込まれる物理的環境に対して第1のシミュレートされた物理的サイズから第2のシミュレートされた物理的サイズへ(例えば、デフォルトサイズの80%からデフォルトサイズの120%へ、又はその逆へ)(例えば、スケーリング入力(例えば、仮想オブジェクトに向けられるピンチ又はデピンチジェスチャ)の結果として)仮想オブジェクトのシミュレートされた物理的サイズを変更する要求を検出する(16034)。例えば、仮想オブジェクト11002のシミュレートされた物理的サイズを減少させる入力は、図11N~11Pに関して説明したようなピンチジェスチャである。仮想オブジェクトのシミュレートされた物理的サイズを変更する要求の検出に応答して、デバイスは、第1のシミュレートされた物理的サイズから第2のシミュレートされた物理的サイズへ仮想オブジェクトのシミュレートされた物理的サイズの徐々の変化に応じて、第1のユーザーインターフェース領域内の仮想オブジェクトの表現の表示サイズを徐々に変化させ(16036)(例えば、1つ以上のカメラの視野内で取り込まれる物理的環境の表示サイズが変わらないままである一方で、仮想オブジェクトの表示サイズは拡大又は縮小し)、第1のユーザーインターフェース領域内の仮想オブジェクトの表現の表示サイズが徐々に変化している間、仮想オブジェクトのシミュレートされた物理的サイズが所定のシミュレートされた物理的サイズ(例えば、デフォルトサイズの100%)に達したとの判定に応じて、デバイスは、仮想オブジェクトのシミュレートされた物理的サイズが所定のシミュレートされた物理的サイズに達したことを示すための触知出力を生成する。例えば、図11N~11Pに関して説明したように、ピンチジェスチャ入力に応答して、仮想オブジェクト11002の表現の表示サイズが徐々に減少する。図11Oにおいて、仮想オブジェクト11002の表現の表示サイズが、仮想オブジェクト11002のサイズ(例えば、図11Iに示すように、1つ以上のカメラの視野6036を含むユーザーインターフェースに当初表示されたような仮想オブジェクト11002のサイズ)の100%に達したときに、11024で示すように触知出力が生成される。仮想オブジェクトのシミュレートされた物理的サイズが所定のシミュレートされた物理的サイズに達したとの判定に応じて触知出力を生成することにより、(例えば、仮想オブジェクトのシミュレートされたサイズを所定サイズに戻す更なる入力が必要とされないことを示すために)ユーザーにフィードバックを提供する。改善された触覚的フィードバックを提供することにより、(例えば、ユーザーインターフェースを表示情報で乱すことなく仮想オブジェクトの所定のシミュレートされた物理的サイズに達したことをユーザーが知覚することを可能にする感覚情報を提供することによって)デバイスの操作性を向上させ、更に、ユーザーがデバイスをより素早くかつ効率的に使用することを可能にすることでデバイスの電力使用量を削減し、電池寿命を改善する。 In some embodiments, the first user interface area (e.g., an AR view) has a second set of visual characteristics corresponding to a plane in the physical environment detected within the field of view of the one or more cameras. While displaying the virtual object with a second orientation, the device adjusts the virtual object from a first simulated physical size to a second simulated physical size relative to a physical environment captured within the field of view of the one or more cameras. The result of a scaling input (e.g., a pinch or de-pinch gesture directed at a virtual object) to a simulated physical size (e.g., from 80% of the default size to 120% of the default size, or vice versa) detecting (16034) a request to change the simulated physical size of a virtual object (as a virtual object); For example, the input that reduces the simulated physical size of virtual object 11002 is a pinch gesture as described with respect to FIGS. 11N-11P. In response to detecting a request to change the simulated physical size of the virtual object, the device changes the simulated physical size of the virtual object from the first simulated physical size to the second simulated physical size. gradually changing the display size of the representation of the virtual object in the first user interface area (16036) in response to gradual changes in the physical size captured (e.g., captured within the field of view of one or more cameras); (the virtual object's display size grows or shrinks while the display size of the physical environment to be displayed remains unchanged), and the display size of the representation of the virtual object within the first user interface area gradually changes. In response to determining that the simulated physical size of the virtual object has reached a predetermined simulated physical size (e.g., 100% of the default size), the device generating a tactile output to indicate that the simulated physical size has reached a predetermined simulated physical size. For example, as described with respect to FIGS. 11N-11P, in response to a pinch gesture input, the displayed size of the representation of virtual object 11002 is gradually decreased. In FIG. 11O, the display size of the representation of the virtual object 11002 is the size of the virtual object 11002 (e.g., the virtual object as originally displayed in a user interface including one or more camera fields of view 6036, as shown in FIG. 11I). 11002), a tactile output is generated as shown at 11024. by generating a tactile output in response to determining that the simulated physical size of the virtual object has reached a predetermined simulated physical size (e.g., Provide feedback to the user (to indicate that no further input is required to revert to the predetermined size). By providing improved tactile feedback (e.g., allowing the user to perceive that a given simulated physical size of a virtual object has been reached without cluttering the user interface with display information) improve device usability (by providing sensory information), and also reduce device power usage and improve battery life by allowing users to use their devices faster and more efficiently do.

いくつかの実施形態では、所定の擬似的な物理サイズとは異なるの仮想オブジェクトの第2の擬似的な物理サイズ(例えば、スケーリング入力(例えば、仮想オブジェクトへ向けられたピンチ又はデピンチジェスチャ)の結果として、デフォルトサイズの120%、又は、デフォルトサイズの80%)において、第1のユーザーインターフェース領域(例えば、ARビュー)内に仮想オブジェクトを表示している間、デバイスは、仮想オブジェクトを所定の擬似的な物理サイズへ戻す要求を検出する(例えば、(仮想オブジェクト、又は、仮想オブジェクトの外部の)タッチスクリーン上におけるタップ又は二重タップ入力を検出する)(16038)。例えば、(図11N~図11Pに関して説明されるように、)ピンチ入力が、仮想オブジェクト11002を小型化した後、(図11Rに関して説明されるように、)仮想オブジェクト11002に対応する場所において、二重タップ入力が検出される。仮想オブジェクトを所定の擬似的な物理サイズへ戻す要求を検出することに応じて、デバイスは、仮想オブジェクトの擬似的な物理サイズの変化にしたがって、第1のユーザーインターフェース領域内の仮想オブジェクトの表現の表示サイズを、所定の擬似的な物理サイズへ変更する(例えば、表示された仮想オブジェクトのサイズが拡大又は縮小する一方、1つ以上のカメラの視野においてキャプチャされた物理的環境の表示サイズは変わらないままである)(16040)。例えば、図11Rに関して説明される二重タップ入力に応じて、仮想オブジェクト11002のサイズは、図11Iに表示されるような仮想オブジェクト11002のサイズ(1つ以上のカメラの視野6036を含むユーザーインターフェースに元々表示されていたような仮想オブジェクト11002のサイズ)へ戻る。いくつかの実施形態では、仮想オブジェクトの擬似的な物理サイズが、所定の擬似的な物理サイズ(例えば、デフォルトサイズの100%)に達したとの判定にしたがって、デバイスは、仮想オブジェクトの擬似的な物理サイズが、所定の擬似的な物理サイズに達したことを示す触知出力を生成する。(例えば、表示サイズを調節するために提供された入力が、仮想オブジェクトを、所定の擬似的な物理サイズにおいて表示するために十分である場合を推定するようにユーザーへ要求するのではなく、表示サイズを、所定の擬似的な物理サイズへ正確に調節するオプションを提供することによって、)仮想オブジェクトを所定の擬似的な物理サイズへ戻す要求を検出することに応じて、仮想オブジェクトの表示サイズを、所定のサイズへ変更することは、オブジェクトを表示するために必要とされる入力数を、所定のサイズへ低減する。操作を実行するために必要とされる入力数を低減することは、デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、さらに、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, a second pseudo-physical size of the virtual object that is different from the predetermined pseudo-physical size (e.g., a scaling input (e.g., a pinch or de-pinch gesture directed toward the virtual object)) As a result, while displaying a virtual object within a first user interface area (e.g., an AR view) at 120% of the default size, or 80% of the default size, the device may A request to revert to a pseudo physical size is detected (eg, a tap or double tap input on a touch screen (of the virtual object or external to the virtual object) is detected) (16038). For example, after a pinch input reduces the size of virtual object 11002 (as described with respect to FIGS. 11N-11P), a pinch input reduces the size of virtual object 11002 (as described with respect to FIG. Double tap input is detected. In response to detecting a request to return the virtual object to a predetermined pseudo-physical size, the device adjusts the representation of the virtual object in the first user interface area according to the change in the pseudo-physical size of the virtual object. Changing the display size to a predetermined pseudo-physical size (e.g., the displayed virtual object grows or shrinks in size while the display size of the physical environment captured in the field of view of one or more cameras changes) (16040). For example, in response to a double-tap input as described with respect to FIG. The size of the virtual object 11002 as originally displayed is returned. In some embodiments, in accordance with the determination that the virtual object's pseudo-physical size has reached a predetermined pseudo-physical size (e.g., 100% of the default size), the device increases the virtual object's pseudo-physical size. generates a tactile output indicating that the physical size has reached a predetermined pseudo physical size. (e.g., rather than asking the user to estimate when the input provided to adjust the display size is sufficient to display the virtual object at a given pseudo-physical size) In response to detecting a request to return the virtual object to a predetermined pseudo-physical size (by providing options to precisely adjust the size to a predetermined pseudo-physical size); , to a predetermined size reduces the number of inputs required to display an object to a predetermined size. Reducing the number of inputs required to perform an operation increases the usability of the device and makes the user device interface more efficient. This further reduces power usage and improves the device's battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、デバイスは、物理的環境に対する1つ以上のカメラのそれぞれの位置及び向き(例えば、オブジェクト配置基準が満たされる時における現在の位置及び向き)にしたがって、第2の1組の視覚特性を用いて第2の仮想オブジェクトの表現の方位を設定するためのプレーンを選択し、プレーンを選択することは、(例えば、デバイスが、物理的環境における第1の方向を示す結果として)1つ以上のカメラの視野においてキャプチャされた物理的環境の第1の部分の上方に仮想オブジェクトの表現が表示された(例えば、半透明のオブジェクトのベースが、物理的環境の第1の部分におけるプレーンとオーバラップしている)場合に、オブジェクト配置基準が満たされているとの判定にしたがって、(例えば、オブジェクトのベースと、ディスプレイ上の第1のプレーンとの間のより大きな接近と、第1のプレーンと、物理ワールドにおける物理的環境の第1の部分との間のより大きな接近にしたがって)1つ以上のカメラの視野における物理的環境において検出された多数のプレーンのうちの第1のプレーンを、第2の1組の視覚特性を用いて仮想オブジェクトの第2の表現の向きを設定するためのプレーンとして選択することと、(例えば、デバイスが、物理的環境における第2の方向を示す結果として)1つ以上のカメラの視野においてキャプチャされた物理的環境の第2の部分の上方に仮想オブジェクトの表現が表示された(例えば、半透明のオブジェクトのベースが、物理的環境の第2の部分におけるプレーンとオーバラップしている)場合に、オブジェクト配置基準が満たされているとの判定にしたがって、(例えば、オブジェクトのベースと、ディスプレイ上の第2のプレーンとの間のより大きな接近、及び、第2のプレーンと、物理ワールドにおける物理的環境の第2の部分との間のより大きな接近にしたがって、)1つ以上のカメラの視野における物理的環境において検出された多数のプレーンのうちの第2のプレーンを、視覚特性の第2の1組を用いて仮想オブジェクトの第2の表現の向きを設定するためのプレーンとして選択することとを含み、物理的環境の第1の部分は、物理的境の第2の部分とは異なり、第1のプレーンは、第2のプレーンとは異なる(16042)。(例えば、検出された多くのプレーンのうちのどれが、仮想オブジェクトが設定されたプレーンであるかを指定するユーザー入力を必要とすることなく、)仮想オブジェクトが設定されるプレーンとして、第1のプレーン又は第2のプレーンを選択することは、プレーンを選択するために必要とされる入力数を低減する。操作を実行するために必要とされる入力数を低減することは、デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the device configures the second set according to the respective positions and orientations of the one or more cameras relative to the physical environment (e.g., the current positions and orientations at the time the object placement criteria are met). Selecting a plane for orienting the representation of the second virtual object using the visual properties of ) a representation of the virtual object is displayed above a first portion of the physical environment captured in the field of view of one or more cameras (e.g., the base of a translucent object is (e.g., greater proximity between the base of the object and a first plane on the display). The first of a number of planes detected in the physical environment in the field of view of the one or more cameras (according to the greater proximity between the first plane and the first part of the physical environment in the physical world) selecting a plane for orienting a second representation of a virtual object using a second set of visual characteristics (e.g. a representation of a virtual object is displayed above a second portion of the physical environment captured in the field of view of one or more cameras (e.g., the base of a translucent object according to the determination that the object placement criterion is met (e.g., the distance between the base of the object and the second plane on the display) (according to the greater proximity and the greater proximity between the second plane and the second part of the physical environment in the physical world) selecting a second plane of the planes as a plane for orienting a second representation of the virtual object using a second set of visual properties; is different from the second part of the physical boundary, and the first plane is different from the second plane (16042). The first plane is selected as the plane in which the virtual object is set (e.g., without requiring user input to specify which of many detected planes is the plane in which the virtual object is set). Selecting a plane or a second plane reduces the number of inputs required to select a plane. Reducing the number of inputs required to perform an operation increases the usability of the device and makes the user device interface more efficient. This further reduces power usage and improves the device's battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、デバイスは、第2の1組の視覚特性と第2の向きを用いて、第1のユーザーインターフェース領域(例えば、ARビュー)内に仮想オブジェクトを表示することと同時に、スナップショットアフォーダンス(例えば、カメラシャッターボタン)を表示する(16044)。スナップショットアフォーダンスの活性化に応じて、デバイスは、1つ以上のカメラの視野における物理的環境における配置場所において、第2の1組の視覚特性と、1つ以上のカメラのビューの視野内で検出された物理的環境におけるプレーンに対応する第2の向きとを用いて、仮想オブジェクトの表現の現在のビューを含むスナップショット画像をキャプチャする(16046)。現在のオブジェクトのビューのスナップショット画像をキャプチャするためスナップショットアフォーダンスを表示することは、オブジェクトのスナップショット画像をキャプチャするために必要とされる入力数を低減する。操作を実行するために必要とされる入力数を低減することは、デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the device simultaneously displays the virtual object within the first user interface area (e.g., an AR view) using a second set of visual characteristics and a second orientation; A snapshot affordance (eg, camera shutter button) is displayed (16044). In response to activation of the snapshot affordance, the device has a second set of visual characteristics at a location in the physical environment in the field of view of the one or more cameras; A snapshot image is captured (16046) that includes a current view of the representation of the virtual object using a second orientation corresponding to a plane in the detected physical environment. Displaying a snapshot affordance to capture a snapshot image of the current view of an object reduces the number of inputs required to capture a snapshot image of the object. Reducing the number of inputs required to perform an operation increases the usability of the device and makes the user device interface more efficient. This further reduces power usage and improves the device's battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、デバイスは、第1のユーザーインターフェース領域内に、第2の1組の視覚特性を有する仮想オブジェクトの表現とともに、1つ以上の制御アフォーダンス(例えば、ステージングユーザーインターフェースへスイッチバックするためのアフォーダンス、ARビューワから出るためのアフォーダンス、スナップショットをキャプチャするためのアフォーダンス等)を表示する(16048)。例えば、図11Jでは、バック制御6016、トグル制御6018、及びシェア制御6020を含む制御のセットが表示される。第2の1組の視覚特性を有する仮想オブジェクトの表現とともに、1つ以上の制御アフォーダンスを表示している間、デバイスは、制御フェイディング基準が満たされている(例えば、閾値時間の間、(例えば、デバイスの移動及びカメラの視野に対する更新とともに、又は、デバイスの移動及びカメラの視野に対する更新なく)タッチ感知面においてユーザー入力が検出されなかった)ことを検出する(16050)。制御フェージング基準が満たされていることを検出することに応じて、デバイスは、1つ以上のカメラの視野を含む第1のユーザーインターフェース領域内に、第2の1組の視角特性を有する仮想オブジェクトの表現の表示を継続している間、1つ以上の制御アフォーダンスを表示することを停止する(16052)。例えば、図11K~図11Lに関して説明されるように、閾値時間の間、ユーザー入力が検出されない場合、制御6016、6018、6020は、徐々に、フェードアウトし、表示されないようになる。いくつかの実施形態において、制御アフォーダンスがフェードアウェイされた後、タッチ感知面におけるタップ入力、又は、仮想オブジェクトとの相互作用が、デバイスに対して、第1のユーザーインターフェース領域内に、仮想オブジェクトの表現と同時に、制御アフォーダンスを再表示させる。制御フェージング基準が満たされているとの判定に応じて、制御の表示を自動的に停止することは、制御の表示を停止するために必要とされる入力数を低減する。操作を実行するために必要とされる入力数を低減することは、デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the device includes one or more control affordances (e.g., a switchback to a staging user interface) along with a representation of a virtual object having a second set of visual characteristics within the first user interface area. (16048). For example, in FIG. 11J, a set of controls is displayed that includes a back control 6016, a toggle control 6018, and a share control 6020. While displaying one or more control affordances together with a representation of a virtual object having a second set of visual characteristics, the device determines that a control fading criterion is met (e.g., for a threshold time ( For example, detecting (16050) that no user input was detected on the touch-sensitive surface (with or without device movement and updates to the camera field of view). In response to detecting that the control fading criteria are met, the device creates a virtual object having a second set of viewing angle characteristics within the first user interface area that includes the field of view of the one or more cameras. (16052), while continuing to display the representation of the one or more control affordances. For example, as described with respect to FIGS. 11K-11L, if no user input is detected for a threshold amount of time, controls 6016, 6018, 6020 gradually fade out and are no longer displayed. In some embodiments, after the control affordances have faded away, a tap input on the touch-sensitive surface or an interaction with the virtual object causes the device to display the virtual object within the first user interface area. Simultaneously with expression, control affordances are redisplayed. Automatically stopping the display of the control in response to a determination that the control fading criteria are met reduces the number of inputs required to stop displaying the control. Reducing the number of inputs required to perform an operation increases the usability of the device and makes the user device interface more efficient. This further reduces power usage and improves the device's battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第1のユーザーインターフェース領域内に仮想オブジェクトを表示するための要求に応じて、第1のユーザーインターフェース領域に含まれている1つ以上のカメラの視野の少なくとも一部の上方に、仮想オブジェクトの表現を表示する前に、(例えば、1つ以上のカメラの視野においてキャプチャされた物理的環境のための寸法及び空間関係データを生成するために、異なる視野角度からの十分な量の画像が存在しないので、)較正基準が満たされていないとの判定にしたがって、デバイスは、物理的環境に対してデバイスを移動させるための、ユーザーのためのプロンプトを表示する(例えば、方法17000を参照して以下により詳細に説明されるように、(例えば、較正ユーザーインターフェースオブジェクトが1つ以上のカメラの視野の、ぶれた画像にオーバレイされる)第1のユーザーインターフェース領域内に、デバイスを移動させるための視覚的なプロンプトを表示し、オプションとして、較正ユーザーインターフェースオブジェクト(例えば、デバイスの移動にしたがって移動する弾力性ワイヤフレームボール又は立方体)を表示する)(16054)。物理的環境に対してデバイスをユーザーが移動させるためのプロンプトを表示することは、(例えば、カメラの視野に仮想オブジェクトを配置するための情報を取得するために、デバイスの移動が必要とされることを示すために、)視覚的フィードバックをユーザーへ提供する。改善された視覚的フィードバックをユーザーへ提供することは、(例えば、ユーザーが較正入力を提供することを支援することによって、)デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する)。 In some embodiments, in response to a request to display a virtual object within the first user interface area, at least a portion of the field of view of one or more cameras included in the first user interface area Above, before displaying a representation of the virtual object, sufficient data from different viewing angles are generated to generate dimensional and spatial relationship data for the physical environment captured in the field of view of one or more cameras (e.g. Upon determining that the calibration criteria are not met (because there is no sufficient amount of images), the device displays a prompt for the user to move the device relative to the physical environment (e.g. within a first user interface region (e.g., in which a calibration user interface object is overlaid on a blurred image of the field of view of one or more cameras), as described in more detail below with reference to method 17000; Displaying a visual prompt to move the device and optionally displaying a calibration user interface object (e.g., a resilient wireframe ball or cube that moves as the device moves) (16054). Prompting the user to move the device relative to the physical environment (e.g., when device movement is required to obtain information for placing a virtual object in the camera's field of view) Provide visual feedback to the user to indicate Providing improved visual feedback to the user enhances the usability of the device (eg, by assisting the user in providing calibration input) and makes the user device interface more efficient. This further reduces power usage and improves the device's battery life by allowing the user to use the device more quickly and efficiently).

図16A~図16Gにおける動作が説明されている特定の順序は単なる例であり、説明された順序は、これら動作が実行され得る唯一の順序であることを示すことは意図されていないことが理解されるべきである。当業者であれば、本明細書で説明された動作を再順序付けするための様々な手法を認識するであろう。それに加えて、本明細書で説明された他の方法(例えば、方法800、900、1000、17000、18000、19000、及び20000)に関して本明細書で説明された他の処理の詳細はまた、図16A~図16Gに関して上述された方法16000に類似の方式でも適用可能であることが注目されるべきである。例えば、方法16000を参照して上述された接触、入力、仮想オブジェクト、ユーザーインターフェース領域、視野、触知出力、移動、及び/又は、アニメーションは、オプションで、本明細書で説明された他の方法(例えば、方法800、900、1000、17000、18000、19000、及び20000)を参照して本明細書で説明された接触、入力、仮想オブジェクト、ユーザーインターフェース領域、視野、触知出力、移動、及び/又は、アニメーションからなる特徴のうちの1つ以上を有する。簡潔のために、これら詳細は、本明細書では繰り返されない。 It is understood that the particular order in which the operations in FIGS. 16A-16G are described is merely an example, and the described order is not intended to indicate that the operations are the only order in which the operations may be performed. It should be. Those skilled in the art will recognize various techniques for reordering the operations described herein. In addition, other processing details described herein with respect to other methods described herein (e.g., methods 800, 900, 1000, 17000, 18000, 19000, and 20000) are also illustrated in FIG. It should be noted that a scheme similar to method 16000 described above with respect to FIGS. 16A-16G is also applicable. For example, contact, input, virtual objects, user interface areas, field of view, tactile output, movement, and/or animation described above with reference to method 16000 may optionally be used in combination with other methods described herein. (e.g., methods 800, 900, 1000, 17000, 18000, 19000, and 20000). and/or have one or more of the following characteristics: animation; For the sake of brevity, these details are not repeated herein.

図17A~図17Dは、デバイスの1つ以上のカメラの移動にしたがって動的にアニメーション化される較正ユーザーインターフェースオブジェクトを表示する方法17000を例示するフロー図である。方法17000は、表示生成コンポーネント(例えば、ディスプレイ、プロジェクタ、ヘッドアップディスプレイ等)、1つ以上の入力デバイス(例えば、タッチ感知面、又は、表示生成コンポーネントとタッチ感知面との両方として役立つタッチスクリーンディスプレイ)、1つ以上のカメラ(例えば、ディスプレイ及びタッチ感知面から反対側のデバイスの側面上の1つ以上の背面カメラ)、及び、1つ以上のカメラを含むデバイスの姿勢における変化(例えば、周囲の物理的環境に対する向き(例えば、回転、ヨー、及び/又は、傾斜角度)及び位置)を検出するための1つ以上の姿勢センサ(例えば、加速度計、ジャイロスコープ、及び/又は、磁力計)、を有する電子デバイス(例えば、図3のデバイス300、又は、図1Aのポータブル多機能デバイス100)において実行される。方法17000におけるいくつかの動作は、オプションで、組み合わされ、及び/又は、いくつかの動作の順序は、オプションで、変更される。 17A-17D are flow diagrams illustrating a method 17000 for displaying a calibration user interface object that is dynamically animated according to movement of one or more cameras of a device. The method 17000 includes a display-generating component (e.g., a display, a projector, a heads-up display, etc.), one or more input devices (e.g., a touch-sensitive surface, or a touch screen display that serves as both a display-generating component and a touch-sensitive surface). ), one or more cameras (e.g., one or more rear cameras on the side of the device opposite from the display and touch-sensitive surface), and changes in the posture of a device that includes the one or more cameras (e.g., changes in one or more attitude sensors (e.g., accelerometers, gyroscopes, and/or magnetometers) for detecting the orientation (e.g., rotation, yaw, and/or tilt angle) and position of the object relative to its physical environment; (e.g., device 300 of FIG. 3 or portable multifunction device 100 of FIG. 1A). Some operations in method 17000 are optionally combined and/or the order of some operations is optionally changed.

デバイスは、1つ以上のカメラの視野(例えば、視野は、物理的環境の少なくとも一部をキャプチャする)の表現を含む第1のユーザーインターフェース領域内に、物理的環境(例えば、1つ以上のカメラを含むデバイスの周囲の物理的環境)の拡張現実ビューを表示するための要求を受信する(17002)。いくつかの実施形態では、この要求は、仮想オブジェクトのステージングビューから、仮想オブジェクトの、拡張現実ビューへ切り換えるためのボタンにおいて検出されたタップ入力である。いくつかの実施形態では、この要求は、二次元ユーザーインターフェース内に、仮想オブジェクトの表現の隣に表示される、拡張現実アフォーダンスの選択である。いくつかの実施形態では、この要求は、拡張現実測定アプリケーション(例えば、物理的環境の測定を容易にする測定アプリ)の活性化である。例えば、この要求は、図12Aに関して説明されるように、1つ以上のカメラの視野6036に、仮想オブジェクト11002を表示するために、トグル6018において検出されたタップ入力である。 The device includes a first user interface area that includes a representation of the one or more cameras' fields of view (e.g., the fields of view capture at least a portion of the physical environment). A request to display an augmented reality view of a physical environment surrounding a device (including a camera) is received (17002). In some embodiments, the request is a detected tap input on a button to switch from a staging view of the virtual object to an augmented reality view of the virtual object. In some embodiments, the request is the selection of an augmented reality affordance to be displayed next to the representation of the virtual object within the two-dimensional user interface. In some embodiments, the request is activation of an augmented reality measurement application (eg, a measurement app that facilitates measurements of the physical environment). For example, the request is a detected tap input on toggle 6018 to display virtual object 11002 in the field of view 6036 of one or more cameras, as described with respect to FIG. 12A.

物理的環境の拡張現実ビューを表示するための要求を受信することに応じて、デバイスは、1つ以上のカメラの視野の表現を表示する(例えば、デバイスは、較正基準が満たされていない場合、1つ以上のカメラの視野に、物理的環境のぶれたバージョンを表示する)(17004)。例えば、デバイスは、図12E-1に図示されるように、1つ以上のカメラの視野6036のぶれた表現を表示する。(例えば、1つ以上のカメラの視野においてキャプチャされた物理的環境のための寸法及び空間関係データを生成するために、(例えば、異なる視野角度からの)十分な量の画像データが存在しないので、仮想オブジェクトに対応するプレーンが、1つ以上のカメラの視野内で検出されないので、及び/又は、カメラから利用可能な画像データに基づいて、プレーン検出を開始又はプレーン検出とともに進めるための十分な情報が存在しないので、)物理的環境の拡張現実ビューのための較正基準が満たされていないとの判定にしたがって、デバイスは、(例えば、表示生成コンポーネントによって、及び、(例えば、視野のぶれたバージョンのような)1つ以上のカメラの視野の表現を含む第1のユーザーインターフェース領域内に)物理的環境における1つ以上のカメラの移動にしたがって動的にアニメーション化される較正ユーザーインターフェースオブジェクト(例えば、弾力性のある立方体又はワイヤフレームオブジェクトのようなスキャンプロンプトオブジェクト)を表示する。例えば、図12E-1ないし図12I-1において、較正ユーザーインターフェースオブジェクト12014が表示される。1つ以上のカメラの移動に従う較正ユーザーインターフェースオブジェクトのアニメーションは、例えば、図12E-1ないし図12F-1に関して説明される。いくつかの実施形態では、1つ以上のカメラの視野において、1つ以上のプレーン(例えば、床、壁、テーブル等)を検出するために、1つ以上のカメラの視野を分析することは、拡張現実ビューの表現を表示するための要求に対応する入力の初期部分が受信された場合に生じる。いくつかの実施形態では、分析することは、この要求を受信する前(例えば、仮想オブジェクトがステージングビューに表示されている間)に生じる。較正ユーザーインターフェースオブジェクトを表示することは、較正ユーザーインターフェースオブジェクトを表示している間、1つ以上の姿勢センサによって、物理的環境における1つ以上のカメラの姿勢(例えば、場所及び/又は向き(例えば、回転、傾斜、ヨー角))における変化を検出することと、物理的環境における1つ以上のカメラの姿勢における変化を検出することに応じて、物理的環境における1つ以上のカメラの姿勢における検出された変化にしたがって、較正ユーザーインターフェースオブジェクト(例えば、弾力性のある立方体又はワイヤフレームオブジェクトのようなスキャンプロンプトオブジェクト)の少なくとも1つの表示パラメータ(例えば、ディスプレイにおける向き、サイズ、回転、又は場所)を調節することと、を含む。例えば、図12E-2ないし図12F-2にそれぞれ対応する図12E-1ないし図12F-1は、物理的環境5002に対するデバイス100の横移動と、デバイスの1つ以上のカメラの、表示された視野6036における対応する変化とを例示する。図12E-2ないし図12F-2では、較正ユーザーインターフェースオブジェクト12014は、1つ以上のカメラの移動に応じて回転する。 In response to receiving a request to display an augmented reality view of the physical environment, the device displays a representation of the field of view of one or more cameras (e.g., if the calibration criteria are not met, the device , displaying a blurred version of the physical environment in the field of view of one or more cameras) (17004). For example, the device displays a blurred representation of one or more cameras' fields of view 6036, as illustrated in FIG. 12E-1. (e.g. because there is not a sufficient amount of image data (e.g. from different viewing angles) to generate dimensional and spatial relationship data for the physical environment captured in the field of view of one or more cameras) , because the plane corresponding to the virtual object is not detected within the field of view of one or more cameras, and/or based on the image data available from the cameras, there is sufficient information to initiate or proceed with plane detection. In accordance with a determination that the calibration criteria for an augmented reality view of the physical environment are not met (because the information is not present), the device (e.g., by the display generation component) and (e.g., because the field of view is blurred) A calibration user interface object that is dynamically animated according to the movement of one or more cameras in the physical environment (within a first user interface area that contains a representation of the field of view of one or more cameras) (such as a For example, display a scan prompt object (such as a bouncy cube or wireframe object). For example, in FIGS. 12E-1 through 12I-1, calibration user interface object 12014 is displayed. Animation of a calibration user interface object following movement of one or more cameras is described with respect to FIGS. 12E-1 through 12F-1, for example. In some embodiments, analyzing the field of view of the one or more cameras to detect one or more planes (e.g., floors, walls, tables, etc.) in the field of view of the one or more cameras includes: Occurs when an initial portion of input corresponding to a request to display a representation of an augmented reality view is received. In some embodiments, the analyzing occurs prior to receiving this request (eg, while the virtual object is displayed in a staging view). Displaying the calibration user interface object may include determining one or more camera poses (e.g., location and/or orientation, e.g. , rotation, tilt, yaw angle)) and in response to detecting a change in the pose of the one or more cameras in the physical environment. at least one display parameter (e.g., orientation, size, rotation, or location in the display) of the calibrated user interface object (e.g., a scan prompt object such as a bouncy cube or wireframe object) according to the detected change; and adjusting. For example, FIGS. 12E-1 through 12F-1, corresponding to FIGS. 12E-2 through 12F-2, respectively, illustrate lateral movement of the device 100 relative to the physical environment 5002 and the display of one or more cameras of the device. A corresponding change in field of view 6036 is illustrated. In FIGS. 12E-2 through 12F-2, calibration user interface object 12014 rotates in response to movement of one or more cameras.

物理的環境における1つ以上のカメラの姿勢における検出された変化にしたがって、ディスプレイ上を移動する較正ユーザーインターフェースオブジェクト(例えば、弾力性のある立方体又はワイヤフレームオブジェクトのようなスキャンプロンプトオブジェクト)を表示している間、デバイスは、較正基準が満たされていないことを検出する(17006)。例えば、図12E~図12Jに関して説明されるように、デバイスは、図12E-1ないし図12I-1から生じるデバイスの移動に応じて、較正基準が満たされていることを判定する。 displaying a calibrated user interface object (e.g., a scan prompt object such as a bouncy cube or wireframe object) that moves on the display according to a detected change in the pose of the one or more cameras in the physical environment; During the process, the device detects that the calibration criteria are not met (17006). For example, as described with respect to FIGS. 12E-12J, the device determines that the calibration criteria are met in response to movement of the device resulting from FIGS. 12E-1 through 12I-1.

較正基準が満たされていることを検出することに応じて、デバイスは、較正ユーザーインターフェースオブジェクト(例えば、弾力性のある立方体又はワイヤフレームオブジェクトのようなスキャンプロンプトオブジェクト)の表示を停止する(17008)。いくつかの実施形態では、デバイスが、較正ユーザーインターフェースオブジェクトの表示を停止した後、デバイスは、カメラの視野の表現を、ぶれなく表示する。いくつかの実施形態では、仮想オブジェクトの表現は、カメラの視野のぶれのない表現の上方に表示される。例えば、図12Jにおいて、図12E-1ないし図12I-1に関して説明されるデバイスの移動に応じて、較正ユーザーインターフェースオブジェクト12014は、もはや表示されず、仮想オブジェクト11002が、カメラの視野の、ぶれのない表現6036にわたって表示される。1つ以上のカメラ(例えば、デバイスの物理的環境をキャプチャするデバイスカメラ)の移動にしたがって較正ユーザーインターフェースオブジェクトの表示パラメータを調節することは、(例えば、較正のためにデバイスの移動が必要とされていることを示すために)視覚的フィードバックをユーザーへ提供する。改善された視覚的フィードバックをユーザーへ提供することは、(例えば、較正基準を満たすために必要とされる情報を提供する方式で、ユーザーがデバイスを移動させることを支援することによって、)デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In response to detecting that the calibration criteria are met, the device stops displaying the calibration user interface object (e.g., a scan prompt object such as a resilient cube or wireframe object) (17008). . In some embodiments, after the device stops displaying the calibration user interface objects, the device displays a representation of the camera's field of view without blur. In some embodiments, a representation of the virtual object is displayed above a steady representation of the camera's field of view. For example, in FIG. 12J, in response to the movement of the device described with respect to FIGS. 12E-1 through 12I-1, calibration user interface object 12014 is no longer displayed and virtual object 11002 is moved out of the blur of the camera's field of view. is displayed across 6036 expressions. Adjusting the display parameters of a calibration user interface object according to the movement of one or more cameras (e.g., a device camera that captures the physical environment of the device) may be performed when movement of the device is required for calibration (e.g., a device camera that captures the physical environment of the device). provide visual feedback to the user (to indicate that the Providing improved visual feedback to the user improves the performance of the device (e.g., by assisting the user in moving the device in a manner that provides the information needed to meet calibration standards). Improve usability and make user device interfaces more efficient. This further reduces power usage and improves the device's battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、1つ以上のカメラの視野の表現を含む第1のユーザーインターフェース領域内に、物理的環境(例えば、1つ以上のカメラを含むデバイスの周囲の物理的環境)の拡張現実ビューを表示するための要求は、物理的環境の拡張現実ビューにおける仮想三次元オブジェクト(例えば、三次元モデルを有する仮想オブジェクト)の表現を表示するための要求を含む(17010)。いくつかの実施形態では、この要求は、仮想オブジェクトのステージングビューから、仮想オブジェクトの拡張現実ビューへ切り換えるためのボタンにおいて検出されたタップ入力である。いくつかの実施形態では、この要求は、二次元ユーザーインターフェース内に、仮想オブジェクトの表現の隣に表示される拡張現実アフォーダンスの選択である。例えば、図12Aでは、トグル制御6018に対応する場所における接触12002による入力は、図12Bに図示されるように、カメラの視野6036を含むユーザーインターフェース内に、仮想オブジェクト11002を表示するための要求である。拡張現実ビューにおいて仮想オブジェクトを表示するための要求に応じて、物理的環境の拡張現実ビューを表示することは、(例えば、物理的環境と仮想オブジェクトとの両方のビューを表示するために)必要とされる入力数を低減する。操作を実行するために必要とされる入力数を低減することは、(例えば、ユーザーが較正入力を提供することを支援することによって、)デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, an extension of the physical environment (e.g., the physical environment around the device that includes the one or more cameras) within a first user interface area that includes a representation of the field of view of the one or more cameras. The request to display a reality view includes a request to display a representation of a virtual three-dimensional object (eg, a virtual object having a three-dimensional model) in an augmented reality view of the physical environment (17010). In some embodiments, the request is a detected tap input on a button to switch from a staging view of the virtual object to an augmented reality view of the virtual object. In some embodiments, the request is the selection of an augmented reality affordance to be displayed next to the representation of the virtual object within the two-dimensional user interface. For example, in FIG. 12A, input by contact 12002 at a location corresponding to toggle control 6018 is a request to display virtual object 11002 within a user interface that includes camera field of view 6036, as illustrated in FIG. 12B. be. In response to a request to display virtual objects in an augmented reality view, displaying an augmented reality view of the physical environment may be necessary (e.g., to display views of both the physical environment and virtual objects). Reduce the number of inputs required. Reducing the number of inputs required to perform an operation increases device usability (e.g., by assisting the user in providing calibration input) and makes the user device interface more efficient. Make it. This further reduces power usage and improves the device's battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、デバイスは、較正ユーザーインターフェースオブジェクトの表示を停止した後、1つ以上のカメラの視野の表現を含む第1のユーザーインターフェース領域内に、仮想三次元オブジェクトの表現を(例えば、較正基準が満たされた後に)表示する(17012)。いくつかの実施形態では、この要求に応じて、較正が完了し、カメラの視野が十分鮮明に表示された後、仮想オブジェクトは、1つ以上のカメラの視野内で識別された所定のプレーン(例えば、仮想オブジェクトの三次元表現のためのサポートプレーンとして役立ち得る垂直壁又は水平床面のような物理的なプレーン)に対して所定の位置及び/又は向きへドロップする。例えば、図12Jにおいて、デバイスは、図12E~図12Iに表示された較正ユーザーインターフェースオブジェクト12014を表示することを停止し、仮想オブジェクト11002は、カメラの視野6036を含むユーザーインターフェース内に表示される。較正ユーザーインターフェースオブジェクトの表示の停止後、表示された拡張現実ビューで仮想オブジェクトを表示することは、(例えば、較正基準が満たされていることを示すために)視覚的フィードバックを提供する。改善された視覚的フィードバックをユーザーへ提供することは、(例えば、ユーザーが適切な入力を提供することと、較正基準が満たされる前に仮想オブジェクトを操作するための入力の提供を試みることを回避することとを支援することによって、)デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, after the device stops displaying the calibrated user interface object, the device displays a representation of the virtual three-dimensional object (e.g., , after the calibration criteria are met) (17012). In some embodiments, in response to this request, after the calibration is complete and the camera's field of view is sufficiently sharp, the virtual object is moved to a predetermined plane ( (e.g., a physical plane such as a vertical wall or a horizontal floor surface that can serve as a support plane for a three-dimensional representation of a virtual object) into a predetermined position and/or orientation. For example, in FIG. 12J, the device stops displaying the calibration user interface object 12014 displayed in FIGS. 12E-12I, and virtual object 11002 is displayed within the user interface that includes the camera's field of view 6036. After cessation of display of the calibration user interface object, displaying the virtual object in the displayed augmented reality view provides visual feedback (eg, to indicate that the calibration criteria have been met). Providing improved visual feedback to the user (e.g., preventing the user from providing appropriate input and attempting to provide input to manipulate the virtual object before calibration criteria are met) Enhance device usability and make user device interfaces more efficient. This further reduces power usage and improves the device's battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、デバイスは、較正ユーザーインターフェースオブジェクトと同時に(例えば、較正ユーザーインターフェースオブジェクトの後方に)、第1のユーザーインターフェース領域内に、仮想三次元オブジェクトの表現を(例えば、較正基準が満たされる前に)表示し、仮想三次元オブジェクトの表現は、物理的環境における1つ以上のカメラの移動中(例えば、較正ユーザーインターフェースオブジェクトが、1つ以上のカメラの移動にしたがって、第1のユーザーインターフェース領域内で移動されている間)、第1のユーザーインターフェース領域内の固定位置にとどまる(例えば、仮想三次元オブジェクトは、物理的環境における場所に配置されない)(17014)。例えば、図12E-1ないし図12I-1において、仮想オブジェクト11002の表現は、較正ユーザーインターフェースオブジェクト12014と同時に表示される。(例えば、図12E-1ないし図12F-1及び対応する図12E-2ないし図12F-2に例示されるように)1つ以上のカメラを含むデバイス100が移動すると、仮想オブジェクト11002は、1つ以上のカメラの視野6036を含むユーザーインターフェース内の固定場所にとどまる。仮想オブジェクトを較正ユーザーインターフェースオブジェクトと同時に表示することは、(例えば、較正が実行されているオブジェクトを示すために)視覚的フィードバックを提供する。改善された視覚的フィードバックをユーザーへ提供することは、(例えば、仮想オブジェクトが配置されるプレーンに対応する較正入力を、ユーザーが提供することを支援することによって、)デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the device displays a representation of the virtual three-dimensional object (e.g., with a calibration reference in the first user interface area) simultaneously with (e.g., behind the calibration user interface object) the calibration user interface object. the representation of the virtual three-dimensional object (e.g., when the user interface object is calibrated during the movement of one or more cameras in the physical environment). (e.g., the virtual three-dimensional object is not placed in a location in the physical environment) (17014). For example, in FIGS. 12E-1 through 12I-1, a representation of virtual object 11002 is displayed simultaneously with calibration user interface object 12014. When a device 100 that includes one or more cameras moves (eg, as illustrated in FIGS. 12E-1 through 12F-1 and corresponding FIGS. 12E-2 through 12F-2), the virtual object 11002 It remains in a fixed location within the user interface that includes the field of view 6036 of one or more cameras. Displaying virtual objects simultaneously with calibration user interface objects provides visual feedback (eg, to indicate the object on which calibration is being performed). Providing improved visual feedback to the user increases the usability of the device (e.g., by assisting the user in providing calibration input corresponding to the plane in which the virtual object is placed); Make user device interfaces more efficient. This further reduces power usage and improves the device's battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、1つ以上のカメラの視野の表現を含む第1のユーザーインターフェース領域内に、物理的環境(例えば、1つ以上のカメラを含むデバイスの周囲の物理的環境)の拡張現実ビューを表示するための要求は、1つ以上のカメラの視野にキャプチャされた物理的環境におけるいずれの仮想三次元オブジェクト(例えば、三次元モデルを有する仮想オブジェクト)の表現の表示も要求することなく、(例えば、1つ以上のユーザーインターフェースオブジェクト、及び/又は、制御(例えば、プレーン、オブジェクト、ポインタ、アイコン、マーカ等の輪郭)を用いて、)1つ以上のカメラの視野の表現を表示するための要求を含む(17016)。いくつかの実施形態では、この要求は、二次元ユーザーインターフェース内に、仮想オブジェクトの表現の隣に表示される、拡張現実アフォーダンスの選択である。いくつかの実施形態では、この要求は、拡張現実ビュー測定アプリケーション(例えば、物理的環境の測定を容易にする測定アプリ)の活性化である。いずれの仮想三次元オブジェクトの表現の表示も要求することなく、1つ以上のカメラの視野の表現を表示するための要求は、(例えば、仮想オブジェクトが表示されるか否かに関わらず、較正が必要とされることを示すために、同じ較正ユーザーインターフェースオブジェクトを使用することによって)フィードバックを提供する。改善されたフィードバックをユーザーへ提供することは、デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, an extension of the physical environment (e.g., the physical environment around the device that includes the one or more cameras) within a first user interface area that includes a representation of the field of view of the one or more cameras. A request to display a real view may require displaying a representation of any virtual three-dimensional object (e.g., a virtual object having a three-dimensional model) in the physical environment captured in the field of view of one or more cameras. (e.g., using one or more user interface objects and/or controls (e.g., planes, contours of objects, pointers, icons, markers, etc.)) without displaying a representation of the field of view of one or more cameras; (17016). In some embodiments, the request is the selection of an augmented reality affordance to be displayed next to the representation of the virtual object within the two-dimensional user interface. In some embodiments, the request is activation of an augmented reality view measurement application (eg, a measurement app that facilitates measurements of the physical environment). A request to display a representation of the field of view of one or more cameras without requiring the display of a representation of any virtual three-dimensional object (e.g., regardless of whether the virtual object is displayed, the calibration provide feedback (by using the same calibration user interface object to indicate that calibration is required). Providing improved feedback to users enhances device usability and makes user device interfaces more efficient. This further reduces power usage and improves the device's battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、物理的環境の拡張現実ビューを表示するための要求を受信することに応じて、デバイスは、1つ以上のカメラの視野の表現を表示し(例えば、較正基準が満たされない場合、1つ以上のカメラの視野における物理的環境のぶれたバージョンを表示し)、(例えば、1つ以上のカメラの視野においてキャプチャされた物理的環境のための寸法及び空間関係データを生成するために(例えば、異なる視野角度からの)十分な量の画像データが存在するので、仮想オブジェクトに対応するプレーンが、1つ以上のカメラの視野内で検出されたので、及び/又は、カメラからの利用可能な画像データに基づいて、プレーン検出を開始又はプレーン検出とともに進めるための十分な情報が存在するので、)物理的環境の拡張現実ビューのために較正基準が満たされているとの判定にしたがって、デバイスは、較正ユーザーインターフェースオブジェクト(例えば、弾力性のある立方体又はワイヤフレームオブジェクトのようなスキャンプロンプトオブジェクト)の表示を控える(17018)。いくつかの実施形態では、仮想三次元オブジェクトが、ステージングユーザーインターフェース内に表示されている間に、プレーンに関する物理的環境のスキャンが始まる。これによって、デバイスは、(例えば、物理的空間における1つ以上のプレーンを検出するために十分なデータを提供するために、カメラの視野が十分移動した)いくつかの状況において、拡張現実ビューを表示する前に、物理的空間における1つ以上のプレーンを検出することが可能となり、これによって、較正ユーザーインターフェースは、表示される必要がなくなる。物理的環境の拡張現実ビューのために、較正基準が満たされているとの判定にしたがって、較正ユーザーインターフェースオブジェクトの表示を控えることは、視覚的フィードバックをユーザーへ提供する(例えば、較正ユーザーインターフェースオブジェクトの不在は、較正基準が満たされており、較正のためにデバイスの移動は必要とされないことを示す)。改善された視覚的フィードバックをユーザーへ提供することは、(例えば、較正の目的のために、ユーザーがデバイスの不要な移動を回避することを支援することによって、)デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, in response to receiving a request to display an augmented reality view of the physical environment, the device displays a representation of the field of view of one or more cameras (e.g., if calibration criteria are met). display a blurred version of the physical environment in the field of view of the one or more cameras) and generate dimensional and spatial relationship data for the physical environment captured in the field of view of the one or more cameras (e.g., if not a plane corresponding to the virtual object is detected within the field of view of one or more cameras, and/or the camera It is assumed that the calibration criteria are met for the augmented reality view of the physical environment (as there is sufficient information to initiate or proceed with plane detection based on the available image data from the According to the determination, the device refrains from displaying a calibration user interface object (eg, a scan prompt object such as a bouncy cube or wireframe object) (17018). In some embodiments, scanning of the physical environment for planes begins while the virtual three-dimensional object is displayed within the staging user interface. This allows the device to display augmented reality views in some situations (e.g., the camera's field of view has moved enough to provide enough data to detect one or more planes in physical space). It is possible to detect one or more planes in physical space before displaying, so that the calibration user interface does not need to be displayed. For augmented reality views of the physical environment, withholding the display of the calibration user interface object according to a determination that the calibration criteria are met provides visual feedback to the user (e.g., the calibration user interface object The absence of indicates that the calibration criteria are met and no movement of the device is required for calibration). Providing improved visual feedback to the user can enhance the usability of the device (e.g., by helping the user avoid unnecessary movements of the device for calibration purposes) and improve user experience. Make device interfaces more efficient. This further reduces power usage and improves the device's battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、デバイスは、(例えば、較正ユーザーインターフェースオブジェクトの隣の)拡張現実ビューの較正を改善するために、ユーザーによって講じられ得る動作に関する情報を提供する較正ユーザーインターフェースオブジェクトと同時に、第1のユーザーインターフェース領域内に、テキストオブジェクト(例えば、現在検出されているエラー状態を記述しているテキスト記述、及び/又は、(例えば、検出されたエラー状態を修正するために)ユーザー動作を要求するテキストプロンプト)を(例えば、較正基準が満たされる前に)表示する(17020)。いくつかの実施形態では、テキストオブジェクトは、「移動しすぎ」、「下に細かく」、「もっと近くに移動して下さい」等のような、デバイスの移動のためのプロンプトを(現在、検出されているエラー状態とともに)ユーザーへ提供する。いくつかの実施形態では、デバイスは、較正処理中のユーザーの動作と、ユーザーの動作に基づいて検出された新たなエラー状態とにしたがって、テキストオブジェクトを更新する。較正ユーザーインターフェースオブジェクトと同時にテキストを表示することは、(例えば、較正のために必要とされる移動のタイプを示す文字指示を提供する)視覚的フィードバックをユーザーへ提供する。改善された視覚的フィードバックをユーザーへ提供することは、デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする(例えば、ユーザーが適切な入力を提供することを支援し、デバイスと動作/相互作用している場合、ユーザー誤りを低減する)。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the device concurrently with a calibration user interface object provides information regarding actions that may be taken by the user to improve the calibration of the augmented reality view (e.g., next to the calibration user interface object). A text object (e.g., a text description describing a currently detected error condition) and/or a user action (e.g., to correct a detected error condition) within the first user interface area. 17020) (e.g., before the calibration criteria are met). In some embodiments, the text object displays prompts for device movement (currently detected), such as "Move too far," "Move down finer," "Move closer," etc. (along with any error conditions) provided to the user. In some embodiments, the device updates the text object according to user actions during the calibration process and new error conditions detected based on the user actions. Displaying text simultaneously with the calibration user interface object provides visual feedback to the user (eg, providing textual instructions indicating the type of movement required for calibration). Providing improved visual feedback to users can enhance device usability and make user device interfaces more efficient (e.g., assisting users in providing appropriate input and providing reduce user error). This further reduces power usage and improves the device's battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、較正基準が満たされていること(例えば、較正ユーザーインターフェースオブジェクトが表示される前に満たされている基準、又は、較正ユーザーインターフェースオブジェクトが表示され、ある期間、アニメーション化された後に満たされた基準)を検出することに応じて、デバイスは、(例えば、較正ユーザーインターフェースオブジェクトが最初に表示されたのであれば、較正ユーザーインターフェースオブジェクトの表示を停止した後に、)1つ以上のカメラの視野においてキャプチャされた物理的環境において検出されたプレーンの視覚的な指示を表示する(例えば、検出されたプレーンの周囲の輪郭を表示する、又は、検出されたプレーンを強調する)(17022)。例えば、図12Jでは、1つ以上のカメラの表示された視野6036においてキャプチャされると、物理的環境5002においてプレーンが検出されたことを示すために、プレーン(床面5038)が強調されている。検出されたプレーンを示す視覚的な指示を表示することは、(例えば、デバイスカメラによってキャプチャされた物理的環境においてプレーンが検出されたことを示す)視覚的フィードバックを提供する。改善された視覚的フィードバックをユーザーへ提供することは、(例えば、ユーザーが適切な入力を提供することを支援し、デバイスと動作/相互作用している場合にユーザー誤りを低減することによって、)デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, calibration criteria are met (e.g., criteria are met before the calibration user interface object is displayed, or the calibration user interface object is displayed and animated for a period of time). (e.g., after stopping displaying the calibration user interface object, if the calibration user interface object was initially displayed) Displaying a visual indication of the detected plane in the physical environment captured in the field of view of the camera (e.g., displaying a contour around the detected plane or highlighting the detected plane) 17022). For example, in FIG. 12J, a plane (floor plane 5038) is highlighted to indicate that the plane is detected in the physical environment 5002 when captured in the displayed field of view 6036 of one or more cameras. . Displaying a visual indication of the detected plane provides visual feedback (e.g., indicating that the plane was detected in the physical environment captured by the device camera). Providing improved visual feedback to the user (e.g., by assisting the user in providing appropriate input and reducing user error when operating/interacting with the device) Improve device usability and make user device interfaces more efficient. This further reduces power usage and improves the device's battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、物理的環境の拡張現実ビューを表示するための要求を受信することに応じて、較正基準が満たされていないとの判定にしたがって、較正ユーザーインターフェースオブジェクトを表示する前に、デバイスは、(例えば、表示生成コンポーネントによって、及び、1つ以上のカメラの視野の表現(例えば、視野のぶれたバージョン)を含む第1のユーザーインターフェース領域内に、)プレーンの表現に対して移動するデバイスの表現(例えば、プレーンの表現に対するデバイスの表現の移動は、ユーザーによって影響されるべき、必要とされるデバイスの移動を示す)を含むアニメーション化されたプロンプトオブジェクト(例えば、弾力性のある立方体又はワイヤフレームオブジェクトのようなスキャンプロンプトオブジェクト)を表示する(17024)。例えば、アニメーション化されたプロンプトオブジェクトは、図12B~図12Dに関して説明されるように、プレーンの表現12010に対して移動するデバイス100の表現12004を含む。いくつかの実施形態では、デバイスは、デバイスが、デバイスの移動を検出した(例えば、較正を進めることができる手法で、ユーザーが、デバイスの移動を開始したことを示す)場合、アニメーション化されたプロンプトオブジェクトの表示を停止する。いくつかの実施形態では、デバイスが、デバイスの移動を検出した場合、かつ、デバイスの較正に関して更にユーザーをガイドする較正が完了される前に、デバイスは、アニメーション化されたプロンプトオブジェクトの表示を、較正ユーザーインターフェースオブジェクトと置き換える。例えば、図12C~図12Eに関して説明されるように、(図12C~図12Dに図示されるように)デバイスの移動が検出された場合、デバイス100の表現12004を含むアニメーション化されたプロンプトは、表示が停止され、較正ユーザーインターフェースオブジェクト12014が、図12Eに表示される。プレーンの表現に対して移動するデバイスの表現を含む、アニメーション化されたプロンプトオブジェクトを表示することは、(例えば、較正のために必要とされるデバイスの移動のタイプを例示するための)視覚的フィードバックをユーザーへ提供する。改善された視覚的フィードバックをユーザーへ提供することは、(例えば、較正基準を満たすために必要とされる情報を提供する方式で、ユーザーがデバイスを移動させることを支援することによって、)デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, in response to receiving a request to display an augmented reality view of the physical environment, prior to displaying the calibration user interface object according to a determination that the calibration criteria are not met. , the device generates a representation of the plane (e.g., by a display generation component and in a first user interface area that includes a representation of one or more camera fields of view (e.g., a blurred version of the field of view)). Animated prompt objects (e.g. elastic A scan prompt object, such as a cube or wireframe object) is displayed (17024). For example, the animated prompt object includes a representation 12004 of the device 100 moving relative to a plane representation 12010, as described with respect to FIGS. 12B-12D. In some embodiments, the device is animated when the device detects movement of the device (e.g., indicates that the user has initiated movement of the device in a manner that can proceed with calibration). Stop displaying prompt objects. In some embodiments, when the device detects movement of the device and before calibration is completed to further guide the user regarding device calibration, the device displays an animated prompt object. Replace with calibration user interface object. For example, as described with respect to FIGS. 12C-12E, if movement of the device is detected (as illustrated in FIGS. 12C-12D), the animated prompt containing the representation 12004 of the device 100 may The display is stopped and the calibration user interface object 12014 is displayed in FIG. 12E. Displaying an animated prompt object that includes a representation of the device moving relative to a representation of the plane (e.g., to illustrate the type of device movement required for calibration) Provide feedback to users. Providing improved visual feedback to the user can improve the performance of the device (e.g., by assisting the user in moving the device in a manner that provides the information needed to meet calibration standards). Improve usability and make user device interfaces more efficient. This further reduces power usage and improves the device's battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、物理的環境における1つ以上のカメラの姿勢において検出された変化にしたがって、較正ユーザーインターフェースオブジェクトの少なくとも1つの表示パラメータを調節することは、物理的環境における1つ以上のカメラの第1の量の移動にしたがって、較正ユーザーインターフェースオブジェクトを第1の量、移動させることと、物理的環境における1つ以上のカメラの第2の量の移動にしたがって、較正ユーザーインターフェースオブジェクトを第2の量、移動させることとを含み、第1の量は、第2の量とは異なり(例えば、第2の量よりも大きく)、第1の量の移動は、第2の量の移動とは異なる(例えば、第2の量よりも大きい)(例えば、第1及び第2の量の移動は、物理的環境における同じ方向における移動に基づいて測定される)。較正ユーザーインターフェースオブジェクトを、1つ以上の(デバイス)カメラの移動の大きさに対応する量、移動させることは、(例えば、較正ユーザーインターフェースオブジェクトの移動が、較正のために必要とされるデバイスの移動のためのガイドであることをユーザーへ示す)視覚的フィードバックを提供する(17026)。改善された視覚的フィードバックをユーザーへ提供することは、(例えば、ユーザーが適切な入力を提供することを支援し、デバイスと動作/相互作用している場合にユーザー誤りを低減することによって、)デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, adjusting at least one display parameter of the calibration user interface object according to a detected change in the pose of the one or more cameras in the physical environment includes adjusting the at least one display parameter of the calibration user interface object according to the detected change in the pose of the one or more cameras in the physical environment. moving a calibrated user interface object a first amount in accordance with movement of the camera a first amount; and moving the calibrated user interface object in accordance with movement of the one or more cameras in the physical environment a second amount. and moving a second amount, the first amount being different from (e.g., greater than) the second amount, and moving the first amount being a second amount. different from (e.g., greater than a second amount) the movement (e.g., the first and second amounts of movement are measured based on movement in the same direction in the physical environment). Moving the calibration user interface object by an amount that corresponds to the amount of movement of one or more (device) cameras (e.g., the movement of the calibration user interface object Provide visual feedback (17026) indicating to the user that the navigation is guided. Providing improved visual feedback to the user (e.g., by assisting the user in providing appropriate input and reducing user error when operating/interacting with the device) Improve device usability and make user device interfaces more efficient. This further reduces power usage and improves the device's battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、物理的環境における1つ以上のカメラの姿勢における検出された変化にしたがって、較正ユーザーインターフェースオブジェクトの少なくとも1つの表示パラメータを調節することは、1つ以上のカメラの姿勢において検出された変化が、第1のタイプの移動(例えば、左側、右側、又は前後側のような横方向移動)に対応する(そして、第2のタイプの移動(例えば、上方、下方、及び上下移動のような垂直移動)に対応しない)との判定にしたがって、第1のタイプの移動に基いて、較正ユーザーインターフェースオブジェクトを移動させること(例えば、(例えば、較正ユーザーインターフェースオブジェクトによって、垂直軸の周りに較正ユーザーインターフェースオブジェクトを回転させることのように)第1の方式で較正ユーザーインターフェースオブジェクトを移動させること)と、1つ以上のカメラの姿勢における検出された変化が、第2のタイプの移動に対応する(そして、第1のタイプの移動に対応しない)との判定にしたがって、第2のタイプの移動に基づいて、較正ユーザーインターフェースオブジェクトを移動させることを控えること(例えば、較正ユーザーインターフェースオブジェクトを第1の方式で移動させることを控えること、すなわち、較正ユーザーインターフェースオブジェクトを静止させたままに維持すること)とを含む(17028)。例えば、(図12F-1ないし図12G-1、及び図12F-2ないし図12G-2に関して説明されるように、)1つ以上のカメラを含むデバイス100の横方向移動は、較正ユーザーインターフェースオブジェクト12014を回転させる一方、(例えば、図12G-1ないし図12H-1及び図12G-2ないし図12H-2に関して説明されるように、)デバイス100の垂直移動は、較正ユーザーインターフェースオブジェクト12014を回転させない。デバイスカメラの姿勢における検出された変化が、第2のタイプの移動に対応しているとの判定にしたがって、較正ユーザーインターフェースオブジェクトの移動を控えることは、(例えば、1つ以上のカメラの第2のタイプの移動が、較正のために必要とされていないことをユーザーへ示す)視覚的フィードバックを提供する。改善された視覚的フィードバックをユーザーへ提供することは、(例えば、ユーザーが不要な入力を提供することを回避することを支援することによって、)デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, adjusting at least one display parameter of the calibration user interface object according to a detected change in the one or more camera poses in the physical environment comprises: in the one or more camera poses. The detected change corresponds to a first type of movement (e.g., a lateral movement such as left, right, or front-to-back) and a second type of movement (e.g., upward, downward, and up-down). moving the calibration user interface object based on the first type of movement (e.g., the calibration user interface object does not correspond to a vertical axis movement); moving the calibration user interface object in a first manner (such as rotating the calibration user interface object around) and the detected change in the pose of the one or more cameras causing a second type of movement. (and does not correspond to the first type of movement), refraining from moving the calibration user interface object based on the second type of movement (e.g., the calibration user interface object (17028) including refraining from moving the calibrated user interface object in a first manner, i.e., maintaining the calibration user interface object stationary. For example, lateral movement of device 100 that includes one or more cameras (as described with respect to FIGS. 12F-1 through 12G-1 and FIGS. 12F-2 through 12G-2) may cause the calibration user interface object Vertical movement of device 100 rotates calibration user interface object 12014 (e.g., as described with respect to FIGS. 12G-1 through 12H-1 and FIGS. 12G-2 through 12H-2) while rotating calibration user interface object 12014 I won't let you. Withholding movement of the calibration user interface object according to a determination that the detected change in the pose of the device camera corresponds to a second type of movement (e.g., a second type of movement of the one or more cameras) type of movement is not required for calibration). Providing improved visual feedback to users can enhance device usability (e.g., by helping users avoid providing unnecessary input) and make user device interfaces more efficient. make a target This further reduces power usage and improves the device's battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、物理的環境における1つ以上のカメラの姿勢における検出された変化にしたがって、較正ユーザーインターフェースオブジェクトの少なくとも1つの表示パラメータを調節することは、第1のユーザーインターフェース領域の上方における較正ユーザーインターフェースオブジェクトの特徴的な表示場所(例えば、地理的中心の場所、又は、ディスプレイ上の較正ユーザーインターフェースオブジェクトの軸)を変更することなく、物理的環境における1つ以上のカメラの姿勢における検出された変化にしたがって、較正ユーザーインターフェースオブジェクトを移動(例えば、回転及び/又は傾斜)させることを含む(例えば、較正ユーザーインターフェースオブジェクトは、ディスプレイ上の固定場所へアンカーされる一方、物理的環境は、較正ユーザーインターフェースオブジェクトの真下の1つ以上のカメラの視野内で移動する)(17030)。例えば、図12E-1ないし図12I-1では、較正ユーザーインターフェースオブジェクト12014は、ディスプレイ112に対して固定された場所にとどまりながら回転する。較正ユーザーインターフェースオブジェクトの特徴的な表示場所を変更することなく、較正ユーザーインターフェースオブジェクトを移動させることは、(例えば、較正ユーザーインターフェースオブジェクトが、表示された拡張現実環境に対する場所に配置された仮想オブジェクトとは異なることを示す)視覚的フィードバックを提供する。改善された視覚的フィードバックをユーザーへ提供することは、(例えば、ユーザーが適切な入力を提供することを回避し、ユーザー入力誤りを低減することを支援することによって、)デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, adjusting at least one display parameter of the calibration user interface object according to a detected change in the pose of the one or more cameras in the physical environment comprises: in one or more camera poses in the physical environment without changing the characteristic display location of the calibrated user interface object in the physical environment (e.g., the location of the geographic center or the axis of the calibrated user interface object on the display). moving (e.g., rotating and/or tilting) the calibration user interface object in accordance with the detected change (e.g., the calibration user interface object is anchored to a fixed location on the display while the physical environment is , moving within the field of view of one or more cameras directly below the calibration user interface object) (17030). For example, in FIGS. 12E-1 through 12I-1, calibration user interface object 12014 rotates while remaining in a fixed location relative to display 112. Moving the calibration user interface object without changing the characteristic display location of the calibration user interface object (e.g., when the calibration user interface object is positioned relative to the displayed augmented reality environment with a virtual object) provide visual feedback (indicates that the images are different). Providing improved visual feedback to users can enhance device usability (e.g., by helping users avoid providing appropriate input and reducing user input errors). , making the user device interface more efficient. This further reduces power usage and improves the device's battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、物理的環境における1つ以上のカメラの姿勢における検出された変化にしたがって、較正ユーザーインターフェースオブジェクトの少なくとも1つの表示パラメータを調節することは、物理的環境における1つ以上のカメラの移動方向に垂直な軸の周りに較正ユーザーインターフェースオブジェクトを回転させることを含む(例えば、(例えば、カメラを含む)デバイスがx-y面上を前後に移動している場合、較正ユーザーインターフェースオブジェクトは、z軸の周りに回転するか、又は、(例えば、カメラを含む)デバイスがx軸(例えば、x軸は、物理的環境に対する水平方向として定義され、例えば、タッチスクリーンディスプレイのプレーン内に位置する)に沿って左右交互に移動している場合、較正ユーザーインターフェースオブジェクトは、y軸の周りに回転する)(17032)。例えば、図12E-1ないし図12G-1では、較正ユーザーインターフェースオブジェクト12014は、図12E-2ないし図12G-2に図示されるように、デバイスの横方向移動に垂直な垂直軸の周りに回転する。デバイスカメラの移動に垂直な軸の周りに較正ユーザーインターフェースオブジェクトを回転させることは、(例えば、較正ユーザーインターフェースオブジェクトの移動が、較正のために必要とされるデバイスの移動のためのガイドであることをユーザーへ示す)視覚的フィードバックを提供する。改善された視覚的フィードバックをユーザーへ提供することは、(例えば、ユーザーが適切な入力を提供することを支援し、デバイスと動作/相互作用している場合にユーザー誤りを低減することによって、)デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, adjusting at least one display parameter of the calibration user interface object according to a detected change in the pose of one or more cameras in the physical environment includes adjusting at least one display parameter of the calibration user interface object according to a detected change in the pose of one or more cameras in the physical environment. Calibration user interface includes rotating the calibrated user interface object around an axis perpendicular to the direction of camera movement (e.g., if the device (e.g., containing the camera) is moving back and forth on the x-y plane, the calibrated user interface An object may be rotated about the z-axis, or a device (e.g., including a camera) may be rotated about the x-axis (e.g., the x-axis is defined as the horizontal direction relative to the physical environment, e.g. The calibration user interface object rotates about the y-axis (17032) when moving alternately left and right along the y-axis (located at ). For example, in FIGS. 12E-1 through 12G-1, the calibration user interface object 12014 is rotated about a vertical axis perpendicular to the lateral movement of the device, as illustrated in FIGS. 12E-2 through 12G-2. do. Rotating the calibration user interface object around an axis perpendicular to the movement of the device camera (e.g., ensuring that the movement of the calibration user interface object is a guide for the movement of the device required for the calibration) provide visual feedback (to show the user) Providing improved visual feedback to the user (e.g., by assisting the user in providing appropriate input and reducing user error when operating/interacting with the device) Improve device usability and make user device interfaces more efficient. This further reduces power usage and improves the device's battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、物理的環境における1つ以上のカメラの姿勢における検出された変化にしたがって、較正ユーザーインターフェースオブジェクトの少なくとも1つの表示パラメータを調節することは、1つ以上のカメラの視野内で検出された変化の速度(例えば、物理的環境の移動速度)にしたがって判定された速度で較正ユーザーインターフェースオブジェクトを移動させることを含む(17034)。デバイスカメラの姿勢における変化にしたがって判定された速度で較正ユーザーインターフェースオブジェクトを移動させることは、(例えば、較正ユーザーインターフェースオブジェクトの移動が、較正のために必要とされるデバイスの移動のためのガイドであることをユーザーへを示す)視覚的フィードバックを提供する。改善された視覚的フィードバックをユーザーへ提供することは、(例えば、ユーザーが適切な入力を提供することを支援し、デバイスと動作/相互作用している場合にユーザー誤りを低減することによって、)デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, adjusting at least one display parameter of the calibration user interface object according to a detected change in the pose of the one or more cameras in the physical environment includes adjusting the at least one display parameter of the calibration user interface object within the field of view of the one or more cameras. (17034), including moving the calibrated user interface object at a rate determined according to a rate of change detected at the location (e.g., a rate of movement of the physical environment). Moving the calibration user interface object at a speed determined according to a change in the pose of the device camera (e.g., the movement of the calibration user interface object is a guide for the movement of the device required for calibration) Provide visual feedback (indicating something to the user). Providing improved visual feedback to the user (e.g., by assisting the user in providing appropriate input and reducing user error when operating/interacting with the device) Improve device usability and make user device interfaces more efficient. This further reduces power usage and improves the device's battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、物理的環境における1つ以上のカメラの姿勢における検出された変化にしたがって、較正ユーザーインターフェースオブジェクトの少なくとも1つの表示パラメータを調節することは、1つ以上のカメラの視野内で検出された変化(例えば、物理的環境の移動速度)の方向にしたがって判定された方向において、較正ユーザーインターフェースオブジェクトを移動させることを含む(例えば、デバイスは、右から左へのデバイスの移動のために較正ユーザーインターフェースオブジェクトを時計回りに回転させ、左から右へのデバイスの移動のために較正ユーザーインターフェースオブジェクトを反時計回りに回転させるか、又は、デバイスは、右から左へのデバイスの移動のために較正ユーザーインターフェースオブジェクトを反時計回りに回転させ、左から右へのデバイスの移動のために較正ユーザーインターフェースオブジェクトを時計回りに回転させる)(17036)。デバイスカメラの姿勢における変化にしたがって判定された方向において較正ユーザーインターフェースオブジェクトを移動させることは、(例えば、較正ユーザーインターフェースオブジェクトの移動が、較正のために必要とされるデバイスの移動のためのガイドであることをユーザーへ示す)視覚的フィードバックを提供する。改善された視覚的フィードバックをユーザーへ提供することは、(例えば、ユーザーが適切な入力を提供することを支援し、デバイスと動作/相互作用している場合にユーザー誤りを低減することによって、)デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, adjusting at least one display parameter of the calibration user interface object according to a detected change in the pose of the one or more cameras in the physical environment includes adjusting the at least one display parameter of the calibration user interface object within the field of view of the one or more cameras. (e.g., the device moves the calibrated user interface object in a direction determined according to the direction of a change (e.g., the speed of movement of the physical environment) detected in the device (e.g., the device moves from right to left) Rotate the calibrated user interface object clockwise for device movement from left to right, or rotate the calibrated user interface object counterclockwise for device movement from right to left. Rotate the calibration user interface object counterclockwise for movement of the device from left to right and rotate the calibration user interface object clockwise for device movement from left to right) (17036). Moving the calibration user interface object in a direction determined according to a change in the pose of the device camera (e.g., the movement of the calibration user interface object is a guide for the movement of the device required for calibration) provide visual feedback (indicating something to the user). Providing improved visual feedback to the user (e.g., by assisting the user in providing appropriate input and reducing user error when operating/interacting with the device) Improve device usability and make user device interfaces more efficient. This further reduces power usage and improves the device's battery life by allowing the user to use the device more quickly and efficiently.

図17A~図17Dにおける動作が説明されている特定の順序は、単なる例であり、説明された順序は、動作が実行され得る唯一の順序を示すことは意図されていないことが理解されるべきである。当業者であれば、本明細書で説明された動作を再順序付けするための様々な手法を認識するであろう。それに加えて、本明細書で説明された他の方法(例えば、方法800、900、1000、16000、18000、19000、及び20000)に関して本明細書で説明された他の処理の詳細はまた、図17A~図17Dに関して上述された方法17000に対して類似した方式でも適用可能であることが注目されるべきである。例えば、方法17000を参照して上述された接触、入力、仮想オブジェクト、ユーザーインターフェース領域、視野、触知出力、移動、及び/又は、アニメーションは、オプションで、本明細書で説明された他の方法(例えば、方法800、900、1000、16000、18000、19000、及び20000)を参照して本明細書で説明された接触、入力、仮想オブジェクト、ユーザーインターフェース領域、視野、触知出力、移動、及び/又は、アニメーションからなる特徴のうちの1つ以上を有する。簡潔のために、これら詳細は、本明細書では繰り返されない。 It should be understood that the particular order in which the operations in FIGS. 17A-17D are described is merely an example and that the described order is not intended to represent the only order in which the operations may be performed. It is. Those skilled in the art will recognize various techniques for reordering the operations described herein. In addition, other processing details described herein with respect to other methods described herein (e.g., methods 800, 900, 1000, 16000, 18000, 19000, and 20000) are also illustrated in FIG. It should be noted that a similar approach to method 17000 described above with respect to FIGS. 17A-17D is also applicable. For example, the contact, input, virtual objects, user interface areas, field of view, tactile output, movement, and/or animations described above with reference to method 17000 may optionally be combined with other methods described herein. (e.g., methods 800, 900, 1000, 16000, 18000, 19000, and 20000). and/or have one or more of the following characteristics: animation; For the sake of brevity, these details are not repeated herein.

図18A~図18Iは、軸の周りの仮想オブジェクトの回転を拘束する方法18000を例示するフロー図である。方法18000は、表示生成コンポーネント(例えば、ディスプレイ、プロジェクタ、ヘッドアップディスプレイ等)と、1つ以上の入力デバイス(例えば、タッチ感知面、又は、表示生成コンポーネントとタッチ感知面との両方として役立つタッチスクリーンディスプレイ)と、1つ以上のカメラ(例えば、ディスプレイ及びタッチ感知面から反対側のデバイスの側面上の1つ以上の背面カメラ)と、1つ以上のカメラを含むデバイスの姿勢(例えば、周囲の物理的環境に対する向き(例えば、回転、ヨー、及び/又は、傾斜角度)及び位置)における変化を検出するための1つ以上の姿勢センサ(たとえば、加速度計、ジャイロスコープ、及び/又は、磁力計)と、を有する電子デバイス(例えば、図3のデバイス300、又は、図1Aのポータブル多機能デバイス100)において実行される。方法18000におけるいくつかの動作は、オプションで、組み合わされるか、及び/又は、いくつかの動作の順序が、オプションで、変更される。 18A-18I are flow diagrams illustrating a method 18000 for constraining rotation of a virtual object about an axis. The method 18000 includes a display-generating component (e.g., a display, a projector, a heads-up display, etc.) and one or more input devices (e.g., a touch-sensitive surface, or a touch screen that serves as both a display-generating component and a touch-sensitive surface). display), one or more cameras (e.g., one or more rear cameras on the side of the device opposite from the display and touch-sensitive surface), and a posture of the device that includes the one or more cameras (e.g., depending on the surroundings); one or more attitude sensors (e.g., accelerometers, gyroscopes, and/or magnetometers) to detect changes in orientation (e.g., rotation, yaw, and/or tilt angle) and position relative to the physical environment; ) (e.g., device 300 of FIG. 3 or portable multifunction device 100 of FIG. 1A). Some acts in method 18000 are optionally combined and/or the order of some acts is optionally changed.

デバイスは、表示生成コンポーネントによって、第1のユーザーインターフェース領域(例えば、ステージングユーザーインターフェース又は拡張現実ユーザーインターフェース)内に、仮想三次元オブジェクトの第1の視点の表現を表示する(18002)。例えば、図13Bに図示されるように、仮想オブジェクト11002が、ステージングユーザーインターフェース6010内に図示される。 The device displays (18002) a first perspective representation of a virtual three-dimensional object within a first user interface area (eg, a staging user interface or an augmented reality user interface) with a display generation component. For example, as illustrated in FIG. 13B, virtual object 11002 is illustrated within staging user interface 6010.

ディスプレイ上の第1のユーザーインターフェース領域内に、視覚的な三次元オブジェクトの第1の視点の表現を表示している間、デバイスは、仮想三次元オブジェクトの第1の視点から見えない仮想三次元オブジェクトの一部を表示するために、ディスプレイ(例えば、タッチスクリーンディスプレイのプレーンのような表示生成コンポーネントに対応する表示面)に対して仮想三次元オブジェクトを回転させるための要求に対応する第1の入力(例えば、タッチ感知面における(例えば、1本又は2本の指の接触による)スワイプ入力、又は、旋回入力(例えば、2本指回転、又は、別の指接触の周りの1本指の接触旋回))を検出する(18004)。例えば、この要求は、図13B~図13Cに関して説明されるような入力、又は、図13E~図13Fに関して説明されるような入力である。 While displaying a first perspective representation of a visual three-dimensional object in a first user interface area on the display, the device displays a virtual three-dimensional object that is invisible from the first perspective of the virtual three-dimensional object. a first responsive to a request to rotate a virtual three-dimensional object relative to a display (e.g., a display surface corresponding to a display-generating component such as a plane of a touch screen display) to display a portion of the object; Input (e.g., swipe input (e.g., with one or two finger contacts) on a touch-sensitive surface, or rotational input (e.g., two-finger rotation, or one-finger contact around another finger touch) Contact rotation)) is detected (18004). For example, the request is an input as described with respect to FIGS. 13B-13C or an input as described with respect to FIGS. 13E-13F.

第1の入力を検出することに応じて(18006)、第1の入力が、第1の軸(例えば、x軸のような水平方向におけるディスプレイのプレーン(例えば、x-y面)に平行である第1の軸)の周りに三次元オブジェクトを回転させるための要求に対応しているとの判定にしたがって、デバイスは、第1の入力の大きさ(例えば、タッチ感知面(例えば、ディスプレイのx-y面に対する対応するx-y面)の垂直軸(例えば、y軸)に沿ったスワイプ入力の速度及び/又は距離)に基づいて判定された量、第1の軸に対して仮想三次元オブジェクトを回転させ、第1の軸に対する閾値回転量よりも大きい、仮想三次元オブジェクトの回転を限定する移動に対する制限によって拘束される(例えば、第1の軸の周りの回転は、第1の軸の周り+/-30度の範囲に限定され、この範囲を超える回転は、第1の入力の大きさに関わらず禁止される)。例えば、図13E~図13Gに関して説明されるように、仮想オブジェクト11002の回転は、制限によって拘束される。第1の入力が、第1の軸とは異なる第2の軸(例えば、y軸のような垂直方向におけるディスプレイのプレーン(例えば、x-y面)に平行である第2の軸)の周りに三次元オブジェクトを回転させるための要求に対応するとの判定にしたがって、デバイスは、仮想三次元オブジェクトを、第1の入力の大きさに基づいて判定された量(例えば、タッチ感知面(例えば、ディスプレイのx-y面に対する対応するx-y面)の水平軸(例えば、x軸)に沿ったスワイプ入力の速度及び/又は距離)、第2の軸に対して回転させ、それぞれの閾値を超える大きさを有する入力については、デバイスは、閾値回転量よりも多く、第2の軸に対して仮想三次元オブジェクトを回転させる。いくつかの実施形態では、第2の軸に対する回転のために、デバイスは、第1の軸に対する回転に対する拘束よりも大きな拘束を回転に課す(例えば、三次元オブジェクトは、30度の代わりに60度回転することを許容される)。いくつかの実施形態では、第2の軸に対する回転のために、デバイスは、回転に対して拘束を課さず、これによって、三次元オブジェクトは、第2の軸の周りに自由に回転できるようになる(例えば、1つ以上の接触の移動を含む速い又は長いスワイプ入力のような十分高い大きさを伴う入力について、三次元オブジェクトは、第2の軸に対して360度よりも大きく回転することができる)。例えば、図13E~図13Gに関して説明された入力に応じた、x軸の周りの仮想オブジェクト11002の回転量よりも大きな、仮想オブジェクト11002の回転量が、図13B~図13Cに関して説明される入力に応じて、y軸の周りで生じる。入力が、オブジェクトを、第1の軸の周り、又は、第2の軸の周りに回転させるための要求であるかに依存して、オブジェクトを、閾値量へ拘束された量、回転させるか、又は、オブジェクトを、閾値量よりも多く回転させるかを決定することは、異なるタイプの回転動作を制御する機能を改善する。表示された追加の制御を用いて、ユーザーインターフェースを混乱させることなく追加の制御オプションを提供することは、デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。 In response to detecting (18006) the first input, the first input is parallel to a plane (e.g., xy plane) of the display in a horizontal direction, such as the first axis (e.g., the x-axis). Upon determining that the device is responsive to a request to rotate a three-dimensional object about a first axis), the device may rotate a three-dimensional object about a first axis (e.g., a touch-sensitive surface (e.g., a An amount determined based on the velocity and/or distance of the swipe input along a vertical axis (e.g., the y-axis) of the corresponding x-y plane), a virtual cubic with respect to the first axis Rotates the source object and is constrained by a restriction on movement that limits the rotation of the virtual three-dimensional object to be greater than a threshold amount of rotation about the first axis (e.g., rotation about the first axis is limited to a range of +/-30 degrees around the axis; rotation beyond this range is prohibited regardless of the magnitude of the first input). For example, rotation of virtual object 11002 is constrained by constraints, as described with respect to FIGS. 13E-13G. The first input is about a second axis that is different from the first axis (e.g., a second axis that is parallel to the plane of the display (e.g., the xy plane) in a vertical direction, such as the y-axis). In accordance with the determination that the device corresponds to the request to rotate the three-dimensional object, the device rotates the virtual three-dimensional object by an amount determined based on the magnitude of the first input (e.g., a touch-sensitive surface, e.g. The velocity and/or distance of the swipe input along a horizontal axis (e.g., For inputs having a magnitude greater than the threshold rotation amount, the device rotates the virtual three-dimensional object about the second axis by more than the threshold rotation amount. In some embodiments, for rotations about the second axis, the device imposes a greater constraint on the rotation than for rotations about the first axis (e.g., a three-dimensional object has a rotation angle of 60 degrees instead of 30 degrees). degree rotation). In some embodiments, for rotation about the second axis, the device imposes no constraints on the rotation, such that the three-dimensional object is free to rotate about the second axis. For inputs with sufficiently high magnitudes, such as fast or long swipe inputs that involve movement of one or more contacts, the three-dimensional object may rotate by more than 360 degrees about the second axis. ). For example, the amount of rotation of virtual object 11002 about the x-axis in response to the input described with respect to FIGS. 13E-13G is greater than the amount of rotation of virtual object 11002 in response to the input described with respect to FIGS. 13B-13C. Accordingly, it occurs around the y-axis. depending on whether the input is a request to rotate the object about the first axis or about the second axis, rotate the object by an amount constrained to a threshold amount; Alternatively, determining whether to rotate an object by more than a threshold amount improves the ability to control different types of rotational motion. Providing additional control options without cluttering the user interface with additional displayed controls enhances the usability of the device and makes the user device interface more efficient.

いくつかの実施形態では、第1の入力を検出することに応じて(18008)、第1の入力が、第1の方向(例えば、y方向、タッチ感知面における垂直方向)におけるタッチ感知面を介した接触の第1の移動を含んでおり、第1の方向における接触の第1の移動が、第1の軸に対して仮想オブジェクトの表現を回転させるための第1の基準を満たしているとの判定であって、第1の基準は、第1の基準が満たされるために、第1の入力が、第1の方向における第1の閾値移動量よりも多くを含むとの要件を含む(例えば、デバイスは、デバイスが、第1の方向において、第1の閾値移動量よりも多くを検出するまで、第1の軸の周りの三次元オブジェクトの回転を開始しない)、判定にしたがって、デバイスは、第1の入力が、三次元オブジェクトを第1の軸(例えば、x軸、ディスプレイに平行な水平軸、又は、仮想オブジェクトを介した水平軸)の周りに回転させるための要求に対応していると判定し、第1の入力が、第2の方向(例えば、x方向、タッチ感知面における水平方向)におけるタッチ感知面にわたる接触の第2の移動を含んでおり、第2の方向における接触の第2の移動が、第2の軸に対して仮想オブジェクトの表現を回転させるための第2の基準を満たしているとの判定であって、第2の基準は、第2の基準が満たされるために、第1の入力が、第2の方向における第2の閾値移動量よりも多くを含むとの要件を含む(例えば、デバイスは、デバイスが、第2の方向において、第2の閾値移動量よりも多くを検出するまで、第2の軸の周りの三次元オブジェクトの回転を開始しない)、判定にしたがって、デバイスは、第1の入力が、三次元オブジェクトを第2の軸(例えば、ディスプレイに平行な垂直軸、又は、仮想オブジェクトを介した垂直軸)の周りに回転させるための要求に対応していると判定し、第1の閾値は、第2の閾値よりも大きい(例えば、ユーザーは、垂直軸の周りの回転をトリガする(例えば、オブジェクトを回転させる)ために水平方向にスワイプするのではなく、水平軸の周りの回転をトリガする(例えば、オブジェクトをユーザーに対して前方又は後方に傾ける)ために、垂直方向に多くの量スワイプする必要がある)。オブジェクトを、閾値量へ拘束された量、回転させるか、又は、オブジェクトを、閾値量よりも多く、回転させるかを判定することは、入力が、第1の軸又は第2の軸の周りにオブジェクトを回転させるための要求であるか否かに依存して、オブジェクトを回転させるための要求に対応する入力に応じて、異なるタイプの回転動作を制御する機能を改善する。表示された追加の制御を用いてユーザーインターフェースを混乱させることなく追加の制御オプションを提供することは、デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。 In some embodiments, in response to detecting the first input (18008), the first input causes the touch-sensitive surface to move in a first direction (e.g., the y-direction, perpendicular to the touch-sensitive surface). the first movement of the contact in the first direction, the first movement of the contact in the first direction meeting a first criterion for rotating the representation of the virtual object about the first axis. and the first criterion includes a requirement that the first input includes more than a first threshold amount of movement in the first direction in order for the first criterion to be satisfied. (e.g., the device does not begin rotating the three-dimensional object about the first axis until the device detects more than a first threshold amount of movement in the first direction), according to the determination: The device is responsive to a request where the first input is to rotate a three-dimensional object about a first axis (e.g., an x-axis, a horizontal axis parallel to the display, or a horizontal axis via a virtual object). determining that the first input includes a second movement of the contact across the touch-sensitive surface in a second direction (e.g., an x-direction, a horizontal direction on the touch-sensitive surface); determining that a second movement of contact in satisfies a second criterion for rotating a representation of a virtual object about a second axis, the second criterion includes a requirement that the first input includes more than a second threshold amount of movement in the second direction for The device does not start rotating the three-dimensional object about the second axis until the first input detects more than a threshold amount of movement in the second axis). the first threshold is greater than the second threshold; (For example, rather than swiping horizontally to trigger a rotation around a vertical axis (e.g., rotate an object), the user can swipe horizontally to trigger a rotation around a horizontal axis (e.g., to rotate an object) swipe vertically) to tilt forward or backward). Determining whether to rotate an object by an amount constrained to a threshold amount or to rotate an object by more than a threshold amount is based on the input being about a first axis or a second axis. Depending on whether the request is to rotate an object or not, the ability to control different types of rotation operations is improved depending on the input corresponding to the request to rotate the object. Providing additional control options without cluttering the user interface with additional displayed controls enhances the usability of the device and makes the user device interface more efficient.

いくつかの実施形態(18010)では、第1の軸に対する仮想三次元オブジェクトの回転は、第1の入力の第1の入力パラメータ(例えば、スワイプ距離、又はスワイプ速度)の特徴値と、第1の軸の周りの仮想三次元オブジェクトへ適用された回転量との間の第1の一致角度で生じ、第2の軸に対する仮想三次元オブジェクトの回転は、第2の入力ジェスチャの第1の入力パラメータ(例えば、スワイプ距離、又はスワイプ速度)の特徴値と、第2の軸の周りの仮想三次元オブジェクトへ適用された回転量との間の第2の一致角度で生じ、第1の一致角度は、第2の一致角度よりも、第1の入力パラメータに対する仮想三次元オブジェクトの、より少ない回転しか含まない(例えば、第1の軸の周りの回転は、第2の軸の周りの回転よりも、高い摩擦又は引っ掛かりを有する)。例えば、仮想オブジェクト11002の第1の回転量は、(図13B~図13Cに関して説明されるように、)y軸の周りの回転のための、スワイプ距離dのスワイプ入力に応じて生じ、第1の回転量よりも少ない、仮想オブジェクト11002の第2の回転量は、(図13E~図13Gに関して説明されるように、)x軸の周りの回転のための、スワイプ距離dのスワイプ入力に応じて生じる。入力に応じて、より多い、又は、より少ない角度回転で、仮想オブジェクトを回転させることは、入力が、第1の軸又は第2の軸の周りにオブジェクトを回転させるための要求であるか否かに依存してオブジェクトを回転させるための要求に対応する入力に応じて、異なるタイプの回転動作を制御する機能を改善する。表示された追加の制御を用いてユーザーインターフェースを混乱させることなく追加の制御オプションを提供することは、デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。 In some embodiments (18010), the rotation of the virtual three-dimensional object about the first axis is based on a feature value of a first input parameter (e.g., swipe distance or swipe velocity) of the first input; the rotation of the virtual three-dimensional object about the second axis occurs at a first coincidence angle between the amount of rotation applied to the virtual three-dimensional object about the axis of the first input gesture and the rotation of the virtual three-dimensional object about the second axis a second matching angle between a feature value of a parameter (e.g., swipe distance or swiping speed) and an amount of rotation applied to the virtual three-dimensional object about a second axis, the first matching angle involves less rotation of the virtual three-dimensional object with respect to the first input parameter than the second coincident angle (e.g., the rotation about the first axis is less than the rotation about the second axis). (also have high friction or snagging). For example, a first amount of rotation of virtual object 11002 occurs in response to a swipe input of swipe distance d 1 for rotation about the y-axis (as described with respect to FIGS. 13B-13C); A second rotation amount of the virtual object 11002 that is less than a rotation amount of 1 is a swipe input of a swipe distance d 1 for rotation about the x-axis (as described with respect to FIGS. 13E-13G). Occurs depending on. Rotating the virtual object by more or less angular rotation depending on the input, whether the input is a request to rotate the object about a first axis or a second axis. Improve the ability to control different types of rotational movements depending on the input corresponding to the request to rotate the object. Providing additional control options without cluttering the user interface with additional displayed controls enhances the usability of the device and makes the user device interface more efficient.

いくつかの実施形態では、デバイスは、第1の入力の終了を検出する(例えば、入力は、タッチ感知面上の1つ以上の接触の移動を含み、第1の入力の終了の検出は、タッチ感知面からの1つ以上の接触のリフトオフを検出することを含む)(18012)。第1の入力の終了を検出した後(例えば、検出に応じて)、デバイスは、入力の終了を検出する前に、第1の入力の大きさに基づいて(例えば、接触のリフトオフの直前の、接触の移動の速度に基づいて)、三次元オブジェクトの回転を継続する(18014)。これは、三次元オブジェクトが第1の軸に対して回転しているとの判定にしたがって、第1の軸に対するオブジェクトの回転を、第1の軸に対する三次元オブジェクトの回転の大きさに比例した第1の量、遅くする(例えば、第1の摩擦係数を用いて、擬似的な摩擦のような第1の擬似的な物理的パラメータに基づいて、第1の軸の周りの三次元オブジェクトの回転を遅くする)ことと、三次元オブジェクトが第2の軸に対して回転しているとの判定にしたがって、第2の軸に対するオブジェクトの回転を、第2の軸に対する三次元オブジェクトの回転の大きさに比例した第2の量、遅くする(例えば、第1の摩擦係数よりも小さな第2の摩擦係数を用いて、擬似的な摩擦のような第2の擬似的な物理的パラメータに基づいて、第2の軸の周りの三次元オブジェクトの回転を遅くする)こととを含み、第2の量は、第1の量とは異なる。例えば、図13C~図13Dでは、仮想オブジェクト11002は、図13B~図13Cに関して説明されるように、仮想オブジェクト11002の回転をもたらした接触13002のリフトオフ後、回転を継続する。いくつかの実施形態では、第2の量は、第1の量よりも大きい。いくつかの実施形態では、第2の量は、第1の量未満である。入力の終了の検出後、仮想オブジェクトの回転を、第1の量又は第2の量、遅くすることは、入力が、第1の軸又は第2の軸の周りにオブジェクトを回転させるための要求であるか否かに基づいて、第1の軸及び第2の軸の周りの回転のために、異なる方式で回転動作が仮想オブジェクトへ適用されたことを示す視覚的フィードバックを提供する。改善された視覚的フィードバックをユーザーへ提供することは、(例えば、プレーンに対応する第2の向きにおけるオブジェクトの配置前に、ユーザーが適切な入力を提供することと、仮想オブジェクトを操作するために入力を提供する試みを回避することとを支援することによって、)デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the device detects an end of the first input (e.g., the input includes movement of one or more contacts on a touch-sensitive surface, and detecting the end of the first input comprises: detecting lift-off of one or more contacts from a touch-sensitive surface) (18012). After detecting the end of the first input (e.g., in response to the detection), the device may detect the end of the input based on the magnitude of the first input (e.g., just prior to contact liftoff) before detecting the end of the input. , based on the speed of movement of the contact), the rotation of the three-dimensional object continues (18014). This is based on the determination that the three-dimensional object is rotating with respect to the first axis, and the rotation of the object with respect to the first axis is proportional to the magnitude of the rotation of the three-dimensional object with respect to the first axis. of a three-dimensional object about a first axis based on a first pseudo-physical parameter, such as pseudo-friction, using a first amount, e.g., a first friction coefficient. and the rotation of the three-dimensional object about the second axis according to the determination that the three-dimensional object is rotating about the second axis. a second amount proportional to the magnitude, slowing down (e.g., based on a second pseudo-physical parameter such as pseudo-friction, using a second coefficient of friction that is smaller than the first coefficient of friction) and slowing rotation of the three-dimensional object about a second axis), the second amount being different from the first amount. For example, in FIGS. 13C-13D, virtual object 11002 continues to rotate after liftoff of contact 13002 that resulted in rotation of virtual object 11002, as described with respect to FIGS. 13B-13C. In some embodiments, the second amount is greater than the first amount. In some embodiments, the second amount is less than the first amount. Slowing the rotation of the virtual object by a first amount or a second amount after detecting the end of the input includes a request for the input to rotate the object about the first axis or the second axis. provides visual feedback indicating that a rotational operation has been applied to the virtual object in a different manner for rotations about the first axis and the second axis based on whether the rotational movement is applied to the virtual object. Providing improved visual feedback to the user (e.g., ensuring that the user provides appropriate input before positioning the object in a second orientation corresponding to the plane and for manipulating the virtual object) (by avoiding attempts to provide input) and making the user device interface more efficient. This further reduces power usage and improves the device's battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、デバイスは、第1の入力の終了を検出する(例えば、入力は、タッチ感知面における1つ以上の接触の移動を含み、第1の入力の終了を検出することは、タッチ感知面からの1つ以上の接触のリフトオフを検出することを含む)(18016)。第1の入力の終了を検出した後(例えば、検出に応じて)(18018)、三次元オブジェクトが、第1の軸に対して、それぞれの回転閾値を超えて回転したとの判定にしたがって、デバイスは、第1の軸に対する三次元オブジェクトの回転の少なくとも一部を反転させ、三次元オブジェクトが、第1の軸に対して、それぞれの回転閾値を超えて回転していないとの判定にしたがって、デバイスは、第1の軸に対する三次元オブジェクトの回転を反転させることを控える(例えば、第1の軸に対する三次元オブジェクトの回転を停止させる、及び/又は、入力の終了を検出する前、入力の大きさによって判定された大きさ、入力の動きの方向に、第1の軸に対して三次元オブジェクトの回転を継続させる)。例えば、図13E~図13Gを参照して説明されるように、仮想オブジェクト11002を、回転閾値を超えて回転させた後、図13G~図13Hによって例示されるように、仮想オブジェクト11002の回転が反転される。いくつかの実施形態では、三次元オブジェクトの回転を反転させる量は、三次元オブジェクトがそれぞれの回転閾値をどれくらい超えたのかに基づいて決定される(例えば、三次元オブジェクトの回転は、もしそれぞれの回転閾値を超えて回転した三次元オブジェクトの回転の量がより小さく、もしそれぞれの回転閾値を超えて回転した三次元オブジェクトの回転の量が、第1の軸に対して回転を反転させる小さな量と比べて、より大きいのであれば、第1の軸に対して、より大きな量、反転される)。いくつかの実施形態では、回転の反転は、より大きな力で引っ張る弾性効果のような擬似的な物理パラメータによって駆動され、更に、三次元オブジェクトは、第1の軸に対するそれぞれの回転閾値を超えて回転される。いくつかの実施形態では、回転の反転は、それぞれの回転閾値を超えて回転された、第1の軸に対する回転の方向に基づいて判定された回転の方向にある(例えば、三次元オブジェクトが回転され、オブジェクトの頂部が、ディスプレイ内へ戻ったのであれば、回転の反転は、オブジェクトの頂部を、ディスプレイ外側へ進めて回転させ、オブジェクトの頂部が、ディスプレイ外側へ進められて回転されるように、三次元オブジェクトが回転されたのであれば、回転の反転は、オブジェクトの頂部を、ディスプレイ内へ戻して回転させ、三次元オブジェクトが回転され、オブジェクトの右側が、ディスプレイ内に戻ったのであれば、回転の反転は、ディスプレイ外側へ進むオブジェクトの右側を回転させ、及び/又は、オブジェクトの左側が、ディスプレイ外側へ進められて回転されるように、三次元オブジェクトが回転されたのであれば、回転の反転は、オブジェクトの左側を、ディスプレイ内へ戻して回転させる)。いくつかの実施形態では、例えば、第2の軸に対する回転が、それぞれの角度範囲へ拘束されている場合、第2の軸の周りの回転のために、同様のラバーバンディング(例えば、回転の条件付き反転)が実行される。いくつかの実施形態では、例えば、三次元オブジェクトがデバイスによって360度回転することを許可されるように、第2の軸に対する回転が拘束されていない場合、(例えば、デバイスは、第2の軸に対する回転について回転閾値を課さないので)第2の軸の周りの回転のためにラバーバンディングは実行されない。入力の終了を検出した後、第1の軸に関して三次元オブジェクトの回転の少なくとも一部を反転すること、又は、第1の軸に関して三次元オブジェクトの回転の一部を反転することを控えることは、オブジェクトが回転閾値を超えて回転したか否かに依存して、仮想オブジェクトの回転へ適用可能な回転閾値を示す視覚的フィードバックを提供する。改善された視覚的フィードバックをユーザーへ提供することは、(例えば、ユーザーが、回転閾値を超えて仮想オブジェクトを回転させるための入力を提供する試みを回避することを支援することによって、)デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the device detects the end of the first input (e.g., the input includes movement of one or more contacts on the touch-sensitive surface, and detecting the end of the first input , detecting lift-off of one or more contacts from a touch-sensitive surface) (18016). After detecting (e.g., in response to detecting) (18018) the end of the first input, and in accordance with a determination that the three-dimensional object has been rotated about the first axis by more than a respective rotation threshold; The device reverses at least a portion of the rotation of the three-dimensional object about the first axis, and in accordance with the determination that the three-dimensional object is not rotated about the first axis by more than a respective rotation threshold. , the device refrains from reversing the rotation of the three-dimensional object about the first axis (e.g., stops the rotation of the three-dimensional object about the first axis, and/or before detecting the end of the input continues the rotation of the three-dimensional object about the first axis in the direction of the input movement, as determined by the magnitude of the input motion. For example, after rotating virtual object 11002 beyond a rotation threshold, as described with reference to FIGS. 13E-13G, the rotation of virtual object 11002, as illustrated by FIGS. 13G-13H, be reversed. In some embodiments, the amount by which a three-dimensional object's rotation is reversed is determined based on how much the three-dimensional object exceeds each rotation threshold (e.g., the rotation of a three-dimensional object is If the amount of rotation of the three-dimensional object rotated beyond the rotation threshold is smaller, then the amount of rotation of the three-dimensional object rotated beyond the respective rotation threshold is a smaller amount that reverses the rotation about the first axis. (the greater the value, the greater the amount that is flipped relative to the first axis). In some embodiments, the rotation reversal is driven by a pseudo physical parameter, such as an elastic effect that pulls with a greater force, and furthermore, the three-dimensional object exceeds a respective rotation threshold about the first axis. be rotated. In some embodiments, the reversal of rotation is in the direction of rotation determined based on the direction of rotation about the first axis rotated beyond the respective rotation threshold (e.g., if the three-dimensional object is and the top of the object is moved back into the display, then reversing the rotation will cause the top of the object to be pushed out of the display and rotated; , if the 3D object was rotated, reversing the rotation rotates the top of the object back into the display, and if the 3D object is rotated and the right side of the object is moved back into the display, then reversing the rotation rotates the top of the object back into the display. , rotation reversal is rotation if the three-dimensional object is rotated such that the right side of the object is rotated moving out of the display, and/or the left side of the object is rotated moving out of the display. Flip rotates the left side of the object back into the display). In some embodiments, similar rubber banding (e.g., rotation conditions) may be used for rotations about the second axis, e.g., if the rotations about the second axis are constrained to respective angular ranges. (inversion) is executed. In some embodiments, if the rotation about the second axis is unconstrained, e.g., the three-dimensional object is allowed to rotate 360 degrees by the device (e.g., the device No rubberbanding is performed for rotations about the second axis (as we do not impose a rotation threshold for rotations about the second axis). After detecting the end of the input, reversing at least a portion of the rotation of the three-dimensional object about the first axis, or refraining from reversing a portion of the rotation of the three-dimensional object about the first axis. , provides visual feedback indicating the rotation threshold applicable to the rotation of the virtual object, depending on whether the object has been rotated beyond the rotation threshold. Providing improved visual feedback to the user may improve the performance of the device (e.g., by helping the user avoid attempts to provide input to rotate the virtual object beyond a rotation threshold). Improve usability and make user device interfaces more efficient. This further reduces power usage and improves the device's battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態(18020)では、第1の入力が、三次元オブジェクトを、第1の軸及び第2の軸とは異なる第3の軸(例えば、z軸のような、ディスプレイのプレーン(例えば、x-y面)に垂直な第3の軸)の周りに回転させるための要求に対応するとの判定にしたがって、デバイスは、仮想三次元オブジェクトを第3の軸に対して回転させることを控える(例えば、z軸の周りの回転が禁止され、オブジェクトをz軸の周りに回転させるための要求は、デバイスによって無視される)。いくつかの実施形態では、デバイスは、アラート(例えば、入力の失敗を示す触知出力)を提供する。回転入力が、仮想オブジェクトを第3の軸の周りに回転させるための要求に対応しているとの判定にしたがって仮想オブジェクトの回転を控えることは、第3の軸の周りの回転が制限されていることを示す視覚的フィードバックを提供する。改善された視覚的フィードバックをユーザーへ提供することは、(例えば、ユーザーが仮想オブジェクトを第3の軸の周りに回転させるための入力を提供する試みを回避することを支援することによって)、デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments (18020), the first input moves the three-dimensional object along a third axis (e.g., a plane of the display, such as the z-axis) that is different from the first and second axes. For example, in response to a determination that the device corresponds to a request to rotate the virtual three-dimensional object about the third axis (e.g., a third axis perpendicular to the refrain (e.g., rotation around the z-axis is prohibited and requests to rotate the object around the z-axis are ignored by the device). In some embodiments, the device provides an alert (eg, a tactile output indicating a failed input). Refraining from rotating the virtual object in accordance with a determination that the rotation input corresponds to a request to rotate the virtual object about the third axis means that rotation about the third axis is restricted. Provide visual feedback to indicate that Providing improved visual feedback to the user (e.g., by assisting the user in avoiding attempts to provide input to rotate the virtual object about a third axis) improve usability and make user device interfaces more efficient. This further reduces power usage and improves the device's battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、デバイスは、第1のユーザーインターフェース領域(例えば、ステージングユーザーインターフェース)内に、仮想三次元オブジェクトの第1の視点の表現を表示しながら、仮想三次元オブジェクトによって投じられた影の表現を表示する(18022)。デバイスは、第1の軸及び/又は第2の軸に対する仮想三次元オブジェクトの回転にしたがって、影の表現の形状を変化させる。例えば、仮想オブジェクト11002の影13006の形状は、仮想オブジェクト11002が回転すると、図13B~図13Fから変化する。いくつかの実施形態では、仮想オブジェクトの所定の底側をサポートするステージングユーザーインターフェース内に、目に見えない基本プレーンに対する仮想オブジェクトの現在の向きを示すために、影がシフトし、形状を変化させる。いくつかの実施形態では、仮想三次元オブジェクトの表面は、ステージングユーザーインターフェース内に表現される仮想空間における所定の方向に配置された擬似的な光源からの光を反射するように見える。仮想オブジェクトの回転にしたがって影の形状を変化させることは、(例えば、仮想オブジェクトが向けられた仮想的なプレーン(例えば、ステージングビューのステージ)を示す)視覚的フィードバックを提供する。改善された視覚的フィードバックをユーザーへ提供することは(例えば、第1の軸又は第2の軸の周りに回転させるためのスワイプ入力のための適切な命令をユーザーが判定することを支援することによって)、デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the device displays a first perspective representation of the virtual three-dimensional object within a first user interface area (e.g., a staging user interface) while A representation of the shadow is displayed (18022). The device changes the shape of the shadow representation according to rotation of the virtual three-dimensional object with respect to the first axis and/or the second axis. For example, the shape of the shadow 13006 of the virtual object 11002 changes from FIGS. 13B to 13F as the virtual object 11002 rotates. In some embodiments, within a staging user interface that supports a given bottom side of the virtual object, the shadow shifts and changes shape to indicate the current orientation of the virtual object relative to an invisible base plane. . In some embodiments, the surface of the virtual three-dimensional object appears to reflect light from a simulated light source positioned in a predetermined direction in the virtual space represented within the staging user interface. Changing the shape of the shadow according to the rotation of the virtual object provides visual feedback (e.g., indicating the virtual plane in which the virtual object is oriented (e.g., the stage of a staging view)). Providing improved visual feedback to the user (e.g., assisting the user in determining the appropriate command for a swipe input to rotate about a first axis or a second axis) ) to enhance device usability and make user device interfaces more efficient. This further reduces power usage and improves the device's battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第1のユーザーインターフェース領域内で、仮想三次元オブジェクトを回転させている間(18024)、仮想三次元オブジェクトの所定の底部を明示する第2の視点とともに、仮想三次元オブジェクトが表示されるとの判定にしたがって、デバイスは、仮想三次元オブジェクトの第2の視点の表現とともに、影の表現の表示を控える。例えば、デバイスは、仮想オブジェクトが(例えば、図13G~図13Iに関して説明されるように、)下方から見られた場合、仮想オブジェクトの影を表示しない。仮想オブジェクトの底部が表示されているとの判定にしたがって、仮想オブジェクトの影の表示を控えることは、(例えば、仮想プレーン(例えば、ステージングビューのステージ)にもはや対応していない位置へオブジェクトが回転したことを示す)視覚的フィードバックを提供する。改善された視覚的フィードバックをユーザーへ提供することは、デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, while rotating (18024) the virtual three-dimensional object within the first user interface area, the virtual three-dimensional object is Following the determination that the object is to be displayed, the device refrains from displaying the second perspective representation of the virtual three-dimensional object as well as the shadow representation. For example, the device does not display a shadow of a virtual object when the virtual object is viewed from below (eg, as described with respect to FIGS. 13G-13I). Refraining from displaying the virtual object's shadow according to a determination that the bottom of the virtual object is visible (e.g., when the object is rotated to a position that no longer corresponds to the virtual plane (e.g., the stage in a staging view) Provide visual feedback (showing what you have done). Providing improved visual feedback to users enhances device usability and makes user device interfaces more efficient. This further reduces power usage and improves the device's battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第1のユーザーインターフェース領域(例えば、ステージングビュー)内で、仮想三次元オブジェクトを回転させた後、デバイスは、第1のユーザーインターフェース領域における仮想三次元オブジェクトをリセットするための要求に対応する第2の入力を検出する(例えば、第2の入力は、第1のユーザーインターフェース領域における二重タップである)(18026)。第2の入力を検出することに応じて、デバイスは、第1のユーザーインターフェース領域における仮想三次元オブジェクトの所定の元の視点(例えば、第1の視点、又は、第1の視点とは異なるのデフォルトの開始視点(例えば、第1の視点は、ステージングユーザーインターフェース内に、ユーザー操作後に表示される視点である))の表現を(例えば、仮想オブジェクトの回転及びリサイズによって)表示する(例えば、二重タップに応じて、デバイスは、仮想オブジェクトの向きを、所定の元の向き(例えば、ユーザーにプレーンする正面側、所定の基本プレーンにとどまる底面側では直立)へリセットする)(18028)。例えば、図13I~図13Jは、仮想オブジェクト11002の視点を、(図13B~図13Gに関して説明される回転入力の結果として)アラートされた視点から、(図13Aに図示された視点仮想オブジェクト11002と同じである)図13Jにおける元の視点へ変化させる入力を例示する。いくつかの実施形態では、仮想三次元オブジェクトをリセットする命令に対応する第2の入力を検出することに応じて、デバイスはまた、仮想三次元オブジェクトのデフォルト表示サイズを反映させるために、仮想三次元オブジェクトをリサイズする。いくつかの実施形態では、二重タップ入力は、ステージングユーザーインターフェースにおける仮想オブジェクトの向き及びサイズの両方をリセットする一方、二重タップ入力は、サイズのみをリセットするが、拡張現実ユーザーインターフェースにおける仮想オブジェクトの向きをリセットしない。いくつかの実施形態では、デバイスは、拡張現実ユーザーインターフェース内の仮想オブジェクトのサイズをリセットするために、二重タップが、仮想オブジェクトへ向けられることを必要とする一方、デバイスは、二重タップが仮想オブジェクトにおいて検出され、二重タップが仮想オブジェクトの周りで検出されることに応じて、仮想オブジェクトの向き及びサイズをリセットする。拡張現実ビューでは、1本指のスワイプが、(例えば、ステージングビューにおけるものとは異なり)仮想オブジェクトを回転させるのではなく、仮想オブジェクトをドラッグする。仮想オブジェクトをリセットするための要求を検出することに応じて、仮想オブジェクトの所定の元の視点を表示することは、(例えば、オブジェクトの特性を調節するために提供された入力が、所定の元の視点へいつオブジェクトを返すのかを推定することをユーザーへ要求するのではなく、オブジェクトをリセットするためのオプションを提供することによって、)デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。操作を実行するために必要とされる入力数を低減することは、デバイスの操作性を高める。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, after rotating the virtual three-dimensional object within the first user interface area (e.g., staging view), the device resets the virtual three-dimensional object in the first user interface area. (eg, the second input is a double tap in the first user interface area) (18026). In response to detecting the second input, the device detects a predetermined original perspective (e.g., a first perspective or a different perspective than the first perspective) of the virtual three-dimensional object in the first user interface area. Display (e.g., by rotating and resizing the virtual object) a representation of the default starting viewpoint (e.g., the first viewpoint is the viewpoint that will be displayed after user interaction within the staging user interface); In response to the double tap, the device resets the orientation of the virtual object to a predetermined original orientation (eg, front side plane to the user, upright with bottom side remaining in a predetermined base plane) (18028). For example, FIGS. 13I-13J change the viewpoint of virtual object 11002 from the alerted viewpoint (as a result of the rotation input described with respect to FIGS. 13B-13G) to the viewpoint virtual object 11002 illustrated in FIG. 13A. 13J illustrates an input to change to the original viewpoint in FIG. 13J. In some embodiments, in response to detecting the second input corresponding to the instruction to reset the virtual three-dimensional object, the device also resets the virtual three-dimensional object to reflect a default display size of the virtual three-dimensional object. Resize the original object. In some embodiments, the double-tap input resets both the orientation and size of the virtual object in the staging user interface, while the double-tap input resets only the size, but not the virtual object in the augmented reality user interface. Do not reset the orientation. In some embodiments, the device requires a double tap to be directed toward a virtual object in order to reset the size of the virtual object in an augmented reality user interface, while the device and resetting the orientation and size of the virtual object in response to the double tap being detected at the virtual object and around the virtual object. In the augmented reality view, a one-finger swipe drags the virtual object rather than rotating the virtual object (unlike in the staging view, for example). In response to detecting a request to reset the virtual object, displaying a predetermined original viewpoint of the virtual object may be configured to display a predetermined original viewpoint of the virtual object (e.g. (by providing an option to reset the object, rather than requiring the user to estimate when to return the object to the point of view) and make the user-device interface more efficient. do. Reducing the number of inputs required to perform an operation increases the operability of the device. This further reduces power usage and improves the device's battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第1のユーザーインターフェース領域(例えば、ステージングユーザーインターフェース)内に仮想三次元オブジェクトを表示している間、デバイスは、仮想三次元オブジェクトをリサイズするための要求に対応する第3の入力を検出する(例えば、第3の入力は、第1のユーザーインターフェース領域上に提示された仮想オブジェクトへ向けられたピンチ又はデピンチジェスチャであり、第3の入力は、リサイズ動作を開始するための基準(例えば、(方法19000を参照して以下により詳細に説明されるような)元又は増強された基準)を満たす大きさを有する)(18030)。第3の入力を検出することに応じて、デバイスは、入力の大きさにしたがって、第1のユーザーインターフェース領域における仮想三次元オブジェクトの表現のサイズを調節する(18032)。例えば、(図6N~図6Oに関して説明されるように、)デピンチジェスチャを含む入力に応じて、仮想オブジェクト11002のサイズが減少される。いくつかの実施形態では、仮想三次元オブジェクトの表現のサイズが調節された場合、デバイスは、仮想オブジェクトの現在のズームレベルを示すためのインジケータを表示する。いくつかの実施形態では、デバイスは、第3の入力が終了すると、ズームレベルを示すインジケータの表示を停止する。オブジェクトをリサイズするための入力の大きさにしたがって、仮想オブジェクトのサイズを調節することは、(例えば、オブジェクトを、所望の量、リサイズするためのオプションを提供することによって、)デバイスの操作性を高める。操作を実行するために必要とされる入力数を低減することは、デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, while displaying a virtual three-dimensional object within a first user interface area (e.g., a staging user interface), the device receives a first response to a request to resize the virtual three-dimensional object. detecting a third input (e.g., the third input is a pinch or de-pinch gesture directed at a virtual object presented on the first user interface area; the third input initiates a resizing operation; (18030) having a size that satisfies criteria (eg, original or augmented criteria (as described in more detail below with reference to method 19000)) for. In response to detecting the third input, the device adjusts the size of the representation of the virtual three-dimensional object in the first user interface area according to the size of the input (18032). For example, in response to an input that includes a de-pinch gesture (as described with respect to FIGS. 6N-6O), the size of virtual object 11002 is decreased. In some embodiments, when the size of the representation of the virtual three-dimensional object is adjusted, the device displays an indicator to indicate the current zoom level of the virtual object. In some embodiments, the device stops displaying the zoom level indicator when the third input ends. Adjusting the size of a virtual object according to the magnitude of the input to resize the object improves the usability of the device (e.g., by providing an option to resize the object the desired amount). enhance Reducing the number of inputs required to perform an operation increases the usability of the device and makes the user device interface more efficient. This further reduces power usage and improves the device's battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第1のユーザーインターフェース領域(例えば、ステージングユーザーインターフェース)における仮想三次元オブジェクトの表現のサイズを調節している間、デバイスは、仮想三次元オブジェクトのサイズが、仮想三次元オブジェクトの所定のデフォルトの表示サイズに達したことを検出する(18034)。仮想三次元オブジェクトのサイズが、仮想三次元オブジェクトの所定のデフォルトの表示サイズに達したことを検出することに応じて、デバイスは、仮想三次元オブジェクトが、所定のデフォルトの表示サイズで表示されていることを示すために触知出力(例えば、ディスクリートな触知出力)を生成する(18036)。図11Oは、仮想オブジェクト11002のサイズが、(例えば、図11M~図11Oに関して説明されるように、)仮想オブジェクト11002の以前に所定のサイズに達したことを検出することに応じて提供された触知出力11024の例を提供する。いくつかの実施形態では、二重タップ入力に応じて、仮想オブジェクトのサイズが、デフォルトの表示サイズへリセットされた場合、デバイスは、同じ触知出力を生成する。仮想オブジェクトのサイズが、所定のデフォルトの表示サイズに達したとの判定にしたがって触知出力を生成することは、ユーザーに(例えば、仮想オブジェクトの擬似的なされたサイズを、所定のサイズへ戻すために、さらなる入力は必要とされないことを示す)フィードバックを提供する。改善された触覚フィードバックを提供することは、(例えば、表示された情報でユーザーインターフェースを混乱させることなく、仮想オブジェクトの所定の擬似的なされた物理サイズへ到達したことを、ユーザーが知覚することを可能にする、知覚情報を提供することによって、)デバイスの操作性を高める。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, while adjusting the size of the representation of the virtual three-dimensional object in the first user interface area (e.g., a staging user interface), the device adjusts the size of the virtual three-dimensional object to Detecting that a predetermined default display size of the object has been reached (18034). In response to detecting that the size of the virtual three-dimensional object has reached the predetermined default display size of the virtual three-dimensional object, the device displays the virtual three-dimensional object at the predetermined default display size. A tactile output (eg, a discrete tactile output) is generated to indicate the presence (18036). FIG. 11O is provided in response to detecting that the size of virtual object 11002 has reached a previously predetermined size of virtual object 11002 (e.g., as described with respect to FIGS. 11M-11O). An example of tactile output 11024 is provided. In some embodiments, the device generates the same tactile output if the size of the virtual object is reset to the default display size in response to a double tap input. Generating a tactile output in accordance with a determination that the size of the virtual object has reached a predetermined default display size may provide a user with the ability to provides feedback (indicating that no further input is required). Providing improved haptic feedback (e.g., increasing the user's perception of reaching a given simulated physical size of a virtual object without cluttering the user interface with displayed information) (by providing perceptual information that enables) enhanced device usability. This further reduces power usage and improves the device's battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、ズームレベル(例えば、現在のズームレベルに対応する値を示すスライダ)を示す視覚的な指示が、第1のユーザーインターフェース領域(例えば、ステージングユーザーインターフェース)内に表示される。仮想三次元オブジェクトの表現のサイズが調節されると、ズームレベルを示す視覚的な指示が、仮想三次元オブジェクトの表現の、調節されたサイズにしたがって調節される。 In some embodiments, a visual indication indicating a zoom level (e.g., a slider indicating a value corresponding to the current zoom level) is displayed within the first user interface area (e.g., a staging user interface). . When the size of the representation of the virtual three-dimensional object is adjusted, the visual indication indicating the zoom level is adjusted according to the adjusted size of the representation of the virtual three-dimensional object.

いくつかの実施形態では、第1のユーザーインターフェース領域(例えば、ステージングユーザーインターフェース)において仮想三次元オブジェクトの第3の視点の表現を表示している間、デバイスは、1つ以上のカメラ(例えば、デバイスに埋め込まれたカメラ)の視野を含む第2のユーザーインターフェース領域(例えば、拡張現実ユーザーインターフェース)内に、仮想三次元オブジェクトを表示することを求める要求に対応する第4の入力を検出する(18042)。第4の入力を検出することに応じて、デバイスは、表示生成コンポーネントによって、第2のユーザーインターフェース領域に含まれる1つ以上のカメラの視野の少なくとも一部の上方に、仮想オブジェクトの表現を表示し(例えば、1つ以上のカメラの視野は、第2のユーザーインターフェース領域において仮想オブジェクトを表示するための要求に応じて表示される)、1つ以上のカメラの視野は、1つ以上のカメラが配置された物理的環境の視野である(18044)。仮想オブジェクトの表現を表示することは、仮想三次元オブジェクトを、第1の軸(例えば、x軸のような水平方向において、ディスプレイのプレーン(例えば、x-y面)に平行な軸)の周りに、所定の角度へ(例えば、0度のようなデフォルトのヨー角度へ、又は、1つ以上のカメラの視野においてキャプチャされた物理的環境において検出されたプレーンに揃えられた角度へ(例えば、平行に))回転させることを含む。いくつかの実施形態では、デバイスは、第1の軸に対して、所定の角度まで徐々に回転させ、第2の軸(例えば、y軸のような垂直方向において、ディスプレイのプレーン(例えば、x-y面)に平行な軸)に対する仮想三次元オブジェクトの現在の角度を維持する三次元オブジェクトのアニメーションを表示する。1つ以上のカメラの視野において仮想オブジェクトを表示するための要求に応じて、仮想オブジェクトを、第1の軸の周りに(例えば、仮想オブジェクトを、プレーンに対して所定の向きへ位置変えするために、さらなる入力を必要とすることなく)所定の角度へ回転させることは、デバイスの操作性を高める。操作を実行するために必要とされる入力数を低減することは、デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, while displaying a third perspective representation of a virtual three-dimensional object in a first user interface area (e.g., a staging user interface), the device controls one or more cameras (e.g., detecting a fourth input corresponding to a request to display a virtual three-dimensional object within a second user interface area (e.g., an augmented reality user interface) that includes a field of view of a camera embedded in the device; 18042). In response to detecting the fourth input, the device causes the display generation component to display a representation of the virtual object above at least a portion of the field of view of the one or more cameras included in the second user interface area. (e.g., the field of view of the one or more cameras is displayed in response to a request for displaying a virtual object in a second user interface area); is the field of view of the physical environment in which the is located (18044). Displaying a representation of a virtual object may include moving the virtual three-dimensional object around a first axis (e.g., an axis parallel to the plane of the display (e.g., the xy plane) in a horizontal direction, such as the x-axis). , to a predetermined angle (e.g., to a default yaw angle such as 0 degrees, or to an angle aligned with a detected plane in the physical environment captured in the field of view of one or more cameras (e.g., parallel)). In some embodiments, the device is gradually rotated to a predetermined angle with respect to a first axis, and rotated in a vertical direction, such as a second axis (e.g., y-axis), to a plane of the display (e.g., x Display an animation of a three-dimensional object that maintains the current angle of the virtual three-dimensional object with respect to an axis (axis parallel to the -y plane). In response to a request to display the virtual object in the field of view of one or more cameras, the virtual object may be repositioned about a first axis (e.g., to reposition the virtual object in a predetermined orientation relative to a plane). Rotation to a predetermined angle (without requiring further input) increases the operability of the device. Reducing the number of inputs required to perform an operation increases the usability of the device and makes the user device interface more efficient. This further reduces power usage and improves the device's battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第1のユーザーインターフェース領域(例えば、ステージングユーザーインターフェース)内に、仮想三次元オブジェクトの第4の視点の表現を表示している間、デバイスは、仮想三次元オブジェクトの二次元表現を含む二次元ユーザーインターフェースへ戻す要求に対応する第5の入力を検出する(18046)。第5の入力を検出することに応じて、デバイス(18048)は、仮想三次元オブジェクトの二次元表現に対応する仮想三次元オブジェクトの視点を示すために、仮想三次元オブジェクトを(例えば、仮想三次元オブジェクトの二次元表現と、二次元ユーザーインターフェースとを表示する前に)回転させ、仮想三次元オブジェクトの二次元表現に対応するそれぞれの視点を示すために、仮想三次元オブジェクトが回転された後、仮想三次元オブジェクトの二次元表現を表示する。いくつかの実施形態では、デバイスは、仮想三次元オブジェクトの二次元表現に対応する仮想三次元オブジェクトの視点を示すために、徐々に回転する三次元オブジェクトのアニメーションを表示する。いくつかの実施形態では、デバイスはまた、二次元ユーザーインターフェースにおいて表示された仮想三次元オブジェクトの二次元表現のサイズに一致させるために、回転中又は回転後、仮想三次元オブジェクトをリサイズする。いくつかの実施形態では、二次元ユーザーインターフェースにおける二次元表現(例えば、仮想オブジェクトのサムネイル画像)の位置へ向かって移動し、その位置に落ち着く、回転された仮想三次元オブジェクトを示すために、アニメーション化された遷移が表示される。仮想三次元オブジェクトの二次元表現の表示に戻すための入力に応じて、仮想三次元オブジェクトの二次元表現に対応する視点へ仮想三次元オブジェクトを回転させることは、(例えば、表示されたオブジェクトが二次元であることを示すために)フィードバックを提供する。改善された視覚的フィードバックをユーザーへ提供することは、(例えば、ユーザーが、適切な入力を提供することと、二次元オブジェクトを、二次元オブジェクトの回転が利用可能ではない軸に沿って回転させるための入力を提供する試みを回避することとを支援することによって)デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, while displaying a fourth perspective representation of the virtual three-dimensional object within the first user interface area (e.g., a staging user interface), the device displays two views of the virtual three-dimensional object. A fifth input corresponding to a request to return to a two-dimensional user interface including a dimensional representation is detected (18046). In response to detecting the fifth input, the device (18048) displays the virtual three-dimensional object (e.g., a virtual three-dimensional After the virtual three-dimensional object is rotated (before displaying the two-dimensional representation of the original object and the two-dimensional user interface) and the respective viewpoints corresponding to the two-dimensional representation of the virtual three-dimensional object , displaying a two-dimensional representation of a virtual three-dimensional object. In some embodiments, the device displays an animation of the three-dimensional object that rotates gradually to indicate a perspective of the virtual three-dimensional object that corresponds to a two-dimensional representation of the virtual three-dimensional object. In some embodiments, the device also resizes the virtual three-dimensional object during or after rotation to match the size of the two-dimensional representation of the virtual three-dimensional object displayed in the two-dimensional user interface. In some embodiments, an animation is used to illustrate a rotated virtual three-dimensional object moving toward and settling into a position of a two-dimensional representation (e.g., a thumbnail image of the virtual object) in a two-dimensional user interface. The converted transition will be displayed. Rotating the virtual three-dimensional object to a viewpoint corresponding to the two-dimensional representation of the virtual three-dimensional object in response to an input to return to the display of the two-dimensional representation of the virtual three-dimensional object (e.g., when the displayed object is provide feedback (to show that it is two-dimensional). Providing improved visual feedback to the user (e.g., when the user provides appropriate input and rotates a two-dimensional object along an axis for which rotation of the two-dimensional object is not available) Enhance device usability (by avoiding attempts to provide input for devices and making user device interfaces more efficient). This further reduces power usage and improves the device's battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、仮想三次元オブジェクトの第1の視点の表現を表示する前に、デバイスは、それぞれの視点からの仮想三次元オブジェクトのビューの表現(例えば、仮想三次元オブジェクトに対応する二次元画像のような静的表現)を含む仮想三次元オブジェクトの表現(例えば、サムネイル又はアイコン)を含むユーザーインターフェースを表示する(18050)。仮想三次元オブジェクトの表現を表示している間、デバイスは、仮想三次元オブジェクト(例えば、仮想三次元オブジェクトの表現に関するタップ入力又は他の選択入力)を表示するための要求を検出する(18052)。仮想三次元オブジェクトを表示するための要求を検出することに応じて、デバイスは、仮想三次元オブジェクトの表現のそれぞれの視点を一致させるために、仮想三次元オブジェクトの表現の表示を、回転された仮想三次元オブジェクトと置き換える(18054)。図11A~図11Eは、仮想オブジェクト11002の表現を表示するユーザーインターフェース5060の例を提供する。仮想オブジェクト11002を表示するための要求に応じて、図11Aに関して説明されるように、ユーザーインターフェース5060のディスプレイは、図11Eに図示されるように、ステージングユーザーインターフェース6010における仮想オブジェクト11002の表示によって置き換えられる。図11Eにおける仮想オブジェクト11002の視点は、図11Aにおける仮想オブジェクト11002の表現の視点と同じである。いくつかの実施形態では、仮想三次元オブジェクトの表現は、仮想三次元オブジェクトを用いて置き換えられる前に、(例えば、仮想三次元オブジェクトのサイズに一致するサイズへ)スケールアップされる。いくつかの実施形態では、仮想三次元オブジェクトは、先ず、仮想三次元オブジェクトの表現のサイズで表示され、後続して、スケールアップされる。いくつかの実施形態では、仮想三次元オブジェクトの表現から仮想三次元オブジェクトへの遷移中、仮想三次元オブジェクトの表現と、仮想三次元オブジェクトとの間の円滑な遷移を生成するように、デバイスは、仮想三次元オブジェクトの表現を徐々に拡大し、仮想三次元オブジェクトの表現を、仮想三次元オブジェクトを用いてクロスフェードし、その後、仮想三次元オブジェクトを徐々に拡大する。いくつかの実施形態では、仮想三次元オブジェクトの初期場所は、仮想三次元オブジェクトの表現の場所に対応するように選択される。いくつかの実施形態では、仮想三次元オブジェクトの表現は、仮想三次元オブジェクトが表示される場所に対応するように選択された場所へシフトされる。仮想三次元オブジェクトの(二次元)表現の表示を、(二次元)表示の視点に一致するように回転された仮想三次元オブジェクトに置き換えることは、(例えば、三次元オブジェクトが、仮想三次元オブジェクトの二次元表現と同じオブジェクトであることを示すために)視覚的フィードバックを提供する。改善された視覚的フィードバックをユーザーへ提供することは、デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, prior to displaying the first perspective representation of the virtual three-dimensional object, the device displays a representation of the view of the virtual three-dimensional object from each perspective (e.g., corresponding to the virtual three-dimensional object). A user interface is displayed (18050) that includes a representation (eg, a thumbnail or icon) of a virtual three-dimensional object, including a static representation, such as a two-dimensional image. While displaying the representation of the virtual three-dimensional object, the device detects (18052) a request to display the virtual three-dimensional object (e.g., a tap input or other selection input regarding the representation of the virtual three-dimensional object). . In response to detecting the request to display the virtual three-dimensional object, the device rotates the display of the virtual three-dimensional object representation to match the respective viewpoints of the virtual three-dimensional object representation. Replace with a virtual three-dimensional object (18054). 11A-11E provide an example of a user interface 5060 that displays a representation of a virtual object 11002. In response to a request to display virtual object 11002, as described with respect to FIG. 11A, the display of user interface 5060 is replaced by a display of virtual object 11002 in staging user interface 6010, as illustrated in FIG. 11E. It will be done. The viewpoint of virtual object 11002 in FIG. 11E is the same as the viewpoint of the representation of virtual object 11002 in FIG. 11A. In some embodiments, the representation of the virtual three-dimensional object is scaled up (eg, to a size matching the size of the virtual three-dimensional object) before being replaced with the virtual three-dimensional object. In some embodiments, the virtual three-dimensional object is first displayed at the size of the virtual three-dimensional object's representation and subsequently scaled up. In some embodiments, during the transition from the representation of the virtual three-dimensional object to the virtual three-dimensional object, the device is configured to generate a smooth transition between the representation of the virtual three-dimensional object and the virtual three-dimensional object. , gradually enlarge the representation of the virtual three-dimensional object, cross-fade the representation of the virtual three-dimensional object using the virtual three-dimensional object, and then gradually enlarge the virtual three-dimensional object. In some embodiments, the initial location of the virtual three-dimensional object is selected to correspond to the location of the representation of the virtual three-dimensional object. In some embodiments, the representation of the virtual three-dimensional object is shifted to a selected location to correspond to where the virtual three-dimensional object is displayed. Replacing the display of a (two-dimensional) representation of a virtual three-dimensional object with a virtual three-dimensional object that has been rotated to match the viewpoint of the (two-dimensional) display (e.g., if the three-dimensional object is provide visual feedback (to indicate that the object is the same as the two-dimensional representation of the object). Providing improved visual feedback to users enhances device usability and makes user device interfaces more efficient. This further reduces power usage and improves the device's battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第1のユーザーインターフェースを表示する前に、デバイスは、仮想三次元オブジェクトの二次元表現を含む二次元ユーザーインターフェースを表示する(18056)。仮想三次元オブジェクトの二次元表現を含む二次元ユーザーインターフェースを表示している間、デバイスは、仮想三次元オブジェクトの二次元表現に対応するタッチ感知面上の場所において、プレビュー基準を満たす(例えば、プレビュー基準は、押圧入力の強度が第1の強度閾値(例えば、弱い押圧強度閾値)を超えることを必要とする、及び/又は、プレビュー基準は、押圧入力の持続時間が第1の持続時間閾値を超えることを必要とする)タッチ入力(例えば、接触の強度の増加)の第1の部分を検出する(18058)。タッチ入力の第1の部分がプレビュー基準を満たすことを検出することに応じて、デバイスは、仮想三次元オブジェクトの二次元表現よりも大きな仮想三次元オブジェクトのプレビューを表示する(例えば、プレビューは、仮想三次元オブジェクトの異なる視点を示すためにアニメーション化される)(18060)。いくつかの実施形態では、デバイスは、(例えば、入力の持続時間又は圧力に基づいて、又は、あらかじめ決定されたアニメーションの速度に基づいて)徐々に拡大する三次元オブジェクトのアニメーションを表示する。(例えば、現在表示されているユーザーインターフェースの表示を、異なるユーザーインターフェースと置き換えることなく)仮想三次元オブジェクトのプレビューを表示することは、(例えば、ユーザーが、仮想三次元オブジェクトを表示し、ユーザーインターフェース同士の間でのナビゲーションのための入力を提供する必要無しに仮想三次元オブジェクトの二次元表現を見るように戻せるようにすることによって、)デバイスの操作性を高める。操作を実行するために必要とされる入力数を低減することは、デバイスの操作性を高める。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, prior to displaying the first user interface, the device displays a two-dimensional user interface that includes a two-dimensional representation of the virtual three-dimensional object (18056). While displaying a two-dimensional user interface that includes a two-dimensional representation of a virtual three-dimensional object, the device satisfies the preview criteria (e.g., The preview criterion requires that the intensity of the press input exceeds a first intensity threshold (e.g., a weak press intensity threshold), and/or the preview criterion requires that the duration of the press input exceeds a first duration threshold. detecting (18058) a first portion of a touch input (e.g., an increase in the intensity of the contact) (e.g., an increase in the intensity of the contact); In response to detecting that the first portion of the touch input meets the preview criteria, the device displays a preview of the virtual three-dimensional object that is larger than the two-dimensional representation of the virtual three-dimensional object (e.g., the preview is (18060) (animated to show different perspectives of the virtual three-dimensional object). In some embodiments, the device displays an animation of the three-dimensional object that gradually expands (e.g., based on the duration or pressure of the input, or based on a predetermined speed of the animation). Displaying a preview of a virtual 3D object (e.g., without replacing the currently displayed user interface display with a different user interface) Enhances the usability of the device by allowing one to return to viewing two-dimensional representations of virtual three-dimensional objects without having to provide input for navigation between them. Reducing the number of inputs required to perform an operation increases the operability of the device. This further reduces power usage and improves the device's battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、仮想三次元オブジェクトのプレビューを表示している間、デバイスは、(例えば、継続的に維持されている同じ接触によって)タッチ入力の第2の部分を検出する(18062)。タッチ入力の第2の部分を検出することに応じて(18064)、タッチ入力の第2の部分がメニュー表示基準を満たす(例えば、メニュー表示基準は、接触が、所定の方向へ、(例えば、上方へ)閾値量よりも多く移動することを必要とする)との判定にしたがって、デバイスは、仮想オブジェクトに関連付けられた複数の動作に対応する複数の選択可能なオプション(例えば、共有メニュー)(例えば、仮想オブジェクトを、別のデバイス又はユーザーと共有する様々な手段のような共有オプション)を表示し、タッチ入力の第2の部分がステージング基準(例えば、ステージング基準は、接触の強度が、第1の閾値強度よりも大きな第2の閾値強度(例えば、深い押圧強度閾値)を超えることを必要とする)を満たすとの判定にしたがって、デバイスは、仮想三次元オブジェクトの二次元表現を含む二次元ユーザーインターフェースの表示を、仮想三次元オブジェクトを含む第1のユーザーインターフェースに置き換える。仮想オブジェクトに関連付けられたメニューを表示すること、又は、仮想三次元オブジェクトの二次元表示を含む二次元ユーザーインターフェースの表示を、仮想三次元オブジェクトを含む第1のユーザーインターフェースと置き換えることは、ステージング基準が満たされているか否かに依存して、入力に応じて、多数の異なるタイプの動作の実行を可能にする。第1のタイプの入力を用いて、多数の異なるタイプの動作の実行を可能にすることは、効率を高め、これによって、ユーザーは、これらの操作を実行することができる。これによって、デバイスの操作性を高める。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, while displaying a preview of the virtual three-dimensional object, the device detects (18062) a second portion of the touch input (e.g., by the same continuously maintained contact). . In response to detecting (18064) the second portion of the touch input, the second portion of the touch input satisfies menu display criteria (e.g., the menu display criteria indicates that the contact is in a predetermined direction (e.g., Upon determining that the virtual object requires more than a threshold amount of movement), the device selects multiple selectable options (e.g., a shared menu) that correspond to multiple actions associated with the virtual object ( For example, the second part of the touch input may display sharing options (e.g., various means of sharing the virtual object with another device or user), and the second part of the touch input may display staging criteria (e.g., the staging criteria may indicate that the intensity of the contact is In accordance with a determination that a second threshold strength (e.g., a deep press strength threshold) greater than one threshold strength is satisfied, the device generates a two-dimensional representation of the virtual three-dimensional object. The display of the dimensional user interface is replaced with a first user interface that includes a virtual three-dimensional object. Displaying a menu associated with a virtual object or replacing the display of a two-dimensional user interface that includes a two-dimensional display of a virtual three-dimensional object with a first user interface that includes a virtual three-dimensional object is a staging criterion. Depending on whether or not is satisfied, depending on the input, allows the execution of a number of different types of operations. Enabling the performance of a large number of different types of operations using the first type of input increases efficiency, thereby allowing the user to perform these operations. This improves the operability of the device. This further reduces power usage and improves the device's battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第1のユーザーインターフェースが、複数の制御(例えば、ワールドビューへの切り替えのため、戻る等のためのボタン)を含む(18066)。第1のユーザーインターフェースを表示する前に、デバイスは、仮想三次元オブジェクトの二次元表現を含む二次元ユーザーインターフェースを表示する(18068)。第1のユーザーインターフェースにおいて、仮想三次元オブジェクト表示するための要求を検出することに応じて、デバイスは(18070)、仮想三次元オブジェクトに関連付けられた1つ以上の制御のセットを表示することなく、第1のユーザーインターフェース内に、仮想三次元オブジェクトを表示し、第1のユーザーインターフェース内に仮想三次元オブジェクトを表示した後、デバイスは、1つ以上の制御のセットを表示する。例えば、図11A~図11Eに関して説明されるように、仮想オブジェクト11002の二次元表現を含むユーザーインターフェース5060のディスプレイは、ステージングユーザーインターフェース6010の前に表示される。(図11Aに関して説明されるように、)ステージングユーザーインターフェース6010内に、仮想オブジェクト11002を表示するための要求に応じて、ステージングユーザーインターフェース6010の制御6016、6018、6020なしで(図11B~図11Cに図示されるように)仮想オブジェクト11002が表示される。図11D~図11Eでは、ステージングユーザーインターフェース6010の制御6016、6018、6020が、ユーザーインターフェース内のビューへフェードする。いくつかの実施形態では、1つ以上の制御のセットが、デバイスの1つ以上のカメラの視野において検出されたプレーンに対して固定された位置に仮想三次元オブジェクトが配置されている、拡張現実環境において仮想三次元オブジェクトを表示するための制御を含む。いくつかの実施形態では、第1のユーザーインターフェースにおいて仮想三次元オブジェクトを表示するための要求を検出することに応じて、仮想三次元オブジェクトが、第1のユーザーインターフェース内に表示される準備ができていない(例えば、仮想オブジェクトの三次元モデルが、第1のユーザーインターフェースが表示される準備ができている時に、完全にロードされない)(例えば、仮想オブジェクトのロード時間が、閾値時間よりも長い(例えば、顕著であり、ユーザーに知覚可能である))との判定にしたがって、デバイスは、第1のユーザーインターフェース内に、複数の制御を表示することなく、第1のユーザーインターフェースの一部(例えば、第1のユーザーインターフェースの背景ウィンドウ)を表示し、(例えば、第1のユーザーインターフェースの一部が、制御なしで表示された後)仮想三次元オブジェクトが、第1のユーザーインターフェース内に表示される準備ができているとの判定にしたがって、デバイスは、第1のユーザーインターフェース内に、仮想三次元オブジェクトを表示(例えば、フェードイン)しデバイスは、仮想三次元オブジェクトが第1のユーザーインターフェース内に表示された後、制御を表示(例えば、フェードイン)する。第1のユーザーインターフェース内に、仮想三次元オブジェクトを表示するための要求を検出することに応じて、仮想三次元オブジェクトが表示される準備ができている(例えば、第1のユーザーインターフェースが表示される準備ができている場合、仮想オブジェクトの三次元モデルがロードされた)、(例えば、仮想オブジェクトのロード時間が、閾値時間よりも短い(例えば、無視することができ、ユーザーに知覚可能ではない))との判定にしたがって、デバイスは、第1のユーザーインターフェース上における複数の制御とともに、第1のユーザーインターフェースを表示し、デバイスは、複数の制御を用いて、第1のユーザーインターフェース内に、仮想三次元オブジェクトを表示する(例えば、フェードインしない)。いくつかの実施形態では、(例えば、「戻る」要求に応じて)二次元ユーザーインターフェースへ戻るために、ステージングユーザーインターフェースを出た場合、制御は、仮想三次元オブジェクトが仮想三次元オブジェクトの二次元表現へ変換される前に先ずフェードアウトする。ユーザーインターフェース内に、仮想三次元オブジェクトを表示した後、制御を表示することは、(例えば、仮想オブジェクトを操作するための制御が、仮想オブジェクトをロードするために必要とされる時間長さの間、利用可能ではないことを示す)視覚的フィードバックを提供する。改善された視覚的フィードバックをユーザーへ提供することは、(例えば、仮想オブジェクトのためのロード時間中、操作動作が利用可能ではない間、ユーザーがオブジェクトを操作するための入力の提供を回避することを支援することによって、)デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the first user interface includes a plurality of controls (eg, buttons for switching to world view, back, etc.) (18066). Prior to displaying the first user interface, the device displays a two-dimensional user interface that includes a two-dimensional representation of the virtual three-dimensional object (18068). In response to detecting a request to display a virtual three-dimensional object in the first user interface, the device (18070) displays a set of one or more controls associated with the virtual three-dimensional object. , displaying the virtual three-dimensional object within the first user interface, and after displaying the virtual three-dimensional object within the first user interface, the device displays a set of one or more controls. For example, as described with respect to FIGS. 11A-11E, a display of user interface 5060 containing a two-dimensional representation of virtual object 11002 is displayed in front of staging user interface 6010. In response to a request to display virtual object 11002 within staging user interface 6010 (as described with respect to FIG. 11A), without controls 6016, 6018, 6020 of staging user interface 6010 (FIGS. 11B-11C). A virtual object 11002 is displayed. In FIGS. 11D-11E, controls 6016, 6018, 6020 of staging user interface 6010 fade into view within the user interface. In some embodiments, the one or more sets of controls are arranged in augmented reality, where the virtual three-dimensional object is placed in a fixed position relative to a plane detected in the field of view of one or more cameras of the device. Contains controls for displaying virtual three-dimensional objects in the environment. In some embodiments, the virtual three-dimensional object is ready to be displayed within the first user interface in response to detecting the request to display the virtual three-dimensional object in the first user interface. (e.g. the 3D model of the virtual object is not fully loaded when the first user interface is ready to be displayed) (e.g. the load time of the virtual object is longer than a threshold time (e.g. the virtual object's load time is longer than a threshold time) In accordance with a determination that the controls are salient and perceivable to the user), the device may display a portion of the first user interface (e.g. , a background window of the first user interface), and the virtual three-dimensional object is displayed within the first user interface (e.g., after a portion of the first user interface has been displayed without control). The device displays (e.g., fades in) the virtual three-dimensional object within the first user interface in accordance with the determination that the virtual three-dimensional object is ready to display within the first user interface. display (e.g., fade in) a control after it is displayed. In response to detecting a request to display the virtual three-dimensional object within the first user interface, the virtual three-dimensional object is ready to be displayed (e.g., the first user interface is If the three-dimensional model of the virtual object is ready to be loaded), the load time of the virtual object is shorter than a threshold time (e.g., it can be ignored and is not perceptible to the user). )), the device displays the first user interface with the plurality of controls on the first user interface, and the device displays the first user interface with the plurality of controls. Display virtual three-dimensional objects (e.g., do not fade in). In some embodiments, when exiting the staging user interface to return to the two-dimensional user interface (e.g., in response to a "return" request), control controls whether the virtual three-dimensional object It is first faded out before being converted into expression. Displaying controls after displaying a virtual three-dimensional object within the user interface (e.g., controls for manipulating the virtual object for the length of time required to load the virtual object) , to provide visual feedback (indicating that it is not available). Providing improved visual feedback to the user (e.g., during load times for virtual objects, avoiding providing input for the user to manipulate the object while no manipulation actions are available) ) improve device usability and make user device interfaces more efficient. This further reduces power usage and improves the device's battery life by allowing the user to use the device more quickly and efficiently.

図18A~図18Iにおける動作が説明された特定の順序は、単なる例であり、説明された順序は、動作が実行され得る唯一の順序であることを示すことは意図されていないことが理解されるべきである。当業者であれば、本明細書で説明された動作を再順序付けするための様々な手法を認識するであろう。それに加えて、本明細書で説明された他の方法(方法800、900、1000、16000、17000、19000、及び20000)に関して本明細書で説明される他の処理の詳細はまた、図18A~図18Iに関して上述された方法18000と類似の方式で適用可能であることが注目されるべきである。例えば、方法18000を参照して上述された接触、入力、仮想オブジェクト、ユーザーインターフェース領域、視野、触知出力、移動、及び/又は、アニメーションは、オプションで、本明細書で説明された他の方法(例えば、800、900、1000、17000、18000、19000、及び20000)を参照して本明細書で説明された接触、入力、仮想オブジェクト、ユーザーインターフェース領域、視野、触知出力、移動、及び/又は、アニメーションからなる特徴のうちの1つ以上を有する。簡潔のために、これら詳細は、本明細書では繰り返されない。 It is understood that the particular order in which the operations in FIGS. 18A-18I are described is merely an example and that the described order is not intended to indicate that the operations are the only order in which the operations may be performed. Should. Those skilled in the art will recognize various techniques for reordering the operations described herein. In addition, other processing details described herein with respect to other methods described herein (methods 800, 900, 1000, 16000, 17000, 19000, and 20000) are also shown in FIGS. It should be noted that method 18000 described above with respect to FIG. 18I can be applied in a similar manner. For example, the contact, input, virtual objects, user interface areas, field of view, tactile output, movement, and/or animations described above with reference to method 18000 may optionally include other methods described herein. (e.g., 800, 900, 1000, 17000, 18000, 19000, and 20000) as described herein with reference to Or, it has one or more of the following features: animation. For the sake of brevity, these details are not repeated herein.

図19A~図19Hは、第1の閾値移動大きさが、第1のオブジェクト操作挙動のために満たされているとの判定にしたがって、第2のオブジェクト操作挙動のために必要な第2の閾値移動大きさを増加させる方法19000を例示するフロー図である。方法19000は、表示生成コンポーネント(例えば、ディスプレイ、プロジェクタ、ヘッドアップディスプレイ等)とタッチ感知面(例えば、タッチ感知面、又は、表示生成コンポーネントとタッチ感知面との両方として役立つタッチスクリーンディスプレイ)とを有する電子デバイス(例えば、図3のデバイス300、又は、図1Aのポータブル多機能デバイス100、)において実行される。方法19000におけるいくつかの動作は、オプションで、組み合わされるか、及び/又は、いくつかの動作の順序は、オプションで、変更される。 19A to 19H illustrate the second threshold required for the second object manipulation behavior according to the determination that the first threshold movement magnitude is satisfied for the first object manipulation behavior. FIG. 19 is a flow diagram illustrating a method 19000 of increasing movement magnitude. The method 19000 includes a display-generating component (e.g., a display, a projector, a heads-up display, etc.) and a touch-sensitive surface (e.g., a touch-sensitive surface, or a touchscreen display that serves as both a display-generating component and a touch-sensitive surface). (e.g., device 300 of FIG. 3 or portable multifunction device 100 of FIG. 1A). Some acts in method 19000 are optionally combined and/or the order of some acts is optionally changed.

デバイスは、第1のジェスチャ認識基準(例えば、回転基準)を満たす入力に応じて実行される第1のオブジェクト操作挙動(例えば、それぞれの軸の周りのユーザーインターフェースオブジェクトの回転)と、第2のジェスチャ認識基準(例えば、変換基準とスケーリング基準とのうちの1つ)を満たす入力に応じて実行される第2のオブジェクト操作挙動(例えば、ユーザーインターフェースオブジェクトの変換、又は、ユーザーインターフェースオブジェクトのスケーリングのうちの1つ)とを含む、複数のオブジェクト操作挙動に関連付けられたユーザーインターフェースオブジェクト(例えば、仮想オブジェクトの表現を含むユーザーインターフェース領域)を含む第1のユーザーインターフェース領域を、表示生成コンポーネントを介して表示する(19002)。例えば、表示された仮想オブジェクト11002は、(例えば、図14B~図14Eに関して説明されるような)それぞれの軸の周りの回転、(例えば、図14K~図14Mに関して説明されるような)変換、及び(図14G~図14Iに関して説明されるような)スケーリングを含む操作挙動に関連付けられる。 The device performs a first object manipulation behavior (e.g., rotation of a user interface object about a respective axis) performed in response to input that satisfies a first gesture recognition criterion (e.g., a rotation criterion); a second object manipulation behavior (e.g., transforming a user interface object or scaling a user interface object) performed in response to an input that satisfies a gesture recognition criterion (e.g., one of a transformation criterion and a scaling criterion); a first user interface area that includes a user interface object (e.g., a user interface area that includes a representation of a virtual object) associated with a plurality of object manipulation behaviors, including a first user interface area that includes a representation of a virtual object; Display (19002). For example, the displayed virtual object 11002 may be rotated about respective axes (e.g., as described with respect to FIGS. 14B-14E), transformed (e.g., as described with respect to FIGS. 14K-14M), and operational behavior including scaling (as described with respect to FIGS. 14G-14I).

第1のユーザーインターフェース領域を表示している間、デバイスは、タッチ感知面にわたる1つ以上の接触の移動を検出することを含むユーザーインターフェースオブジェクトへ向けられた入力の第1の部分を検出し(例えば、デバイスは、ユーザーインターフェースオブジェクトの表示位置に対応するタッチ感知面上の場所における1つ以上の接触を検出し)、1つ以上の接触が、タッチ感知面上で検出されている間、デバイスは、第1のジェスチャ認識基準と第2のジェスチャ認識基準との両方に関する1つ以上の接触の移動を評価する(19004)。 While displaying the first user interface area, the device detects a first portion of input directed to the user interface object, including detecting movement of one or more contacts across the touch-sensitive surface; For example, the device detects one or more contacts at a location on the touch-sensitive surface that corresponds to a displayed position of the user interface object), and while the one or more contacts are detected on the touch-sensitive surface, the device evaluates (19004) movement of the one or more contacts with respect to both the first gesture recognition criterion and the second gesture recognition criterion.

入力の第1の部分を検出することに応じて、デバイスは、入力の第1の部分に基づいて、ユーザーインターフェースオブジェクトの外観を更新する。これは、第2のジェスチャ認識基準を満たす前に、入力の第1の部分が第1のジェスチャ認識基準を満たしているとの判定にしたがって、入力の第1の部分に基づいて(例えば、入力の第1の部分の方向及び/又は大きさに基づいて)第1のオブジェクト操作挙動にしたがって、ユーザーインターフェースオブジェクトの外観を変化させる(例えば、ユーザーインターフェースオブジェクトを回転させる)ことと、(例えば、第2のオブジェクト操作挙動にしたがって、ユーザーインターフェースオブジェクトの外観を変化せることなく、)第2のジェスチャ認識基準のための閾値を増加させる(例えば、第2のジェスチャ認識基準における移動パラメータ(例えば、移動距離、速度等)のために必要とされる閾値を増加させる)ことによって、第2のジェスチャ認識基準を更新することとを含む(19006)。例えば、図14Eにおいて、仮想オブジェクト11002は、(スケーリング基準が満たされる前に)回転基準が満たされているとの判定にしたがって回転され、スケーリング基準のための閾値STが、ST'へ増加される。いくつかの実施形態では、オブジェクトを回転させるためのジェスチャを認識するための基準が満たされる前に、(変換又はスケーリングのための基準が以前に満たされていないと仮定して、)変換又はスケーリングのためのジェスチャを認識するための基準を満たすことによって、オブジェクトにおける変換又はスケーリング動作を開始することは比較的容易である。オブジェクトを回転させるためのジェスチャを認識するための基準が満たされると、オブジェクトにおける変換又はスケーリング動作を開始することはより困難になり、(例えば、変換及びスケーリングのための基準は、移動パラメータのための増加された閾値を用いて更新され、)すでに認識され、このオブジェクトを操作するために使用されているジェスチャに対応する操作挙動へ向けて、オブジェクト操作がバイアスされる。この入力が、第1のジェスチャ認識基準を満たす前に、第2のジェスチャ認識基準を満たすとの判定にしたがって、デバイスは、入力の第1の部分に基づいて(例えば、入力の第1の部分の方向及び/又は大きさに基づいて)、第2のオブジェクト操作挙動にしたがって、ユーザーインターフェースオブジェクトの外観を変化させ(例えば、ユーザーインターフェースオブジェクトを変換するか、又は、ユーザーインターフェースオブジェクトをリサイズし)、(例えば、第1のオブジェクト操作挙動にしたがって、ユーザーインターフェースオブジェクトの外観を変化させることなく)第1のジェスチャ認識基準のための閾値を増加させる(例えば、第1のジェスチャ認識基準における移動パラメータ(例えば、移動距離、速度等)のために必要とされる閾値を増加させる)ことによって、第1のジェスチャ認識基準を更新する。例えば、図14Iにおいて、仮想オブジェクト11002のサイズは、(回転基準が満たされる前に)スケーリング基準が満たされているとの判定にしたがって増加し、回転基準のための閾値RTが、RT'へ増加される。いくつかの実施形態では、オブジェクトを変換又はスケールするためのジェスチャを認識するための基準が満たされる前に、(オブジェクトを回転するためのジェスチャを認識するための基準が以前に満たされていないと仮定して、)回転のためのジェスチャを認識するための基準を満たすことによって、オブジェクトにおける回転動作を開始することは比較的容易である。オブジェクトを変換又はスケールするためのジェスチャを認識するための基準が満たされると、オブジェクトにおける回転操作を開始することはより困難になり、(例えば、オブジェクトを回転させるための基準は、移動パラメータのための増加された閾値を用いて更新され、)すでに認識され、このオブジェクトを操作するために使用されているジェスチャに対応する操作挙動へ向けて、オブジェクト操作挙動がバイアスされる。いくつかの実施形態では、ユーザーインターフェースオブジェクトの外観は、入力のそれぞれの移動パラメータの値にしたがって(例えば、異なるサイズ、位置、視点、反射、影等を示して)動的及び連続的に変更される。いくつかの実施形態では、デバイスは、移動パラメータ(例えば、各タイプの操作挙動のためのそれぞれの移動パラメータ)と、ユーザーインターフェースオブジェクトの外観に対してなされた変更(例えば、各タイプの操作挙動のための外観のそれぞれの態様)との間でプリセットされた調和(例えば、各タイプの操作挙動のためのそれぞれの調和)に従う。入力された移動が、第2のオブジェクト操作のための第2の閾値を超えて増加した場合、第1のオブジェクト操作のために必要とされる入力移動のための第1の閾値を増加させることは、(例えば、ユーザーが、第1のオブジェクト操作を実行するための入力の提供を試みている間、第2のオブジェクト操作を誤って実行することを回避することを支援することによって)デバイスの操作性を高める。異なるタイプのオブジェクト操作を制御するユーザーの能力を改善することは、デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。 In response to detecting the first portion of the input, the device updates the appearance of the user interface object based on the first portion of the input. This is based on the first portion of the input (e.g., the input changing the appearance of the user interface object (e.g., rotating the user interface object) according to a first object manipulation behavior (e.g., based on the orientation and/or size of the first portion of the user interface object); increasing the threshold for the second gesture recognition criterion (e.g., increasing the movement parameter (e.g. movement distance) in the second gesture recognition criterion) without changing the appearance of the user interface object according to the object manipulation behavior of , speed, etc.) and updating the second gesture recognition criteria (19006). For example, in FIG. 14E, virtual object 11002 is rotated according to a determination that a rotation criterion is satisfied (before the scaling criterion is met) and the threshold ST for the scaling criterion is increased to ST' . In some embodiments, the translation or scaling (assuming the criteria for translation or scaling were not previously met) is performed before the criteria for recognizing the gesture for rotating the object are met. It is relatively easy to initiate a transformation or scaling operation on an object by meeting the criteria for recognizing a gesture for. Once the criteria for recognizing a gesture to rotate an object is met, it becomes more difficult to initiate a transformation or scaling operation on the object (e.g., the criteria for transformation and scaling are (updated with an increased threshold of ) to bias object manipulation toward manipulation behavior corresponding to gestures that have already been recognized and used to manipulate this object. In accordance with the determination that the input satisfies the second gesture recognition criterion before the first gesture recognition criterion, the device determines that the input satisfies the second gesture recognition criterion based on the first portion of the input (e.g., (based on the orientation and/or size of the user interface object), changing the appearance of the user interface object (e.g., transforming the user interface object or resizing the user interface object) according to the second object manipulation behavior; increasing the threshold for the first gesture recognition criterion (e.g., without changing the appearance of the user interface object according to the first object manipulation behavior) (e.g., the movement parameter in the first gesture recognition criterion, e.g. , distance traveled, speed, etc.). For example, in FIG. 14I, the size of virtual object 11002 is increased following a determination that the scaling criterion is satisfied (before the rotation criterion is met), and the threshold RT for the rotation criterion is increased to RT'. be done. In some embodiments, before the criteria for recognizing a gesture to transform or scale an object are met (the criteria for recognizing a gesture for rotating an object have not been previously met), Assuming that) it is relatively easy to initiate a rotational motion in an object by meeting the criteria for recognizing a gesture for rotation. Once the criteria for recognizing gestures to transform or scale an object are met, it becomes more difficult to initiate a rotation operation on the object (e.g., the criteria for rotating an object are (updated with an increased threshold of ) to bias object manipulation behavior toward manipulation behavior corresponding to gestures that have already been recognized and used to manipulate this object. In some embodiments, the appearance of the user interface object is dynamically and continuously changed (e.g., exhibiting different sizes, positions, viewpoints, reflections, shadows, etc.) according to the values of the respective movement parameters of the input. Ru. In some embodiments, the device determines the movement parameters (e.g., respective movement parameters for each type of manipulation behavior) and the changes made to the appearance of the user interface object (e.g., for each type of manipulation behavior). (for example, a respective harmony for each type of operational behavior). increasing the first threshold for the input movement required for the first object operation if the input movement increases above a second threshold for the second object operation; (e.g., by helping the user avoid accidentally performing a second object operation while attempting to provide input to perform a first object operation) Improve operability. Improving a user's ability to control different types of object operations increases device usability and makes user device interfaces more efficient.

いくつかの実施形態では、入力の第1の部分に基づいて、ユーザーインターフェースオブジェクトの外観を更新した後、デバイスは、(例えば、入力の第1の部分において連続的に維持されている同じ接触、又は、入力の第1の部分における接触の終了(例えば、リフトオフ)後に検出された異なる接触によって)入力の第2の部分を検出する(19008)。いくつかの実施形態では、入力の第2の部分は、ユーザーインターフェースオブジェクトへ向けられた連続的に検出された入力に基づいて検出される。入力の第2の部分を検出することに応じて、デバイスは、入力の第2の部分に基づいて、ユーザーインターフェースオブジェクトの外観を更新する(19010)。これは、入力の第1の部分が、第1のジェスチャ認識基準を満たし、入力の第2の部分が、更新された第2のジェスチャ認識基準を満たさないとの判定にしたがって、(例えば、入力の第2の部分が、第1のジェスチャ認識基準又は元の第2のジェスチャ認識基準を満たすか否かを考慮することなく、)入力の第2の部分に基づいて(例えば、入力の第2の部分の方向及び/又は大きさに基づいて)、第2のオブジェクト操作挙動にしたがって、(例えば、入力の第2の部分が、更新される前の元の第2のジェスチャ認識基準を満たしていても)ユーザーインターフェースオブジェクトの外観を変更することなく、第1のオブジェクト操作挙動にしたがって、ユーザーインターフェースオブジェクトの外観を変更することと、入力の第1の部分が、第2のジェスチャ認識基準を満たし、入力の第2の部分が、更新された第1のジェスチャ認識基準を満たさないとの判定にしたがって、(例えば、入力の第2の部分が、第2のジェスチャ認識基準又は元の第1のジェスチャ認識基準を満たすか否かを考慮することなく、)入力の第2の部分に基づいて(例えば、入力の第2の部分の方向及び/又は大きさに基づいて)、第1のオブジェクト操作挙動にしたがって、(例えば、入力の第2の部分が、更新される前の元の第1のジェスチャ認識を満たしていても)ユーザーインターフェースオブジェクトの外観を変更することなく、第2のオブジェクト操作挙動にしたがって、ユーザーインターフェースオブジェクトの外観を変更することと、を含む。 In some embodiments, after updating the appearance of the user interface object based on the first portion of the input, the device updates the appearance of the user interface object based on the first portion of the input (e.g., the same contact that is continuously maintained in the first portion of the input, Alternatively, a second portion of the input is detected (19008) by a different touch detected after termination of the contact (eg, liftoff) on the first portion of the input. In some embodiments, the second portion of input is detected based on sequentially detected input directed to the user interface object. In response to detecting the second portion of the input, the device updates the appearance of the user interface object based on the second portion of the input (19010). This occurs according to a determination that a first portion of the input satisfies the first gesture recognition criterion and a second portion of the input does not satisfy the updated second gesture recognition criterion (e.g., the input based on the second part of the input (e.g., without considering whether the second part of the input satisfies the first gesture recognition criterion or the original second gesture recognition criterion). (e.g., the second part of the input satisfies the original second gesture recognition criteria before being updated) according to the second object manipulation behavior (based on the orientation and/or size of the part of the input). modifying the appearance of the user interface object according to the first object manipulation behavior without changing the appearance of the user interface object; and the first portion of the input satisfies the second gesture recognition criterion. , following a determination that the second portion of the input does not satisfy the updated first gesture recognition criterion (e.g., the second portion of the input does not satisfy the second gesture recognition criterion or the original first gesture recognition criterion). the first object manipulation based on the second portion of the input (e.g., based on the orientation and/or magnitude of the second portion of the input) without regard to whether the gesture recognition criteria are met; the second object manipulation behavior without changing the appearance of the user interface object (e.g., even if the second part of the input satisfies the original first gesture recognition before being updated). changing the appearance of the user interface object according to the method.

いくつかの実施形態(19012)では、入力の第1の部分が、第1のジェスチャ認識基準を満たした後、入力の第2の部分に基づいて、第1のオブジェクト操作挙動にしたがって、ユーザーインターフェースオブジェクトの外観が変更される一方、入力の第2の部分は、(例えば、閾値が増加される前に、第2のジェスチャ認識基準における入力の移動パラメータに関する元の閾値を用いて、)第2のジェスチャ認識基準が更新される前に、第2のジェスチャ認識基準を満たす入力を含んでいる(例えば、入力の第2の部分は、更新された第2のジェスチャ認識基準を満たす入力を含んでいない)。 In some embodiments (19012), after the first portion of the input satisfies the first gesture recognition criteria, the user interface is configured according to the first object manipulation behavior based on the second portion of the input. While the appearance of the object is changed, the second portion of the input is changed to a second portion (e.g., using the original threshold for the movement parameter of the input in the second gesture recognition criterion before the threshold is increased). (e.g., the second portion of the input includes input that satisfies the updated second gesture recognition criteria). not present).

いくつかの実施形態(19014)では、ユーザーインターフェースオブジェクトの外観は、入力の第1の部分が、第2のジェスチャ認識基準を満たした後、入力の第2の部分に基づいて、第2のオブジェクト操作挙動にしたがって変更される一方、入力の第2の部分は、(例えば、閾値が増加される前に、第1のジェスチャ認識基準における入力の移動パラメータのための元の閾値を用いて、)第1のジェスチャ認識基準が更新される前に、第1のジェスチャ認識基準を満たす入力を含む(例えば、入力の第2の部分は、更新された第1のジェスチャ認識基準を満たす入力を含まない)。 In some embodiments (19014), the appearance of the user interface object changes to the second object based on the second portion of the input after the first portion of the input satisfies the second gesture recognition criteria. while the second part of the input is changed according to the manipulation behavior (e.g., with the original threshold for the movement parameter of the input in the first gesture recognition criterion before the threshold is increased) includes input that satisfies the first gesture recognition criterion before the first gesture recognition criterion is updated (e.g., the second portion of the input does not contain input that satisfies the updated first gesture recognition criterion) ).

いくつかの実施形態(19016)では、ユーザーインターフェースオブジェクトの外観は、入力の第1の部分が、第1のジェスチャ認識基準を満たした後、入力の第2の部分に基づいて、第1のオブジェクト操作挙動にしたがって変更される一方、入力の第2の部分は、(例えば、第1のジェスチャ認識基準における入力の移動パラメータのための元の閾値を用いた)第1のジェスチャ認識基準を満たす入力を含まない。例えば、第1のジェスチャ認識基準が満たされると、入力は、第1のオブジェクト操作挙動を引き起こすために、もはや第1のジェスチャ認識基準を満たし続ける必要はない。 In some embodiments (19016), the appearance of the user interface object changes from the first object based on the second portion of the input after the first portion of the input satisfies the first gesture recognition criteria. the second portion of the input is modified according to the manipulation behavior, while the second portion of the input satisfies the first gesture recognition criterion (e.g., using the original thresholds for the movement parameters of the input in the first gesture recognition criterion). Does not include. For example, once the first gesture recognition criterion is met, the input no longer needs to continue to satisfy the first gesture recognition criterion in order to cause the first object manipulation behavior.

いくつかの実施形態(19018)では、ユーザーインターフェースオブジェクトの外観は、入力の第1の部分が、第2のジェスチャ認識基準を満たした後、入力の第2の部分に基づいて、第2のオブジェクト操作挙動にしたがって変更される一方、入力の第2の部分は、(例えば、第2のジェスチャ認識基準における入力の移動パラメータのための元の閾値を用いた)第2のジェスチャ認識基準を満たす入力を含まない。例えば、第2のジェスチャ認識基準が満たされると、入力は、第2のオブジェクト操作挙動を引き起こすために、もはや第2のジェスチャ認識基準を満たし続ける必要はない。入力の第2の部分が、増加された閾値を超えて増加する移動を含む場合に、第1のオブジェクト操作挙動を実行することは、(例えば、ユーザーに対して新たな入力を提供するように要求することなく、増加された基準を満たすことによって第1のオブジェクト操作を実行した後、第2のオブジェクト操作を意図的に実行する能力をユーザーに提供することによって、)デバイスの操作性を高める。操作を実行するために必要とされる入力数を低減することは、デバイスの操作性を改善し、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments (19018), the appearance of the user interface object changes to the second object based on the second portion of the input after the first portion of the input satisfies the second gesture recognition criteria. the second portion of the input is modified according to the manipulation behavior, while the second portion of the input satisfies the second gesture recognition criterion (e.g., using the original threshold for the movement parameter of the input in the second gesture recognition criterion). Does not include. For example, once the second gesture recognition criterion is met, the input no longer needs to continue to satisfy the second gesture recognition criterion in order to cause the second object manipulation behavior. Performing the first object manipulation behavior when the second portion of the input includes increasing movement beyond the increased threshold (e.g., providing new input to the user) enhance the usability of the device (by providing the user with the ability to intentionally perform a second object operation after performing a first object operation by meeting increased criteria without requiring the user to do so); . Reducing the number of inputs required to perform an operation improves the usability of the device and makes the user device interface more efficient. This further reduces power usage and improves the device's battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、入力の第2の部分に基づいて、ユーザーインターフェースオブジェクトの外観を更新することは入力の第1の部分が、第2のジェスチャ認識基準を満たし、入力の第2の部分が、更新された第1のジェスチャ認識基準を満たすとの判定にしたがって、入力の第2の部分に基づいて、第1のオブジェクト操作挙動にしたがってユーザーインターフェースオブジェクトの外観を変更し、入力の第2の部分に基づいて、第2のオブジェクト操作挙動にしたがってユーザーインターフェースオブジェクトの外観を変更することと、入力の第1の部分が、第1のジェスチャ認識基準を満たし、入力の第2の部分が、更新された第2のジェスチャ認識基準を満たすとの判定にしたがって、入力の第2の部分に基づいて、第1のオブジェクト操作挙動にしたがってユーザーインターフェースオブジェクトの外観を変更し、入力の第2の部分に基づいて、第2のオブジェクト操作挙動にしたがってユーザーインターフェースオブジェクトの外観を変更することと、を含む(19020)。例えば、第1のジェスチャ認識基準がまず満たされ、その後、入力が更新された第2のジェスチャ認識基準を満たした後、入力は、第1及び第2の両方のオブジェクト操作挙動を引き起こすことができる。例えば、第2のジェスチャ認識基準がまず満たされ、その後、入力が更新された第1のジェスチャ認識基準を満たした後、入力は、第1及び第2の両方のオブジェクト操作挙動を引き起こすことができる。第2のジェスチャ認識基準及び更新された第1のジェスチャ認識基準が満たされた後に検出された入力の一部に応じて、第1のオブジェクト操作挙動及び第2のオブジェクト操作挙動にしたがってオブジェクトを更新することは、(例えば、ユーザーに対して新たな入力を提供するように要求することなく、増加された閾値を満たした後、第1のオブジェクト操作及び第2のオブジェクト操作を使用して、オブジェクトを自由に操作する能力を、ユーザーへ提供することによって、)デバイスの操作性を高める。操作を実行するために必要とされる入力数を低減することは、デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, updating the appearance of the user interface object based on the second portion of the input includes determining whether the first portion of the input satisfies a second gesture recognition criterion and the second portion of the input changes the appearance of the user interface object according to the first object manipulation behavior based on the second portion of the input, and changes the appearance of the user interface object according to the first object manipulation behavior based on the second portion of the input. changing the appearance of a user interface object according to a second object manipulation behavior based on the first portion of the input, the first portion of the input satisfying the first gesture recognition criterion; modifying the appearance of the user interface object according to the first object manipulation behavior based on the second portion of the input in accordance with the determination that the updated second gesture recognition criterion is satisfied; and modifying the appearance of the user interface object according to the second object manipulation behavior based on the second object manipulation behavior (19020). For example, after a first gesture recognition criterion is first met and then the input satisfies an updated second gesture recognition criterion, the input can cause both the first and second object manipulation behavior. . For example, after the second gesture recognition criterion is first met and then the input satisfies the updated first gesture recognition criterion, the input can cause both the first and second object manipulation behavior. . Update the object according to the first object manipulation behavior and the second object manipulation behavior in response to the second gesture recognition criterion and the portion of the input detected after the updated first gesture recognition criterion is satisfied. (e.g., using the first object operation and the second object operation after satisfying the increased threshold without requiring the user to provide new input) (by providing the user with the ability to freely operate the device). Reducing the number of inputs required to perform an operation increases the usability of the device and makes the user device interface more efficient. This further reduces power usage and improves the device's battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、入力の第2の部分に基づいて、ユーザーインターフェースオブジェクトの外観を更新した後(例えば、第1のジェスチャ認識基準と更新された第2のジェスチャ認識基準との両方が満たされた後、又は、第2のジェスチャ認識基準と更新された第1のジェスチャ認識基準との両方が満たされた後)、デバイスは、(例えば、入力の第1及び第2の部分において連続的に維持されている同じ接触によって、又は、入力の第1の部分及び第2の部分の接触の終了(例えば、リフトオフ)後に検出された異なる接触によって)入力の第3の部分を検出する(19022)。入力の第3の部分を検出することに応じて、デバイスは、入力の第3の部分に基づいて、ユーザーインターフェースオブジェクトの外観を更新する(19024)。これは、入力の第3の部分に基づいて、第1のオブジェクト操作挙動にしたがって、ユーザーインターフェースオブジェクトの外観を変更することと、入力の第3の部分に基づいて、第2のオブジェクト操作挙動にしたがって、ユーザーインターフェースオブジェクトの外観を変更することとを含む。例えば、第1のジェスチャ認識基準と更新された第2のジェスチャ認識基準との両方が満たされた後、又は、第2のジェスチャ認識基準と更新された第1のジェスチャ認識基準との両方が満たされた後、入力は、元の又は更新された第1及び第2のジェスチャ認識基準の閾値を考慮せずに、後続して、第1及び第2のオブジェクト操作挙動をともに引き起こすことができる。第2のジェスチャ認識基準及び更新された第1のジェスチャ認識基準が満たされた後に検出された入力の一部に応じて、第1のオブジェクト操作挙動及び第2のオブジェクト操作挙動にしたがってオブジェクトを更新することは、(例えば、ユーザーに対して新たな入力を提供するように要求することなく、増加された閾値を満たすことによって、第1のオブジェクト操作タイプを実行する意図を確証した後、第1のオブジェクト操作及び第2のオブジェクト操作を使用して、オブジェクトを自由に操作する能力を、ユーザーへ提供することによって、)デバイスの操作性を高める。操作を実行するために必要とされる入力数を低減することは、デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, after updating the appearance of the user interface object based on the second portion of the input (e.g., after both the first gesture recognition criterion and the updated second gesture recognition criterion are met) or after both the second gesture recognition criterion and the updated first gesture recognition criterion are met), the device (e.g., detecting (19022 ). In response to detecting the third portion of the input, the device updates the appearance of the user interface object based on the third portion of the input (19024). This includes changing the appearance of a user interface object according to a first object manipulation behavior based on a third part of the input, and changing the appearance of a user interface object according to a first object manipulation behavior based on a third part of the input. Therefore, it includes changing the appearance of user interface objects. For example, after both the first gesture recognition criterion and the updated second gesture recognition criterion are met, or after both the second gesture recognition criterion and the updated first gesture recognition criterion are met. The input may subsequently cause both the first and second object manipulation behaviors without considering the original or updated first and second gesture recognition criterion thresholds. Update the object according to the first object manipulation behavior and the second object manipulation behavior in response to the second gesture recognition criterion and the portion of the input detected after the updated first gesture recognition criterion is satisfied. performing the first object operation type after establishing the intent to perform the first object operation type (e.g., by satisfying the increased threshold without requesting the user to provide new input). (by providing the user with the ability to freely manipulate objects using the second object manipulation and the second object manipulation). Reducing the number of inputs required to perform an operation increases the usability of the device and makes the user device interface more efficient. This further reduces power usage and improves the device's battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態(19026)では、入力の第3の部分は、第1のジェスチャ認識基準を満たす入力、又は、第2のジェスチャ認識基準を満たす入力を含まない。例えば、第1のジェスチャ認識基準と更新された第2のジェスチャ認識基準との両方が満たされた後、又は、第2のジェスチャ認識基準と更新された第1のジェスチャ認識基準との両方が満たされた後、入力は、元の又は更新された第1及び第2のジェスチャ認識基準の閾値を考慮せずに、後続して、第1及び第2のオブジェクト操作挙動をともに引き起こすことができる。第2のジェスチャ認識基準及び更新された第1のジェスチャ認識基準が満たされた後に検出された入力の一部に応じて、第1のオブジェクト操作挙動及び第2のオブジェクト操作挙動にしたがってオブジェクトを更新することは、(例えば、ユーザーに対して新たな入力を提供するように要求することなく、高められた基準を満たした後、第1のオブジェクト操作及び第2のオブジェクト操作を使用して、オブジェクトを自由に操作する能力を、ユーザーへ提供することによって、)デバイスの操作性を高める。操作を実行するために必要とされる入力数を低減することは、デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments (19026), the third portion of input does not include input that meets the first gesture recognition criterion or input that meets the second gesture recognition criterion. For example, after both the first gesture recognition criterion and the updated second gesture recognition criterion are met, or after both the second gesture recognition criterion and the updated first gesture recognition criterion are met. The input may subsequently cause both the first and second object manipulation behaviors without considering the original or updated first and second gesture recognition criterion thresholds. Update the object according to the first object manipulation behavior and the second object manipulation behavior in response to the second gesture recognition criterion and the portion of the input detected after the updated first gesture recognition criterion is satisfied. (e.g., using the first object operation and the second object operation after satisfying the increased criteria, without requiring the user to provide new input) (by providing the user with the ability to freely operate the device). Reducing the number of inputs required to perform an operation increases the usability of the device and makes the user device interface more efficient. This further reduces power usage and improves the device's battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、複数のオブジェクト操作挙動が、第3のジェスチャ認識基準(例えば、スケーリング基準)を満たす入力に応じて実行される第3のオブジェクト操作挙動(例えば、ユーザーインターフェースオブジェクトの、それぞれの軸の周りの回転)を含む(19028)。入力の第1の部分に基づいてユーザーインターフェースオブジェクトの外観を更新することは、第2のジェスチャ認識基準を満たす前に、又は、第3のジェスチャ認識基準を満たす前に、入力の第1の部分が、第1のジェスチャ認識基準を満たすとの判定にしたがって、入力の第1の部分に基づいて(例えば、入力の第1の部分の方向及び/又は大きさに基づいて)第1のオブジェクト操作挙動にしたがって、ユーザーインターフェースオブジェクトの外観を変更する(例えば、ユーザーインターフェースオブジェクトを回転させる)ことと、(例えば、第2のオブジェクト操作挙動にしたがってユーザーインターフェースオブジェクトの外観を変化させることなく)第2のジェスチャ認識基準のための閾値を増加させること(例えば、第2のジェスチャ認識基準における移動パラメータ(例えば、移動距離、速度等)のために必要とされる閾値を増加させること)によって第2のジェスチャ認識基準を更新することとを含む(19030)。例えば、オブジェクトを回転させるためのジェスチャを認識するための基準が満たされる前に、(変換又はスケーリングのための基準が以前に満たされていないと仮定して、)変換又はスケーリングのためのジェスチャを認識するための基準を満たすことによって、オブジェクトにおける変換又はスケーリング動作を開始することは比較的容易である。オブジェクトを回転させるためのジェスチャを認識するための基準が満たされると、オブジェクトにおける変換又はスケーリング動作を開始することはより困難になり、(例えば、移動パラメータのための増加された閾値を用いて、変換及びスケーリングのための基準が更新され、)すでに認識され、このオブジェクトを操作するために使用されるジェスチャに対応する操作挙動へ向けて、オブジェクト操作がバイアスされる。デバイスは、第3のジェスチャ認識基準のための閾値を増加させる(例えば、第3のジェスチャ認識基準における移動パラメータ(例えば、移動距離、速度等)のために必要とされる閾値を増加させる)ことによって、第3のジェスチャ認識基準を更新する。例えば、オブジェクトを回転させるためのジェスチャを認識するための基準が満たされる前に、(変換又はスケーリングのための基準が以前に満たされていないと仮定して、)変換又はスケーリングのためのジェスチャを認識するための基準を満たすことによって、オブジェクトにおける変換又はスケーリング動作を開始することは比較的容易である。オブジェクトを回転させるためのジェスチャを認識するための基準が満たされると、オブジェクトにおける変換又はスケーリング動作を開始することはより困難になり、(例えば、移動パラメータのための増加された閾値を用いて、変換及びスケーリングのための基準が更新され、)すでに認識され、このオブジェクトを操作するために使用されるジェスチャに対応する操作挙動へ向けて、オブジェクト操作がバイアスさせる。第1のジェスチャ認識基準を満たす前に、又は、第3のジェスチャ基準を満たす前に、入力が、第2のジェスチャ認識基準を満たすとの判定にしたがって、デバイスは、入力の第1の部分に基づいて(例えば、入力の第1の部分の方向及び/又は大きさに基づいて)第2のオブジェクト操作挙動にしたがって、ユーザーインターフェースオブジェクトの外観を変更(例えば、ユーザーインターフェースオブジェクトを変換、又は、ユーザーインターフェースオブジェクトをリサイズ)し、(例えば、第1のオブジェクト操作挙動にしたがって、ユーザーインターフェースオブジェクトの外観を更新することなく)第1のジェスチャ認識基準のための閾値を増加させること(例えば、第1のジェスチャ認識基準における移動パラメータ(例えば、移動距離、速度等)のために必要とされる閾値を増加させること)によって、第1のジェスチャ認識基準を更新する。例えば、オブジェクトを変換又はスケールするためのジェスチャを認識するための基準が満たされる前に、(オブジェクトを回転させるためのジェスチャを認識するための基準が以前に満たされていないと仮定して、)回転のためのジェスチャを認識するための基準を満たすことによって、オブジェクトにおける回転動作を開始することは比較的容易である。オブジェクトを変換又はスケールするためのジェスチャを認識するための基準が満たされると、オブジェクトにおける回転動作を開始することはより困難になり、(例えば、オブジェクトを回転させるための基準は、移動パラメータのための増加された閾値を用いて更新され、)すでに認識され、このオブジェクトを操作するために使用されているジェスチャに対応する操作挙動へ向けて、オブジェクト操作挙動がバイアスされる。いくつかの実施形態では、ユーザーインターフェースオブジェクトの外観は、入力のそれぞれの移動パラメータの値にしたがって(例えば、異なるサイズ、位置、視点、反射、影等を示して)動的及び連続的に変更される。いくつかの実施形態では、デバイスは、移動パラメータ(例えば、操作挙動の各タイプのためのそれぞれの移動パラメータ)と、ユーザーインターフェースオブジェクトの外観に対してなされた変更(例えば、操作挙動の各タイプのための外観のそれぞれの態様)との間であらかじめ設定された調和(例えば、操作挙動の各タイプのためのそれぞれの調和)に従う。デバイスは、第3のジェスチャ認識基準のための閾値を増加させること(例えば、第3のジェスチャ認識基準における移動パラメータ(例えば、移動距離、速度等)のために必要とされる閾値を増加させること)によって、第3のジェスチャ認識基準を更新する。例えば、オブジェクトを回転させるためのジェスチャを認識するための基準が満たされる前に、(変換又はスケーリングのための基準が以前に満たされていないと仮定して、)変換又はスケーリングのためのジェスチャを認識するための基準を満たすことによって、オブジェクトにおける変換又はスケーリング動作を開始することは比較的容易である。オブジェクトを回転させるためのジェスチャを認識するための基準が満たされると、オブジェクトにおける変換又はスケーリング動作を開始することはより困難になり、(例えば、移動パラメータのための増加された閾値を用いて、変換及びスケーリングのための基準が更新され、)すでに認識され、このオブジェクトを操作するために使用されるジェスチャに対応する操作挙動へ向けて、オブジェクト操作がバイアスされる。第1のジェスチャ認識基準を満たす前に、又は、第2のジェスチャ基準を満たす前に、入力が、第3のジェスチャ認識基準を満たすとの判定にしたがって、デバイスは、入力の第1の部分に基づいて(例えば、入力の第1の部分の方向及び/又は大きさに基づいて)第3のオブジェクト操作挙動にしたがって、ユーザーインターフェースオブジェクトの外観を変更(例えば、ユーザーインターフェースオブジェクトをリサイズ)し、(例えば、第1のオブジェクト操作挙動及び第2のオブジェクト操作挙動にしたがって、ユーザーインターフェースオブジェクトの外観を更新することなく、)デバイスは、第1のジェスチャ認識基準のための閾値を増加させること(例えば、第1のジェスチャ認識基準における移動パラメータ(例えば、移動距離、速度等)のために必要とされる閾値を増加させること)によって、第1のジェスチャ認識基準を更新する。例えば、オブジェクトを変換又はスケールするためのジェスチャを認識するための基準が満たされる前に、(オブジェクトを回転させるためのジェスチャを認識するための基準が以前に満たされていないと仮定して、)回転のためのジェスチャを認識するための基準を満たすことによって、オブジェクトにおける回転動作を開始することは比較的容易である。オブジェクトを変換又はスケールするためのジェスチャを認識するための基準が満たされると、オブジェクトにおける回転動作を開始することはより困難になり、(例えば、オブジェクトを回転させるための基準は、移動パラメータのための増加された閾値を用いて更新され、)すでに認識され、このオブジェクトを操作するために使用されているジェスチャに対応する操作挙動へ向けて、オブジェクト操作挙動がバイアスされる。いくつかの実施形態では、ユーザーインターフェースオブジェクトの外観は、入力のそれぞれの移動パラメータの値にしたがって(例えば、異なるサイズ、位置、視点、反射、影等を示して)動的及び連続的に変更される。いくつかの実施形態では、デバイスは、移動パラメータ(例えば、操作挙動の各タイプのためのそれぞれの移動パラメータ)と、ユーザーインターフェースオブジェクトの外観に対してなされた変更(例えば、操作挙動の各タイプのための外観のそれぞれの態様)との間であらかじめ設定された調和(例えば、操作挙動の各タイプのためのそれぞれの調和)に従う。デバイスは、第2のジェスチャ認識基準のための閾値を増加させること(例えば、第2のジェスチャ認識基準における移動パラメータ(例えば、移動距離、速度等)のために必要とされる閾値を増加させること)によって第2のジェスチャ認識基準を更新する。例えば、オブジェクトを回転させるためのジェスチャを認識するための基準が満たされる前に、(変換又はスケーリングのための基準が以前に満たされていないと仮定して、)変換又はスケーリングのためのジェスチャを認識するための基準を満たすことによって、オブジェクトにおける変換又はスケーリング動作を開始することは比較的容易である。オブジェクトを回転させるためのジェスチャを認識するための基準が満たされると、オブジェクトにおける変換又はスケーリング動作を開始することはより困難になり、(例えば、移動パラメータのための増加された閾値を用いて、変換及びスケーリングのための基準が更新され、)すでに認識され、このオブジェクトを操作するために使用されるジェスチャに対応する操作挙動へ向けて、オブジェクト操作がバイアスさせる。対応する第3のジェスチャ認識基準が満たされた場合にのみ、検出された入力の一部に応じて、第3のオブジェクト操作挙動にしたがってオブジェクトを更新することは、(例えば、第1のオブジェクト操作又は第2のオブジェクト操作を実行するための入力の提供を試みている間に、ユーザーが誤って第3のオブジェクト操作を実行することを回避することを支援することによって)デバイスの操作性を高める。操作を実行するために必要とされる入力数を低減することは、デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the plurality of object manipulation behaviors are performed in response to input satisfying a third gesture recognition criterion (e.g., a scaling criterion). (19028). Updating the appearance of the user interface object based on the first portion of the input includes updating the appearance of the user interface object based on the first portion of the input before satisfying the second gesture recognition criterion; or before satisfying the third gesture recognition criterion. a first object manipulation based on the first portion of the input (e.g., based on the orientation and/or size of the first portion of the input) in accordance with the determination that the first gesture recognition criterion satisfies the first gesture recognition criterion. changing the appearance of the user interface object according to the behavior (e.g., rotating the user interface object); and changing the appearance of the user interface object (e.g., without changing the appearance of the user interface object according to the second object manipulation behavior). the second gesture by increasing the threshold for the gesture recognition criterion (e.g., by increasing the threshold required for the movement parameter (e.g., movement distance, speed, etc.) in the second gesture recognition criterion). and updating recognition criteria (19030). For example, before the criteria for recognizing a gesture for rotating an object are met, the gesture for translation or scaling (assuming that the criteria for translation or scaling were not previously met) is By meeting the criteria for recognition, it is relatively easy to initiate a transformation or scaling operation on an object. Once the criteria for recognizing a gesture to rotate an object is met, it becomes more difficult to initiate a transformation or scaling operation on the object (e.g. with an increased threshold for the movement parameter). Criteria for translation and scaling are updated to bias object manipulation toward manipulation behavior that corresponds to gestures already recognized and used to manipulate this object. The device increases the threshold for the third gesture recognition criterion (e.g., increases the threshold required for the movement parameter (e.g., movement distance, speed, etc.) in the third gesture recognition criterion). The third gesture recognition standard is updated by: For example, before the criteria for recognizing a gesture for rotating an object are met, the gesture for translation or scaling (assuming that the criteria for translation or scaling were not previously met) is By meeting the criteria for recognition, it is relatively easy to initiate a transformation or scaling operation on an object. Once the criteria for recognizing a gesture to rotate an object is met, it becomes more difficult to initiate a transformation or scaling operation on the object (e.g. with an increased threshold for the movement parameter). Criteria for translation and scaling are updated to bias object manipulation toward manipulation behavior that corresponds to gestures already recognized and used to manipulate this object. In accordance with the determination that the input satisfies the second gesture recognition criterion before the first gesture recognition criterion is satisfied or before the third gesture recognition criterion is satisfied, the device change the appearance of the user interface object (e.g., transform the user interface object or resizing the interface object) and increasing the threshold for the first gesture recognition criterion (e.g., without updating the appearance of the user interface object according to the first object manipulation behavior); updating the first gesture recognition criterion by increasing a required threshold for a movement parameter (eg, movement distance, speed, etc.) in the gesture recognition criterion; For example, before the criteria for recognizing gestures for translating or scaling an object are met (assuming that the criteria for recognizing gestures for rotating an object were not previously met) It is relatively easy to initiate a rotational motion in an object by meeting the criteria for recognizing a gesture for rotation. Once the criteria for recognizing gestures to transform or scale an object are met, it becomes more difficult to initiate a rotational action on the object (e.g., the criteria for rotating an object are (updated with an increased threshold of ) to bias object manipulation behavior toward manipulation behavior corresponding to gestures that have already been recognized and used to manipulate this object. In some embodiments, the appearance of the user interface object is dynamically and continuously changed (e.g., exhibiting different sizes, positions, viewpoints, reflections, shadows, etc.) according to the values of the respective movement parameters of the input. Ru. In some embodiments, the device determines the movement parameters (e.g., respective movement parameters for each type of manipulation behavior) and the changes made to the appearance of the user interface object (e.g., for each type of manipulation behavior). (for example, a respective harmony for each type of operational behavior). The device increases the threshold for the third gesture recognition criterion (e.g., increases the threshold required for the movement parameter (e.g., movement distance, speed, etc.) in the third gesture recognition criterion). ), the third gesture recognition criterion is updated. For example, before the criteria for recognizing a gesture for rotating an object are met, the gesture for translation or scaling (assuming that the criteria for translation or scaling were not previously met) is By meeting the criteria for recognition, it is relatively easy to initiate a transformation or scaling operation on an object. Once the criteria for recognizing a gesture to rotate an object is met, it becomes more difficult to initiate a transformation or scaling operation on the object (e.g. with an increased threshold for the movement parameter). Criteria for translation and scaling are updated to bias object manipulation toward manipulation behavior that corresponds to gestures already recognized and used to manipulate this object. In accordance with the determination that the input satisfies the third gesture recognition criterion before the first gesture recognition criterion is satisfied or before the second gesture recognition criterion is satisfied, the device modifying the appearance of the user interface object (e.g., resizing the user interface object) according to a third object manipulation behavior based on (e.g., based on the orientation and/or size of the first portion of the input); For example, the device may increase the threshold for the first gesture recognition criterion (e.g., without updating the appearance of the user interface object according to the first object manipulation behavior and the second object manipulation behavior). updating the first gesture recognition criterion by increasing a required threshold for a movement parameter (eg, movement distance, speed, etc.) in the first gesture recognition criterion; For example, before the criteria for recognizing gestures for translating or scaling an object are met (assuming that the criteria for recognizing gestures for rotating an object were not previously met) It is relatively easy to initiate a rotational motion in an object by meeting the criteria for recognizing a gesture for rotation. Once the criteria for recognizing gestures to transform or scale an object are met, it becomes more difficult to initiate a rotational action on the object (e.g., the criteria for rotating an object are (updated with an increased threshold of ) to bias object manipulation behavior toward manipulation behavior corresponding to gestures that have already been recognized and used to manipulate this object. In some embodiments, the appearance of the user interface object is dynamically and continuously changed (e.g., exhibiting different sizes, positions, viewpoints, reflections, shadows, etc.) according to the values of the respective movement parameters of the input. Ru. In some embodiments, the device determines the movement parameters (e.g., respective movement parameters for each type of manipulation behavior) and the changes made to the appearance of the user interface object (e.g., for each type of manipulation behavior). (for example, a respective harmony for each type of operational behavior). The device may increase the threshold for the second gesture recognition criterion (e.g., increase the threshold required for a movement parameter (e.g., movement distance, speed, etc.) in the second gesture recognition criterion. ) updates the second gesture recognition criterion. For example, before the criteria for recognizing a gesture for rotating an object are met, the gesture for translation or scaling (assuming that the criteria for translation or scaling were not previously met) is By meeting the criteria for recognition, it is relatively easy to initiate a transformation or scaling operation on an object. Once the criteria for recognizing a gesture to rotate an object is met, it becomes more difficult to initiate a transformation or scaling operation on the object (e.g. with an increased threshold for the movement parameter). Criteria for translation and scaling are updated to bias object manipulation toward manipulation behavior that corresponds to gestures already recognized and used to manipulate this object. Updating the object according to the third object manipulation behavior in response to a portion of the detected input only if a corresponding third gesture recognition criterion is fulfilled (e.g., the first object manipulation behavior or by helping users avoid accidentally performing a third object operation while attempting to provide input to perform a second object operation). . Reducing the number of inputs required to perform an operation increases the usability of the device and makes the user device interface more efficient. This further reduces power usage and improves the device's battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、複数のオブジェクト操作挙動は、第3のジェスチャ認識基準を満たす入力に応じて実行される第3のオブジェクト操作挙動を含み(19032)、第1のジェスチャ認識基準又は第2のジェスチャ認識基準を満たす前に、入力の第1の部分は、第3のジェスチャ認識基準を満たしておらず、入力の第1の部分が、第1のジェスチャ認識基準又は第2のジェスチャ認識基準を満たした後、デバイスは、第3のジェスチャ認識基準のための閾値を増加させることによって、第3のジェスチャ認識基準を更新し、入力の第2の部分は、更新された第1のジェスチャ認識基準又は更新された第2のジェスチャ認識基準を満たす前に、更新された第3のジェスチャ認識基準を満たしていない(例えば、デバイスは、入力の第1の部分が、第1又は第2のジェスチャ認識基準のうちの1つを満たした後、第3のジェスチャ認識基準のための閾値を増加させることによって、第3のジェスチャ認識基準を更新した)。入力の第3の部分を検出することに応じて(19034)、(例えば、入力の第3の部分が、(例えば、更新された、又は、元の)第1又は第2のジェスチャ認識基準を満たしているか否かを考慮することなく、)更新された第3のジェスチャ認識基準を満たすとの判定にしたがって、デバイスは、(例えば、(例えば、たとえ入力の第3の部分が元の第1及び第2のジェスチャ認識基準を満たさなくても)第1及び第2のオブジェクト操作挙動にしたがってユーザーインターフェースオブジェクトの外観を変更しながら)入力の第3の部分に基づいて(例えば、入力の第3の部分の方向及び/又は大きさに基づいて)、第3のオブジェクト操作挙動にしたがって、ユーザーインターフェースオブジェクトの外観を更新する。入力の第3の部分が、更新された第3のジェスチャ認識基準を満たさないとの判定にしたがって、デバイスは、(例えば、(例えば、たとえ入力の第3の部分が元の第1及び第2のジェスチャ認識基準を満たさなくても)第1及び第2のオブジェクト操作挙動にしたがってユーザーインターフェースオブジェクトの外観を変更しながら)入力の第3の部分に基づいて、第3のオブジェクト操作挙動にしたがって、ユーザーインターフェースオブジェクトの外観を変更することを控える。第2のジェスチャ認識基準、更新された第1のジェスチャ認識基準、及び、更新された第3のジェスチャ認識基準が満たされた後に検出された入力の一部に応じて、第1のオブジェクト操作挙動、第2のオブジェクト操作挙動、及び第3のオブジェクト操作挙動にしたがってオブジェクトを更新することは、(例えば、ユーザーに対して新たな入力を提供するように要求することなく、増加された閾値を満たすことによって、第1、第2、及び第3の3つすべてのオブジェクト操作タイプを実行する意図を確立した後、ユーザーへ、第1、第2、及び第3のオブジェクト操作タイプを使用して、オブジェクトを自由に操作する能力をユーザーへ提供することによって、)デバイスの操作性を高める。操作を実行するために必要とされる入力数を低減することは、デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the plurality of object manipulation behaviors include a third object manipulation behavior performed in response to an input satisfying a third gesture recognition criterion (19032), the first gesture recognition criterion or the second gesture recognition criterion. The first portion of the input does not satisfy the third gesture recognition criterion before the first portion of the input satisfies the first gesture recognition criterion or the second gesture recognition criterion. , the device updates the third gesture recognition criterion by increasing the threshold for the third gesture recognition criterion, and the second part of the input is the updated first gesture recognition criterion. The updated third gesture recognition criterion is not met before the criterion or the updated second gesture recognition criterion is met (e.g., the device recognizes that the first portion of the input After meeting one of the recognition criteria, the third gesture recognition criterion was updated by increasing the threshold for the third gesture recognition criterion). In response to detecting (19034) the third portion of the input (e.g., the third portion of the input matches the (e.g., updated or original) first or second gesture recognition criteria). In accordance with the determination that the updated third gesture recognition criterion is satisfied (without regard to whether the third portion of the input is based on the third portion of the input (e.g., while changing the appearance of the user interface object according to the first and second object manipulation behaviors) even if the second gesture recognition criterion is not satisfied. updating the appearance of the user interface object according to a third object manipulation behavior (based on the orientation and/or size of the portion of the object). In accordance with the determination that the third portion of the input does not meet the updated third gesture recognition criteria, the device may (e.g., based on the third portion of the input (while changing the appearance of the user interface object according to the first and second object manipulation behaviors) according to the third object manipulation behavior; Refrain from changing the appearance of user interface objects. the first object manipulation behavior in response to a portion of the input detected after the second gesture recognition criterion, the updated first gesture recognition criterion, and the updated third gesture recognition criterion are met; , the second object manipulation behavior, and the third object manipulation behavior (e.g., satisfying the increased threshold without requiring the user to provide new input). After establishing the intent to perform all three of the first, second, and third object operation types by: (by providing the user with the ability to freely manipulate objects) enhance the usability of the device. Reducing the number of inputs required to perform an operation increases the usability of the device and makes the user device interface more efficient. This further reduces power usage and improves the device's battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態(19036)では、入力の第3の部分は、更新された第3のジェスチャ認識基準を満たした。入力の第3の部分に基づいて、ユーザーインターフェースオブジェクトの外観を更新した後(例えば、第1のジェスチャ認識基準、及び、更新された第2及び第3のジェスチャ認識基準の両方が満たされた後、又は、第2のジェスチャ認識基準、及び、更新された第1及び第3のジェスチャ認識基準の両方が満たされた後)、デバイスは、(例えば、入力の第1、第2、及び第3の部分において連続的に維持されている同じ接触によって、又は、入力の第1の部分、第2及び第3の部分における接触の終了(例えば、リフトオフ)後に検出された異なる接触によって、)入力の第4の部分を検出する(19038)。入力の第4の部分を検出することに応じて、デバイスは、入力の第4の部分に基づいて、ユーザーインターフェースオブジェクトの外観を更新する(19040)。これは、入力の第4の部分に基づいて、第1のオブジェクト操作挙動にしたがって、ユーザーインターフェースオブジェクトの外観を変更することと、入力の第4の部分に基づいて、第2のオブジェクト操作挙動にしたがって、ユーザーインターフェースオブジェクトの外観を変更することと、入力の第4の部分に基づいて、第3のオブジェクト操作挙動にしたがって、ユーザーインターフェースオブジェクトの外観を変更することと、を含む。例えば、第1のジェスチャ認識基準、及び、更新された第2及び第3のジェスチャ認識基準が満たされた後、又は、第2のジェスチャ認識基準、及び、更新された第1及び第3のジェスチャ認識基準が満たされた後、入力は、元の又は更新された第1、第2、及び第3のジェスチャ認識基準における閾値を考慮することなく、後続して、3つすべてのタイプの操作挙動を引き起こし得る。 In some embodiments (19036), the third portion of the input met an updated third gesture recognition criterion. After updating the appearance of the user interface object based on the third portion of the input (e.g., after both the first gesture recognition criterion and the updated second and third gesture recognition criteria are met) , or after both the second gesture recognition criterion and the updated first and third gesture recognition criteria are met), the device (e.g., of the input (by the same contact maintained continuously in the first, second, and third parts of the input) or by different contacts detected after termination (e.g., lift-off) of the contact in the first, second, and third parts of the input). A fourth portion is detected (19038). In response to detecting the fourth portion of the input, the device updates the appearance of the user interface object based on the fourth portion of the input (19040). This includes changing the appearance of a user interface object according to a first object manipulation behavior based on a fourth part of the input, and changing the appearance of a user interface object according to a first object manipulation behavior based on a fourth part of the input. Accordingly, the method includes changing the appearance of the user interface object, and based on the fourth portion of the input, changing the appearance of the user interface object according to the third object manipulation behavior. For example, after the first gesture recognition criterion and the updated second and third gesture recognition criteria are met, or the second gesture recognition criterion and the updated first and third gesture After the recognition criteria are met, the input is subsequently processed for all three types of manipulation behavior without considering the thresholds in the original or updated first, second, and third gesture recognition criteria. can cause

いくつかの実施形態では、入力の第4の部分は第1のジェスチャ認識基準を満たす入力、第2のジェスチャ認識基準を満たす入力、又は、第3のジェスチャ認識基準を満たす入力を含まない(19042)。例えば、第1のジェスチャ認識基準、及び、更新された第2及び第3のジェスチャ認識基準が満たされた後、又は、第2のジェスチャ認識基準、及び、更新された第1及び第3のジェスチャ認識基準が満たされた後、入力は、元の又は更新された第1、第2、及び第3のジェスチャ認識基準における閾値を考慮することなく、後続して、3つすべてのタイプの操作挙動を引き起こし得る。ジェスチャのために同時に検出される接触数を必要とすることは、(例えば、必要とされる同時検出される接触数未満の入力を提供している間、ユーザーが誤ってオブジェクト操作を実行することを回避することを支援することによって)デバイスの操作性を高める。操作を実行するために必要とされる入力数を低減することは、デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the fourth portion of input does not include input that meets the first gesture recognition criterion, input that meets the second gesture recognition criterion, or input that meets the third gesture recognition criterion (19042 ). For example, after the first gesture recognition criterion and the updated second and third gesture recognition criteria are met, or the second gesture recognition criterion and the updated first and third gesture After the recognition criteria are met, the input is subsequently processed for all three types of manipulation behavior without considering the thresholds in the original or updated first, second, and third gesture recognition criteria. can cause Requiring a number of concurrently detected contacts for a gesture (e.g., the user may accidentally perform an object manipulation while providing less than the required number of concurrently detected contacts) improve the usability of your device (by helping you avoid problems). Reducing the number of inputs required to perform an operation increases the usability of the device and makes the user device interface more efficient. This further reduces power usage and improves the device's battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態(19044)では、第1のジェスチャ認識基準及び第2のジェスチャ認識基準(及び第3のジェスチャ認識基準)はともに、満たされるために、同時に検出される第1の接触数(例えば、2つの接触)を必要とする。いくつかの実施形態では、変換のために、1本指ジェスチャもまた使用され得、1本指変換閾値は、2本指変換閾値よりも低い。いくつかの実施形態では、2本指変換ジェスチャのために設定された元の及び更新された移動閾値は、接触の重心によるそれぞれ40ポイント及び70ポイントの移動である。いくつかの実施形態では、2本指回転ジェスチャのために設定された元の及び更新された移動閾値は、それぞれ接触による12度及び18度の回転移動である。いくつかの実施形態では、2本指スケーリングジェスチャのために設定された元の及び更新された移動閾値は、それぞれ50ポイント(接触間距離)及び90ポイントである。いくつかの実施形態では、1本指ドラッグジェスチャのために設定された閾値は30ポイントである。 In some embodiments (19044), the first gesture recognition criterion and the second gesture recognition criterion (and the third gesture recognition criterion) are both satisfied when the first number of contacts detected simultaneously ( e.g., two contacts). In some embodiments, one-finger gestures may also be used for translation, and the one-finger translation threshold is lower than the two-finger translation threshold. In some embodiments, the original and updated movement thresholds set for a two-finger translation gesture are 40 points and 70 points of movement, respectively, by the centroid of the contact. In some embodiments, the original and updated movement thresholds set for a two-finger rotation gesture are 12 degrees and 18 degrees of rotational movement on contact, respectively. In some embodiments, the original and updated movement thresholds set for a two-finger scaling gesture are 50 points (distance between contacts) and 90 points, respectively. In some embodiments, the threshold set for a one finger drag gesture is 30 points.

いくつかの実施形態(19046)では、第1のオブジェクト操作挙動は、ユーザーインターフェースオブジェクトのズームレベル又は表示サイズを変更し(例えば、(例えば、ピンチジェスチャが、(例えば、元の又は更新された)第1のジェスチャ認識基準に基づいて認識された後に、互いに向かう接触の移動のような)ピンチジェスチャによってオブジェクトをリサイズし)、第2のオブジェクト操作挙動が、ユーザーインターフェースオブジェクトの回転角度を変化させる(例えば、(例えば、ツイスト/旋回ジェスチャが(例えば、元の又は更新された)第2のジェスチャ認識基準によって認識された後、例えば共通の地点の周りの接触の移動のような)ツイスト/旋回ジェスチャによって外部又は内部軸の周りのユーザーインターフェースオブジェクトのビューイング視点を変化させる)。例えば、第1のオブジェクト操作挙動は、図14G~図14Iに関して説明されるように、仮想オブジェクト11002の表示サイズを変更し、第2のオブジェクト操作挙動は、図14B~図14Eに関して説明されるように、仮想オブジェクト11002の回転角度を変化させる。いくつかの実施形態では、第2のオブジェクト操作挙動は、ユーザーインターフェースオブジェクトのズームレベル又は表示サイズを変更し(例えば、(例えば、ピンチジェスチャが、(例えば、元の又は更新された)第2のジェスチャ認識基準に基づいて認識された後に、互いに向かう接触の移動のような)ピンチジェスチャによってオブジェクトをリサイズし)、第1のオブジェクト操作挙動が、ユーザーインターフェースオブジェクトの回転角度を変化させる(例えば、(例えば、ツイスト/旋回ジェスチャが(例えば、元の又は更新された)第1のジェスチャ認識基準によって認識された後の、例えば共通の地点の周りの接触の移動のような)ツイスト/旋回ジェスチャによって外部又は内部軸の周りのユーザーインターフェースオブジェクトのビューイング視点を変化させる)。 In some embodiments (19046), the first object manipulation behavior changes the zoom level or display size of the user interface object (e.g., the pinch gesture (e.g., original or updated) After being recognized based on the first gesture recognition criterion, the second object manipulation behavior changes the rotation angle of the user interface object (such as a pinch gesture (such as a movement of contacts toward each other)), and the second object manipulation behavior changes the rotation angle of the user interface object ( For example, a twist/swivel gesture (e.g., movement of the contact around a common point) after the twist/swivel gesture is recognized by a second gesture recognition criterion (e.g., original or updated). changing the viewing perspective of user interface objects around an external or internal axis). For example, a first object manipulation behavior changes the display size of virtual object 11002, as described with respect to FIGS. 14G-14I, and a second object manipulation behavior, as described with respect to FIGS. 14B-14E. , the rotation angle of the virtual object 11002 is changed. In some embodiments, the second object manipulation behavior changes the zoom level or display size of the user interface object (e.g., when a pinch gesture After being recognized based on gesture recognition criteria, the first object manipulation behavior changes the rotation angle of the user interface object (e.g., ( For example, by a twist/swivel gesture (e.g. movement of a contact around a common point) after the twist/swivel gesture has been recognized by a first gesture recognition criterion (e.g. original or updated). or changing the viewing perspective of user interface objects around internal axes).

いくつかの実施形態(19048)では、第1のオブジェクト操作挙動は、ユーザーインターフェースオブジェクトのズームレベル又は表示サイズを変更し(例えば、(例えば、ピンチジェスチャが、(例えば、元の又は更新された)第1のジェスチャ認識基準に基づいて認識された後に、互いに向かう接触の移動のような)ピンチジェスチャによってオブジェクトをリサイズし)、第2のオブジェクト操作挙動が、第1のユーザーインターフェース領域におけるユーザーインターフェースオブジェクトの位置を変化させる(例えば、(例えば、ドラッグジェスチャが(例えば、元の又は更新された)第2のジェスチャ認識基準によって認識された後、例えばそれぞれの方向における接触の移動のような)1本指又は2本指のドラッグジェスチャによってユーザーインターフェースオブジェクトをドラッグする)。例えば、第1のオブジェクト操作挙動は、図14G~図14Iに関して説明されるように、仮想オブジェクト11002の表示サイズを変更し、第2のオブジェクト操作挙動は、図14B~図14Eに関して説明されるように、ユーザーインターフェースにおける仮想オブジェクト11002の位置を変化させる。いくつかの実施形態では、第2のオブジェクト操作挙動は、ユーザーインターフェースオブジェクトのズームレベル又は表示サイズを変更し(例えば、(例えば、ピンチジェスチャが、(例えば、元の又は更新された)第2のジェスチャ認識基準に基づいて認識された後に、互いに向かう接触の移動のような)ピンチジェスチャによってオブジェクトをリサイズし)、第1のオブジェクト操作挙動が、第1のユーザーインターフェース領域におけるユーザーインターフェースオブジェクトの位置を変化させる(例えば、(例えば、ドラッグジェスチャが(例えば、元の又は更新された)第1のジェスチャ認識基準によって認識された後、例えばそれぞれの方向における接触の移動のような)1本指又は2本指のドラッグジェスチャによってユーザーインターフェースオブジェクトをドラッグする)。 In some embodiments (19048), the first object manipulation behavior changes the zoom level or display size of the user interface object (e.g., a pinch gesture (e.g., original or updated) resizing the object by a pinch gesture (such as a movement of contact toward each other) after being recognized based on the first gesture recognition criteria; (e.g., after the drag gesture is recognized by the (e.g., original or updated) second gesture recognition criterion, e.g., the movement of the contact in the respective direction) Drag user interface objects with a finger or two-finger drag gesture). For example, a first object manipulation behavior changes the display size of virtual object 11002, as described with respect to FIGS. 14G-14I, and a second object manipulation behavior, as described with respect to FIGS. 14B-14E. , the position of the virtual object 11002 on the user interface is changed. In some embodiments, the second object manipulation behavior changes the zoom level or display size of the user interface object (e.g., when a pinch gesture the first object manipulation behavior resizes the object by a pinch gesture (such as a movement of the contacts toward each other) after being recognized based on the gesture recognition criteria; changing (e.g., one or two fingers (e.g., movement of the touch in each direction after the drag gesture has been recognized by the (e.g., original or updated) first gesture recognition criterion) (drag user interface objects using a two-finger drag gesture).

いくつかの実施形態(19050)では、第1のオブジェクト操作挙動は、第1のユーザーインターフェース領域におけるユーザーインターフェースオブジェクトの位置を変更し(例えば、(例えば、ドラッグジェスチャが(例えば、元の又は更新された)第1のジェスチャ認識基準によって認識された後の、例えばそれぞれの方向における接触の移動のような)1本指又は2本指のドラッグジェスチャによってオブジェクトをドラッグし)、第2のオブジェクト操作挙動が、ユーザーインターフェースオブジェクトの回転角度を変化させる(例えば、(例えば、ツイスト/旋回ジェスチャが(例えば、元の又は更新された)第2のジェスチャ認識基準によって認識された後、例えば共通の地点の周りの接触の移動のような)ツイスト/旋回ジェスチャによって外部又は内部軸の周りのユーザーインターフェースオブジェクトのビューイング視点を変化させる)。例えば、第1のオブジェクト操作挙動は、図14B~図14Eに関して説明されるように、ユーザーインターフェースにおける仮想オブジェクト11002の位置を変更し、第2のオブジェクト操作挙動は、図14B~図14Eに関して説明されるように、仮想オブジェクト11002の回転角度を変化させる。いくつかの実施形態では、第2のオブジェクト操作挙動が、第1のユーザーインターフェース領域におけるユーザーインターフェースオブジェクトの位置を変化させ(例えば、(例えば、ドラッグジェスチャが(例えば、元の又は更新された)第2のジェスチャ認識基準によって認識された後、例えばそれぞれの方向における接触の移動のような)1本指又は2本指のドラッグジェスチャによってオブジェクトをドラッグし)、第1のオブジェクト操作挙動が、ユーザーインターフェースオブジェクトの回転角度を変化させる(例えば、(例えば、ツイスト/旋回ジェスチャが(例えば、元の又は更新された)第1のジェスチャ認識基準によって認識された後、例えば共通の地点の周りの接触の移動のような)ツイスト/旋回ジェスチャによって外部又は内部軸の周りのユーザーインターフェースオブジェクトのビューイング視点を変化させる)。 In some embodiments (19050), the first object manipulation behavior changes the position of the user interface object in the first user interface area (e.g., when a drag gesture (e.g., original or updated) and) a second object manipulation behavior (dragging the object by a one-finger or two-finger drag gesture, e.g. movement of the contact in each direction) after being recognized by the first gesture recognition criterion); changes the rotation angle of the user interface object (e.g. around a common point, e.g. after the twist/swivel gesture is recognized by the (e.g. original or updated) second gesture recognition criterion) changing the viewing perspective of user interface objects around external or internal axes by twist/swivel gestures (such as movement of contacts). For example, a first object manipulation behavior changes the position of the virtual object 11002 in the user interface, as described with respect to FIGS. 14B-14E, and a second object manipulation behavior is described with respect to FIGS. 14B-14E. The rotation angle of the virtual object 11002 is changed so that the rotation angle of the virtual object 11002 is changed. In some embodiments, the second object manipulation behavior changes the position of the user interface object in the first user interface area (e.g., the drag gesture changes the position of the (e.g., original or updated) After being recognized by the second gesture recognition criteria, the first object manipulation behavior (e.g. movement of the contact in each direction) by dragging the object by a one-finger or two-finger drag gesture) is performed on the user interface. changing the rotation angle of the object (e.g. after the twist/swivel gesture has been recognized by the (e.g. original or updated) first gesture recognition criterion, e.g. movement of the contact around a common point) (such as) changing the viewing perspective of a user interface object around an external or internal axis by twist/swivel gestures).

いくつかの実施形態(19052)では、入力の第1の部分及び入力の第2の部分が、複数の連続して維持された接触によって提供される。デバイスは、複数の連続的に維持された接触のリフトオフを検出した後、追加の第1及び第2のオブジェクト操作挙動を開始するために、(例えば、元の閾値を備えた)第1のジェスチャ認識基準及び第2のジェスチャ認識基準を再確立する(19054)。例えば、接触のリフトオフの後、デバイスは、新たに検出されたタッチ入力のための回転、変換、及びスケーリングのためのジェスチャ認識閾値を再確立する。入力が、接触のリフトオフによって終了された後、入力移動のための閾値を再確立することは、(例えば、新たな入力が提供される毎に、増加された移動閾値を再設定することによって、オブジェクト操作を実行するために必要とされる入力の程度を低減することによって)デバイスの操作性を高める。操作を実行するために必要とされる入力の程度を低減することは、デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments (19052), the first portion of input and the second portion of input are provided by a plurality of consecutively maintained contacts. After the device detects lift-off of multiple consecutively maintained contacts, the device detects a first gesture (e.g., with the original threshold) to initiate additional first and second object manipulation behaviors. The recognition criteria and the second gesture recognition criteria are re-established (19054). For example, after touch liftoff, the device reestablishes gesture recognition thresholds for rotation, translation, and scaling for newly detected touch inputs. Reestablishing the threshold for input movement after the input has been terminated by contact lift-off (e.g., by resetting the increased movement threshold each time a new input is provided) Increase the usability of the device (by reducing the degree of input required to perform object operations). Reducing the degree of input required to perform an operation increases the usability of the device and makes the user device interface more efficient. This further reduces power usage and improves the device's battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態(19056)では、第1のジェスチャ認識基準は、第1の軸の周りの回転に対応し、第2のジェスチャ認識基準は、第1の軸に直交する第2の軸の周りの回転に対応する。いくつかの実施形態では、異なるタイプのジェスチャのための閾値を更新する代わりに、更新することはまた、(例えば、ツイスト/旋回ジェスチャのような)認識されたジェスチャタイプに対応する操作挙動のタイプ内の(例えば、第1の軸の周りの回転と、異なる軸の周りの回転のような)操作挙動の異なるサブタイプのために設定された閾値に当てはまる。例えば、第1の軸の周りの回転が認識され実行されると、異なる軸の周りの回転の閾値セットが更新され(例えば、増加され)、異なる軸の周りの回転をトリガするために、後続する入力によって超えられる必要がある。入力移動が、第2の軸の周りにオブジェクトを回転させるために必要な入力移動のための閾値を超えて増加した場合、第1の軸の周りにオブジェクトを回転させるために必要な入力移動のための閾値を増加させることは、(例えば、第1の軸の周りにオブジェクトを回転させることを試みている間に、ユーザーが誤って第2の軸の周りにオブジェクトを回転させることを回避することを支援することによって)デバイスの操作性を高める。操作を実行するために必要とされる入力数を低減することは、デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments (19056), the first gesture recognition criterion corresponds to rotation about a first axis, and the second gesture recognition criterion corresponds to rotation about a second axis orthogonal to the first axis. Responds to rotations around it. In some embodiments, instead of updating thresholds for different types of gestures, updating also includes determining the type of manipulation behavior that corresponds to the recognized gesture type (e.g., twist/swivel gesture). thresholds set for different subtypes of manipulation behavior (such as rotations about a first axis and rotations about different axes) within For example, once a rotation about a first axis is recognized and performed, a threshold set for rotations about a different axis is updated (e.g., increased) and used for subsequent rotations about a different axis. need to be exceeded by input. If the input movement increases above the threshold for the input movement required to rotate the object around the second axis, then the input movement required to rotate the object around the first axis increases Increasing the threshold for (e.g. avoids a user accidentally rotating an object around a second axis while trying to rotate an object around a first axis) improve the usability of the device (by assisting users with this). Reducing the number of inputs required to perform an operation increases the usability of the device and makes the user device interface more efficient. This further reduces power usage and improves the device's battery life by allowing the user to use the device more quickly and efficiently.

図19A~図19Hにおける動作が説明された特定の順序は、単なる例であり、説明された順序は、動作が実行され得る唯一の順序であることを示すことは意図されていないことが理解されるべきである。当業者であれば、本明細書で説明された動作を再順序付けするための様々な手法を認識するであろう。それに加えて、本明細書で説明された他の方法(例えば、方法800、900、1000、16000、17000、18000、20000)に関して本明細書で説明された他の処理の詳細はまた、図19A~図19Hに関して上述された方法19000に類似する方式でも適用可能であることが注目されるべきである。例えば、方法19000を参照して上述された接触、入力、仮想オブジェクト、ユーザーインターフェース領域、視野、触知出力、移動、及び/又は、アニメーションは、オプションで、本明細書で説明された他の方法(例えば、方法800、900、1000、16000、17000、18000、20000)を参照して本明細書で説明された接触、入力、仮想オブジェクト、ユーザーインターフェース領域、視野、触知出力、移動、及び/又は、アニメーションからなる特徴のうちの1つ以上を有する。簡略のために、これら詳細は、本明細書において繰り返されない。 It is understood that the particular order in which the operations in FIGS. 19A-19H are described is merely an example, and the described order is not intended to indicate that the operations are the only order in which the operations may be performed. Should. Those skilled in the art will recognize various techniques for reordering the operations described herein. In addition, other processing details described herein with respect to other methods described herein (e.g., methods 800, 900, 1000, 16000, 17000, 18000, 20000) are also shown in FIG. It should be noted that a scheme similar to method 19000 described above with respect to FIGS. 19-19H is also applicable. For example, the contact, input, virtual objects, user interface areas, field of view, tactile output, movement, and/or animation described above with reference to method 19000 may optionally be combined with other methods described herein. (e.g., methods 800, 900, 1000, 16000, 17000, 18000, 20000). Or, it has one or more of the following features: animation. For the sake of brevity, these details are not repeated herein.

図20A~図20Fは、デバイスの移動が、仮想オブジェクトを、1つ以上のデバイスカメラの表示される視野の外側へ移動させるとの判定にしたがって、音声警報を生成する方法20000を例示するフロー図である。方法20000は、表示生成コンポーネント(例えば、ディスプレイ、プロジェクタ、ヘッドアップディスプレイ等)と、1つ以上の入力デバイス(例えば、タッチ感知面、又は、表示生成コンポーネントとタッチ感知面との両方として役立つタッチスクリーンディスプレイ)と、1つ以上の音声出力生成器と、1つ以上のカメラとを有する電子デバイス(例えば、図3のデバイス300、又は、図1Aのポータブル多機能デバイス100)において実行される。方法20000におけるいくつかの動作は、オプションで、組み合わされ、及び/又は、いくつかの動作の順序は、オプションで、変更される。 20A-20F are flow diagrams illustrating a method 20000 for generating an audio alert in accordance with a determination that movement of a device causes a virtual object to move outside the displayed field of view of one or more device cameras. It is. The method 20000 includes a display-generating component (e.g., a display, a projector, a heads-up display, etc.) and one or more input devices (e.g., a touch-sensitive surface, or a touch screen that serves as both a display-generating component and a touch-sensitive surface). display), one or more audio output generators, and one or more cameras (eg, device 300 of FIG. 3 or portable multifunction device 100 of FIG. 1A). Some acts in method 20000 are optionally combined and/or the order of some acts is optionally changed.

デバイスは(例えば、カメラを含むデバイスの周りの物理的環境の拡張現実ビューに仮想オブジェクトを配置するための要求に応じて(例えば、仮想オブジェクトのステージングビューを用いて表示された「ワールド」ボタン上のタップに応じて))、表示生成コンポーネントによって、1つ以上のカメラの視野の表現を含む仮想オブジェクトの表現を、第1のユーザーインターフェース領域内に表示し(例えば、第1のユーザーインターフェース領域は、カメラを含むデバイスを囲む物理的環境の、拡張現実ビューを表示するユーザーインターフェースである)、この表示することは、仮想オブジェクトの表現と、1つ以上のカメラの視野においてキャプチャされた物理的環境において検出されたプレーンとの間の第1の空間的な関係を維持することを含む(例えば、仮想オブジェクトは、仮想オブジェクトの表現とプレーンとの間の固定された角度が維持されるように、ディスプレイ上に、向き及び位置とともに表示される(例えば、仮想オブジェクトは、プレーン上の固定された場所にとどまる、又は、視野面に沿って回転するように見える)(20002)。例えば、図15Vに図示されるように、仮想オブジェクト11002は、1つ以上のカメラの視野6036を含むユーザーインターフェース領域において表示される。 The device (e.g. on the "World" button displayed using a staging view of the virtual object (e.g. (e.g., the first user interface area is , a user interface that displays an augmented reality view of the physical environment surrounding a device that includes a camera), which displays a representation of virtual objects and the physical environment captured in the field of view of one or more cameras. maintaining a first spatial relationship between the virtual object and the detected plane (e.g., the virtual object is configured such that a fixed angle between the representation of the virtual object and the plane is maintained). 15V (e.g., the virtual object appears to remain at a fixed location on the plane or rotate along the viewing plane) on the display (20002). As shown, virtual object 11002 is displayed in a user interface area that includes one or more camera fields of view 6036.

デバイスは、1つ以上のカメラの視野を調節するデバイスの移動(例えば、1つ以上のカメラを含むデバイスの横移動及び/又は回転)を検出する(20004)。例えば、図15V~図15Wに関して説明されるように、デバイス100の移動は、1つ以上のカメラの視野を調節する。 The device detects movement of the device (eg, lateral movement and/or rotation of the device including the one or more cameras) that adjusts the field of view of the one or more cameras (20004). For example, as described with respect to FIGS. 15V-15W, movement of device 100 adjusts the field of view of one or more cameras.

1つ以上のカメラの視野を調節するデバイスの移動を検出することに応じて(20006)、1つ以上のカメラの視野が調節されると、デバイスは、仮想オブジェクトと、1つ以上のカメラの視野内で検出されたプレーンとの間の第1の空間的な関係(例えば、向き及び/又は位置)にしたがって、第1のユーザーインターフェース領域において、仮想オブジェクトの表現の表示を調節し、(例えば、仮想オブジェクトの表現と、1つ以上のカメラの視野においてキャプチャされた物理的環境内で検出されたプレーンとの間の空間的な関係が、デバイスの移動中、物理的環境に対して固定され続けるので、)デバイスの移動が、閾値量(例えば、100%、50%、又は20%)より多くの仮想オブジェクトを、1つ以上のカメラの視野の表示部分の外側へ移動させるとの判定にしたがって、デバイスは、1つ以上の音声出力生成器によって、第1の音声警報(例えば、閾値量より多くの仮想オブジェクトが、カメラビューにはもはや表示されないことを示す音声アナウンスメント)を生成する。例えば、図15Wに関して説明されるように、仮想オブジェクト11002を、1つ以上のカメラの視野6036の表示部分の外側へ移動させるデバイス100の移動に応じて、音声警報15118が生成される。デバイスの移動が、仮想オブジェクトを、表示された拡張現実ビューの外側へ移動させるとの判定にしたがって音声出力を生成することは、デバイスの移動が、拡張現実ビューに関して、仮想オブジェクトの表示に対して影響を与えた程度を示すフィードバックをユーザーへ提供する。改善されたフィードバックをユーザーへ提供することは、(例えば、表示された追加情報でディスプレイを乱すことなく、かつ、ユーザーに対してディスプレイを見ることを要求することなく、仮想オブジェクトがディスプレイを離れたか否かをユーザーが感知することを可能にする情報を提供することによって、)デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In response to detecting movement of the device that adjusts the field of view of the one or more cameras (20006), when the field of view of the one or more cameras is adjusted, the device adjusts the field of view of the one or more cameras. adjusting the display of a representation of the virtual object in a first user interface area according to a first spatial relationship (e.g., orientation and/or position) with a plane detected in the field of view; , the spatial relationship between the representation of the virtual object and the plane detected in the physical environment captured in the field of view of the one or more cameras is fixed relative to the physical environment during movement of the device. (continuing) to determine that movement of the device moves more than a threshold amount (e.g., 100%, 50%, or 20%) of the virtual object outside of the visible portion of the field of view of the one or more cameras. Accordingly, the device generates a first audio alert (eg, an audio announcement indicating that more than a threshold amount of virtual objects are no longer displayed in the camera view) by one or more audio output generators. For example, as described with respect to FIG. 15W, an audio alert 15118 is generated in response to movement of the device 100 that moves the virtual object 11002 outside of the visible portion of the field of view 6036 of one or more cameras. generating audio output in accordance with a determination that the movement of the device causes the virtual object to move outside of the displayed augmented reality view means that the movement of the device causes the virtual object to move outside of the displayed augmented reality view; Provide feedback to users indicating the extent of their impact. Providing improved feedback to the user (e.g., when a virtual object leaves the display without cluttering the display with additional information shown and without requiring the user to look at the display) (by providing information that allows the user to sense whether or not the device is being used) enhances the usability of the device and makes the user device interface more efficient. This further reduces power usage and improves the device's battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第1の音声警報を出力することは、1つ以上のカメラの視野の表示された部分において見えるままである仮想オブジェクトの量(例えば、見えるままである仮想オブジェクトの量は、現在のビューイング視点からの仮想オブジェクトの合計サイズに対して測定される(例えば、20%、25%、50%等))(例えば、音声出力は、「オブジェクトxは、20%見えています」と言う)を示す音声出力を生成することを含む(20008)。例えば、図15X~図15Yに関して説明されるように、仮想オブジェクト11002を、1つ以上のカメラの視野6036の表示部分の外側に部分的に移動させるデバイス100の移動に応じて、「椅子は90%見え、スクリーンの20%を占有しています」を示すアナウンスメント15128を含む音声警報15126が生成される。表示された拡張現実ビューにおいて見える仮想オブジェクトの量を示す音声出力を生成することは、(例えば、デバイスの移動が変化した程度と、仮想オブジェクトが見える度合とを示す)フィードバックをユーザーへ提供する。改善されたフィードバックをユーザーへ提供することは、(例えば、表示された追加情報でディスプレイを乱すことなく、かつ、ユーザーに対してディスプレイを見ることを要求することなく、仮想オブジェクトがディスプレイを離れたか否かをユーザーが感知することを可能にする情報を提供することによって、)デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, outputting the first audible alert includes determining the amount of the virtual object that remains visible in the displayed portion of the field of view of the one or more cameras (e.g., the amount of the virtual object that remains visible). is measured relative to the total size of the virtual object from the current viewing viewpoint (e.g., 20%, 25%, 50%, etc.) 20008). For example, as described with respect to FIGS. 15X-15Y, in response to movement of device 100 that causes virtual object 11002 to partially move outside of the visible portion of one or more cameras' fields of view 6036, "Chair is 90 An audio alert 15126 is generated that includes an announcement 15128 indicating "% visible, occupying 20% of the screen." Generating an audio output indicating the amount of the virtual object visible in the displayed augmented reality view provides feedback to the user (e.g., indicating the degree to which movement of the device has changed and the degree to which the virtual object is visible). Providing improved feedback to the user (e.g., when a virtual object leaves the display without cluttering the display with additional information shown and without requiring the user to look at the display) (by providing information that allows the user to sense whether or not the device is being used) enhances the usability of the device and makes the user device interface more efficient. This further reduces power usage and improves the device's battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第1の音声警報を出力することは、仮想オブジェクトによって閉じ込められた視野の表示部分の量(例えば、仮想オブジェクトによって占有されている物理的環境の拡張現実ビューの量(例えば、20%、25%、50%等))(例えば、音声出力は、「ワールドビューの15%を占有するオブジェクトx」と言うアナウンスメントを含む)を示す音声出力を生成することを含む(20010)。いくつかの実施形態では、音声出力はまた、仮想オブジェクトの表示状態における変化を引き起こした、ユーザーによって実行されるアクションの説明を含む。例えば、音声出力は、「デバイスが左に移動しました。オブジェクトxは20%見え、ワールドビューの15%を占有しています。」と言うアナウンスメントを含む。例えば、図15Yでは、「椅子は90パーセント見え、スクリーンの20パーセントを占有しています」を示すアナウンスメント15128を含む音声警報15126が生成される。仮想オブジェクトによって閉じ込められた拡張現実ビューの量を示す音声出力を生成することは、(例えば、デバイスの移動が、拡張現実ビューが閉じ込まれている度合いを変化させた程度を示す)フィードバックをユーザーへ提供する。改善されたフィードバックをユーザーへ提供することは、(例えば、表示された追加情報でディスプレイを乱すことなく、かつ、ユーザーに対してディスプレイを見ることを要求することなく、ディスプレイに対する仮想オブジェクトのサイズをユーザーが感知することを可能にする情報を提供することによって、)デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, outputting the first audio alert includes determining the amount of the visible portion of the field of view confined by the virtual object (e.g., the amount of the augmented reality view of the physical environment occupied by the virtual object). (e.g., 20%, 25%, 50%, etc.)) (e.g., the audio output includes an announcement that "object x occupies 15% of the world view"). 20010). In some embodiments, the audio output also includes a description of the action performed by the user that caused the change in the virtual object's display state. For example, the audio output includes an announcement that says, "Device has moved to the left. Object x is 20% visible and occupies 15% of the world view." For example, in FIG. 15Y, an audible alert 15126 is generated that includes an announcement 15128 indicating "Chair is 90 percent visible and occupies 20 percent of the screen." Producing an audio output indicating the amount of the augmented reality view confined by the virtual object provides feedback to the user (e.g., indicating the degree to which movement of the device changed the degree to which the augmented reality view is confined). Provide to. Providing improved feedback to the user (e.g., adjusting the size of a virtual object relative to the display without cluttering the display with additional information displayed and without requiring the user to look at the display) By providing information that allows users to sense) enhance device usability and make user device interfaces more efficient. This further reduces power usage and improves the device's battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、デバイスは、1つ以上のカメラの視野の表現に対応するタッチ感知面上の場所における接触による入力を検出する(例えば、物理的環境の拡張現実ビューを表示するタッチスクリーンの一部におけるタップ入力又は二重タップ入力を検出する)(20012)。この入力を検出することに応じて、また、仮想オブジェクトによって占有されていない1つ以上のカメラの視野の第1の部分に対応するタッチ感知面上の第1の場所において入力が検出されたとの判定にしたがって、デバイスは、第2の音声警報(例えば、タップされた領域における仮想オブジェクトの位置決めの失敗を示すクリック又は機械音)を生成する(20014)。例えば、図15Zに関して説明されるように、仮想オブジェクト11002によって占有されていない1つ以上のカメラの視野6036の一部に対応するタッチスクリーン112上の場所において検出された入力に応じて、デバイスは、音声警報15130を生成する。いくつかの実施形態では、入力を検出することに応じて、仮想オブジェクトによって占有されている1つ以上のカメラの視野の第2の部分に対応する第2の場所において入力が検出されたとの判定にしたがって、第2の音声警報を生成することを控える。いくつかの実施形態では、仮想オブジェクトの位置決めのユーザーの失敗を示す第2の音声警報を生成する代わりに、デバイスは、ユーザーが仮想オブジェクトを位置決めしたことを示す異なる音声警報を生成する。いくつかの実施形態では、第2の音声警報を生成する代わりに、デバイスは、仮想オブジェクトにおいて実行される動作(例えば、「オブジェクトxが選択されました。」、「オブジェクトxは、デフォルトサイズへリサイズされました」、「オブジェクトxは、デフォルトの向きへ回転されました」等)、又は仮想オブジェクトの状態(例えば、「オブジェクトx、20%見え、ワールドビューの15%を占有しています。)を説明するオーディオアナウンスメントを出力する。仮想オブジェクトによって占有されない表示された拡張現実ビューの一部に対応する場所において入力が検出されることに応じて音声出力を生成することは、(例えば、(例えば、仮想オブジェクトに関する情報を取得するため、及び/又は、操作を実行するため)異なる場所において提供されねばならない入力を示す)フィードバックをユーザーへ提供する。改善されたフィードバックをユーザーへ提供することは、(例えば、表示された追加情報でディスプレイを乱すことなく、かつ、ユーザーに対してディスプレイを見ることを要求することなく、入力が成功裡に仮想オブジェクトへ接続したか否かをユーザーが感知することを可能にする情報を提供することによって、)デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the device detects touch input at a location on a touch-sensitive surface that corresponds to a representation of the field of view of one or more cameras (e.g., a touch screen displaying an augmented reality view of the physical environment). (20012). In response to detecting the input, the input is also detected at a first location on the touch-sensitive surface corresponding to a first portion of the field of view of the one or more cameras that is not occupied by the virtual object. According to the determination, the device generates a second audio alert (eg, a click or mechanical sound indicating failure to position the virtual object in the tapped area) (20014). For example, as described with respect to FIG. 15Z, in response to input detected at a location on touch screen 112 that corresponds to a portion of one or more cameras' fields of view 6036 that are not occupied by virtual object 11002, the device , generates an audio alert 15130. In some embodiments, in response to detecting the input, determining that the input is detected at a second location corresponding to a second portion of the field of view of the one or more cameras occupied by the virtual object. Accordingly, refrain from generating the second audio alert. In some embodiments, instead of generating a second audio alert indicating the user's failure to locate the virtual object, the device generates a different audio alert indicating that the user has located the virtual object. In some embodiments, instead of generating the second audible alert, the device performs an action performed on the virtual object (e.g., "Object x has been selected." "Object x has been resized to its default size." "object x has been rotated to its default orientation") or the state of a virtual object (e.g. "object ).Producing an audio output in response to an input being detected at a location that corresponds to a portion of the displayed augmented reality view that is not occupied by the virtual object may include (e.g. Providing feedback to the user (indicating input that must be provided at different locations, e.g., to obtain information about the virtual object and/or to perform an operation); Providing improved feedback to the user; allows the user to sense whether an input successfully connects to a virtual object (e.g., without disturbing the display with additional information displayed and without requiring the user to look at the display). (by providing information that allows users to use the device) to enhance the usability of the device and make the user-device interface more efficient. By doing so, you reduce power usage and improve your device's battery life.

いくつかの実施形態では、第1の音声警報を出力することは、仮想オブジェクトに関して実行された動作を示す音声出力を生成し(例えば、音声出力を生成する前に、デバイスは、現在選択されている動作を判定し、現在選択されている操作を実行するとのユーザーの意思を確認する入力(例えば、二重タップ)に応じて、操作を実行する)、動作の実行後に、結果として得られる仮想オブジェクトの状態を生成することを含む(20016)。例えば、音声出力は、「デバイスは左へ移動しました。オブジェクトxは20%見え、ワールドビューの15%を占有しています」、「オブジェクトxは、30度、時計回りに回転され、オブジェクトは、y軸の周りに50度回転されました」、又は、「オブジェクトxは20%拡大され、ワールドビューの50%を占有しています」と言うアナウンスメントを含む。例えば、図15AH~図15AIに関して説明されるように、仮想オブジェクト11002に関する回転動作の実行に応じて、「椅子が反時計周りに5度回転されました。椅子は今、スクリーンに対してゼロ度回転されました」を示すアナウンスメント15192を含む音声警報15190が生成される。仮想オブジェクトにおいて実行された動作を示す音声出力を生成することは、提供された入力が仮想オブジェクトへどのように影響を与えるのかを示すフィードバックをユーザーへ提供する。改善されたフィードバックをユーザーへ提供することは、(例えば、表示された追加情報でディスプレイを乱すことなく、かつ、ユーザーに対してディスプレイを見ることを要求することなく、動作がどのようにして仮想オブジェクトを変えたのかをユーザーが感知することを可能にする情報を提供することによって、)デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, outputting the first audio alert includes generating an audio output that indicates an action performed with respect to the virtual object (e.g., before generating the audio output, the device determines whether the currently selected In response to an input (e.g., a double tap), the resulting virtual It includes generating a state of the object (20016). For example, the audio output could be, "The device has moved to the left. Object x is 20% visible and occupies 15% of the world view," or "Object x has been rotated 30 degrees clockwise and , rotated 50 degrees around the y-axis,'' or, ``Object x has been expanded by 20% and occupies 50% of the world view.'' For example, as described with respect to FIGS. 15AH-15AI, in response to performing a rotation operation with respect to virtual object 11002, "The chair has been rotated 5 degrees counterclockwise. The chair is now at zero degrees relative to the screen." An audio alert 15190 is generated that includes an announcement 15192 indicating "Rotated." Generating audio output indicative of actions performed on the virtual object provides feedback to the user indicating how the provided input affects the virtual object. Providing improved feedback to the user (e.g., without cluttering the display with additional information displayed and without requiring the user to look at the display) (By providing information that allows the user to sense when an object has changed) enhances the usability of the device and makes the user device interface more efficient. This further reduces power usage and improves the device's battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態(20018)では、動作の実行後、結果として得られる仮想オブジェクトの状態は1つ以上のカメラの視野にキャプチャされた物理的環境に対応する基準フレームに対する第1の音声警報において出力されたオーディオに説明されている(例えば、オブジェクトを操作した後(例えば、接触ベースのジェスチャ又はデバイスの移動に応じて)、デバイスは、(例えば、物理的環境の拡張現実ビューへ最初に配置された場合、仮想オブジェクトの最初の位置/向きに対して、30度回転された、60度回転された、又は左へ移動したような)オブジェクトの新たな状態を説明する音声を生成する)。例えば、図15AH~図15AIに関して説明されるように、仮想オブジェクト11002に対する回転動作のパフォーマンスに応じて、「椅子は反時計回りに5度回転されました。椅子は今、スクリーンに対してゼロ度回転されました。」を示すアナウンスメント15192を含む音声警報15190が生成される。いくつかの実施形態では、この動作は、(例えば、1つ以上のカメラの視野においてキャプチャされた物理的環境の一部の表現に対する仮想オブジェクトの移動を引き起こす)物理的環境に対するデバイスの移動と、物理的環境に対するデバイスの移動に応じた仮想オブジェクトの新たな状態を説明する音声とを含む。オブジェクトに対して動作が実行された後、仮想オブジェクトの状態を示す音声出力を生成することは、動作がどのように仮想オブジェクトを変えたのかをユーザーに感知させることを可能にするフィードバックをユーザーへ提供する。改善されたフィードバックをユーザーへ提供することは、(例えば、表示された追加情報でディスプレイを乱すことなく、かつ、ユーザーに対してディスプレイを見ることを要求することなく、動作がどのように仮想オブジェクトを変えたのかをユーザーが感知することを可能にする情報を提供することによって、)デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments (20018), after performing the operation, the state of the resulting virtual object is determined in a first audio alert relative to a reference frame corresponding to the physical environment captured in the field of view of one or more cameras. After interacting with an object (e.g. in response to a touch-based gesture or movement of the device), the device is first placed into an augmented reality view of the physical environment (e.g., as described in the output audio) If the virtual object is rotated 30 degrees, rotated 60 degrees, or moved to the left relative to the virtual object's initial position/orientation, it generates audio that describes the new state of the object. For example, as described with respect to FIGS. 15AH-15AI, depending on the performance of a rotation motion on virtual object 11002, "The chair has been rotated 5 degrees counterclockwise. The chair is now at zero degrees relative to the screen." An audio alert 15190 is generated that includes an announcement 15192 indicating "Rotated." In some embodiments, the operation includes movement of the device relative to the physical environment (e.g., causing movement of a virtual object relative to a representation of a portion of the physical environment captured in the field of view of one or more cameras); and audio that describes the new state of the virtual object in response to movement of the device relative to the physical environment. Generating audio output that indicates the state of a virtual object after an action is performed on an object provides feedback to the user that allows the user to sense how the action has changed the virtual object. provide. Providing improved feedback to the user (e.g., how the behavior of a virtual object (by providing information that allows users to sense when they have changed their device) and make the user-device interface more efficient. This further reduces power usage and improves the device's battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、デバイスは、第1の音声警報の生成後、1つ以上のカメラの視野を更に調節するデバイスの追加の移動(例えば、1つ以上のカメラを含むデバイスの横移動及び/又は回転)を検出する(20020)。例えば、図15W~図15Xに関して説明されるように、デバイス100の移動は更に、(15V~15Wからのデバイス100の移動に応じて生じる1つ以上のカメラの視野の調節にしたがって)1つ以上のカメラの視野を更に調節する。1つ以上のカメラ(20022)の視野を更に調節するデバイスの追加の移動を検出することに応じて、デバイスは、1つ以上のカメラの視野が更に調節されると、仮想オブジェクトと、1つ以上のカメラの視野内で検出されたプレーンとの間の第1の空間的な関係(例えば、向き及び/又は位置)にしたがって、第1のユーザーインターフェース領域における仮想オブジェクトの表現の表示を調節し、(例えば、仮想オブジェクトの表現と、1つ以上のカメラの視野内でキャプチャされた物理的環境内で検出されたプレーンとの間の空間的な関係は、物理的環境に対するデバイスの移動中、固定されたままであるので、)デバイスの追加の移動が、仮想オブジェクトの第2の閾値より多い量(例えば、50%、80%、又は100%)を、1つ以上のカメラの視野の表示された部分内に移動させるとの判定にしたがって、デバイスは、1つ以上の音声出力生成器によって、第3の音声警報(例えば、仮想オブジェクトの閾値より多い量が、カメラ視野へ戻されることを示すアナウンスメントを含む音声出力)を生成する。例えば、図15Xに関して説明されるように、仮想オブジェクト11002を、1つ以上のカメラの視野6036の表示された部分へ移動させるデバイス100の移動に応じて、(例えば、「椅子が今、ワールドに投影されており、100%見え、スクリーンの10パーセントを占有しています」と言うアナウンスメントを含む)音声警報15122が生成される。デバイスの移動が、仮想オブジェクトを、表示された拡張現実ビューへ移動させるとの判定にしたがって、音声出力を生成することは、デバイスの移動が、拡張現実ビューに関して、仮想オブジェクトの表示に対して影響を与えた程度を示すフィードバックをユーザーへ提供する。改善されたフィードバックをユーザーへ提供することは、(例えば、表示された追加情報でディスプレイを乱すことなく、かつ、ユーザーに対してディスプレイを見ることを要求することなく、仮想オブジェクトがディスプレイの中へ移動したか否かをユーザーが感知することを可能にする情報を提供することによって、)デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the device is configured to perform additional movements of the device that further adjust the field of view of the one or more cameras (e.g., lateral movements of the device including the one or more cameras and /or rotation) is detected (20020). For example, as described with respect to FIGS. 15W-15X, movement of device 100 may further cause one or more further adjust the field of view of the camera. In response to detecting additional movement of the device that further adjusts the field of view of the one or more cameras (20022), the device moves the virtual object and the one adjusting the display of the representation of the virtual object in the first user interface area according to a first spatial relationship (e.g., orientation and/or position) with a plane detected within the field of view of the camera; , (e.g., the spatial relationship between a representation of a virtual object and a plane detected in the physical environment captured within the field of view of one or more cameras during movement of the device relative to the physical environment) Additional movement of the device causes the virtual object to be displayed by an amount greater than the second threshold (e.g., 50%, 80%, or 100%) of the field of view of one or more cameras (as it remains fixed). In accordance with the determination to move into the portion of the virtual object, the device may generate a third audio alert (e.g., indicating that more than a threshold amount of the virtual object is to be moved back into the camera field of view) by one or more audio output generators. generate audio output (including announcements). For example, as described with respect to FIG. An audible alert 15122 is generated containing the following announcement: ``Projected, 100% visible, occupying 10% of the screen''. generating audio output in accordance with a determination that movement of the device causes the virtual object to move into the displayed augmented reality view; Provide feedback to the user indicating the extent to which the Providing improved feedback to the user (e.g., when virtual objects move into the display without cluttering the display with additional information displayed and without requiring the user to look at the display) (by providing information that allows the user to sense whether or not it has moved) enhances the usability of the device and makes the user device interface more efficient. This further reduces power usage and improves the device's battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第1のユーザーインターフェース領域における仮想オブジェクトと、仮想オブジェクトへ適用可能な複数のオブジェクト操作タイプのうちの第1のオブジェクト操作タイプとの表現が、仮想オブジェクトのために現在選択されていることを表示している間、デバイスは、仮想オブジェクトへ適用可能な別のオブジェクト操作タイプへ切り換える要求を検出する(例えば、1つ以上のカメラの視野の表現を表示する第1のユーザーインターフェース領域の一部に対応するタッチ感知面上の場所における接触(例えば、水平方向における接触の移動を含む)によるスワイプ入力を検出する)(20024)。例えば、図15AGに関して説明されるように、時計回りの回転制御15170が現在選択されている一方、(仮想オブジェクト15160を反時計回りに回転させるために)反時計回り回転制御15180へ切り換えるためのスワイプ入力が選択される。仮想オブジェクトへ適用可能な別のオブジェクト操作タイプへ切り換えるための要求を検出することに応じて、デバイスは、仮想オブジェクトへ適用可能な複数のオブジェクト操作タイプの中から、第2のオブジェクト操作タイプを命名する音声出力(例えば、音声出力は、「オブジェクトをx軸の周りに回転させて下さい」、「オブジェクトをリサイズして下さい」、又は「プレーン上でオブジェクトを移動させて下さい」等と言うアナウンスメントを含む)を生成し、第2のオブジェクト操作タイプは、第1のオブジェクト操作タイプとは異なる(20026)。例えば、図15AHにおいて、図15AGに関して説明された要求の検出に応じて、アナウンスメント15184(「選択されました:反時計回りに回転させて下さい」)を含む音声警報15182が生成される。いくつかの実施形態では、デバイスは、同じ方向における連続したスワイプ入力に応じて、所定の適用可能なオブジェクト操作タイプのリストを反復する。いくつかの実施形態では、直前のスワイプ入力から逆方向におけるスワイプ入力を検出することに応じて、デバイスは、仮想オブジェクトへ提供可能な、以前にアナウンスされたオブジェクト操作タイプ(例えば、最後にアナウンスされたオブジェクト操作タイプの前のもの)を命名するアナウンスメントを含む音声出力を生成する。いくつかの実施形態では、デバイスは、仮想オブジェクトへ適用可能な各オブジェクト操作タイプのための対応する制御を表示しない(例えば、ジェスチャによって開始される動作(例えば、回転、リサイズ、変換等)のために表示されたボタン又は制御は存在しない)。オブジェクト操作タイプを切り換える要求に応じて音声出力を生成することは、切換動作が実行されたことを示すフィードバックをユーザーへ提供する。改善されたフィードバックをユーザーへ提供することは、(例えば、表示された追加情報でディスプレイを乱すことなく、かつ、ユーザーに対してディスプレイを見ることを要求することなく、切換入力が成功裡に実行されたことを確認する情報を提供することによって、)デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, a representation of the virtual object in the first user interface area and a first object manipulation type of the plurality of object manipulation types applicable to the virtual object is currently selected for the virtual object. The device detects a request to switch to another object manipulation type applicable to the virtual object (e.g., a first user displaying a representation of the field of view of one or more cameras). (20024) detecting a swipe input by contact (eg, including movement of the contact in a horizontal direction) at a location on the touch-sensitive surface that corresponds to a portion of the interface area; For example, while clockwise rotation control 15170 is currently selected, swiping to switch to counterclockwise rotation control 15180 (to rotate virtual object 15160 counterclockwise), as described with respect to FIG. 15AG. Input is selected. In response to detecting a request to switch to another object operation type applicable to the virtual object, the device names a second object operation type from among the plurality of object operation types applicable to the virtual object. (For example, the audio output may be an announcement that says "Please rotate the object around the x-axis," "Please resize the object," or "Please move the object on the plane.") ), and the second object operation type is different from the first object operation type (20026). For example, in FIG. 15AH, an audio alert 15182 is generated that includes an announcement 15184 ("Selected: Please rotate counterclockwise") in response to detection of the request described with respect to FIG. 15AG. In some embodiments, the device iterates through a predetermined list of applicable object manipulation types in response to consecutive swipe inputs in the same direction. In some embodiments, in response to detecting a swipe input in the reverse direction from the previous swipe input, the device determines a previously announced object manipulation type (e.g., the last announced type) that can be provided to the virtual object. Generates an audio output that includes an announcement naming the object operation type (previous one). In some embodiments, the device does not display corresponding controls for each object manipulation type that can be applied to the virtual object (e.g., for gesture-initiated actions (e.g., rotate, resize, transform, etc.) (There are no buttons or controls shown on the screen.) Generating audio output in response to a request to switch object manipulation types provides feedback to the user indicating that the switching action has been performed. Providing improved feedback to the user (e.g., when a switching input is successfully executed without cluttering the display with additional information displayed and without requiring the user to look at the display) (by providing information that confirms what has been done) enhances the usability of the device and makes the user device interface more efficient. This further reduces power usage and improves the device's battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、仮想オブジェクトへ適用可能な複数のオブジェクト操作タイプの中から、第2のオブジェクト操作タイプを命名する音声出力(例えば、音声出力は、「オブジェクトをx軸の周りに回転させて下さい」、「オブジェクトをリサイズして下さい」、又は「プレーン上でオブジェクトを移動させて下さい」等と言うアナウンスメントを含む)を生成した後(20028)、デバイスは、現在選択されているオブジェクト操作タイプに対応するオブジェクト操作挙動を実行するための要求を検出する(例えば、1つ以上のカメラの視野の表現を表示する第1のユーザーインターフェース領域の一部に対応するタッチ感知面上の場所における接触による二重タップ入力を検出する)。例えば、図15AHに関して説明されるように、仮想オブジェクト11002を反時計回りに回転させるための二重タップ入力が検出される。現在選択されているオブジェクト操作タイプに対応するオブジェクト操作挙動を実行するための要求を検出することに応じて、デバイスは、第2のオブジェクト操作タイプに対応するオブジェクト操作挙動を実行する(例えば、仮想オブジェクトをy軸の周りに5度回転させる、又は、オブジェクトのサイズを5%増加させる、又は、オブジェクトをプレーン上で20画素移動させる)、(例えば、第2のオブジェクト操作タイプにしたがって第1のユーザーインターフェース領域における仮想オブジェクトの表現の表示を調節する)(20030)。例えば、図15AIにおいて、15AHに関して説明された要求の検出に応じて、仮想オブジェクト11002が、反時計回りに回転される。いくつかの実施形態では、デバイスは、第2のオブジェクト操作タイプに対応するオブジェクト操作挙動を実行することに加えて、仮想オブジェクトに関して実行されたオブジェクト操作挙動と、オブジェクト操作挙動の実行後、結果として得られる仮想オブジェクトの状態とを示すアナウンスメントを含む音声出力を出力する。例えば、図15AIにおいて、アナウンスメント15192(「椅子が5度反時計回りに回転しました。椅子は今、スクリーンに対してゼロ度回転されました。」)を含む音声出力15190が生成される。動作が選択されている間に検出された入力に応じてオブジェクト操作動作を実行することは、操作を実行するための追加の制御オプションを提供する(例えば、ユーザーが、2接触入力を必要とするのではなく、タップ入力を提供することによって操作を実行することを可能にする)。表示された追加制御でユーザーインターフェースを乱すことなく、入力を提供するための追加の制御オプションを提供することは、(例えば、マルチコンタクトジェスチャへ提供するための制限された能力を有するユーザーへ、オブジェクトを操作するためのオプションを提供することによって、)デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, an audio output naming a second object manipulation type from among multiple object manipulation types that can be applied to the virtual object (e.g., an audio output that says "Rotate the object about the x-axis") (20028), the device automatically displays the currently selected object. detecting a request to perform an object manipulation behavior that corresponds to a manipulation type (e.g., a location on a touch-sensitive surface that corresponds to a portion of a first user interface area that displays a representation of the field of view of one or more cameras; detect double tap input due to touch). For example, a double tap input to rotate virtual object 11002 counterclockwise is detected, as described with respect to FIG. 15AH. In response to detecting a request to perform an object manipulation behavior corresponding to a currently selected object manipulation type, the device performs an object manipulation behavior corresponding to a second object manipulation type (e.g., virtual (e.g. rotate the object 5 degrees around the y-axis, or increase the size of the object by 5%, or move the object 20 pixels on the plane), adjusting the display of a representation of a virtual object in a user interface area) (20030). For example, in FIG. 15AI, virtual object 11002 is rotated counterclockwise in response to detecting the request described with respect to 15AH. In some embodiments, in addition to performing an object manipulation behavior corresponding to the second object manipulation type, the device performs an object manipulation behavior performed with respect to the virtual object and, after performing the object manipulation behavior, An audio output including an announcement indicating the state of the resulting virtual object is output. For example, in FIG. 15AI, audio output 15190 is generated that includes an announcement 15192 ("The chair has been rotated 5 degrees counterclockwise. The chair has now been rotated 0 degrees relative to the screen."). Performing an object manipulation action in response to input detected while the action is selected provides additional control options for performing the action (e.g., if the user requires two-touch input) ). Providing additional control options for providing input without disrupting the user interface with additional controls displayed (e.g. to users with limited ability to provide multi-contact gestures, ) to enhance the usability of the device and make the user device interface more efficient. This further reduces power usage and improves the device's battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、仮想オブジェクトへ適用可能な別のオブジェクト操作タイプへ切り換えるための要求を検出することに応じて(20032)、第2のオブジェクト操作タイプが連続的に調節可能な操作タイプであるとの判定にしたがって、デバイスは、第2のオブジェクト操作タイプが連続的に調節可能な操作タイプであることを示すために、第2のオブジェクト操作タイプを命名する音声出力と連携して音声警報を生成し(例えば、第2のオブジェクト操作タイプを命名するオーディオアナウンスメント(例えば、オブジェクトをy軸の周りに時計回りに回転させて下さい)の後、「調節可能」と言う音声出力を出力し)、デバイスは、(例えば、1つ以上のカメラの視野の表現を表示する第1のユーザーインターフェース領域の一部に対応するタッチ感知面上の場所における接触によって二重タップ入力を検出した後、)1つ以上のカメラの視野の表現を表示する第1のユーザーインターフェース領域の一部に対応するタッチ感知面上の場所におけるスワイプ入力を検出することを含む、第2のオブジェクト操作タイプに対応するオブジェクト操作挙動を実行するための要求を検出し、第2のオブジェクト操作タイプに対応するオブジェクト操作挙動を実行するための要求を検出することに応じて、デバイスは、スワイプ入力の大きさに対応する量、第2のオブジェクト操作タイプに対応するオブジェクト操作挙動を実行する(例えば、スワイプ入力の大きさが、第1の量であるか、第1の量よりも大きい第2の量であるかに依存して、仮想オブジェクトをy軸の周りに5度又は10度回転させるか、又は、オブジェクトのサイズを、5%又は10%増加させるか、又は、オブジェクトをプレーン上で20画素又は40画素移動させる)。例えば、図15J~図15Kに関して説明されるように、時計回りの回転制御15038が現在選択されている間、ズーム制御15064へ切り換えるスワイプ入力が検出される。アナウンスメント15068(「スケール:調節可能」)を含む音声警報15066が生成される。図15K~図15Lに関して説明されるように、仮想オブジェクト11002へズームインするためのスワイプ入力が検出され、この入力に応じて、仮想オブジェクト11002に対してズーム動作が実行される(図15K~図15Lの例示的な例では、ステージングビューインターフェース6010が表示されている間、連続的に調節可能な操作のための入力が検出されるが、1つ以上のカメラの視野の表現を表示する第1のユーザーインターフェース領域の一部に対応するタッチ感知面上の場所において類似の入力が検出され得ることが認識されるであろう)。いくつかの実施形態では、デバイスは、第2のオブジェクト操作挙動を実行することに加えて、仮想オブジェクトに関して実行されたオブジェクト操作挙動の量と、その量までのオブジェクト操作挙動の実行後、結果として得られる仮想オブジェクトの状態とを示すオーディオアナウンスメントを出力する。スワイプ入力に応じてオブジェクト操作動作を実行することは、動作を実行するための追加の制御オプションを提供する(例えば、2接触入力を必要とするのではなく、スワイプ入力を提供することによって、ユーザーが操作を実行することを可能にする)。表示された追加の制御でユーザーインターフェースを乱すことなく、入力を提供するための追加の制御オプションを提供することは、(例えば、マルチコンタクトジェスチャを提供する制限された能力を有するユーザーへ、オブジェクトを操作するためのオプションを提供することによって、)ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, in response to detecting a request to switch to another object operation type applicable to the virtual object (20032), the second object operation type is a continuously adjustable operation type. In accordance with the determination that the second object manipulation type is a continuously adjustable manipulation type, the device produces an audio alert in conjunction with an audio output naming the second object manipulation type. (e.g., an audio announcement naming the second object manipulation type (e.g., rotate the object clockwise around the y-axis), followed by an audio output that says "adjustable"). ), the device detects a double tap input (e.g., by contact at a location on the touch-sensitive surface that corresponds to a portion of the first user interface area displaying a representation of the field of view of the one or more cameras; ) corresponding to a second object manipulation type, comprising detecting a swipe input at a location on the touch-sensitive surface that corresponds to a portion of the first user interface area that displays a representation of the field of view of the one or more cameras; detecting a request to perform an object manipulation behavior, and in response to detecting a request to perform an object manipulation behavior corresponding to a second object manipulation type, the device responds to a magnitude of the swipe input; amount, a second object manipulation type (e.g., whether the magnitude of the swipe input is a first amount or a second amount that is greater than the first amount) Depending on the case, rotate the virtual object by 5 or 10 degrees around the y-axis, or increase the size of the object by 5% or 10%, or move the object by 20 or 40 pixels on the plane. ). For example, as described with respect to FIGS. 15J-15K, a swipe input to switch to zoom control 15064 is detected while clockwise rotation control 15038 is currently selected. An audio alert 15066 is generated that includes an announcement 15068 (“Scale: Adjustable”). As described with respect to FIGS. 15K-15L, a swipe input to zoom in on virtual object 11002 is detected and, in response, a zoom operation is performed on virtual object 11002 (FIGS. 15K-15L). In the illustrative example, an input for a continuously adjustable operation is detected while the staging view interface 6010 is displayed, but a first displaying a representation of the field of view of one or more cameras is detected. It will be appreciated that similar inputs may be detected at locations on the touch-sensitive surface that correspond to portions of the user interface area). In some embodiments, the device, in addition to performing the second object manipulation behavior, determines the amount of the object manipulation behavior performed with respect to the virtual object and, after performing the object manipulation behavior up to the amount, the result Output an audio announcement indicating the state of the resulting virtual object. Performing object manipulation actions in response to swipe input provides additional control options for performing actions (e.g., by providing a swipe input rather than requiring two-touch input, the user perform the operation). Providing additional control options for providing input without disrupting the user interface with additional controls displayed (e.g., to users with limited ability to provide multi-contact gestures, ) Make user device interfaces more efficient by providing options for manipulating them. This further reduces power usage and improves the device's battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第1のユーザーインターフェース領域において仮想オブジェクトの表現を表示する前に、デバイスは、第2のユーザーインターフェース領域(例えば、ステージングユーザーインターフェース)において仮想オブジェクトの表現を表示し、第2のユーザーインターフェース領域は、1つ以上のカメラの視野の表現を含んでいない(例えば、第2のユーザーインターフェース領域は、カメラの視野においてキャプチャされた物理的環境において検出されたプレーンに対する固定された関係を維持することなく、仮想オブジェクトが操作(例えば、回転、リサイズ、及び移動)され得るステージングユーザーインターフェースである)(20034)。第2のユーザーインターフェース領域における仮想オブジェクトと、仮想オブジェクトへ適用可能な複数の動作のうちの第1の動作との表現が、仮想オブジェクトのために現在選択されていることを表示している間、デバイスは、(例えば、第2のユーザーインターフェース領域における仮想オブジェクトへ適用可能なオブジェクト操作タイプ(例えば、リサイズ、回転、傾斜等)へ、又は、第2のユーザーインターフェース領域における仮想オブジェクトへ適用可能なユーザーインターフェース動作(例えば、2Dユーザーインターフェースへ戻る、物理的環境における拡張現実ビューへオブジェクトをドロップする)へ切り換える要求を含む)仮想オブジェクトへ適用可能な別の動作へ切り換える要求を検出する(例えば、第1のユーザーインターフェース領域に対応するタッチ感知面上の場所における接触(例えば、水平方向における接触の移動を含む)によるスワイプ入力を検出することを含む要求を検出すること)(20036)。例えば、図15F~図15Gに関して説明されるように、ステージングユーザーインターフェース6010が表示され、チルトダウン制御15022が現在選択されている間、時計回り制御15038へ切り換えるためのスワイプ入力が検出される。第2のユーザーインターフェース領域において仮想オブジェクトへ適用可能な別の動作へ切り換える要求を検出することに応じて、デバイスは、仮想オブジェクトへ適用可能な複数の動作のうち第2の動作を命名する音声出力を生成し(例えば、音声出力は、「x軸の周りにオブジェクトを回転させて下さい」、「オブジェクトをリサイズして下さい」、「ディスプレイへ向けてオブジェクトを傾けて下さい」、又は「拡張現実ビューでオブジェクトを表示して下さい」等)と言うアナウンスメントを含む)、第2の動作は、第1の動作とは異なる(20038)。いくつかの実施形態では、デバイスは、同じ方向における連続したスワイプ入力に応じて、所定の適用可能な動作のリストを反復する。例えば、図15Gでは、図15Fに関して説明された要求の検出に応じて、アナウンスメント15042(「選択されました:時計回り回転ボタン」)を含む音声警報15040が生成される。操作タイプを切り換える要求に応じて、選択された操作タイプを命名する音声出力を生成することは、切換入力が成功裡に受信されたことを示すフィードバックをユーザーへ提供する。操作タイプを切り換える要求に応じて、選択された動作タイプを命名する音声出力を生成することは、切換入力が成功裡に受信されたことを示すフィードバックをユーザーへ提供する。改善されたフィードバックをユーザーへ提供することは、(例えば、表示された追加情報でディスプレイを乱すことなく、かつ、ユーザーに対してディスプレイを見ることを要求することなく、選択された制御が変更された場合をユーザーが感知することを可能にする情報を提供することによって、)デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, before displaying the representation of the virtual object in the first user interface area, the device displays the representation of the virtual object in a second user interface area (e.g., a staging user interface); The second user interface area does not include a representation of the field of view of one or more cameras (e.g., the second user interface area does not include a representation of the field of view of one or more cameras) (20034) is a staging user interface in which virtual objects can be manipulated (e.g., rotated, resized, and moved) without maintaining relationships. while a representation of the virtual object and a first action of the plurality of actions applicable to the virtual object in the second user interface area indicates that it is currently selected for the virtual object; The device (e.g., to the object manipulation types (e.g., resize, rotate, tilt, etc.) applicable to the virtual object in the second user interface area or to the user applicable to the virtual object in the second user interface area) Detecting a request to switch to another action applicable to the virtual object (including a request to switch to an interface action (e.g., returning to a 2D user interface, dropping the object into an augmented reality view of the physical environment)); detecting a swipe input by a contact (e.g., including movement of the contact in a horizontal direction) at a location on a touch-sensitive surface corresponding to a user interface area of the screen (20036). For example, as described with respect to FIGS. 15F-15G, staging user interface 6010 is displayed and a swipe input to switch to clockwise control 15038 is detected while tilt-down control 15022 is currently selected. In response to detecting a request to switch to another action applicable to the virtual object in the second user interface area, the device outputs an audio naming the second action of the plurality of actions applicable to the virtual object. (e.g., audio output could be ``Rotate the object around the x-axis,'' ``Resize the object,'' ``Tilt the object toward the display,'' or The second action is different from the first action (20038). In some embodiments, the device repeats a predetermined list of applicable actions in response to consecutive swipe inputs in the same direction. For example, in FIG. 15G, an audio alert 15040 is generated that includes an announcement 15042 ("Selected: Rotate clockwise button") in response to detecting the request described with respect to FIG. 15F. Generating an audio output naming the selected operation type in response to a request to switch operation types provides feedback to the user indicating that the switch input has been successfully received. Generating an audio output naming the selected operation type in response to a request to switch operation types provides feedback to the user indicating that the switch input has been successfully received. Providing improved feedback to the user (e.g., changes to selected controls without cluttering the display with additional information displayed and without requiring the user to look at the display) (By providing information that allows the user to sense when the device is being used) enhances the usability of the device and makes the user device interface more efficient. This further reduces power usage and improves the device's battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第1のユーザーインターフェース領域において仮想オブジェクトの表現を表示する前に(20040)、1つ以上のカメラの視野の表現を含まない第2のユーザーインターフェース領域(例えば、ステージングユーザーインターフェース)(例えば、第2のユーザーインターフェース領域は、物理的環境におけるプレーンに対して固定された関係を維持することなく、仮想オブジェクトが操作(例えば、回転、リサイズ、及び移動)され得るステージングユーザーインターフェース領域である)において仮想オブジェクトの表現を表示している間、デバイスは、1つ以上のカメラの視野の表現を含む第1のユーザーインターフェース領域における仮想オブジェクトの表現を表示するための要求を検出する(例えば、現在選択されている動作が「拡張現実ビューにおいてオブジェクトを表示して下さい」である場合、及び、デバイスが、(例えば、二重タップ入力の直前に受信された)スワイプ入力に応じて、現在選択されている動作を命名するオーディオアナウンスメントを丁度出力した後、二重タップ入力を検出する)。例えば、図15P~図15Vに関して説明されるように、ステージングユーザーインターフェース6010が表示され、トグル制御6018が選択されている間、1つ以上のカメラの視野6036の表現を含むユーザーインターフェース領域へ、仮想オブジェクト11002の表現を表示するために二重タップ入力が検出される。1つ以上のカメラの視野の表現を含む第1のユーザーインターフェース領域内で、仮想オブジェクトの表現を表示するための要求を検出することに応じて、デバイスは、仮想オブジェクトの表現と、1つ以上のカメラの視野においてキャプチャされた物理的環境内で検出されたプレーンとの間の第1の空間的な関係にしたがって、第1のユーザーインターフェース領域内に、仮想オブジェクトの表現を表示し(例えば、仮想オブジェクトが、拡張現実ビューにおいて表現された物理的環境へドロップされた場合、ステージングビューにおける仮想オブジェクトの回転角度及びサイズが、拡張現実ビューにおいて維持され、視野においてキャプチャされた物理的環境において検出されたプレーンの向きにしたがって、拡張現実ビューにおける傾斜角度がリセットされる)、デバイスは、仮想オブジェクトが、1つ以上のカメラの視野においてキャプチャされた物理的環境に関して拡張現実ビューに配置されたことを示す第4の音声警報を生成する。例えば、図15Vに関して説明されるように、1つ以上のカメラの視野6036の表現を含むユーザーインターフェース領域内に、仮想オブジェクト11002の表現を表示するための入力に応じて、仮想オブジェクト11002の表現が、1つ以上のカメラの視野6036を含むユーザーインターフェース領域内に表示され、アナウンスメント15116(「椅子は今、ワールドに投影され、100パーセント見え、スクリーンの10パーセントを占有しています」)を含む音声警報15114が生成される。拡張現実ビューにオブジェクトを配置するための要求に応じて音声出力を生成することは、仮想オブジェクトを配置する動作が成功裡に実行されたことを示すフィードバックをユーザーへ提供する。改善されたフィードバックをユーザーへ提供することは、(例えば、表示された追加情報でディスプレイを乱すことなく、かつ、ユーザーに対してディスプレイを見ることを要求することなく、拡張現実ビューにオブジェクトが表示されたことをユーザーが感知することを可能にする情報を提供することによって、)デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, prior to displaying the representation of the virtual object in the first user interface area (20040), a second user interface area that does not include a representation of the field of view of the one or more cameras (e.g., a staging user interface) (e.g., a second user interface area is a staging user interface in which virtual objects can be manipulated (e.g., rotated, resized, and moved) without maintaining a fixed relationship to a plane in the physical environment) while displaying a representation of the virtual object in the first user interface region, the device detects a request to display a representation of the virtual object in a first user interface region that includes a representation of the field of view of one or more cameras. (For example, if the currently selected action is "Display object in augmented reality view," and the device , detecting a double-tap input after just outputting an audio announcement naming the currently selected action). For example, while staging user interface 6010 is displayed and toggle control 6018 is selected, as described with respect to FIGS. 15P-15V, virtual A double tap input is detected to display a representation of object 11002. In response to detecting a request to display a representation of a virtual object within a first user interface area that includes a representation of the field of view of the one or more cameras, the device displays a representation of the virtual object and a representation of the one or more cameras. displaying a representation of the virtual object in a first user interface area according to a first spatial relationship with a plane detected in the physical environment captured in the field of view of the camera of the virtual object (e.g., When a virtual object is dropped into the physical environment represented in the augmented reality view, the rotation angle and size of the virtual object in the staging view are maintained in the augmented reality view and detected in the physical environment captured in the field of view. (the tilt angle in the augmented reality view is reset according to the orientation of the plane), the device recognizes that the virtual object is placed in the augmented reality view with respect to the physical environment captured in the field of view of the one or more cameras. A fourth audio warning is generated as shown in FIG. For example, as described with respect to FIG. 15V, a representation of virtual object 11002 is displayed in response to an input to display a representation of virtual object 11002 within a user interface area that includes a representation of one or more camera fields of view 6036. , displayed within a user interface area that includes one or more camera fields of view 6036 and includes an announcement 15116 ("The chair is now projected into the world, 100 percent visible, and occupying 10 percent of the screen"). An audio alert 15114 is generated. Generating audio output in response to a request to place an object in an augmented reality view provides feedback to a user indicating that the action of placing a virtual object has been successfully performed. Providing improved feedback to the user (e.g. when objects appear in an augmented reality view without cluttering the display with additional information displayed and without requiring the user to look at the display) (by providing information that allows the user to sense what has been done) enhances the usability of the device and makes the user device interface more efficient. This further reduces power usage and improves the device's battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第3の音声警報は、1つ以上のカメラの視野の一部に対する仮想オブジェクトの外観についての情報を示す(例えば、第3の音声警報は、「オブジェクトxはワールドに配置され、オブジェクトxは30%見え、スクリーンの90%を占有しています。」と言うアナウンスメントを含む音声出力を含む。)(20042)。例えば、図15Vに関して説明されるように、アナウンスメント15116(「椅子は今、ワールドに投影され、100パーセント見え、スクリーンの10%を占有しています」)を含む音声警報15114が生成される。表示された拡張現実ビューに対して見える仮想オブジェクトの外観を示す音声出力を生成することは、(例えば、拡張現実ビューにおけるオブジェクトの配置が仮想オブジェクトの外観へ影響を与えた程度を示す)フィードバックをユーザーへ提供する。改善されたフィードバックをユーザーへ提供することは、(例えば、表示された追加情報でディスプレイを乱すことなく、かつ、ユーザーに対してディスプレイを見ることを要求することなく、拡張現実ビューにおいて、オブジェクトが、どのように表示されているのかをユーザーが感知することを可能にする情報を提供することによって、)デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the third audio alert indicates information about the appearance of the virtual object relative to a portion of the field of view of the one or more cameras (e.g., the third audio alert indicates "Object x is in the world"). Object x is 30% visible and occupies 90% of the screen.'' (20042). For example, as described with respect to FIG. 15V, an audio alert 15114 is generated that includes an announcement 15116 ("The chair is now projected into the world, is 100 percent visible, and occupies 10 percent of the screen"). Generating an audio output indicating the appearance of the virtual object as it appears relative to the displayed augmented reality view provides feedback (e.g., indicating the extent to which the placement of the object in the augmented reality view has influenced the appearance of the virtual object). Provide to users. Providing improved feedback to the user (e.g., when an object appears in an augmented reality view without cluttering the display with additional information displayed and without requiring the user to look at the display) , by providing information that allows the user to sense what is being displayed) enhances the usability of the device and makes the user device interface more efficient. This further reduces power usage and improves the device's battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、デバイスは、1つ以上のカメラの視野においてキャプチャされた物理的環境に関して拡張現実ビューにおける仮想オブジェクトの配置と連携して触知出力を生成する(20044)。例えば、オブジェクトが、カメラの視野内で検出されたプレーンに配置された場合、デバイスは、プレーン上へのオブジェクトのランディングを示す触知出力を生成する。いくつかの実施形態では、デバイスは、オブジェクトが、オブジェクトのリサイズ中に、所定のデフォルトサイズに達した場合に、触知出力を生成する。いくつかの実施形態では、デバイスは、仮想オブジェクトに関して実行される各動作のために(例えば、事前設定された角度量までの各回転のために、異なるプレーン上へ仮想オブジェクトをドラッグするために、オブジェクトを元の向き及び/又はサイズへリセットする等のために)触知出力を生成する。いくつかの実施形態では、これら触知出力は、実行された動作を説明する対応する音声警報と、仮想オブジェクトの結果状態とに先行する。例えば、図15Vに関して説明されるように、触知出力15118は、1つ以上のカメラの視野6036における仮想オブジェクト11002の配置と連携して生成される。1つ以上のカメラによってキャプチャされた物理的環境に対する仮想オブジェクトの配置と連携して触知出力を生成することは、(例えば、仮想オブジェクトを配置する動作が成功裡に実行されたことを示す)フィードバックをユーザーへ提供する。改善されたフィードバックをユーザーへ提供することは、(例えば、表示された情報でユーザーインターフェースを乱すことなく、仮想オブジェクトの配置がなされたことをユーザーが感知することを可能にするセンサ情報を提供することによって、)デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the device generates tactile output in conjunction with placement of the virtual object in the augmented reality view with respect to the physical environment captured in the field of view of the one or more cameras (20044). For example, if an object is placed in a plane detected within the camera's field of view, the device generates a tactile output indicating the object's landing on the plane. In some embodiments, the device generates a tactile output when the object reaches a predetermined default size during resizing of the object. In some embodiments, the device performs the following operations: for each operation performed with respect to the virtual object (e.g., for each rotation up to a preset angular amount, to drag the virtual object onto a different plane; generate a tactile output (such as to reset an object to its original orientation and/or size); In some embodiments, these tactile outputs are preceded by corresponding audio alerts that describe the action performed and the resulting state of the virtual object. For example, as described with respect to FIG. 15V, tactile output 15118 is generated in conjunction with placement of virtual object 11002 in field of view 6036 of one or more cameras. Producing a tactile output in conjunction with the placement of the virtual object relative to the physical environment captured by the one or more cameras (e.g., indicating that the action of placing the virtual object was successfully performed) Provide feedback to users. Providing improved feedback to the user (e.g., providing sensor information that allows the user to sense that virtual object placement has been made without disrupting the user interface with displayed information) ) improve the usability of the device and make the user device interface more efficient. This further reduces power usage and improves the device's battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、デバイスは、1つ以上のカメラの視野の表現と同時に(例えば、第1のユーザーインターフェース領域内の異なる場所において表示された複数の制御のうち)第1の制御を、第1のユーザーインターフェース領域内の第1の場所において表示する(20046)。制御フェージング基準が満たされている(例えば、タッチ入力がタッチ感知面において検出されることなく、第1のユーザーインターフェース領域が、少なくとも閾値時間表示された場合に、制御フェージング基準が満たされている)との判定にしたがって、デバイスは、第1のユーザーインターフェース領域内に、1つ以上のカメラの視野の表現の表示を維持しながら、第1のユーザーインターフェース領域内に、(例えば、第1のユーザーインターフェース領域内に、他のすべての制御とともに)第1の制御を表示することを停止する(例えば、ユーザーが物理的環境に対してデバイスを移動させた場合、制御は再表示されない)(20048)。第1のユーザーインターフェース領域内に第1の制御を表示することなく、第1のユーザーインターフェース領域を表示している間、デバイスは、第1のユーザーインターフェース領域内の第1の場所に対応するタッチ感知面上のそれぞれの場所においてタッチ入力を検出する(20050)。タッチ入力の検出に応じて、デバイスは、第1の制御(例えば、「ステージングビューへ戻る」又は「オブジェクトをy軸の周りに回転させる」)に対応する動作を指定する音声出力を含む第5の音声警報を生成する(20052)。いくつかの実施形態では、デバイスはまた、タッチ入力を検出することに応じて、第1の場所において、第1の制御を再表示する。いくつかの実施形態では、ディスプレイ上の制御の通常の場所においてタッチ入力がなされると、制御を再表示し、制御を、現在選択されている制御にすることは、ユーザーがディスプレイ上の制御の場所を認識すると、制御にアクセスするために、一連のスワイプ入力を使用して利用可能な制御をスキャンするよりも、より迅速な手法を提供する。制御フェージング基準が満たされていることを判定することに応じて、制御を表示することを自動的に停止することは、制御の表示を停止するために必要とされる入力数を低減する。操作を実行するために必要とされる入力数を低減することは、デバイスの操作性を高め、ユーザーデバイスインターフェースをより効率的にする。これは、更に、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the device displays a first control (e.g., of a plurality of controls displayed at different locations within the first user interface area) simultaneously with the representation of the field of view of the one or more cameras. Displaying (20046) in a first location within a first user interface area. A control fading criterion is met (e.g., a control fading criterion is met if the first user interface area is displayed for at least a threshold amount of time without a touch input being detected at the touch-sensitive surface). In accordance with the determination, the device displays a representation of the field of view of the one or more cameras in the first user interface area (e.g., the first user Stop displaying the first control (with all other controls within the interface area) (e.g., the control does not redisplay if the user moves the device relative to the physical environment) (20048) . While displaying the first user interface area without displaying the first control within the first user interface area, the device may touch the first user interface area corresponding to the first location within the first user interface area. Touch input is detected at each location on the sensing surface (20050). In response to detecting the touch input, the device generates a fifth audio output that includes an action corresponding to the first control (e.g., "return to staging view" or "rotate object about the y-axis"). A voice warning is generated (20052). In some embodiments, the device also redisplays the first control at the first location in response to detecting the touch input. In some embodiments, when a touch input is made at the control's normal location on the display, redisplaying the control and making the control the currently selected control may cause the user to Location awareness provides a faster method for accessing controls than using a series of swipe inputs to scan through available controls. Automatically ceasing displaying a control in response to determining that a control fading criterion is met reduces the number of inputs required to stop displaying the control. Reducing the number of inputs required to perform an operation increases the usability of the device and makes the user device interface more efficient. This further reduces power usage and improves the device's battery life by allowing the user to use the device more quickly and efficiently.

図20A~図20Fにおける動作が説明されている特定の順序は単なる例であり、説明された順序は、動作が実行され得る唯一の順序を示すことは意図されていないことが理解されるべきである。当業者であれば、本明細書で説明された動作を再順序付けするための様々な手法を認識するであろう。それに加えて、本明細書で説明された他の方法(例えば、方法800、900、1000、16000、17000、18000、及び20000)に関して本明細書で説明された他の処理の詳細はまた、図20A~図20Fに関して上述された方法20000へ類似した方式でも適用可能であることが理解されるべきである。例えば、方法20000を参照して上述された接触、入力、仮想オブジェクト、ユーザーインターフェース領域、視野、触知出力、移動、及び/又は、アニメーションは、オプションで、本明細書で説明された他の方法(例えば、方法800、900、1000、16000、17000、18000、及び19000)を参照して本明細書で説明された接触、入力、仮想オブジェクト、ユーザーインターフェース領域、視野、触知出力、移動、及び/又は、アニメーションからなる特徴のうちの1つ以上を有する。簡潔のために、これら詳細は、本明細書では繰り返されない。 It should be understood that the particular order in which the operations in FIGS. 20A-20F are described is merely an example, and that the described order is not intended to represent the only order in which the operations may be performed. be. Those skilled in the art will recognize various techniques for reordering the operations described herein. In addition, other processing details described herein with respect to other methods described herein (e.g., methods 800, 900, 1000, 16000, 17000, 18000, and 20000) are also illustrated in FIG. It should be understood that a similar approach to method 20000 described above with respect to FIGS. 20A-20F may also be applied. For example, the contact, input, virtual objects, user interface areas, field of view, tactile output, movement, and/or animations described above with reference to method 20000 may optionally be combined with other methods described herein. (e.g., methods 800, 900, 1000, 16000, 17000, 18000, and 19000). and/or have one or more of the following characteristics: animation; For the sake of brevity, these details are not repeated herein.

図8A~図8E、図9A~図9D、図10A~図10D、図16A~図16G、図17A~図17D、図18A~図18I、図19A~図19H、及び図20A~図20Fを参照して上述された動作は、オプションで、図1A~図1Bに図示されたコンポーネントによって実施される。例えば、表示動作802、806、902、906、910、1004、1008、16004、17004、18002、19002、及び20002、検出動作804、904、908、17006、18004、19004、及び20004、変更動作910、受信動作1002、1006、16002、及び17002、停止動作17008、回転動作18006、更新動作19006、調節動作20006、及び生成動作20006は、オプションで、イベントソータ170、イベントレコグナイザ180、イベントハンドラ190によって実施される。イベントソータ170におけるイベントモニタ171は、タッチ感知ディスプレイ112上の接触を検出し、イベントディスパッチャモジュール174は、イベント情報をアプリケーション136-1へ伝達する。アプリケーション136-1のそれぞれのイベントレコグナイザ180は、イベント情報を、それぞれのイベント定義186と比較し、タッチ感知面上の第1の場所における第1の接触(又は、デバイスの回転)が、ユーザーインターフェース上のオブジェクトの選択、又は、1つの向きから別の向きへのデバイスの回転のような所定のイベント又はサブイベントに対応するか否かを判定する。所定のそれぞれのイベント又はサブイベントが検出された場合、イベントレコグナイザ180は、イベント又はサブイベントの検出に関連付けられたイベントハンドラ190を活性化する。イベントハンドラ190は、オプションで、アプリケーション内部状態192を更新するために、データ更新部176又はオブジェクト更新部177を使用するか、又は呼び出す。いくつかの実施形態では、イベントハンドラ190は、アプリケーションによって表示されているものを更新するために、それぞれのGUI更新部178へアクセスする。同様に、他の処理が、図1A~図1Bに描写されたコンポーネントに基づいてどのようにして実施され得るかが当業者に明らかになるだろう。 See FIGS. 8A-8E, 9A-9D, 10A-10D, 16A-16G, 17A-17D, 18A-18I, 19A-19H, and 20A-20F. The operations described above are optionally performed by the components illustrated in FIGS. 1A-1B. For example, display operations 802, 806, 902, 906, 910, 1004, 1008, 16004, 17004, 18002, 19002, and 20002, detection operations 804, 904, 908, 17006, 18004, 19004, and 20004, change operation 910, Receive operations 1002, 1006, 16002, and 17002, stop operation 17008, rotate operation 18006, update operation 19006, adjust operation 20006, and generate operation 20006 are optionally performed by event sorter 170, event recognizer 180, and event handler 190. Implemented. Event monitor 171 in event sorter 170 detects contacts on touch-sensitive display 112, and event dispatcher module 174 communicates event information to application 136-1. A respective event recognizer 180 of the application 136-1 compares the event information with a respective event definition 186 such that a first contact (or rotation of the device) at a first location on the touch-sensitive surface Determining whether the method corresponds to a predetermined event or sub-event, such as selection of an object on a user interface or rotation of a device from one orientation to another. If a given respective event or sub-event is detected, the event recognizer 180 activates the event handler 190 associated with the detection of the event or sub-event. Event handler 190 optionally uses or calls data updater 176 or object updater 177 to update application internal state 192. In some embodiments, the event handler 190 accesses the respective GUI updater 178 to update what is being displayed by the application. Similarly, it will be apparent to those skilled in the art how other processes may be implemented based on the components depicted in FIGS. 1A-1B.

前述した説明は、説明の目的のために、特定の実施形態に関して説明されている。しかしながら、上記の例示的な議論は、網羅的であるとも、又は、開示された正確な形態に本発明を限定するとも意図されていない。上記の教示を考慮して、多くの修正及び変形が可能である。実施形態は、本発明の原理及びその実際のアプリケーションを最も良く説明するために、そしてこれによって、当業者が、本発明及び説明された様々な実施形態を、考慮される特定の用途へ適合されているような様々な修正を用いて、最も良く使用することを可能にするために、選択され説明された。 The foregoing description has been described in terms of specific embodiments for purposes of explanation. However, the above exemplary discussion is not intended to be exhaustive or to limit the invention to the precise form disclosed. Many modifications and variations are possible in light of the above teaching. The embodiments are presented in order to best explain the principles of the invention and its practical application, and to enable those skilled in the art to adapt the invention and the various embodiments described to the particular use contemplated. It has been selected and described to enable its best use, with various modifications such as:

Claims (16)

物理的環境の拡張現実ビューを較正する方法であって、
表示生成コンポーネント、1つ以上の入力デバイス、1つ以上のカメラ、及び前記1つ以上のカメラを含むデバイスの姿勢の変化を検出する1つ以上の姿勢センサを有する前記デバイスにおいて、
前記1つ以上のカメラの視野の表現を含む第1のユーザーインターフェース領域に前記物理的環境の前記拡張現実ビューを表示する要求を受信することと、
前記物理的環境の前記拡張現実ビューを表示する前記要求を受信したことに応答して、前記1つ以上のカメラの前記視野の前記表現を表示し、前記物理的環境の前記拡張現実ビューに対して較正基準が満たされていないとの判定にしたがって、前記物理的環境における前記1つ以上のカメラの移動にしたがって動的にアニメーション化された較正ユーザーインターフェースオブジェクトを表示することと、を含、前記較正ユーザーインターフェースオブジェクトを表示することが、
前記較正ユーザーインターフェースオブジェクトを表示している間に、前記物理的環境における前記1つ以上のカメラの姿勢の変化を、前記1つ以上の姿勢センサを介して検出すること、及び
前記物理的環境における前記1つ以上のカメラの姿勢の前記変化を検出したことに応答して、前記物理的環境における前記1つ以上のカメラの姿勢の前記検出した変化にしたがって前記較正ユーザーインターフェースオブジェクトの少なくとも1つの表示パラメータを調整すること、を含み、前記調整することが、
前記1つ以上のカメラの姿勢の前記検出した変化が前記物理的環境における前記1つ以上のカメラの横移動に対応しているとの判定にしたがって、前記1つ以上のカメラの前記視野の前記表現を有する前記較正ユーザーインターフェースオブジェクトを同時に表示しながら、前記横移動に基づいて前記較正ユーザーインターフェースオブジェクトを動かすことと、
前記1つ以上のカメラの姿勢の前記検出した変化が前記物理的環境における前記1つ以上のカメラの垂直移動に対応しているとの判定にしたがって、前記1つ以上のカメラの前記視野の前記表現を有する前記較正ユーザーインターフェースオブジェクトを同時に表示しながら、前記垂直移動に基づいて前記較正ユーザーインターフェースオブジェクトを動かすことを見合わせることと、を含み、
前記方法が、更に、
前記物理的環境における前記1つ以上のカメラの姿勢の前記検出した変化にしたがってディスプレイ上を動く前記較正ユーザーインターフェースオブジェクトを表示している間に、前記較正基準が満たされたことを検出することと、
前記較正基準が満たされたことを検出したことに応答して、前記較正ユーザーインターフェースオブジェクトを表示することを停止することと、を含む、方法。
A method of calibrating an augmented reality view of a physical environment, the method comprising:
The device has a display generation component, one or more input devices, one or more cameras, and one or more posture sensors that detect changes in the posture of the device including the one or more cameras;
receiving a request to display the augmented reality view of the physical environment in a first user interface area that includes a representation of the field of view of the one or more cameras;
In response to receiving the request to display the augmented reality view of the physical environment, displaying the representation of the field of view of the one or more cameras; displaying a calibration user interface object dynamically animated according to movement of the one or more cameras in the physical environment in accordance with a determination that a calibration criterion is not met in the physical environment; displaying the calibration user interface object;
detecting, via the one or more pose sensors, a change in the pose of the one or more cameras in the physical environment while displaying the calibrated user interface object; and In response to detecting the change in the pose of the one or more cameras, displaying at least one of the calibrated user interface objects according to the detected change in the pose of the one or more cameras in the physical environment. adjusting a parameter, the adjusting comprising:
of the field of view of the one or more cameras in accordance with a determination that the detected change in the pose of the one or more cameras corresponds to a lateral movement of the one or more cameras in the physical environment. moving the calibration user interface object based on the lateral movement while simultaneously displaying the calibration user interface object having a representation;
of the field of view of the one or more cameras in accordance with a determination that the detected change in the pose of the one or more cameras corresponds to a vertical movement of the one or more cameras in the physical environment. forgoing moving the calibration user interface object based on the vertical movement while simultaneously displaying the calibration user interface object having a representation;
The method further comprises:
detecting that the calibration criterion is met while displaying the calibration user interface object moving on a display according to the detected change in the pose of the one or more cameras in the physical environment; And,
and ceasing to display the calibration user interface object in response to detecting that the calibration criteria have been met.
前記1つ以上のカメラの前記視野の前記表現を含む前記第1のユーザーインターフェース領域内に前記物理的環境の前記拡張現実ビューを表示する前記要求が、前記物理的環境の前記拡張現実ビューに仮想三次元オブジェクトの表現を表示する要求を含む、請求項に記載の方法。 The request to display the augmented reality view of the physical environment within the first user interface area that includes the representation of the field of view of the one or more cameras includes a virtual representation of the augmented reality view of the physical environment. The method of claim 1 , comprising a request to display a representation of a three-dimensional object. 前記較正ユーザーインターフェースオブジェクトを表示することを停止した後で、前記1つ以上のカメラの前記視野の前記表現を含む前記第1のユーザーインターフェース領域内に前記仮想三次元オブジェクトの前記表現を表示することを含む、請求項に記載の方法。 displaying the representation of the virtual three-dimensional object within the first user interface area including the representation of the field of view of the one or more cameras after ceasing to display the calibration user interface object; 3. The method of claim 2 , comprising: 前記較正ユーザーインターフェースオブジェクトと同時に前記第1のユーザーインターフェース領域に前記仮想三次元オブジェクトの前記表現を表示することを含み、前記物理的環境における前記1つ以上のカメラの前記移動中に、前記仮想三次元オブジェクトの前記表現が、前記第1のユーザーインターフェース領域における固定の場所に留まる、請求項からのいずれか一項に記載の方法。 displaying the representation of the virtual three-dimensional object in the first user interface area simultaneously with the calibration user interface object; 4. A method according to any one of claims 2 to 3 , wherein the representation of the original object remains at a fixed location in the first user interface area. 前記1つ以上のカメラの前記視野の前記表現を含む前記第1のユーザーインターフェース領域に前記物理的環境の前記拡張現実ビューを表示する前記要求が、前記1つ以上のカメラの前記視野内でキャプチャされた前記物理的環境における任意の仮想三次元オブジェクトの表現の表示を要求することなく前記1つ以上のカメラの前記視野の前記表現を表示する要求を含む、請求項に記載の方法。 the request to display the augmented reality view of the physical environment in the first user interface area that includes the representation of the field of view of the one or more cameras captured within the field of view of the one or more cameras; 2. The method of claim 1 , comprising requesting to display the representation of the field of view of the one or more cameras without requesting display of a representation of any virtual three-dimensional object in the physical environment that has been created. 前記物理的環境の前記拡張現実ビューを表示する前記要求を受信したことに応答して、前記1つ以上のカメラの前記視野の前記表現を表示することと、前記物理的環境の前記拡張現実ビューについて前記較正基準が満たされたとの判定にしたがって、前記較正ユーザーインターフェースオブジェクトの表示を見合わせることと、を含む、請求項からのいずれか一項に記載の方法。 displaying the representation of the field of view of the one or more cameras in response to receiving the request to display the augmented reality view of the physical environment; and 6. A method according to any one of claims 1 to 5 , comprising: forgoing display of the calibration user interface object in accordance with a determination that the calibration criteria have been met for. 記較正ユーザーインターフェースオブジェクトと同時に、前記第1のユーザーインターフェース領域に前記拡張現実ビューの較正を改善するためにユーザーによりなされ得るアクションに関する情報を提供するテキストのオブジェクトを表示することを含む、請求項からのいずれか一項に記載の方法。 5. Displaying, simultaneously with the calibration user interface object, a textual object in the first user interface area that provides information regarding actions that may be taken by a user to improve the calibration of the augmented reality view. 7. The method according to any one of 1 to 6 . 前記較正基準が満たされたことを検出したことに応答して、前記1つ以上のカメラの前記視野内でキャプチャされた前記物理的環境内で検出されたプレーンの視覚的な指示を表示することを含む、請求項からのいずれか一項に記載の方法。 displaying a visual indication of planes detected within the physical environment captured within the field of view of the one or more cameras in response to detecting that the calibration criteria have been met; 8. A method according to any one of claims 1 to 7 , comprising: 前記物理的環境の前記拡張現実ビューを表示する前記要求を受信したことに応答して、
前記較正基準が満たされていないとの判定にしたがって、前記較正ユーザーインターフェースオブジェクトを表示する前に、プレーンの表現に対して動く前記デバイスの表現を含むアニメーション化されたプロンプトオブジェクトを表示することを含む、請求項からのいずれか一項に記載の方法。
In response to receiving the request to display the augmented reality view of the physical environment;
displaying an animated prompt object that includes a representation of the device that moves relative to a plane representation, prior to displaying the calibration user interface object in accordance with a determination that the calibration criterion is not met; , a method according to any one of claims 1 to 8 .
前記物理的環境における前記1つ以上のカメラの姿勢の前記検出した変化にしたがって前記較正ユーザーインターフェースオブジェクトの少なくとも1つの表示パラメータを調整することが、
前記物理的環境における前記1つ以上のカメラの第1の移動の大きさにしたがって、第1の量だけ前記較正ユーザーインターフェースオブジェクトを動かすことと、
前記物理的環境における前記1つ以上のカメラの第2の移動の大きさにしたがって、第2の量だけ前記較正ユーザーインターフェースオブジェクトを動かすことと、を含み、前記第1の量が、前記第2の量とは異なり、前記第1の移動の大きさが、前記第2の移動の大きさとは異なる、請求項からのいずれか一項に記載の方法。
adjusting at least one display parameter of the calibration user interface object according to the detected change in the pose of the one or more cameras in the physical environment;
moving the calibration user interface object by a first amount in accordance with a first magnitude of movement of the one or more cameras in the physical environment;
moving the calibration user interface object by a second amount in accordance with a second magnitude of movement of the one or more cameras in the physical environment, wherein the first amount 10. A method according to any preceding claim, wherein the magnitude of the first movement is different from the magnitude of the second movement.
前記物理的環境における前記1つ以上のカメラの姿勢の前記検出した変化にしたがって前記較正ユーザーインターフェースオブジェクトの少なくとも1つの表示パラメータを調整することが、
前記物理的環境における前記1つ以上のカメラの姿勢の前記検出される変化にしたがって、前記第1のユーザーインターフェース領域にわたる前記較正ユーザーインターフェースオブジェクトの特徴的な表示場所を変えることなく、前記較正ユーザーインターフェースオブジェクトを動かすことを含む、請求項から10のいずれか一項に記載の方法。
adjusting at least one display parameter of the calibration user interface object according to the detected change in the pose of the one or more cameras in the physical environment;
the calibration user interface without changing the characteristic display location of the calibration user interface object across the first user interface area according to the detected change in the pose of the one or more cameras in the physical environment; 11. A method according to any preceding claim, comprising moving an object.
前記物理的環境における前記1つ以上のカメラの姿勢の前記検出した変化にしたがって前記較正ユーザーインターフェースオブジェクトの少なくとも1つの表示パラメータを調整することが、
前記物理的環境における前記1つ以上のカメラの移動方向に対して直交する軸の周りで前記較正ユーザーインターフェースオブジェクトを回転させることを含む、請求項から11のいずれか一項に記載の方法。
adjusting at least one display parameter of the calibration user interface object according to the detected change in the pose of the one or more cameras in the physical environment;
12. A method according to any preceding claim, comprising rotating the calibration user interface object about an axis orthogonal to the direction of movement of the one or more cameras in the physical environment.
前記物理的環境における前記1つ以上のカメラの姿勢の前記検出した変化にしたがって前記較正ユーザーインターフェースオブジェクトの少なくとも1つの表示パラメータを調整することが、
前記1つ以上のカメラの前記視野内で検出された変化率にしたがって決定された速度で前記較正ユーザーインターフェースオブジェクトを動かすことを含む、請求項から12のいずれか一項に記載の方法。
adjusting at least one display parameter of the calibration user interface object according to the detected change in the pose of the one or more cameras in the physical environment;
13. A method according to any preceding claim, comprising moving the calibration user interface object at a rate determined according to a rate of change detected in the field of view of the one or more cameras.
前記物理的環境における前記1つ以上のカメラの姿勢の前記検出した変化にしたがって前記較正ユーザーインターフェースオブジェクトの少なくとも1つの表示パラメータを調整することが、
前記1つ以上のカメラの前記視野内で検出された変化の方向にしたがって決定された方向に前記較正ユーザーインターフェースオブジェクトを動かすことを含む、請求項から13のいずれか一項に記載の方法。
adjusting at least one display parameter of the calibration user interface object according to the detected change in the pose of the one or more cameras in the physical environment;
14. A method according to any preceding claim, comprising moving the calibration user interface object in a direction determined according to a direction of changes detected within the field of view of the one or more cameras.
表示生成コンポーネントと、
1つ以上の入力デバイスと、
1つ以上のカメラと、
前記1つ以上のカメラを含むデバイスの姿勢の変化を検出する1つ以上の姿勢センサと、
1つ以上のプロセッサと、
1つ以上のプログラムを記憶したメモリと、を備えるコンピュータシステムであって、前記1つ以上のプログラムが、前記1つ以上のプロセッサによって実行されるように構成されており、前記1つ以上のプログラムが、請求項1から14のいずれか一項に記載の方法を実行する命令を含む、コンピュータシステム。
a display generation component;
one or more input devices;
one or more cameras;
one or more posture sensors that detect changes in the posture of a device including the one or more cameras ;
one or more processors;
a memory storing one or more programs, the one or more programs configured to be executed by the one or more processors, the one or more programs 15. A computer system comprising instructions for carrying out a method according to any one of claims 1 to 14 .
示生成コンポーネント、1つ以上の入力デバイス、1つ以上のカメラ、及びデバイスの姿勢の変化を検出する1つ以上の姿勢センサを備えたコンピュータシステムによって実行されたときに、前記コンピュータシステムに請求項1から14のいずれか一項に記載の方法を実行させる命令を含むプログラム。 when executed by a computer system comprising a display generation component, one or more input devices, one or more cameras, and one or more pose sensors for detecting changes in the pose of the device; A program including instructions for executing the method according to any one of Items 1 to 14 .
JP2022036354A 2018-01-24 2022-03-09 Devices, methods and graphical user interfaces for system-wide behavior of 3D models Active JP7397899B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023204027A JP2024026250A (en) 2018-01-24 2023-12-01 Device, method, and graphical user interface for system-wide behavior for 3d model

Applications Claiming Priority (10)

Application Number Priority Date Filing Date Title
US201862621529P 2018-01-24 2018-01-24
US62/621,529 2018-01-24
US201862679951P 2018-06-03 2018-06-03
US62/679,951 2018-06-03
DKPA201870346 2018-06-11
DKPA201870346A DK201870346A1 (en) 2018-01-24 2018-06-11 Devices, Methods, and Graphical User Interfaces for System-Wide Behavior for 3D Models
US16/145,035 2018-09-27
US16/145,035 US11099707B2 (en) 2018-01-24 2018-09-27 Devices, methods, and graphical user interfaces for system-wide behavior for 3D models
JP2020540320A JP7039714B2 (en) 2018-01-24 2019-01-23 Devices, methods, and graphical user interfaces for system-wide behavior of 3D models
PCT/US2019/014791 WO2019147699A2 (en) 2018-01-24 2019-01-23 Devices, methods, and graphical user interfaces for system-wide behavior for 3d models

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020540320A Division JP7039714B2 (en) 2018-01-24 2019-01-23 Devices, methods, and graphical user interfaces for system-wide behavior of 3D models

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023204027A Division JP2024026250A (en) 2018-01-24 2023-12-01 Device, method, and graphical user interface for system-wide behavior for 3d model

Publications (2)

Publication Number Publication Date
JP2022091798A JP2022091798A (en) 2022-06-21
JP7397899B2 true JP7397899B2 (en) 2023-12-13

Family

ID=67395660

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2020540320A Active JP7039714B2 (en) 2018-01-24 2019-01-23 Devices, methods, and graphical user interfaces for system-wide behavior of 3D models
JP2022036354A Active JP7397899B2 (en) 2018-01-24 2022-03-09 Devices, methods and graphical user interfaces for system-wide behavior of 3D models
JP2023204027A Pending JP2024026250A (en) 2018-01-24 2023-12-01 Device, method, and graphical user interface for system-wide behavior for 3d model

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2020540320A Active JP7039714B2 (en) 2018-01-24 2019-01-23 Devices, methods, and graphical user interfaces for system-wide behavior of 3D models

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023204027A Pending JP2024026250A (en) 2018-01-24 2023-12-01 Device, method, and graphical user interface for system-wide behavior for 3d model

Country Status (4)

Country Link
JP (3) JP7039714B2 (en)
KR (3) KR102666508B1 (en)
AU (3) AU2019212150B2 (en)
WO (1) WO2019147699A2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3993449A1 (en) * 2020-11-02 2022-05-04 Inter IKEA Systems B.V. Method and device for communicating a soundscape in an environment
KR102442715B1 (en) * 2020-12-02 2022-09-14 한국전자기술연구원 Apparatus and method for reproducing augmented reality image based on divided rendering image

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080071559A1 (en) 2006-09-19 2008-03-20 Juha Arrasvuori Augmented reality assisted shopping
US20130234926A1 (en) 2012-03-07 2013-09-12 Qualcomm Incorporated Visually guiding motion to be performed by a user
JP2015001875A (en) 2013-06-17 2015-01-05 ソニー株式会社 Image processing apparatus, image processing method, program, print medium, and print-media set
JP2016521892A (en) 2013-06-11 2016-07-25 クアルコム,インコーポレイテッド Interactive and automatic 3D object scanning method for database creation

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3761106B2 (en) * 1996-03-04 2006-03-29 シャープ株式会社 Image forming apparatus having magnification setting device
JP2004046326A (en) 2002-07-09 2004-02-12 Dainippon Screen Mfg Co Ltd Device and method for displaying picture and program
JP2007047294A (en) 2005-08-08 2007-02-22 Nippon Hoso Kyokai <Nhk> Stereoscopic image display device
US9244562B1 (en) * 2009-07-31 2016-01-26 Amazon Technologies, Inc. Gestures and touches on force-sensitive input devices
US10198854B2 (en) 2009-08-14 2019-02-05 Microsoft Technology Licensing, Llc Manipulation of 3-dimensional graphical objects for view in a multi-touch display
US8922583B2 (en) * 2009-11-17 2014-12-30 Qualcomm Incorporated System and method of controlling three dimensional virtual objects on a portable computing device
JP2012089112A (en) 2010-09-22 2012-05-10 Nikon Corp Image display device
KR101852428B1 (en) 2011-03-09 2018-04-26 엘지전자 주식회사 Mobile twrminal and 3d object control method thereof
US8581901B2 (en) * 2011-07-28 2013-11-12 Adobe Systems Incorporated Methods and apparatus for interactive rotation of 3D objects using multitouch gestures
JP5966834B2 (en) 2012-02-29 2016-08-10 株式会社Jvcケンウッド Image processing apparatus, image processing method, and image processing program
WO2013169882A2 (en) * 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for moving and dropping a user interface object
US9159153B2 (en) * 2012-06-05 2015-10-13 Apple Inc. Method, system and apparatus for providing visual feedback of a map view change
JP6214981B2 (en) 2012-10-05 2017-10-18 株式会社ファイン Architectural image display device, architectural image display method, and computer program
US20140282220A1 (en) * 2013-03-14 2014-09-18 Tim Wantland Presenting object models in augmented reality images
US9286727B2 (en) * 2013-03-25 2016-03-15 Qualcomm Incorporated System and method for presenting true product dimensions within an augmented real-world setting
US9245387B2 (en) * 2013-04-12 2016-01-26 Microsoft Technology Licensing, Llc Holographic snap grid
US10175483B2 (en) * 2013-06-18 2019-01-08 Microsoft Technology Licensing, Llc Hybrid world/body locked HUD on an HMD
JP5937128B2 (en) 2014-03-17 2016-06-22 富士フイルム株式会社 Augmented reality providing system, method and program
US9495008B2 (en) * 2014-06-27 2016-11-15 Amazon Technologies, Inc. Detecting a primary user of a device
US9436369B2 (en) * 2014-09-26 2016-09-06 Disney Enterprises, Inc. Touch interface for precise rotation of an object
EP3130450B1 (en) * 2015-01-30 2020-11-11 Technology Research Association For Future Additive Manufacturing Three-dimensional shaping system, information processing apparatus, method for arranging three-dimensional shaping models, and program for arranging three-dimensional shaping models
JP6292344B2 (en) 2015-03-23 2018-03-14 株式会社村田製作所 Touch input device
US10176641B2 (en) * 2016-03-21 2019-01-08 Microsoft Technology Licensing, Llc Displaying three-dimensional virtual objects based on field of view

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080071559A1 (en) 2006-09-19 2008-03-20 Juha Arrasvuori Augmented reality assisted shopping
US20130234926A1 (en) 2012-03-07 2013-09-12 Qualcomm Incorporated Visually guiding motion to be performed by a user
JP2016521892A (en) 2013-06-11 2016-07-25 クアルコム,インコーポレイテッド Interactive and automatic 3D object scanning method for database creation
JP2015001875A (en) 2013-06-17 2015-01-05 ソニー株式会社 Image processing apparatus, image processing method, program, print medium, and print-media set

Also Published As

Publication number Publication date
WO2019147699A3 (en) 2019-09-19
KR20240075927A (en) 2024-05-29
AU2022201389B2 (en) 2023-10-12
WO2019147699A8 (en) 2020-08-06
KR20220065899A (en) 2022-05-20
KR102397481B1 (en) 2022-05-12
JP2024026250A (en) 2024-02-28
JP7039714B2 (en) 2022-03-22
KR20200110788A (en) 2020-09-25
AU2024200149A1 (en) 2024-01-25
JP2021518935A (en) 2021-08-05
AU2019212150B2 (en) 2021-12-16
WO2019147699A2 (en) 2019-08-01
KR102666508B1 (en) 2024-05-20
JP2022091798A (en) 2022-06-21
AU2019212150A1 (en) 2020-08-20
AU2022201389A1 (en) 2022-03-24

Similar Documents

Publication Publication Date Title
US20210333979A1 (en) Devices, Methods, and Graphical User Interfaces for System-Wide Behavior for 3D Models
JP7097991B2 (en) Devices and methods for measuring using augmented reality
JP6745852B2 (en) Devices, methods, and graphical user interfaces for system-wide behavior of 3D models
KR102540163B1 (en) Systems, methods, and graphical user interfaces for interacting with augmented and virtual reality environments
AU2019101597A4 (en) Devices, methods, and graphical user interfaces for system-wide behavior for 3D models
JP7397899B2 (en) Devices, methods and graphical user interfaces for system-wide behavior of 3D models

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220407

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220407

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230303

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230529

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231102

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231201

R150 Certificate of patent or registration of utility model

Ref document number: 7397899

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150