Nothing Special   »   [go: up one dir, main page]

RU2802281C2 - Application launch method and electronic device - Google Patents

Application launch method and electronic device Download PDF

Info

Publication number
RU2802281C2
RU2802281C2 RU2022103927A RU2022103927A RU2802281C2 RU 2802281 C2 RU2802281 C2 RU 2802281C2 RU 2022103927 A RU2022103927 A RU 2022103927A RU 2022103927 A RU2022103927 A RU 2022103927A RU 2802281 C2 RU2802281 C2 RU 2802281C2
Authority
RU
Russia
Prior art keywords
electronic device
application
user
touch operation
motion
Prior art date
Application number
RU2022103927A
Other languages
Russian (ru)
Other versions
RU2022103927A (en
Inventor
Сяопэн ЧЖОУ
Original Assignee
Хонор Дивайс Ко., Лтд.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Хонор Дивайс Ко., Лтд. filed Critical Хонор Дивайс Ко., Лтд.
Publication of RU2022103927A publication Critical patent/RU2022103927A/en
Application granted granted Critical
Publication of RU2802281C2 publication Critical patent/RU2802281C2/en

Links

Images

Abstract

FIELD: computer technology.
SUBSTANCE: method for launching an application applicable to an electronic device having at least one camera and a touch screen, the method comprising displaying, by the electronic device, a first picture of the first application, the first application supporting user control of the first application through a touch operation on the touch screen, capturing by the electronic device of the user's first image using at least one camera, and recognizing the first motion reading related to the position of the user's body in the first image based on the movement coordinates of the bones converted from the first user image, determining by the electronic device the first information of the touch operation corresponding to the first reading motion, based on a predetermined correspondence between the motion sensing and the touch operation, wherein the first touch operation information contains the type of the first touch operation and the position at which the first touch operation is performed on the touch screen, and providing the electronic device with a response from the first application.
EFFECT: improving the accuracy of reading the motion command.
10 cl, 24 dwg, 3 tbl

Description

ОБЛАСТЬ ТЕХНИКИFIELD OF TECHNOLOGY

[0001] Эта заявка относится к области электронных технологий и, в частности, к способу запуска приложения и электронному устройству.[0001] This application relates to the field of electronic technology and, in particular, to a method of launching an application and an electronic device.

УРОВЕНЬ ТЕХНИКИBACKGROUND OF THE INVENTION

[0002] Игры стали важной развлекательной функцией для людей. Игра со считыванием движения - это электронная игра, которая выполняется (оперируется) игроком посредством изменения считываний (восприятий) движения и тренирует тело, развлекая игрока, тем самым пользуясь популярностью у игроков.[0002] Games have become an important entertainment function for people. The motion sensing game is an electronic game that is performed (operated) by the player by changing the motion sensings (perceptions) and trains the body while entertaining the player, thereby being popular with the players.

[0003] Однако большинство существующих игр со считыванием движения требуют наличия периферийного устройства для распознавания движения тела в дополнение к игровой консоли. Периферийное устройство захватывает изображение игрока, а затем распознает считывание движения игрока на основе изображения, и игровая консоль выполняет операцию, соответствующую считыванию движения. Можно видеть, что игроку необходимо дополнительно приобрести специальное периферийное устройство, чтобы испытать игровой процесс со считыванием движения. Кроме того, производителю игр необходимо специально разработать игру со считыванием движения или специально разработать версию, поддерживающую игровой процесс со считыванием движения для существующей игры. Кроме того, поскольку программные и аппаратные возможности различных игровых консолей различны, поддерживаемые считывания движения различны, что приводит к относительно высоким затратам на разработку игрового процесса со считыванием движения.[0003] However, most existing motion sensing games require a body motion sensing peripheral in addition to the game console. The peripheral device captures an image of the player, and then recognizes the player's motion reading based on the image, and the game console performs an operation corresponding to the motion reading. It can be seen that the player needs to additionally purchase a dedicated peripheral in order to experience the motion sensing gameplay. In addition, a game maker needs to specifically develop a motion sensing game or specifically develop a version supporting motion sensing gameplay for an existing game. In addition, since the software and hardware capabilities of different game consoles are different, the motion sensing supported is different, resulting in a relatively high development cost for a motion sensing game experience.

СУЩНОСТЬ ИЗОБРЕТЕНИЯSUMMARY OF THE INVENTION

[0004] Эта заявка обеспечивает способ запуска приложения и электронное устройство, так что приложение, поддерживающее управление касания, также может управляться с помощью считывания движения (действия-считывания движения, действия-восприятия движения) пользователя, тем самым помогая улучшить взаимодействие с пользователем и снизить затраты на разработку.[0004] This application provides a method for launching an application and an electronic device such that an application supporting touch control can also be controlled by a motion sensing (motion-sensing action, motion-sensing action) of a user, thereby helping to improve user experience and reduce development costs.

[0005] Для достижения вышеуказанной цели в вариантах осуществления настоящей заявки используются следующие технические решения.[0005] To achieve the above goal, the following technical solutions are used in the embodiments of the present application.

[0006] В соответствии с первым аспектом обеспечен способ запуска приложения, применимый к электронному устройству, имеющему по меньшей мере одну камеру и экран касания. Способ включает в себя: отображение электронным устройством первой картинки первого приложения, при этом первое приложение поддерживает управление пользователем первым приложением посредством операции касания на экране касания; захват электронным устройством первого изображения пользователя с использованием по меньшей мере одной камеры и распознавание первого считывания движения пользователя на первом изображении; определение посредством электронного устройства первой информации операции считывания, соответствующей первому считыванию движения, где первая информация операции касания включает в себя тип первой операции касания и положение, в котором выполняется первая операции касания на экране касания; и выполнение электронным устройством операции, соответствующей первой операции касания, в ответ на определение первой информации операции касания, соответствующей первому считыванию движения.[0006] According to a first aspect, a method for launching an application applicable to an electronic device having at least one camera and a touch screen is provided. The method includes: displaying a first picture of a first application by the electronic device, wherein the first application supports user control of the first application through a touch operation on the touch screen; capturing by the electronic device a first image of the user using at least one camera and recognizing the first reading of the user's movement in the first image; determining, by the electronic device, first reading operation information corresponding to the first motion reading, where the first touch operation information includes the type of the first touch operation and the position at which the first touch operation is performed on the touch screen; and performing by the electronic device an operation corresponding to the first touch operation in response to determining the first information of the touch operation corresponding to the first motion reading.

[0007] Первым приложением может быть любое приложение, установленное на электронном устройстве, и приложение может поддерживать операцию касания для управления. Например, первое приложение может быть игровым приложением.[0007] The first application may be any application installed on the electronic device, and the application may support a touch operation for control. For example, the first application may be a game application.

[0008] Операцией, соответствующей первой операции касания, может быть отображение другой картинки, или может быть вывод конкретного голоса, или может быть вывод другого конкретного сигнала, и т.п. Операция, соответствующая первой операции касания, не ограничивается вариантами осуществления этой заявки.[0008] The operation corresponding to the first touch operation may be to display another picture, or may be to output a specific voice, or may be to output another specific signal, or the like. The operation corresponding to the first touch operation is not limited to the embodiments of this application.

[0009] Можно видеть, что в этой заявке считывание движения сопоставляется с операцией касания, изначально поддерживаемой первым приложением, так что функция, для которой первое приложение поддерживает игровой процесс со считыванием движения, также может быть реализована без модификации собственного кода первого приложения, тем самым улучшая опыт использования первого приложения. То есть в способе, представленном в этой заявке, функцию поддержки игрового процесса со считыванием движения не нужно разрабатывать отдельно для каждого первого приложения, что выгодно для снижения затрат на разработку.[0009] It can be seen that in this application, the motion sensing is mapped to the touch operation natively supported by the first application, so that the function for which the first application supports motion sensing gameplay can also be implemented without modifying the first application's own code, thereby improving the experience of using the first application. That is, in the method presented in this application, the motion sensing gameplay support function does not need to be developed separately for each first application, which is advantageous for reducing development costs.

[0010] В возможной реализации выполнение электронным устройством операции, соответствующей первой операции касания, включает в себя: отображение электронным устройством второй картинки первого приложения, где вторая картинка такая же, как картинка, отображаемая посредством электронного устройства в ответ на то, что пользователь выполняет первую операцию касания на первой картинке.[0010] In an exemplary implementation, the electronic device performing an operation corresponding to the first touch operation includes: displaying by the electronic device a second picture of the first application, where the second picture is the same as the picture displayed by the electronic device in response to the user performing the first touch operation on the first picture.

[0011] В возможной реализации определение электронным устройством первой информации операции касания, соответствующей первому считыванию движения, включает в себя: вызов электронным устройством интерфейса уровня прикладной инфраструктуры и определение первой информации операции касания, соответствующей первому считыванию движения.[0011] In an exemplary implementation, determining by the electronic device the first touch operation information corresponding to the first motion reading includes: calling the application infrastructure layer interface by the electronic device and determining the first touch operation information corresponding to the first motion reading.

[0012] Можно видеть, что в этой заявке посредством системной службы считывание движения может быть сопоставлено с операцией касания, изначально поддерживаемой первым приложением, для реализации функции, для которой первое приложение поддерживает игровой процесс со считыванием движения. То есть каждое первое приложение, поддерживающее операцию касания, может реализовать функцию поддержки игрового процесса со считыванием движения посредством вызова системной службы.[0012] It can be seen that in this application, through a system service, motion sensing can be mapped to a touch operation natively supported by the first application to realize a function for which the first application supports motion sensing gameplay. That is, each first application supporting the touch operation can implement a motion-sensing gameplay support function by calling a system service.

[0013] В возможной реализации, перед захватом электронным устройством первого изображения пользователя посредством вызова по меньшей мере одной камеры, способ дополнительно включает в себя: прием электронным устройством операции, в которой пользователь активирует первую функцию; и активация с помощью электронного устройства первой функции в ответ на операцию, при которой пользователь активирует первую функцию, где первая функция представляет собой функцию, первое приложение которой поддерживает управление пользователем первым приложением посредством считывания движения. Можно видеть, что пользователь может выбрать, активировать ли функцию игрового процесса со считыванием движения.[0013] In an exemplary implementation, before the electronic device captures the first image of the user by calling at least one camera, the method further includes: receiving the electronic device an operation in which the user activates the first function; and activating, by the electronic device, a first function in response to an operation in which the user activates the first function, where the first function is a function whose first application supports the user to control the first application by motion sensing. It can be seen that the user can select whether to activate the motion sensing gameplay function.

[0014] В возможной реализации, после активации электронным устройством первой функции, способ дополнительно включает в себя: добавление электронным устройством слоя к картинке первого приложения, где слой включает в себя непрозрачную область и прозрачную область, а непрозрачная область отображает интерфейс настройки первой функции. Следовательно, эта заявка предоставляет способ отображения интерфейса настройки первой функции, чтобы облегчить пользователю настройку первой функции.[0014] In a possible implementation, after the electronic device activates the first function, the method further includes: adding a layer to the first application picture by the electronic device, where the layer includes an opaque area and a transparent area, and the opaque area displays the first function setting interface. Therefore, this application provides a method for displaying a setting interface of the first function in order to facilitate the setting of the first function by the user.

[0015] В возможной реализации способ дополнительно включает в себя: прием электронным устройством операции, в которой пользователь настраивает соответствие между считыванием движения и операцией касания, используя интерфейс настройки первой функции, где операция касания включает в себя тип операции касания и положение, в котором выполняется операция касания на экране касания. Можно видеть, что в способе, предоставленном в этой заявке, пользователь может настроить соответствие между считыванием движения и операцией касания для достижения персонализации и разнообразия игрового процесса со считыванием движения.[0015] In an exemplary implementation, the method further includes: receiving by the electronic device an operation in which a user sets a correspondence between a motion sense and a touch operation using the first function setting interface, where the touch operation includes a type of touch operation and a position in which touch operation on the touch screen. It can be seen that in the method provided in this application, the user can adjust the correspondence between motion sensing and touch operation to achieve personalization and variety of motion sensing gaming experience.

[0016] В возможной реализации тип операции касания включает в себя, по меньшей мере, одно из следующего: операцию постукивания, операцию скольжения, операцию двойного постукивания, операцию касания и удерживания, операцию постукивания суставом пальца, операцию многоточечного касания и предопределенный жест.[0016] In an exemplary implementation, the type of tap operation includes at least one of a tap operation, a slide operation, a double tap operation, a tap and hold operation, a finger knuckle tap operation, a multipoint tap operation, and a predefined gesture.

[0017] В возможной реализации способ дополнительно включает в себя: сохранение с помощью электронного устройства настройки пользователя для соответствия между считыванием движения и операцией касания; и добавление электронным устройством второго слоя к картинке первого приложения, где второй слой включает в себя непрозрачную область и прозрачную область, и непрозрачная область отображает окно предварительного просмотра по меньшей мере одной камеры. Следовательно, пользователь может просматривать считывание движения пользователя с помощью окна предварительного просмотра камеры, тем самым повышая точность использования считывания движения и улучшая впечатления пользователя от использования.[0017] In an exemplary implementation, the method further includes: storing, by the electronic device, a user setting to match between the motion sensing and the touch operation; and adding a second layer by the electronic device to the first application picture, where the second layer includes an opaque area and a transparent area, and the opaque area displays a preview window of at least one camera. Therefore, the user can view the motion sensing of the user with the preview window of the camera, thereby improving the accuracy of using the motion sensing and improving the user's experience of use.

[0018] В возможной реализации по меньшей мере одна камера включает в себя камеру глубины.[0018] In a possible implementation, at least one camera includes a depth camera.

[0019] В возможной реализации способ дополнительно включает в себя: активацию электронным устройством функции дублирования экрана и инструктирование другому электронному устройству, которое подключено к упомянутому электронному устройству и имеет экран, отображать картинку электронного устройства. Можно видеть, что электронное устройство может проецировать картинку, отображаемую на экране, на другое электронное устройство с большим экраном, что полезно для улучшения визуального восприятия пользователя.[0019] In a possible implementation, the method further includes: activating the screen mirroring function by the electronic device and instructing another electronic device that is connected to said electronic device and has a screen to display a picture of the electronic device. It can be seen that the electronic device can project the picture displayed on the screen onto another electronic device with a large screen, which is useful for improving the user's visual experience.

[0020] Согласно второму аспекту обеспечено электронное устройство, включающее в себя: по меньшей мере один процессор, экран касания и по меньшей мере одну камеру, при этом экран касания и по меньшей мере одна камера подсоединены к процессору. Экран касания сконфигурирован для отображения первой картинки первого приложения, при этом первое приложение поддерживает управление пользователем первым приложением посредством операции касания на экране касания; по меньшей мере одна камера выполнена с возможностью захвата первого изображения пользователя; и по меньшей мере один процессор выполнен с возможностью распознавания первого считывания движения пользователя на первом изображении; определение первой информации операции касания, соответствующей первому считыванию движения, где первая информация операции касания включает в себя тип первой операции касания и положение, в котором выполняется первая операция касания на экране касания; и выполняют операцию, соответствующую первой операции касания, в ответ на определение первой информации операции касания, соответствующей первому считыванию движения.[0020] According to a second aspect, an electronic device is provided, including: at least one processor, a touch screen, and at least one camera, the touch screen and at least one camera being connected to the processor. The touch screen is configured to display the first picture of the first application, wherein the first application supports user control of the first application through a touch operation on the touch screen; at least one camera is configured to capture a first image of the user; and at least one processor is configured to recognize the first reading of the user's movement in the first image; determining first touch operation information corresponding to the first motion reading, where the first touch operation information includes the type of the first touch operation and the position at which the first touch operation is performed on the touch screen; and performing an operation corresponding to the first touch operation in response to determining the first touch operation information corresponding to the first motion reading.

[0021] Первое приложение может быть, например, игровым приложением.[0021] The first application may be, for example, a game application.

[0022] В возможной реализации выполнение операции, соответствующей первой операции касания, конкретно включает в себя: управление экраном касания для отображения второй картинки первого приложения, где вторая картинка такая же, как картинка, отображаемая электронным устройством в ответ на что пользователь выполняет первую операцию касания на первой картинке.[0022] In an exemplary implementation, performing an operation corresponding to the first touch operation specifically includes: operating the touch screen to display a second picture of the first application, where the second picture is the same as the picture displayed by the electronic device in response to which the user performs the first touch operation on the first picture.

[0023] В возможной реализации определение первой информации операции касания, соответствующей первому считыванию движения, конкретно включает в себя: вызов интерфейса уровня прикладной инфраструктуры электронного устройства и определение первой информации операции касания, соответствующей первому считыванию движения.[0023] In an exemplary implementation, determining the first touch operation information corresponding to the first motion reading specifically includes: calling an application infrastructure layer interface of the electronic device and determining the first touch operation information corresponding to the first motion reading.

[0024] В возможной реализации по меньшей мере один процессор дополнительно сконфигурирован для: приема операции, при которой пользователь активирует первую функцию; и активации первой функции в ответ на операцию, при которой пользователь активирует первую функцию, где первая функция представляет собой функцию, в которой первое приложение поддерживает управление пользователем первым приложением посредством считывания движения.[0024] In an exemplary implementation, at least one processor is further configured to: receive an operation in which the user activates the first function; and activating the first function in response to an operation in which the user activates the first function, where the first function is a function in which the first application supports the user to control the first application by motion sensing.

[0025] В возможной реализации, по меньшей мере, один процессор дополнительно сконфигурирован для добавления слоя к картинке первого приложения, где слой включает в себя непрозрачную область и прозрачную область, и непрозрачная область отображает интерфейс настройки первой функции.[0025] In an exemplary implementation, at least one processor is further configured to add a layer to the first application picture, where the layer includes an opaque region and a transparent region, and the opaque region displays the first function setting interface.

[0026] В возможной реализации, по меньшей мере, один процессор дополнительно сконфигурирован для приема операции, в которой пользователь настраивает соответствие между считыванием движения и операцией касания, используя интерфейс настройки первой функции, где операция касания включает в себя тип операции касания и положение, в котором выполняется операция касания на экране касания.[0026] In an exemplary implementation, the at least one processor is further configured to receive an operation in which a user sets a correspondence between a motion sensing and a touch operation using a first function setting interface, where the touch operation includes a type of touch operation and a position, in which the touch operation is performed on the touch screen.

[0027] В возможной реализации тип операции касания включает по меньшей мере одно из следующего: операция постукивания, операция скольжения, операция двойного постукивания, операция касания и удерживания, операция постукивания суставом пальца, операция многоточечного касания и предопределенный жест.[0027] In an exemplary implementation, the tap operation type includes at least one of a tap operation, a slide operation, a double tap operation, a tap and hold operation, a finger knuckle tap operation, a multipoint tap operation, and a predefined gesture.

[0028] В возможной реализации, по меньшей мере, один процессор дополнительно сконфигурирован для сохранения настройки пользователя для соответствия между считыванием движения и операцией касания; и добавления второго слоя к картинке первого приложения, где второй слой включает в себя непрозрачную область и прозрачную область, и непрозрачная область отображает окно предварительного просмотра по меньшей мере одной камеры.[0028] In an exemplary implementation, at least one processor is further configured to store a user setting for matching between a motion sensing and a touch operation; and adding a second layer to the first application picture, where the second layer includes an opaque area and a transparent area, and the opaque area displays a preview window of at least one camera.

[0029] В возможной реализации по меньшей мере одна камера включает в себя камеру глубины.[0029] In a possible implementation, at least one camera includes a depth camera.

[0030] В возможной реализации, по меньшей мере, один процессор дополнительно сконфигурирован для активации функции дублирования экрана и инструктирования другому электронному устройству, которое подключено к электронному устройству и имеет экран, отображать картинку электронного устройства.[0030] In an exemplary implementation, at least one processor is further configured to activate the screen mirroring function and cause another electronic device that is connected to the electronic device and has a screen to display a picture of the electronic device.

[0031] В соответствии с третьим аспектом предоставляется компьютерный носитель данных, включающий в себя компьютерные инструкции, где компьютерные инструкции при запуске на терминале вызывают выполнение терминалом способа согласно первому аспекту и любой из его возможных реализаций.[0031] According to a third aspect, a computer storage medium is provided including computer instructions, where the computer instructions, when run on a terminal, cause the terminal to execute the method according to the first aspect and any of its possible implementations.

[0032] В соответствии с четвертым аспектом предоставляется компьютерный программный продукт, где компьютерный программный продукт при запуске на компьютере заставляет компьютер выполнять способ в соответствии с первым аспектом и любой из его возможных реализаций.[0032] According to a fourth aspect, a computer program product is provided, wherein the computer program product, when run on the computer, causes the computer to execute the method according to the first aspect and any of its possible implementations.

[0033] В соответствии с пятым аспектом предоставляется система микросхем, включающая в себя по меньшей мере один процессор, причем, когда по меньшей мере один процессор выполняет инструкции, по меньшей мере один процессор выполняет способ согласно первому аспекту и любой из его возможных реализаций.[0033] According to a fifth aspect, there is provided a chip system including at least one processor, wherein when the at least one processor executes instructions, the at least one processor executes the method of the first aspect and any of its possible implementations.

КРАТКОЕ ОПИСАНИЕ ЧЕРТЕЖЕЙBRIEF DESCRIPTION OF THE DRAWINGS

[0034] Фиг. 1 - схематическая структурная диаграмма 1 электронного устройства согласно варианту осуществления этой заявки.[0034] FIG. 1 is a schematic structural diagram 1 of an electronic device according to an embodiment of this application.

[0035] Фиг. 2 - схематическая структурная диаграмма 2 электронного устройства согласно варианту осуществления этой заявки.[0035] FIG. 2 is a schematic structural diagram 2 of an electronic device according to an embodiment of this application.

[0036] Фиг. 3A представляет собой схематическое представление некоторых пользовательских интерфейсов электронного устройства в соответствии с вариантом осуществления этой заявки.[0036] FIG. 3A is a schematic representation of some user interfaces of an electronic device in accordance with an embodiment of this application.

[0037] Фиг. 3B представляет собой схематическое представление еще некоторых пользовательских интерфейсов электронного устройства в соответствии с вариантом осуществления этой заявки.[0037] FIG. 3B is a schematic representation of some more user interfaces of an electronic device in accordance with an embodiment of this application.

[0038] Фиг. 3C представляет собой схематическое представление еще некоторых пользовательских интерфейсов электронного устройства в соответствии с вариантом осуществления этой заявки.[0038] FIG. 3C is a schematic representation of some more user interfaces of an electronic device in accordance with an embodiment of this application.

[0039] Фиг. 4A представляет собой схематическое представление еще некоторых пользовательских интерфейсов электронного устройства в соответствии с вариантом осуществления этой заявки.[0039] FIG. 4A is a schematic representation of some more user interfaces of an electronic device in accordance with an embodiment of this application.

[0040] Фиг. 4B представляет собой схематическое представление еще некоторых пользовательских интерфейсов электронного устройства в соответствии с вариантом осуществления этой заявки.[0040] FIG. 4B is a schematic representation of some more user interfaces of an electronic device in accordance with an embodiment of this application.

[0041] Фиг. 4С представляет собой схематическое представление еще некоторых пользовательских интерфейсов электронного устройства в соответствии с вариантом осуществления этой заявки.[0041] FIG. 4C is a schematic representation of some more user interfaces of an electronic device in accordance with an embodiment of this application.

[0042] Фиг. 5A представляет собой схематическое представление еще некоторых пользовательских интерфейсов электронного устройства в соответствии с вариантом осуществления этой заявки.[0042] FIG. 5A is a schematic representation of some more user interfaces of an electronic device in accordance with an embodiment of this application.

[0043] Фиг. 5B представляет собой схематическое представление еще некоторых пользовательских интерфейсов электронного устройства в соответствии с вариантом осуществления этой заявки.[0043] FIG. 5B is a schematic representation of some more user interfaces of an electronic device in accordance with an embodiment of this application.

[0044] Фиг. 5C представляет собой схематическое представление еще некоторых пользовательских интерфейсов электронного устройства в соответствии с вариантом осуществления этой заявки.[0044] FIG. 5C is a schematic representation of some more user interfaces of an electronic device in accordance with an embodiment of this application.

[0045] Фиг. 5D представляет собой схематическое представление еще некоторых пользовательских интерфейсов электронного устройства в соответствии с вариантом осуществления этой заявки.[0045] FIG. 5D is a schematic representation of some more user interfaces of an electronic device in accordance with an embodiment of this application.

[0046] Фиг. 5E представляет собой схематическое представление еще некоторых пользовательских интерфейсов электронного устройства в соответствии с вариантом осуществления этой заявки.[0046] FIG. 5E is a schematic representation of some more user interfaces of an electronic device in accordance with an embodiment of this application.

[0047] Фиг. 5F представляет собой схематическое представление еще некоторых пользовательских интерфейсов электронного устройства в соответствии с вариантом осуществления этой заявки.[0047] FIG. 5F is a schematic representation of some more user interfaces of an electronic device in accordance with an embodiment of this application.

[0048] Фиг. 5G представляет собой схематическое представление еще некоторых пользовательских интерфейсов электронного устройства в соответствии с вариантом осуществления этой заявки.[0048] FIG. 5G is a schematic representation of some more user interfaces of an electronic device according to an embodiment of this application.

[0049] Фиг. 5H представляет собой схематическое представление еще некоторых пользовательских интерфейсов электронного устройства в соответствии с вариантом осуществления этой заявки.[0049] FIG. 5H is a schematic representation of some more user interfaces of an electronic device in accordance with an embodiment of this application.

[0050] Фиг. 5I представляет собой схематическое представление еще некоторых пользовательских интерфейсов электронного устройства согласно варианту осуществления этой заявки.[0050] FIG. 5I is a schematic representation of some more user interfaces of an electronic device according to an embodiment of this application.

[0051] Фиг. 6A представляет собой схематическое изображение способа распознавания точек костей на портрете в соответствии с вариантом осуществления этой заявки.[0051] FIG. 6A is a schematic representation of a method for recognizing bone points in a portrait according to an embodiment of this application.

[0052] Фиг. 6B представляет собой схематическое изображение другого способа распознавания точек костей на портрете в соответствии с вариантом осуществления этой заявки.[0052] FIG. 6B is a schematic representation of another method for recognizing bone points in a portrait according to an embodiment of this application.

[0053] Фиг. 6C представляет собой схематическое изображение другого способа распознавания точек костей на портрете согласно варианту осуществления этой заявки.[0053] FIG. 6C is a schematic representation of another method for recognizing bone points in a portrait according to an embodiment of this application.

[0054] Фиг. 6D представляет собой схематическую диаграмму другого способа распознавания точек костей на портрете в соответствии с вариантом осуществления этой заявки.[0054] FIG. 6D is a schematic diagram of another method for recognizing bone points in a portrait according to an embodiment of this application.

[0055] Фиг. 6E представляет собой схему другого способа распознавания точек костей на портрете в соответствии с вариантом осуществления этой заявки.[0055] FIG. 6E is a diagram of another method for recognizing bone points in a portrait according to an embodiment of this application.

[0056] Фиг. 6F представляет собой схематическую диаграмму другого способа распознавания точек костей на портрете в соответствии с вариантом осуществления этой заявки.[0056] FIG. 6F is a schematic diagram of another method for recognizing bone points in a portrait according to an embodiment of this application.

[0057] Фиг. 7 представляет собой схематическую структурную схему системы микросхем согласно варианту осуществления этой заявки.[0057] FIG. 7 is a schematic block diagram of a chip system according to an embodiment of this application.

Описание вариантов осуществленияDescription of Embodiments

[0058] В описаниях вариантов осуществления данной заявки, если не указано иное, «/» представляет собой ИЛИ, означающее, например, что А/В может представлять собой А или В; и «и/или» в этой спецификации является просто ассоциативным отношением для описания ассоциированных объектов и означает, что могут существовать три отношения. Например, A и/или B могут представлять следующие три случая: имеется только A, имеются и A, и B, и имеется только B.[0058] In the descriptions of the embodiments of this application, unless otherwise indicated, "/" represents OR, meaning, for example, that A/B can be A or B; and "and/or" in this specification is simply an association relation to describe the associated objects and means that three relations can exist. For example, A and/or B could represent the following three cases: there is only A, there are both A and B, and there is only B.

[0059] Термины «первый» и «второй», упомянутые ниже, используются только для целей описания и не должны толковаться как указывающие или подразумевающие относительную важность или подразумевающие количество указанных технических характеристик. Следовательно, функция, ограниченная «первой» или «второй», может явно или неявно включать в себя одну или несколько функций. В описании вариантов осуществления данной заявки, если не указано иное, «множество» означает два или более.[0059] The terms "first" and "second" mentioned below are used for purposes of description only and should not be construed as indicating or implying the relative importance or implying the number of said technical characteristics. Therefore, a function limited to "first" or "second" may explicitly or implicitly include one or more functions. In the description of the embodiments of this application, unless otherwise indicated, "many" means two or more.

[0060] В вариантах осуществления этой заявки слово «примерный» или «например» используется для представления примера, иллюстрации или описания. Любой вариант осуществления или схема конструкции, описанная как «примерная» или «примерная» в вариантах осуществления этой заявки, не должна объясняться как более предпочтительная или имеющая больше преимуществ, чем другой вариант осуществления или схема конструкции. В частности, использование слова «примерный» или «например» и т.п. предназначено для представления родственной концепции конкретным образом.[0060] In embodiments of this application, the word "exemplary" or "for example" is used to represent an example, illustration, or description. Any embodiment or design scheme described as "exemplary" or "exemplary" in the embodiments of this application should not be explained as being more preferable or having more advantages than another embodiment or design scheme. In particular, the use of the word "exemplary" or "for example", etc. is intended to represent a related concept in a specific way.

[0061] Например, электронным устройством в этой заявке может быть мобильный телефон, планшетный компьютер, персональный компьютер (personal computer, PC), персональный цифровой помощник (personal digital assistant, PDA), смарт-часы, нетбук, носимое электронное устройство или устройство дополненной реальности (augmented reality, AR), устройство виртуальной реальности (virtual reality, VR), бортовое устройство, умный автомобиль, умный динамик, робот и т.п. Конкретная форма электронного устройства конкретно не ограничена в этой заявке.[0061] For example, the electronic device in this application can be a mobile phone, a tablet computer, a personal computer (PC), a personal digital assistant (PDA), a smart watch, a netbook, a wearable electronic device, or an augmented device. reality (augmented reality, AR), virtual reality device (virtual reality, VR), on-board device, smart car, smart speaker, robot, etc. The specific shape of the electronic device is not specifically limited in this application.

[0062] Фиг. 1 представляет собой структурную схему электронного устройства 100.[0062] FIG. 1 is a block diagram of the electronic device 100.

[0063] Электронное устройство 100 может включать в себя процессор 110, интерфейс 120 внешней памяти, внутреннюю память 121, интерфейс 130 универсальной последовательной шины (universal serial bus, USB), модуль 140 управления зарядкой, модуль 141 управления питанием, аккумулятор 142, антенну 1, антенну 2, модуль 150 мобильной связи, модуль 160 беспроводной связи, аудиомодуль 170, динамик 170А, телефонную трубку 170В, микрофон 170С, разъем 170D для гарнитуры, модуль 180 датчиков, клавиша 190, мотор 191, индикатор 192, камеру 193, экран 194 отображения, интерфейс 195 карты модуля идентификации абонента (subscriber identity module, SIM) и т.п. Модуль 180 датчиков может включать в себя датчик 180А давления, гироскопический датчик 180В, датчик 180С атмосферного давления, магнитный датчик 180D, датчик 180Е ускорения, датчик 180F расстояния, оптический датчик 180G приближения, датчик 180Н отпечатков пальцев, датчик 180J температуры и датчик 180K касания, датчик 180L внешней освещенности, датчик 180M костной проводимости и т.п.[0063] The electronic device 100 may include a processor 110, an external memory interface 120, an internal memory 121, a universal serial bus (USB) interface 130, a charge control module 140, a power control module 141, a battery 142, an antenna 1 , antenna 2, mobile module 150, wireless module 160, audio module 170, speaker 170A, handset 170V, microphone 170C, headset jack 170D, sensor module 180, key 190, motor 191, indicator 192, camera 193, screen 194 display, a subscriber identity module (SIM) card interface 195, and the like. The sensor module 180 may include a pressure sensor 180A, a gyro sensor 180B, an atmospheric pressure sensor 180C, a magnetic sensor 180D, an acceleration sensor 180E, a distance sensor 180F, an optical proximity sensor 180G, a fingerprint sensor 180H, a temperature sensor 180J, and a touch sensor 180K, ambient light sensor 180L, bone conduction sensor 180M, and the like.

[0064] Можно понять, что примерная структура в этом варианте осуществления настоящего изобретения не накладывает конкретного ограничения на электронное устройство 100. В некоторых других вариантах осуществления этой заявки электронное устройство 100 может включать больше или меньше компонентов, чем показано на фигуре, или некоторые компоненты могут быть объединены, или некоторые компоненты могут быть разделены, или компоненты расположены по-разному. Компоненты на фигуре могут быть реализованы с помощью аппаратных средств, программного обеспечения или комбинации программного и аппаратного обеспечения.[0064] It can be understood that the exemplary structure in this embodiment of the present invention imposes no particular limitation on the electronic device 100. In some other embodiments of this application, the electronic device 100 may include more or fewer components than shown in the figure, or some components may be combined, or some components may be separated, or components may be arranged differently. The components in the figure may be implemented in hardware, software, or a combination of software and hardware.

[0065] Процессор 110 может включать в себя один или более блоков обработки. Например, процессор 110 может включать в себя процессор приложений (application processor, AP), процессор модема, блок обработки графики (graphics processing unit, GPU), процессор сигналов изображения (image signal processor, ISP), контроллер, видеокодек, процессор цифровых сигналов (digital signal processor, DSP), процессор основной полосы частот и/или блок обработки нейронной сети (neural-network processing unit, NPU). Различные блоки обработки могут быть независимыми компонентами или могут быть интегрированы в один или несколько процессоров.[0065] Processor 110 may include one or more processing units. For example, processor 110 may include an application processor (AP), a modem processor, a graphics processing unit (GPU), an image signal processor (ISP), a controller, a video codec, a digital signal processor ( digital signal processor (DSP), baseband processor, and/or neural-network processing unit (NPU). The various processing units may be independent components or may be integrated into one or more processors.

[0066] Контроллер может генерировать сигнал управления работой в соответствии с кодом операции инструкции и сигналом последовательности, чтобы завершить управление выборкой и выполнением инструкций.[0066] The controller may generate an operation control signal in accordance with the instruction opcode and the sequence signal to complete the instruction fetch and execution control.

[0067] Память может быть дополнительно сконфигурирована в процессоре 110 для хранения инструкций и данных. В некоторых вариантах осуществления память в процессоре 110 представляет собой кэш. Память может хранить инструкцию или данные, которые только что использовались или циклически использовались процессором 110. Если процессору 110 необходимо снова использовать инструкцию или данные, процессор может напрямую вызвать инструкцию или данные из памяти, чтобы избежать повторного доступа и сократить время ожидания процессора 110, тем самым повышая эффективность системы.[0067] Memory may be further configured in processor 110 to store instructions and data. In some embodiments, the memory in processor 110 is a cache. The memory may store an instruction or data that has just been used or cycled by the processor 110. If the processor 110 needs to use the instruction or data again, the processor may directly recall the instruction or data from memory to avoid re-access and reduce the processor 110 timeout, thereby increasing system efficiency.

[0068] В некоторых вариантах осуществления этой заявки процессор 110 может анализировать изображение, захваченное камерой 193, для определения считывания движения (действия-считывания движения, действия-восприятия движения) пользователя и определения, является ли считывание (восприятие) движения пользователя предопределенным считыванием (восприятием) движения. Затем находится операция касания в целевой игре, соответствующая предопределенному считыванию движения, и инструкция соответствующей операции касания отправляется приложению целевой игры, так что приложение целевой игры выполняет соответствующий ответ для достижения эффекта, что пользователь управляет целевой игрой, используя считывание движения.[0068] In some embodiments of this application, the processor 110 may analyze the image captured by the camera 193 to determine the motion reading (motion-reading action-sensing motion) of the user and determining whether the reading (perception) of the user's motion is a predefined reading (perception ) movement. Then, a target game touch operation corresponding to the predetermined motion sensing is found, and an instruction of the corresponding touch operation is sent to the target game application, so that the target game application performs an appropriate response to achieve the effect that the user controls the target game using the motion sensing.

[0069] В некоторых вариантах осуществления процессор 110 может включать в себя один или несколько интерфейсов. Интерфейс может включать в себя интерфейс интегральной схемы (inter-integrated circuit, I2C), звуковой интерфейс интегральной схемы (inter-integrated Circuit sound, I2S), интерфейс импульсно-кодовой модуляции (pulse code modulation, PCM), интерфейс универсального асинхронного приемника/ передатчика (universal asynchronous receiver/transmitter, UART), интерфейс процессора мобильной индустрии (mobile industry processor interface, MIPI), интерфейс ввода/вывода общего назначения (general-purpose input/output, GPIO), интерфейс модуля идентификации абонента (subscriber identity module, SIM), интерфейс универсальной последовательной шины (universal serial bus, USB) и/или т.п.[0069] In some embodiments, processor 110 may include one or more interfaces. The interface may include an inter-integrated circuit (I2C) interface, an inter-integrated Circuit sound (I2S) interface, a pulse code modulation (PCM) interface, a universal asynchronous receiver/transmitter interface (universal asynchronous receiver/transmitter, UART), mobile industry processor interface (MIPI), general-purpose input/output (GPIO), subscriber identity module (SIM) ), a universal serial bus (USB) interface, and/or the like.

[0070] Интерфейс I2C представляет собой двухстороннюю последовательную шину синхронизации и включает в себя последовательную линию данных (serial data line, SDA) и последовательную линию синхронизации (serail clock line, SCL). В некоторых вариантах осуществления процессор 110 может включать в себя множество групп шин I2C. Процессор 110 может быть соединен с датчиком 180К касания, зарядным устройством, вспышкой, камерой 193 и т.п. с помощью различных интерфейсов шины I2C. Например, процессор 110 может быть подсоединен к датчику 180K касания посредством интерфейса I2C, так что процессор 110 обменивается данными с датчиком 180K касания посредством интерфейса шины I2C, чтобы реализовать функцию касания электронного устройства 100.[0070] The I2C interface is a two-way serial clock bus and includes a serial data line (serial data line, SDA) and a serial clock line (serail clock line, SCL). In some embodiments, processor 110 may include multiple I2C bus groups. The processor 110 may be connected to a touch sensor 180K, a charger, a flash, a camera 193, and the like. using various I2C bus interfaces. For example, processor 110 may be coupled to touch sensor 180K via an I2C interface such that processor 110 communicates with touch sensor 180K via an I2C bus interface to implement the touch function of electronic device 100.

[0071] Интерфейс I2S может использоваться для аудиосвязи. В некоторых вариантах осуществления процессор 110 может включать в себя множество групп шин I2S. Процессор 110 может быть соединен с аудиомодулем 170 с помощью шины I2S для осуществления связи между процессором 110 и аудиомодулем 170. В некоторых вариантах осуществления аудиомодуль 170 может передавать аудиосигнал модулю 160 беспроводной связи с использованием интерфейса I2S для реализации функции ответа на вызов с использованием гарнитуры Bluetooth.[0071] The I2S interface may be used for audio communication. In some embodiments, processor 110 may include multiple I2S bus groups. The processor 110 may be connected to the audio module 170 using the I2S bus to communicate between the processor 110 and the audio module 170. In some embodiments, the audio module 170 may transmit an audio signal to the wireless module 160 using the I2S interface to implement call answering functionality using a Bluetooth headset.

[0072] Интерфейс PCM также может использоваться для аудиосвязи, а также для дискретизации, квантования и кодирования аналогового сигнала. В некоторых вариантах осуществления аудиомодуль 170 может быть соединен с модулем 160 беспроводной связи с использованием интерфейса шины PCM. В некоторых вариантах осуществления аудиомодуль 170 может альтернативно передавать аудиосигнал в модуль 160 беспроводной связи с использованием интерфейса PCM для реализации функции ответа на вызов с использованием гарнитуры Bluetooth. И интерфейс I2S, и интерфейс PCM могут использоваться для аудиосвязи.[0072] The PCM interface can also be used for audio communications, as well as sampling, quantization, and analog coding. In some embodiments, audio module 170 may be connected to wireless communication module 160 using a PCM bus interface. In some embodiments, the audio module 170 may alternatively transmit an audio signal to the wireless communication module 160 using the PCM interface to implement call answering functionality using a Bluetooth headset. Both the I2S interface and the PCM interface can be used for audio communication.

[0073] Интерфейс UART представляет собой универсальную последовательную шину данных и используется для асинхронной связи. Шина может быть шиной двусторонней связи. Шина преобразует подлежащие передаче данные между последовательной связью и параллельной связью. В некоторых вариантах осуществления интерфейс UART обычно сконфигурирован для подключения процессора 110 к модулю 160 беспроводной связи. Например, процессор 110 обменивается данными с модулем Bluetooth в модуле 160 беспроводной связи с использованием интерфейса UART для реализации функции Bluetooth. В некоторых вариантах осуществления аудиомодуль 170 может передавать аудиосигнал на модуль 160 беспроводной связи с использованием интерфейса UART для реализации функции воспроизведения музыки с использованием гарнитуры Bluetooth.[0073] The UART interface is a universal serial data bus and is used for asynchronous communication. The bus may be a talkback bus. The bus converts the data to be transferred between serial communication and parallel communication. In some embodiments, the implementation of the UART interface is typically configured to connect the processor 110 to the wireless module 160. For example, the processor 110 communicates with the Bluetooth module in the wireless module 160 using the UART interface to implement the Bluetooth function. In some embodiments, the audio module 170 may transmit an audio signal to the wireless module 160 using a UART interface to implement music playback functionality using a Bluetooth headset.

[0074] Интерфейс MIPI может быть сконфигурирован для подключения процессора 110 к периферийным устройствам, таким как экран 194 отображения и камера 193. Интерфейс MIPI включает в себя последовательный интерфейс камеры (camera serial interface, CSI), последовательный интерфейс дисплея (display serial interface, DSI) и т.п. В некоторых вариантах осуществления процессор 110 осуществляет связь с камерой 193 с помощью интерфейса CSI для реализации функции фотографирования электронного устройства 100. Процессор 110 осуществляет связь с экраном 194 отображения с помощью интерфейса DSI для реализации функции отображения электронного устройства 100.[0074] The MIPI interface can be configured to connect the processor 110 to peripheral devices such as the display screen 194 and the camera 193. The MIPI interface includes a camera serial interface (CSI), a display serial interface (DSI ) and so on. In some embodiments, the processor 110 communicates with the camera 193 using the CSI interface to implement the photographing function of the electronic device 100. The processor 110 communicates with the display screen 194 using the DSI interface to implement the display function of the electronic device 100.

[0075] Интерфейс GPIO может быть сконфигурирован с помощью программного обеспечения. Интерфейс GPIO может быть сконфигурирован для передачи управляющего сигнала или может быть сконфигурирован для передачи сигнала данных. В некоторых вариантах осуществления интерфейс GPIO может быть сконфигурирован для подключения процессора 110 к камере 193, экрану 194 отображения, модулю 160 беспроводной связи, аудиомодулю 170, модулю 180 датчиков и т.п. Интерфейс GPIO также может быть сконфигурирован как интерфейс I2C, интерфейс I2S, интерфейс UART, интерфейс MIPI и т.п.[0075] The GPIO interface can be configured using software. The GPIO interface can be configured to send a control signal or can be configured to send a data signal. In some embodiments, the GPIO interface may be configured to connect processor 110 to camera 193, display screen 194, wireless module 160, audio module 170, sensor module 180, and the like. The GPIO interface can also be configured as I2C interface, I2S interface, UART interface, MIPI interface, etc.

[0076] Интерфейс 130 USB представляет собой интерфейс, который соответствует спецификации стандарта USB и может быть, в частности, интерфейсом мини-USB, интерфейсом микро-USB, интерфейсом USB типа C и т.п. USB-интерфейс 130 может быть сконфигурирован для подключения к зарядному устройству для зарядки электронного устройства 100, или может использоваться для передачи данных между электронным устройством 100 и периферийным устройством, или может быть сконфигурирован для подключения к гарнитуре для воспроизведения звука с помощью с помощью гарнитуры. В качестве альтернативы интерфейс может быть сконфигурирован для подключения к другому электронному устройству, такому как устройство AR.[0076] The USB interface 130 is an interface that conforms to the specification of the USB standard, and may be a mini USB interface, a micro USB interface, a USB Type C interface, or the like, among others. The USB interface 130 may be configured to connect to a charger to charge the electronic device 100, or may be used to transfer data between the electronic device 100 and a peripheral device, or may be configured to connect to a headset to play audio through the headset. Alternatively, the interface may be configured to connect to another electronic device, such as an AR device.

[0077] Можно понять, что взаимосвязь интерфейсного соединения между модулями, показанными в этом варианте осуществления настоящего изобретения, является просто примером для описания и не является ограничением конструкции электронного устройства 100. В некоторых других вариантах осуществления этой заявки электронное устройство 100 может альтернативно использовать способ соединения интерфейса, отличный от способа соединения в предыдущем варианте осуществления, или использовать комбинацию множества способов соединения интерфейса.[0077] It can be understood that the interface connection relationship between modules shown in this embodiment of the present invention is merely an example for description and is not a limitation on the design of the electronic device 100. In some other embodiments of this application, the electronic device 100 may alternatively use a connection method interface other than the connection method in the previous embodiment, or use a combination of a plurality of interface connection methods.

[0078] Модуль 140 управления зарядкой сконфигурирован для приема входных данных о зарядке от зарядного устройства. Зарядное устройство может быть беспроводным зарядным устройством или может быть проводным зарядным устройством. В некоторых вариантах осуществления проводной зарядки модуль 140 управления зарядкой может принимать ввод зарядки от проводного зарядного устройства с использованием интерфейса 130 USB. В некоторых вариантах осуществления беспроводной зарядки модуль 140 управления зарядкой может принимать вход беспроводной зарядки с помощью катушки беспроводной зарядки электронного устройства 100. Модуль 140 управления зарядкой может подавать питание для электронного устройства с помощью модуля 141 управления питанием во время зарядки аккумулятора 142.[0078] The charge control module 140 is configured to receive charging input from the charger. The charger may be a wireless charger or may be a wired charger. In some wired charging embodiments, charge control module 140 may receive charging input from a wired charger using USB interface 130. In some wireless charging embodiments, charge control module 140 may receive wireless charging input using the wireless charging coil of electronic device 100. Charge control module 140 may supply power to the electronic device using power control module 141 while battery 142 is being charged.

[0079] Модуль 141 управления питанием выполнен с возможностью подсоединения к аккумулятору 142, модулю 140 управления зарядкой и процессору 110. Модуль 141 управления питанием принимает ввод от батареи 142 и/или модуля 140 управления зарядкой для подачи питания на процессор 110, внутреннюю память 121, экран 194 отображения, камеру 193, модуль 160 беспроводной связи и т.п. Модуль 141 управления питанием может быть дополнительно сконфигурирован для отслеживания таких параметров, как емкость батареи, количество циклов работы батареи и состояние батареи (утечка тока и импеданс). В некоторых других вариантах осуществления модуль 141 управления питанием может быть альтернативно расположен в процессоре 110. В некоторых других вариантах осуществления модуль 141 управления питанием и модуль 140 управления зарядкой могут быть дополнительно сконфигурированы в одном и том же устройстве.[0079] The power control module 141 is configured to be connected to the battery 142, the charge control module 140, and the processor 110. The power control module 141 receives input from the battery 142 and/or the charge control module 140 to supply power to the processor 110, the internal memory 121, a display screen 194, a camera 193, a wireless communication module 160, and the like. The power management module 141 can be further configured to monitor parameters such as battery capacity, battery cycles, and battery health (leakage and impedance). In some other embodiments, power management module 141 may alternatively be located on processor 110. In some other embodiments, power management module 141 and charge management module 140 may be further configured on the same device.

[0080] Функция беспроводной связи электронного устройства 100 может быть реализована с использованием антенны 1, антенны 2, модуля 150 мобильной связи, модуля 160 беспроводной связи, процессора модема, процессора основной полосы частот и т.п.[0080] The wireless communication function of the electronic device 100 may be implemented using antenna 1, antenna 2, mobile communication module 150, wireless communication module 160, modem processor, baseband processor, and the like.

[0081] Антенна 1 и антенна 2 выполнены с возможностью передачи и приема сигнала электромагнитной волны. Каждая антенна электронного устройства 100 может быть сконфигурирована для покрытия одного или нескольких диапазонов частот связи. Различные антенны также могут быть мультиплексированы для улучшения использования антенн. Например, антенна 1 может быть мультиплексирована как разнесенная антенна беспроводной локальной сети. В некоторых других вариантах осуществления антенна может использоваться в сочетании с переключателем настройки.[0081] Antenna 1 and antenna 2 are configured to transmit and receive an electromagnetic wave signal. Each antenna of electronic device 100 may be configured to cover one or more communication frequency bands. Different antennas can also be multiplexed to improve antenna utilization. For example, antenna 1 may be multiplexed as a wireless LAN diversity antenna. In some other embodiments, the antenna may be used in conjunction with a tuning switch.

[0082] Модуль 150 мобильной связи может предоставлять решение для беспроводной связи, такой как 2G/3G/4G/5G, применяемое к электронному устройству 100. Модуль 150 мобильной связи может включать в себя по меньшей мере один фильтр, переключатель, усилитель мощности, малошумящий усилитель (low noise amplifier, LNA) и т.п. Модуль 150 мобильной связи может принимать электромагнитную волну через антенну 1, выполнять такую обработку, как фильтрация и усиление принятой электромагнитной волны, и передавать обработанную электромагнитную волну процессору модема для демодуляции. Модуль 150 мобильной связи может дополнительно усиливать сигнал, модулированный процессором модема, и конвертировать сигнал в электромагнитную волну для излучения через антенну 1. В некоторых вариантах осуществления по меньшей мере некоторые функциональные модули модуля 150 мобильной связи могут быть расположены в процессоре 110. В некоторых вариантах осуществления по меньшей мере некоторые функциональные модули модуля 150 мобильной связи и по меньшей мере некоторые модули процессора 110 могут быть расположены в одном и том же компоненте.[0082] The mobile communication module 150 may provide a wireless communication solution such as 2G/3G/4G/5G applied to the electronic device 100. The mobile communication module 150 may include at least one filter, switch, power amplifier, low noise amplifier (low noise amplifier, LNA), etc. The mobile communication unit 150 may receive the electromagnetic wave through the antenna 1, perform processing such as filtering and amplifying the received electromagnetic wave, and transmit the processed electromagnetic wave to the modem processor for demodulation. The mobile communication module 150 may further amplify the signal modulated by the modem processor and convert the signal into an electromagnetic wave for radiation through the antenna 1. In some embodiments, at least some functional modules of the mobile communication module 150 may be located in the processor 110. In some embodiments, implementation at least some of the functional modules of the mobile communication module 150 and at least some of the processor 110 modules may be located in the same component.

[0083] Процессор модема может включать в себя модулятор и демодулятор. Модулятор сконфигурирован для модуляции низкочастотного сигнала основной полосы частот, который должен быть отправлен, в средне-высокочастотный сигнал. Демодулятор сконфигурирован для демодуляции принятого сигнала электромагнитной волны в низкочастотный сигнал основной полосы частот. Затем демодулятор передает демодулированный низкочастотный сигнал основной полосы частот процессору основной полосы частот для обработки. Низкочастотный сигнал основной полосы частот обрабатывается процессором основной полосы частот и затем передается на процессор приложения. Процессор приложения выводит звуковой сигнал через аудиоустройство (которое не ограничивается динамиком 170А, телефонной трубкой 170В и т.п.) или отображает изображение или видео через экран 194 отображения. В некоторых вариантах осуществления процессор модема может быть независимым устройством. В некоторых других вариантах осуществления модемный процессор может быть независимым от процессора 110, и модемный процессор и модуль 150 мобильной связи или другой функциональный модуль могут быть расположены в одном и том же компоненте.[0083] The modem processor may include a modulator and a demodulator. The modulator is configured to modulate a low frequency baseband signal to be sent into a medium high frequency signal. The demodulator is configured to demodulate the received electromagnetic wave signal into a low frequency baseband signal. The demodulator then passes the demodulated low frequency baseband signal to the baseband processor for processing. The low frequency baseband signal is processed by the baseband processor and then transmitted to the application processor. The application processor outputs an audio signal through an audio device (which is not limited to speaker 170A, handset 170B, etc.) or displays an image or video through the display screen 194. In some embodiments, the modem processor may be an independent device. In some other embodiments, the modem processor may be independent of the processor 110, and the modem processor and the mobile communication module 150 or other functional module may be located in the same component.

[0084] Модуль 160 беспроводной связи может обеспечить решение для решения беспроводной связи, включающее в себя беспроводную локальную сеть (wireless local area network, WLAN) (такую как сеть беспроводной достоверности (Wireless Fidelity, Wi-Fi)), Bluetooth (Bluetooth, BT), и глобальная навигационная спутниковая система (global navigation satellite system, GNSS), частотная модуляция (frequency modulation, FM), технология связи ближнего поля (near field communication, NFC), инфракрасная технология (infrared, ИК) и т.п. для применения к электронному устройству 100. Модуль 160 беспроводной связи может представлять собой одно или несколько устройств, объединяющих по меньшей мере один модуль обработки связи. Модуль 160 беспроводной связи принимает электромагнитную волну с помощью антенны 2, выполняет частотную модуляцию и обработку фильтрации сигнала электромагнитной волны и отправляет обработанный сигнал в процессор 110. Модуль 160 беспроводной связи сигнал может альтернативно принимать сигнал, который должен быть отправлен, от процессора 110, выполнять частотную модуляцию и усиление для сигнала, который должен быть отправлен, и конвертировать сигнал в электромагнитную волну для излучения с помощью антенны 2.[0084] The wireless communication unit 160 can provide a wireless communication solution including a wireless local area network (WLAN) (such as a wireless fidelity network (Wi-Fi)), Bluetooth (Bluetooth, BT ), and global navigation satellite system (GNSS), frequency modulation (FM), near field communication technology (NFC), infrared technology (infrared, IR), etc. for application to electronic device 100. Wireless communication module 160 may be one or more devices incorporating at least one communication processing module. The wireless communication module 160 receives the electromagnetic wave with the antenna 2, performs frequency modulation and filtering processing on the electromagnetic wave signal, and sends the processed signal to the processor 110. The wireless communication module 160 may alternatively receive the signal to be sent from the processor 110, perform frequency modulation and amplification for the signal to be sent, and convert the signal into an electromagnetic wave for radiation with antenna 2.

[0085] В некоторых вариантах осуществления антенна 1 и модуль 150 мобильной связи электронного устройства 100 соединены, а антенна 2 и модуль 160 беспроводной связи соединены, так что электронное устройство 100 может осуществлять связь с сетью и другим устройством с помощью технология беспроводной связи. Технология беспроводной связи может включать в себя глобальную систему для мобильной связи (global system for mobile communications, GSM), общую службу пакетной радиосвязи (global system for mobile communications, GPRS), множественный доступ с кодовым разделением каналов (code division multiple access, CDMA), широкополосный множественный доступ с кодовым разделением каналов ( wideband code division multiple access , WCDMA), множественный доступ с временным разделением каналов (time-division code division multiple access, TD-SCDMA), долгосрочное развитие (long term evolution, LTE), BT, GNSS, WLAN, NFC, FM, ИК-технологию и/или т.п. В состав GNSS могут входить глобальная система позиционирования (global positioning system, GPS), глобальная навигационная спутниковая система (global navigation satellite system, GLONASS), навигационная спутниковая система бэйдоу (beidou navigation satellite system, BDS), квазизенитная спутниковая система (quasi-zenith satellite system, QZSS) и/или спутниковая система дополнений (satellite based augmentation systems, SBAS).[0085] In some embodiments, antenna 1 and mobile communication module 150 of electronic device 100 are connected, and antenna 2 and wireless communication module 160 are connected such that electronic device 100 can communicate with a network and another device using wireless technology. Wireless technology may include global system for mobile communications (GSM), global system for mobile communications (GPRS), code division multiple access (CDMA) , wideband code division multiple access (WCDMA), time-division code division multiple access (TD-SCDMA), long-term evolution (LTE), BT, GNSS, WLAN, NFC, FM, IR technology and/or the like. GNSS may include a global positioning system (global positioning system, GPS), a global navigation satellite system (global navigation satellite system, GLONASS), a beidou navigation satellite system (BDS), a quasi-zenith satellite system (quasi-zenith satellite system, QZSS) and/or satellite based augmentation systems (SBAS).

[0086] Электронное устройство 100 реализует функцию отображения с использованием графического процессора (GPU), экрана 194 отображения, процессора приложений и т.п. GPU представляет собой микропроцессор для обработки изображений и соединен с экраном 194 отображения и процессором приложений. GPU сконфигурирован для выполнения математических и геометрических вычислений и рендеринга графики. Процессор 110 может включать в себя один или несколько GPU и выполнять программные инструкции для генерирования или изменения информации отображения.[0086] The electronic device 100 implements a display function using a graphics processing unit (GPU), a display screen 194, an application processor, and the like. The GPU is an image processing microprocessor and is connected to the display screen 194 and the application processor. The GPU is configured to perform mathematical and geometric calculations and render graphics. The processor 110 may include one or more GPUs and execute software instructions to generate or modify display information.

[0087] Экран 194 отображения сконфигурирован для отображения изображения, видео и т.п. Экран 194 отображения включает в себя панель отображения. Панель отображения может представлять собой жидкокристаллический дисплей (liquid crystal display, LCD), органический светоизлучающий диод (organic light-emitting diode, OLED), органический светоизлучающий диод с активной матрицей (active-matrix organic light emitting diode, AMOLED), гибкий светоизлучающий диод (flex light-emitting diode, FLED), Miniled, MicroLed, Micro-oLed, светоизлучающие диоды с квантовыми точками (quantum dot light emitting diodes, QLED) и т.п. В некоторых вариантах осуществления электронное устройство 100 может включать в себя один или N экранов 194 отображения, где N представляет собой положительное целое число, большее 1.[0087] The display screen 194 is configured to display an image, video, or the like. The display screen 194 includes a display panel. The display panel may be a liquid crystal display (LCD), an organic light-emitting diode (OLED), an active-matrix organic light emitting diode (AMOLED), a flexible light-emitting diode ( flex light-emitting diode, FLED), Miniled, MicroLed, Micro-oLed, quantum dot light emitting diodes (QLED), etc. In some embodiments, electronic device 100 may include one or N display screens 194, where N is a positive integer greater than 1.

[0088] Электронное устройство 100 может реализовать функцию фотографирования с использованием ISP, камеры 193, видеокодека, графического процессора (GPU), экрана 194 отображения, процессора приложений и т.п.[0088] The electronic device 100 can implement a photographing function using an ISP, a camera 193, a video codec, a graphics processing unit (GPU), a display screen 194, an application processor, and the like.

[0089] ISP сконфигурирован для обработки данных, возвращаемых камерой 193. Например, во время фотографирования активирован затвор. Свет передается на светочувствительный элемент камеры через объектив, а оптический сигнал конвертируется в электрический сигнал. Светочувствительный элемент камеры передает электрический сигнал на ISP для обработки, следовательно электрический сигнал конвертируется в изображение, видимое невооруженным глазом. ISP также может выполнять оптимизацию алгоритма по точкам шума, яркости и оттенку кожи. ISP также может оптимизировать такие параметры, как экспозиция и цветовая температура сцены съемки. В некоторых вариантах осуществления ISP может быть расположен в камере 193.[0089] The ISP is configured to process the data returned by the camera 193. For example, the shutter is activated during photography. Light is transmitted to the photosensitive element of the camera through the lens, and the optical signal is converted into an electrical signal. The photosensitive element of the camera transmits an electrical signal to the ISP for processing, hence the electrical signal is converted into an image visible to the naked eye. The ISP can also optimize the algorithm for noise points, brightness, and skin tone. The ISP can also optimize settings such as exposure and scene color temperature. In some embodiments, the ISP may be located in chamber 193.

[0090] Камера 193 сконфигурирована для захвата статического изображения или видео. Оптическое изображение объекта генерируется через объектив и проецируется на светочувствительный элемент. Светочувствительный элемент может быть устройством с зарядовой связью (charge coupled device, CCD) или комплементарным металл-оксид-полупроводниковым (complementary metal-oxide-semiconductor, CMOS) фототранзистором. Фоточувствительный элемент конвертирует оптический сигнал в электрический сигнал, а затем передает электрический сигнал в ISP для конвертирования электрического сигнала в цифровой сигнал изображения. ISP выводит цифровой сигнал изображения на DSP для обработки. DSP конвертирует цифровой сигнал изображения в сигнал изображения в стандартных форматах RGB и YUV. В некоторых вариантах осуществления электронное устройство 100 может включать в себя одну или N камер 193, где N - положительное целое число, большее 1.[0090] Camera 193 is configured to capture a still image or video. An optical image of the object is generated through the lens and projected onto the photosensitive element. The photosensitive element can be a charge coupled device (CCD) or a complementary metal-oxide-semiconductor (CMOS) phototransistor. The photosensitive element converts the optical signal into an electrical signal, and then transmits the electrical signal to the ISP to convert the electrical signal into a digital image signal. The ISP outputs the digital image signal to the DSP for processing. The DSP converts the digital image signal into an image signal in standard RGB and YUV formats. In some embodiments, electronic device 100 may include one or N cameras 193, where N is a positive integer greater than 1.

[0091] В вариантах осуществления этой заявки, когда целевая игра запускается на мобильном телефоне, камера 193 может вызываться для захвата изображения пользователя, так что процессор 110 анализирует захваченное изображение, чтобы определить считывание движения пользователя.[0091] In embodiments of this application, when the target game is launched on a mobile phone, the camera 193 may be called to capture an image of the user, such that the processor 110 analyzes the captured image to determine a read of the user's motion.

[0092] Процессор цифровых сигналов сконфигурирован для обработки цифрового сигнала, и в дополнение к цифровому сигналу изображения процессор цифровых сигналов может дополнительно обрабатывать другой цифровой сигнал. Например, когда электронное устройство 100 выполняет выбор частоты, процессор цифровых сигналов сконфигурирован для выполнения преобразования Фурье и т.п. в отношении частотной энергии.[0092] The digital signal processor is configured to process a digital signal, and in addition to the digital image signal, the digital signal processor may further process another digital signal. For example, when the electronic device 100 performs frequency selection, the digital signal processor is configured to perform a Fourier transform or the like. with regard to frequency energy.

[0093] Видеокодек сконфигурирован для сжатия или распаковки цифрового видео. Электронное устройство 100 может поддерживать один или несколько видеокодеков. Таким образом, электронное устройство 100 может воспроизводить или записывать видео во множестве форматов кодирования, например, экспертной группе по движущимся изображениям (moving picture experts group, MPEG) 1, MPEG 2, MPEG 3 и MPEG 4.[0093] The video codec is configured to compress or decompress digital video. Electronic device 100 may support one or more video codecs. Thus, the electronic device 100 can play back or record video in a variety of coding formats, such as moving picture experts group (MPEG) 1, MPEG 2, MPEG 3, and MPEG 4.

[0094] NPU представляет собой вычислительный процессор нейронной сети (neural-network, NN), который быстро обрабатывает входную информацию с использованием структуры биологической нейронной сети, такой как режим передачи между нервными клетками человеческого мозга, и может дополнительно постоянно выполнять самообучение. NPU может использоваться для реализации приложения, такого как интеллектуальное распознавание электронного устройства 100, например, распознавание изображений, распознавание лиц, распознавание голоса и понимание текста.[0094] The NPU is a neural-network (NN) computing processor that quickly processes input information using a biological neural network structure such as a transmission mode between human brain nerve cells, and can further continuously perform self-learning. The NPU may be used to implement an application such as intelligent recognition of the electronic device 100, such as image recognition, face recognition, voice recognition, and text understanding.

[0095] В некоторых вариантах осуществления этой заявки NPU может анализировать изображение, захваченное камерой 193, и может определять портрет на изображении, используя, например, технологию распознавания портрета. Впоследствии положения суставов, таких как локтевые суставы, запястные суставы и коленные суставы, на портрете определяются с помощью технологии распознавания костей (процесс оценки положений точек суставов человеческого тела на изображении или видео с использованием технологии компьютерного зрения), и позиционированные точки суставов, наконец, могут формировать изображение костей человеческого тела, которое может отражать информацию о текущей позе (то есть считывания движения) человеческого тела и т.п.[0095] In some embodiments of this application, the NPU may analyze the image captured by the camera 193 and may determine a portrait in the image using, for example, portrait recognition technology. Subsequently, the positions of joints such as elbows, wrists and knees in the portrait are determined by bone recognition technology (the process of estimating the positions of human body joint points in an image or video using computer vision technology), and the positioned points of the joints can finally be to form an image of the bones of the human body, which can reflect information about the current posture (ie, motion readings) of the human body, and the like.

[0096] Интерфейс 120 внешней памяти может быть сконфигурирован для подключения к внешней карте памяти, такой как карта micro SD, для расширения возможностей хранения электронного устройства 100. Внешняя карта памяти взаимодействует с процессором 110 с помощью интерфейса 120 внешней памяти, чтобы реализовать функцию хранения данных, такую как сохранение файла, такого как музыка или видео, на внешней карте памяти.[0096] The external memory interface 120 can be configured to connect to an external memory card, such as a micro SD card, to expand the storage capabilities of the electronic device 100. The external memory card communicates with the processor 110 via the external memory interface 120 to implement a data storage function such as saving a file such as music or video on an external memory card.

[0097] Внутренняя память 121 может быть сконфигурирована для хранения исполняемого на компьютере программного кода, и исполняемый программный код включает в себя инструкцию. Внутренняя память 121 может включать в себя область хранения программ и область хранения данных. Область хранения программ может хранить операционную систему, приложение, требуемое по меньшей мере одной функцией (например, функцией воспроизведения голоса или функцией воспроизведения изображения) и т.п. В области хранения данных могут храниться данные (например, аудиоданные и адресная книга) и т.п., созданные при использовании электронного устройства 100. Кроме того, внутренняя память 121 может включать в себя быстродействующую оперативную память или может включать в себя энергонезависимую память, такую как по меньшей мере одна память на магнитном диске, флэш-память или универсальное флэш-хранилище (universal flash storage, UFS). Процессор 110 выполняет инструкции, хранящиеся во внутренней памяти 121, и/или инструкции, хранящиеся в памяти, расположенной в процессоре, для выполнения различных функциональных приложений и обработки данных электронного устройства 100.[0097] The internal memory 121 may be configured to store the program code executable on the computer, and the executable program code includes an instruction. The internal memory 121 may include a program storage area and a data storage area. The program storage area may store an operating system, an application required by at least one function (eg, a voice playback function or a picture playback function), and the like. The data storage area may store data (for example, audio data and an address book) and the like created by using the electronic device 100. In addition, the internal memory 121 may include a high-speed random access memory or may include a non-volatile memory such as as at least one memory on a magnetic disk, flash memory or universal flash storage (universal flash storage, UFS). The processor 110 executes instructions stored in the internal memory 121 and/or instructions stored in the memory located in the processor to perform various functional applications and data processing of the electronic device 100.

[0098] Электронное устройство 100 может реализовать аудиофункцию, например воспроизведение и запись музыки, с помощью аудиомодуля 170, динамика 170А, телефонной трубки 170В, микрофона 170С, разъема 170D для гарнитуры, процессора приложений и т.п.[0098] The electronic device 100 can realize an audio function such as playing and recording music using an audio module 170, a speaker 170A, a handset 170B, a microphone 170C, a headset jack 170D, an application processor, and the like.

[0099] Аудиомодуль 170 сконфигурирован для конвертирования цифровой аудиоинформации в аналоговый выходной аудиосигнал и дополнительно сконфигурирован для конвертирования аналогового аудиовхода в цифровой аудиосигнал. Аудиомодуль 170 может быть дополнительно сконфигурирован для кодирования и декодирования аудиосигнала. В некоторых вариантах осуществления аудиомодуль 170 может быть расположен в процессоре 110, или некоторые функциональные модули аудиомодуля 170 могут быть расположены в процессоре 110.[0099] The audio module 170 is configured to convert digital audio information to an analog audio output signal, and is further configured to convert an analog audio input to a digital audio signal. The audio module 170 may be further configured to encode and decode the audio signal. In some embodiments, audio module 170 may be located in processor 110, or some functional modules of audio module 170 may be located in processor 110.

[00100] Динамик 170А, также называемый «динамиком», сконфигурирован для конвертирования электрического аудиосигнала в звуковой сигнал. Музыку можно слушать или отвечать на вызов в режиме громкой связи с помощью динамика 170А в электронном устройстве 100.[00100] Speaker 170A, also referred to as a "speaker", is configured to convert an electrical audio signal into an audio signal. Music can be listened to or a call answered hands-free using the speaker 170A in the electronic device 100.

[00101] Телефонная трубка 170В, также называемая «приемником», сконфигурирована для конвертирования электрического аудиосигнала в звуковой сигнал. Когда электронное устройство 100 используется для ответа на вызов или приема голосовой информации, телефонная трубка 170В может быть поднесена близко к человеческому уху для приема голосовой информации.[00101] A 170V handset, also referred to as a "receiver", is configured to convert an electrical audio signal into an audio signal. When the electronic device 100 is being used to answer a call or receive voice information, the handset 170B may be brought close to the human ear to receive the voice information.

[00102] Микрофон 170С, также называемый «микрофоном» или «микрофоном», сконфигурирован для конвертирования звукового сигнала в электрический сигнал. При совершении вызова или отправке голосовой информации пользователь может говорить, приблизив рот к микрофону 170С, чтобы ввести звуковой сигнал в микрофон 170С. По меньшей мере один микрофон 170С может быть расположен в электронном устройстве 100. В некоторых других вариантах осуществления в электронном устройстве 100 могут быть расположены два микрофона 170С для захвата звукового сигнала и реализации функции шумоподавления. В некоторых других вариантах осуществления в электронном устройстве 100 альтернативно могут быть расположены три, четыре или более микрофонов 170С для захвата звукового сигнала, реализации шумоподавления, распознавания источника звука, реализации функции направленной записи и т.п.[00102] Microphone 170C, also referred to as a "microphone" or "microphone", is configured to convert an audio signal into an electrical signal. When making a call or sending voice information, the user may speak with their mouth close to the microphone 170C to input an audio signal into the microphone 170C. At least one microphone 170C may be located in the electronic device 100. In some other embodiments, two microphones 170C may be located in the electronic device 100 to capture the audio signal and implement the noise canceling function. In some other embodiments, electronic device 100 may alternatively have three, four, or more microphones 170C for audio capture, noise reduction, sound source recognition, directional recording, and the like.

[00103] Разъем 170D для гарнитуры сконфигурирован для подключения к проводной гарнитуре. Разъем 170D для гарнитуры может быть USB-интерфейсом 130 или может быть 3,5-мм интерфейсом открытой платформы мобильных терминалов (open mobile terminal platform, OMTP) или стандартным интерфейсом ассоциации индустрии сотовой связи США (cellular telecommunications industry association of the USA, CTIA).[00103] The headset jack 170D is configured to connect to a wired headset. Headset connector 170D may be a USB interface 130 or may be a 3.5 mm open mobile terminal platform (OMTP) interface or a standard cellular telecommunications industry association of the USA (CTIA) interface .

[00104] Датчик 180А давления выполнен с возможностью считывать сигнал давления и может преобразовывать сигнал давления в электрический сигнал. В некоторых вариантах реализации датчик 180А давления может быть расположен на экране 194 отображения. Существует множество типов датчиков 180А давления, например, резистивный датчик давления, индуктивный датчик давления и емкостный датчик давления. Емкостной датчик давления может включать по меньшей мере две параллельные пластины с проводящими материалами. Когда к датчику 180А давления прикладывается сила, емкость между электродами изменяется. Электронное устройство 100 определяет силу давления на основе изменения емкости. Когда операция касания выполняется на экране 194 отображения, электронное устройство 100 обнаруживает силу операции касания с помощью датчика 180А давления. Электронное устройство 100 может дополнительно вычислять положение касания на основе сигнала обнаружения датчика 180А давления. В некоторых вариантах осуществления операции касания, которые выполняются в одном и том же положении касания, но имеют разную силу операции касания, могут соответствовать разным инструкциям операции. Например, когда операция касания, сила операции касания которой меньше первого порогового значения давления, выполняется на значке приложения для коротких сообщений, выполняется инструкция проверки короткого сообщения. Когда на значке приложения коротких сообщений выполняется операция касания, сила операции касания которой больше или равна первому пороговому значению давления, выполняется инструкция создания нового короткого сообщения.[00104] The pressure sensor 180A is configured to read the pressure signal and can convert the pressure signal into an electrical signal. In some embodiments, the pressure sensor 180A may be located on the display screen 194. There are many types of pressure sensors 180A, such as a resistive pressure sensor, an inductive pressure sensor, and a capacitive pressure sensor. The capacitive pressure sensor may include at least two parallel plates with conductive materials. When a force is applied to the pressure sensor 180A, the capacitance between the electrodes changes. The electronic device 100 determines the force of pressure based on the capacitance change. When a touch operation is performed on the display screen 194, the electronic device 100 detects the strength of the touch operation using the pressure sensor 180A. The electronic device 100 may further calculate the touch position based on the detection signal of the pressure sensor 180A. In some embodiments, touch operations that are performed at the same touch position but have a different touch operation strength may correspond to different operation instructions. For example, when a touch operation whose touch operation strength is smaller than the first pressure threshold is performed on the short message application icon, a short message checking instruction is executed. When a touch operation is performed on the short message application icon, the touch operation strength of which is greater than or equal to the first pressure threshold value, an instruction to create a new short message is executed.

[00105] Датчик 180B гироскопа может быть сконфигурирован для определения положения движения электронного устройства 100. В некоторых вариантах осуществления угловая скорость электронного устройства 100 вокруг трех осей (а именно, осей x, y и z) может быть определена с использованием датчика 180B гироскопа. Датчик 180B гироскопа может использоваться для стабилизации изображения во время фотографирования. Например, когда нажимается затвор, датчик 180В гироскопа обнаруживает угол, под которым электронное устройство 100 дрожит, и вычисляет на основе угла расстояние, которое модуль объектива должен компенсировать, и позволяет объективу отменить дрожание электронного устройства 100 за счет обратного движения, тем самым реализуя стабилизацию изображения. Датчик 180B гироскопа также может использоваться в навигации и в сценарии игры считывания движения.[00105] Gyro sensor 180B may be configured to determine the movement position of electronic device 100. In some embodiments, the angular velocity of electronic device 100 about three axes (namely x, y, and z axes) may be determined using gyroscope sensor 180B. The gyroscope sensor 180B can be used to stabilize the image during photography. For example, when the shutter is pressed, the gyroscope sensor 180B detects the angle at which the electronic device 100 is shaking, and calculates, based on the angle, the distance that the lens module must compensate, and allows the lens to reverse the shaking of the electronic device 100, thereby realizing image stabilization. . The gyroscope sensor 180B can also be used in navigation and in a motion sensing game scenario.

[00106] Датчик 180С барометрического давления сконфигурирован для измерения барометрического давления. В некоторых вариантах осуществления электронное устройство 100 вычисляет высоту, используя значение барометрического давления, измеренное датчиком 180C барометрического давления, для помощи в позиционировании и навигации.[00106] The barometric pressure sensor 180C is configured to measure barometric pressure. In some embodiments, the electronic device 100 calculates the altitude using the barometric pressure value measured by the barometric pressure sensor 180C to assist in positioning and navigation.

[00107] Магнитный датчик 180D включает в себя датчик на эффекте Холла. Электронное устройство 100 может обнаруживать открытое или закрытое состояние откидного кожаного футляра с помощью магнитного датчика 180D. В некоторых вариантах осуществления, когда электронное устройство 100 представляет собой телефон-раскладушку, электронное устройство 100 может обнаруживать состояние открытия или состояние закрытия откидной крышки на основе магнитного датчика 180D. Кроме того, на основе обнаруженного состояния открытия или закрытия кожаного футляра или обнаруженного состояния открытия или закрытия откидной крышки настраивается такая функция, как автоматическая разблокировка откидной крышки.[00107] The magnetic sensor 180D includes a Hall effect sensor. The electronic device 100 can detect the open or closed state of the leather flip case using the magnetic sensor 180D. In some embodiments, when the electronic device 100 is a flip phone, the electronic device 100 may detect an open state or a closed state of the flip cover based on the magnetic sensor 180D. In addition, based on the detected open or close state of the leather case or the detected open or close state of the flip cover, a function such as automatic release of the flip cover is set.

[00108] Датчик 180E ускорения может обнаруживать значение ускорения электронного устройства 100 во всех направлениях (обычно по трем осям). Когда электронное устройство 100 неподвижно, могут быть обнаружены величина и направление силы тяжести. Датчик ускорения может быть дополнительно сконфигурирован для распознавания положения электронного устройства и применяться для переключения между альбомной ориентацией и портретной ориентацией, шагомера или другого приложения.[00108] The acceleration sensor 180E can detect the acceleration value of the electronic device 100 in all directions (typically three axes). When the electronic device 100 is stationary, the magnitude and direction of gravity can be detected. The acceleration sensor can be further configured to sense the position of an electronic device and be used to switch between landscape and portrait orientation, a pedometer, or another application.

[00109] Датчик 180F расстояния сконфигурирован для измерения расстояния. Электронное устройство 100 может измерять расстояние с помощью инфракрасного или лазерного излучения. В некоторых вариантах осуществления в сценарии фотографирования электронное устройство 100 может измерять расстояние с помощью датчика 180F расстояния для осуществления быстрой фокусировки.[00109] The distance sensor 180F is configured to measure distance. The electronic device 100 can measure distance using infrared or laser light. In some embodiments, in a photography scenario, the electronic device 100 may measure distance using the distance sensor 180F to achieve fast focusing.

[00110] Оптический датчик 180G приближения может включать в себя, например, светоизлучающий диод (LED) и оптический детектор, такой как фотодиод. Светоизлучающий диод может быть инфракрасным светоизлучающим диодом. Электронное устройство 100 может излучать инфракрасный свет с помощью светоизлучающего диода. Электронное устройство 100 обнаруживает отраженный инфракрасный свет от близлежащего объекта с помощью фотодиода. При обнаружении достаточного количества отраженного света электронное устройство 100 может определить, что рядом с электронным устройством 100 находится объект. При обнаружении недостаточно отраженного света электронное устройство 100 может определить, что вблизи электронного устройства 100 нет объекта. Электронное устройство 100 может обнаруживать с помощью оптического датчика 180G приближения, что пользователь держит электронное устройство 100 близко к уху во время вызова, так что для экономии энергии реализуется автоматическое отключение экрана. В качестве альтернативы оптический датчик приближения 180G можно использовать в режиме кожаного футляра или карманном режиме для автоматической разблокировки или блокировки экрана.[00110] The optical proximity sensor 180G may include, for example, a light emitting diode (LED) and an optical detector such as a photodiode. The light emitting diode may be an infrared light emitting diode. The electronic device 100 may emit infrared light using a light emitting diode. The electronic device 100 detects reflected infrared light from a nearby object using a photodiode. If enough reflected light is detected, the electronic device 100 can determine that an object is near the electronic device 100. When insufficient reflected light is detected, the electronic device 100 can determine that there is no object in the vicinity of the electronic device 100. The electronic device 100 can detect, with the optical proximity sensor 180G, that the user holds the electronic device 100 close to the ear during a call, so that the screen is automatically turned off to save power. Alternatively, the 180G optical proximity sensor can be used in leather case mode or pocket mode to automatically unlock or lock the screen.

[00111] Датчик 180L внешней освещенности сконфигурирован для считывания яркости окружающего света. Электронное устройство 100 может адаптивно регулировать яркость экрана 194 отображения в соответствии со считываемой яркостью окружающего света. Датчик 180L внешней освещенности может быть дополнительно сконфигурирован для автоматической регулировки баланса белого во время фотосъемки. Датчик 180L внешнего освещения может дополнительно взаимодействовать с оптическим датчиком приближения 180G для обнаружения, находится ли электронное устройство 100 в кармане, чтобы предотвратить случайное касание.[00111] The ambient light sensor 180L is configured to sense the brightness of the ambient light. The electronic device 100 may adaptively adjust the brightness of the display screen 194 according to the sensed brightness of the ambient light. The ambient light sensor 180L can be optionally configured to automatically adjust the white balance during still photography. The ambient light sensor 180L may further cooperate with the optical proximity sensor 180G to detect whether the electronic device 100 is in the pocket to prevent accidental touching.

[00112] Датчик 180H отпечатков пальцев сконфигурирован для захвата отпечатков пальцев. Электронное устройство 100 может реализовать разблокировку по отпечатку пальца, доступ к блокировке приложения, фотографирование по отпечатку пальца, ответ на вызов на основе отпечатка пальца и т.п. с использованием признака захваченного отпечатка пальца.[00112] The fingerprint sensor 180H is configured to capture fingerprints. The electronic device 100 can realize fingerprint unlock, application lock access, fingerprint photography, fingerprint call answering, and the like. using the captured fingerprint feature.

[00113] Датчик 180J температуры сконфигурирован для обнаружения температуры. В некоторых вариантах осуществления электронное устройство 100 выполняет политику обработки температуры, используя температуру, обнаруженную датчиком 180J температуры. Например, когда температура, сообщаемая датчиком 180J температуры, превышает пороговое значение, электронное устройство 100 снижает производительность процессора рядом с датчиком 180J температуры, чтобы уменьшить энергопотребление и реализовать защиту от перегрева. В некоторых других вариантах осуществления, когда температура ниже другого порогового значения, электронное устройство 100 нагревает батарею 142, чтобы предотвратить аварийное отключение электронного устройства 100 из-за низкой температуры. В некоторых других вариантах осуществления, когда температура ниже еще одного порогового значения, электронное устройство 100 повышает выходное напряжение батареи 142, чтобы предотвратить ненормальное отключение, вызванное низкой температурой.[00113] Temperature sensor 180J is configured to detect temperature. In some embodiments, the electronic device 100 executes the temperature processing policy using the temperature detected by the temperature sensor 180J. For example, when the temperature reported by the temperature sensor 180J exceeds a threshold, the electronic device 100 reduces the performance of the processor in the vicinity of the temperature sensor 180J to reduce power consumption and implement overheating protection. In some other embodiments, when the temperature is below another threshold, the electronic device 100 heats the battery 142 to prevent the electronic device 100 from crashing due to low temperature. In some other embodiments, when the temperature is below another threshold, the electronic device 100 increases the output voltage of the battery 142 to prevent abnormal shutdown caused by the low temperature.

[00114] Датчик 180К касания также упоминается как «устройство касания». Датчик 180K касания может быть расположен на экране 194 отображения. Датчик 180К касания и экран 194 отображения образуют экран касания. Датчик 180K касания сконфигурирован для обнаружения операции касания, выполняемой на датчике касания или рядом с ним. Датчик касания может передавать обнаруженную операцию касания процессору приложений для определения типа события касания. Датчик 180K касания может обеспечивать визуальный вывод, относящийся к операции касания, с использованием экрана 194 отображения. В некоторых других вариантах датчик 180K касания может быть альтернативно расположен на поверхности электронного устройства 100 и расположен в положении, отличном от положения экрана 194 отображения.[00114] The touch sensor 180K is also referred to as a "touch device". The touch sensor 180K may be located on the display screen 194 . The touch sensor 180K and the display screen 194 form a touch screen. The touch sensor 180K is configured to detect a touch operation performed on or near the touch sensor. The touch sensor may communicate the detected touch operation to the application processor to determine the type of touch event. The touch sensor 180K may provide visual output related to the touch operation using the display screen 194 . In some other embodiments, the touch sensor 180K may alternatively be located on the surface of the electronic device 100 and located in a position different from that of the display screen 194.

[00115] Датчик 180M костной проводимости может получать сигнал вибрации. В некоторых вариантах осуществления датчик 180M костной проводимости может получать вибрационный сигнал вибрации кости голосовой связки человека. В качестве альтернативы датчик 180M костной проводимости может контактировать с человеческим пульсом и принимать сигнал пульсации кровяного давления. В некоторых вариантах осуществления датчик 180M костной проводимости может быть альтернативно расположен в гарнитуре для формирования гарнитуры костной проводимости. Аудиомодуль 170 может получать голосовой сигнал посредством синтаксического анализа на основе сигнала вибрации, который исходит от вибрационной кости части голосовой связки и получен датчиком 180M костной проводимости, для реализации голосовой функции. Процессор приложений может анализировать информацию о частоте сердечных сокращений на основе сигнала пульса артериального давления, полученного датчиком 180M костной проводимости, для реализации функции обнаружения частоты сердечных сокращений.[00115] The bone conduction sensor 180M can receive a vibration signal. In some embodiments, the bone conduction sensor 180M may receive a vibratory signal from a human vocal cord bone. Alternatively, the bone conduction sensor 180M can be in contact with a human pulse and receive a blood pressure pulse signal. In some embodiments, the bone conduction sensor 180M may alternatively be located in a headset to form a bone conduction headset. The audio module 170 can acquire the voice signal by parsing based on the vibration signal that comes from the vibratory bone of the vocal cord portion and is received by the bone conduction sensor 180M to realize the voice function. The application processor can analyze the heart rate information based on the blood pressure pulse signal received by the bone conduction sensor 180M to realize the heart rate detection function.

[00116] Клавиша 190 включает в себя клавишу питания, клавишу регулировки громкости и т.п. Клавиша 190 может быть механической клавишей или клавишей касания. Электронное устройство 100 может принимать клавишный ввод и генерировать вводимый сигнал клавиши, связанный с настройкой пользователя и управлением функциями электронного устройства 100.[00116] The key 190 includes a power key, a volume key, and the like. The key 190 may be a mechanical key or a touch key. The electronic device 100 may receive key input and generate a key input associated with user configuration and control of the functions of the electronic device 100.

[00117] Мотор 191 может генерировать вибрационную подсказку. Мотор 191 может быть сконфигурирован для обеспечения вибрационной подсказки для входящего вызова и может быть дополнительно сконфигурирован для обеспечения обратной связи с вибрацией касания. Например, операции касания, выполняемые в разных приложениях (например, фотосъемка и воспроизведение аудио), могут соответствовать разным эффектам вибрационной обратной связи. Для операций касания, выполняемых в разных областях экрана 194 отображения, мотор 191 также может соответствовать различным эффектам вибрационной обратной связи. Различные сценарии применения (например, подсказка времени, получение информации, будильник, игра) также могут соответствовать разным эффектам вибрационной обратной связи. Эффект обратной связи с вибрацией касания может быть дополнительно настроен.[00117] Motor 191 may generate a vibration prompt. Motor 191 may be configured to provide a vibration prompt for an incoming call and may be further configured to provide touch vibration feedback. For example, touch operations performed in different applications (such as taking photos and playing audio) may correspond to different vibration feedback effects. For touch operations performed in different areas of the display screen 194, the motor 191 may also correspond to different vibration feedback effects. Different application scenarios (such as time prompting, getting information, alarm clock, game) can also correspond to different vibration feedback effects. The touch vibration feedback effect can be further customized.

[00118] Индикатор 192 может быть световым индикатором, может быть сконфигурирован для индикации состояния зарядки и замены аккумулятора, а также может быть сконфигурирован для индикации сообщения, пропущенного вызова, уведомления и т.п.[00118] The indicator 192 may be an indicator light, may be configured to indicate charging status and battery replacement, and may also be configured to indicate a message, missed call, notification, or the like.

[00119] Интерфейс 195 SIM-карты выполнен с возможностью подключения к SIM-карте. SIM-карта может быть вставлена в интерфейс 195 SIM-карты или отсоединена от интерфейса 195 SIM-карты, чтобы контактировать ил быть отсоединенной от электронного устройства 100. Электронное устройство 100 может поддерживать один или N интерфейсов SIM-карты, где N является положительным целым числом, большим 1. Интерфейс 195 SIM-карты может поддерживать нано-SIM-карту, микро-SIM-карту, SIM-карту и т.п. Множество карт может быть вставлено в один и тот же интерфейс 195 SIM-карты. Множество карт может быть одного типа или разных типов. Интерфейс 195 SIM-карты может быть дополнительно совместим с различными типами SIM-карт. Интерфейс 195 SIM-карты также может быть совместим с внешней картой памяти. Электронное устройство 100 взаимодействует с сетью с помощью SIM-карты для реализации таких функций, как вызов и передача данных. В некоторых вариантах осуществления электронное устройство 100 использует eSIM, то есть встроенную SIM-карту. Карта eSIM может быть встроена в электронное устройство 100 и не может быть отделена от электронного устройства 100.[00119] The SIM card interface 195 is configured to connect to a SIM card. The SIM card may be inserted into the SIM card interface 195 or detached from the SIM card interface 195 to contact or be detached from the electronic device 100. The electronic device 100 may support one or N SIM card interfaces, where N is a positive integer. , large 1. The SIM card interface 195 can support a nano SIM card, a micro SIM card, a SIM card, and the like. A plurality of cards can be inserted into the same SIM card interface 195 . The plurality of cards may be of the same type or of different types. The SIM card interface 195 may be further compatible with various types of SIM cards. The SIM card interface 195 may also be compatible with an external memory card. The electronic device 100 communicates with the network using a SIM card to perform functions such as calling and data transfer. In some embodiments, the electronic device 100 uses an eSIM, that is, an embedded SIM card. The eSIM card may be embedded in the electronic device 100 and cannot be separated from the electronic device 100.

[00120] Программная система электронного устройства 100 может использовать многоуровневую архитектуру, архитектуру, управляемую событиями, архитектуру микроядра, архитектуру микросервиса или облачную архитектуру. В этом варианте осуществления настоящего изобретения система Android с многоуровневой архитектурой используется в качестве примера для иллюстрации структуры программного обеспечения электронного устройства 100.[00120] The software system of the electronic device 100 may use a layered architecture, an event-driven architecture, a microkernel architecture, a microservice architecture, or a cloud architecture. In this embodiment of the present invention, the Android system with layered architecture is used as an example to illustrate the software structure of the electronic device 100.

[00121] Фиг. 2 представляет собой блок-схему структуры программного обеспечения электронного устройства 100 согласно варианту осуществления настоящего изобретения.[00121] FIG. 2 is a block diagram of the software structure of an electronic device 100 according to an embodiment of the present invention.

[00122] В многоуровневой архитектуре программное обеспечение разделено на несколько уровней, и у каждого уровня есть четкая роль и задача. Уровни взаимодействуют друг с другом через программный интерфейс. В некоторых вариантах осуществления система Android разделена на четыре уровня, которые соответственно являются уровнем приложения, уровнем прикладной инфраструктуры, средой выполнения Android (Android runtime) и системной библиотекой, а также уровнем ядра сверху вниз.[00122] In a layered architecture, the software is divided into multiple layers, and each layer has a clear role and task. The levels interact with each other through a software interface. In some embodiments, the Android system is divided into four layers, which are respectively the application layer, the application infrastructure layer, the Android runtime and the system library, and the kernel layer from top to bottom.

[00123] Уровень приложений может включать в себя ряд пакетов приложений.[00123] The application layer may include a number of application packages.

[00124] Как показано на фиг. 2, пакеты приложений могут включать такие приложения, как камера, галерея, календарь, телефон, карта, навигация, WLAN, Bluetooth, музыка, видео и короткие сообщения.[00124] As shown in FIG. 2, application packages may include applications such as camera, gallery, calendar, phone, map, navigation, WLAN, Bluetooth, music, video, and short messages.

[00125] В некоторых вариантах осуществления этой заявки пакеты приложений дополнительно включают в себя игровые приложения, такие как паркурные игры, игры музыкального типа и игры танцевального типа. Следует отметить, что описанное здесь игровое приложение может не поддерживать игровой процесс со считыванием движения.[00125] In some embodiments of this application, the application packages further include game applications such as parkour games, music-type games, and dance-type games. It should be noted that the game application described here may not support motion sensing gameplay.

[00126] Пакеты приложений могут дополнительно включать в себя первое приложение, такое как игровой помощник или помощник приложения. Пользователь может выбрать, используя интерфейс, обеспечиваемый первым приложением, игровое приложение, такое как Subway Parkour, для воспроизведения с игровым процессом со считыванием движения, чтобы активировать функцию игрового процесса со считыванием движения и т.п.[00126] Application packages may further include a first application, such as a game assistant or an application assistant. The user can select, using the interface provided by the first application, a game application such as Subway Parkour to be played with motion sensing gameplay to activate a motion sensing gaming function or the like.

[00127] Уровень прикладной инфраструктуры предоставляет интерфейс прикладного программирования (application programming interface, API) и инфраструктуру программирования для приложений на прикладном уровне. Уровень прикладной инфраструктуры включает в себя некоторые предопределенные функции.[00127] The application infrastructure layer provides an application programming interface (API) and a programming infrastructure for applications at the application layer. The application infrastructure layer includes some predefined functions.

[00128] Как показано на фиг. 2, уровень прикладной инфраструктуры может включать в себя диспетчер окон, поставщик контента, систему просмотра, диспетчер телефона, диспетчер ресурсов, диспетчер уведомлений и т.п.[00128] As shown in FIG. 2, the application infrastructure layer may include a window manager, a content provider, a viewer, a phone manager, a resource manager, a notification manager, and the like.

[00129] Диспетчер окон сконфигурирован для управления оконным приложением. Диспетчер окон может получить размер экрана отображения, определить, имеется ли строка состояния, заблокировать экран, захватить экран и т.п.[00129] A window manager is configured to manage a windowed application. The window manager can get the size of the display screen, determine if there is a status bar, lock the screen, capture the screen, and so on.

[00130] Поставщик контента сконфигурирован для хранения и получения данных, чтобы приложение могло получить к ним данным. Данные могут включать в себя видео, изображение, аудио, сделанные вызовы и ответы на них, историю просмотров и закладки, адресную книгу и т.п.[00130] The content provider is configured to store and retrieve data so that the application can get data to it. The data may include video, image, audio, calls made and answered, browsing history and bookmarks, address book, and the like.

[00131] Система просмотра включает в себя визуальный элемент управления, такой как элемент управления для отображения текста или элемент управления для отображения изображения. Система просмотра может быть сконфигурирована для построения приложения. Интерфейс дисплея может быть сформирован одним или несколькими представлениями. Например, интерфейс дисплея, включающий в себя значок уведомления о коротком сообщении, может включать в себя представление для отображения текста и представление для отображения изображения.[00131] The viewing system includes a visual control, such as a control for displaying text or a control for displaying an image. The viewer system may be configured to build the application. The display interface can be formed by one or more views. For example, the display interface including the short message notification icon may include a view for displaying text and a view for displaying an image.

[00132] Диспетчер телефона сконфигурирован для обеспечения функции связи электронного устройства 100, например, управления состоянием вызова (включая дозвон, отбой и т.п.).[00132] The phone manager is configured to provide a communication function of the electronic device 100, such as call state management (including ringing, clearing, etc.).

[00133] Диспетчер ресурсов предоставляет различные ресурсы для приложения, например, локализованную строку символов, значок, изображение, файл макета и видеофайл.[00133] The resource manager provides various resources to the application, such as a localized character string, an icon, an image, a layout file, and a video file.

[00134] Диспетчер уведомлений позволяет приложению отображать информацию уведомлений в строке состояния. Информация уведомлений может быть сообщением, используемым для указания типа уведомления, и может автоматически исчезать после короткого пребывания без взаимодействия с пользователем. Например, диспетчер уведомлений сконфигурирован для уведомления о завершении загрузки, подсказке сообщения и т.п. В качестве альтернативы диспетчер уведомлений может быть уведомлением, которое появляется в верхней строке состояния системы в виде графика или текста полосы прокрутки, например, уведомлением о приложении, работающем в фоновом режиме, или может быть уведомлением, которое появляется на экране в виде диалогового окна. Например, в строке состояния подсказывается текстовая информация, подсказывается звуковой сигнал, электронное устройство вибрирует или мигает световой индикатор.[00134] The notification manager allows an application to display notification information in the status bar. The notification information may be a message used to indicate the type of notification, and may automatically disappear after a short stay without user interaction. For example, the notification manager is configured to notify download completion, message prompt, and the like. Alternatively, the notification manager may be a notification that appears on the top system status bar as a graphic or scrollbar text, such as a notification about an application running in the background, or may be a notification that appears on the screen as a dialog box. For example, the status bar prompts text information, prompts an audible signal, vibrates an electronic device, or flashes an indicator light.

[00135] В некоторых вариантах осуществления этой заявки уровень прикладной инфраструктуры дополнительно включает в себя механизм дополненной реальности, уровень распознавания позы и уровень сопоставления игры. Уровень механизма дополненной реальности сконфигурирован для анализа изображения пользователя, захваченного камерой, в том числе выполнение распознавания точек костей на изображении пользователя, конвертирование изображения пользователя в координаты движения костей, объединенные точками и линиями, и т.п.[00135] In some embodiments of this application, the application infrastructure layer further includes an augmented reality engine, a pose recognition layer, and a game matching layer. The augmented reality engine layer is configured to analyze the user's image captured by the camera, including performing bone point recognition on the user's image, converting the user's image into bone motion coordinates united by points and lines, and the like.

[00136] Уровень распознавания позы сконфигурирован для распознавания конвертированных координат движения костей и определение считываний движения, таких как наклон тела влево/вправо/наклон вперед/назад, подпрыгивание, приседание, поднятие левой руки вверх/вниз/влево/вперед/назад, подъем левой руки вверх/вниз/влево//вперед/назад, подъем левой ноги вперед/влево и подъем правой ноги вперед/вправо от пользователя.[00136] The posture recognition level is configured to recognize converted bone motion coordinates and determine motion readings such as body tilt left/right/forward/backward tilt, jumping, crouching, left hand up/down/left/forward/backward, left hand raise arms up/down/left//forward/backward, left leg lift forward/left, and right leg lift forward/right away from the user.

[00137] Уровень сопоставления игры сконфигурирован для выполнения сопоставления предопределенного считывания движения и операции касания игрового приложения. Когда пользователь играет в игру и после обнаружения считывания движения пользователя, если считывание движения является предопределенным считыванием движения, определяется операция касания в игровом приложении, соответствующая предопределенному считыванию движения, и инструкция соответствующей операции касания отправляется игровому приложению, так что игровое приложение может выполнять ответ, соответствующий операции касания, то есть достигать эффекта управления игровым приложением посредством использования считывания движения.[00137] The game matching layer is configured to perform matching of the predefined motion sensing and the touch operation of the game application. When the user plays the game and after detecting the user's motion sensing, if the motion sensing is a predetermined motion sensing, a touch operation in the game application corresponding to the predetermined motion sensing is determined, and an instruction of the corresponding touch operation is sent to the gaming application, so that the gaming application can execute a response corresponding to touch operations, that is, to achieve a game application control effect by using motion sensing.

[00138] Среда выполнения Android включает в себя библиотеку ядра и виртуальную машину. Среда выполнения Android отвечает за планирование и администрирование системы Android.[00138] The Android runtime includes a kernel library and a virtual machine. The Android runtime is responsible for scheduling and administering the Android system.

[00139] Библиотека ядра включает в себя две части: одна часть - это функция производительности, которую должен вызывать язык Java, а другая часть - это библиотека ядра Android.[00139] The core library includes two parts: one part is a performance function to be called by the Java language, and the other part is the Android core library.

[00140] Уровень приложений и уровень прикладной инфраструктуры выполняются на виртуальной машине. Виртуальная машина выполняет файлы Java уровня приложений и уровня прикладной инфраструктуры как двоичные файлы. Виртуальная машина используется для выполнения таких функций, как администрирование жизненного цикла объектов, администрирование стека, администрирование потоков, администрирование безопасности и исключений, а также сборка мусора.[00140] The application layer and the application infrastructure layer run on a virtual machine. The virtual machine executes the application layer and application infrastructure layer Java files as binary files. The virtual machine is used to perform functions such as object lifecycle administration, stack administration, thread administration, security and exception administration, and garbage collection.

[00141] Системная библиотека может включать в себя множество функциональных модулей, например, диспетчер поверхностей (surface manager), библиотеку мультимедиа (Media Libraries), библиотеку обработки трехмерной графики (например, OpenGL ES) и механизм 2D-графики (например, SGL).[00141] The system library may include a plurality of functional modules, such as a surface manager (surface manager), a multimedia library (Media Libraries), a 3D graphics processing library (for example, OpenGL ES) and a 2D graphics engine (for example, SGL).

[00142] Диспетчер поверхностей сконфигурирован для администрирования подсистемы отображения и объединения двухмерных и трехмерных уровней множества приложений.[00142] The surface manager is configured to administer the display subsystem and combine the 2D and 3D layers of multiple applications.

[00143] Медиа библиотека поддерживает воспроизведение и запись во множестве распространенных аудио- и видеоформатов, а также поддерживает файлы статических изображений и т.п. Медиа библиотека может поддерживать множество форматов кодирования аудио и видео, например, MPEG4, H.264, MP3, AAC, AMR, JPG и PNG.[00143] The media library supports playback and recording in a variety of common audio and video formats, and also supports still image files and the like. The media library can support many audio and video encoding formats such as MPEG4, H.264, MP3, AAC, AMR, JPG and PNG.

[00144] Библиотека обработки трехмерной графики используется для реализации рисования трехмерной графики, рендеринга изображения, композиции, обработки слоев и т.п.[00144] The 3D graphics processing library is used to implement 3D graphics drawing, image rendering, compositing, layer processing, and the like.

[00145] Механизм 2D-графики - это механизм рисования для 2D-чертежей.[00145] The 2D graphics engine is a drawing engine for 2D drawings.

[00146] Уровень ядра - это уровень между аппаратным и программным обеспечением. Уровень ядра включает в себя, по меньшей мере, драйвер дисплея, драйвер камеры, аудиодрайвер и драйвер датчика.[00146] The kernel level is the level between hardware and software. The kernel level includes at least a display driver, a camera driver, an audio driver, and a sensor driver.

[00147] В некоторых вариантах осуществления этой заявки первое приложение может с помощью драйвера камеры вызывать камеру на аппаратном уровне для захвата изображения пользователя во время игры, так что механизм дополненной реальности и уровень распознавания позы уровня прикладной инфраструктуры анализируют захваченное изображение пользователя и определяют считывание движения, выполняемое пользователем, и т.п. Когда механизм дополненной реальности анализирует захваченное изображение пользователя, а уровень распознавания позы выполняет распознавание позы, также может быть вызван чип обработки AI на аппаратном уровне. Например, NPU выполняет обработку данных, такую как распознавание точек костей или распознавание позы.[00147] In some embodiments of this application, the first application may, using a camera driver, call a camera in the hardware to capture an image of the user during the game, so that the augmented reality engine and the pose recognition layer of the application infrastructure layer analyze the captured image of the user and determine the motion reading, performed by the user, etc. When the augmented reality engine analyzes the captured image of the user, and the pose recognition layer performs the pose recognition, the AI processing chip in the hardware can also be called. For example, the NPU performs data processing such as bone point recognition or pose recognition.

[00148] Все технические решения, включенные в следующие варианты осуществления, могут быть реализованы в электронном устройстве 100, имеющем вышеуказанную аппаратную архитектуру и программную архитектуру. Далее подробно описывается техническое решение, предусмотренное в вариантах осуществления этой заявки, на примере, в котором электронное устройство 100 представляет собой мобильный телефон.[00148] All the technical solutions included in the following embodiments can be implemented in the electronic device 100 having the above hardware architecture and software architecture. The following describes in detail the technical solution provided in the embodiments of this application, in which the electronic device 100 is a mobile phone as an example.

[00149] В настоящее время пользователь может удобно устанавливать на мобильный телефон различные игровые приложения, такие как паркур-игры (например, Subway Parkour) и игры музыкального типа (например, Dance Mission). Чтобы еще больше повысить уровень удовольствия от игры, вариант осуществления этой заявки обеспечивает способ, позволяющий обычной игре (которая относится к игре, которая изначально не поддерживает игровой процесс со считыванием движения) на мобильном телефоне поддерживать игровой процесс со считыванием движения, так что пользователь может управлять игрой, используя считывание движения, для достижения интегрированного эффекта развлечения и фитнеса, тем самым отвечая разнообразным требованиям пользователя.[00149] At present, a user can conveniently install various game applications such as parkour games (eg, Subway Parkour) and music-type games (eg, Dance Mission) on a mobile phone. In order to further improve the level of game enjoyment, an embodiment of this application provides a method for allowing a general game (which refers to a game that does not natively support motion-sensing gameplay) on a mobile phone to support motion-sensing gameplay, so that a user can control game using motion sensing, to achieve an integrated entertainment and fitness effect, thus meeting the diverse needs of the user.

[00150] В некоторых вариантах осуществления этой заявки во время запуска целевой игры запускается первое приложение, такое как игровой помощник, и первое приложение вызывает камеру мобильного телефона с помощью драйвера камеры на уровне ядра для захвата изображения пользователя. Затем мобильный телефон анализирует захваченное изображение пользователя и распознает считывание движения, выполняемое пользователем. Если считывание движения, выполняемое пользователем, является предопределенным считыванием движения, в целевую игру отправляется инструкция операции касания целевой игры, соответствующей предопределенному считыванию движения, чтобы целевая игра могла выполнить соответствующий ответ, чтобы позволить целевой игре, изначально не поддерживающей игровой процесс со считыванием движения, также отвечать на считывание движения, выполняемое пользователем. Таким образом, собственный код целевой игры может не быть модифицирован, то есть целевая игра может поддерживать игровой процесс со считыванием движения.[00150] In some embodiments of this application, during the launch of the target game, a first application, such as a game assistant, is launched, and the first application calls the mobile phone's camera using a kernel-level camera driver to capture an image of the user. The mobile phone then analyzes the captured image of the user and recognizes the motion reading performed by the user. If the motion sensing performed by the user is a predetermined motion sensing, a target game touch operation instruction corresponding to the predetermined motion sensing is sent to the target game so that the target game can execute an appropriate response to allow the target game not natively supporting motion sensing gameplay to also respond to a motion sensing performed by the user. Thus, the native code of the target game may not be modified, that is, the target game may support motion sensing gameplay.

[000151] Другими словами, функция, в которой целевая игра поддерживает игровой процесс со считыванием движения, может быть реализована с использованием другого приложения (например, первого приложения) или системной функции мобильного телефона без изменения целевой игры. Можно видеть, что способ запуска игры, предусмотренный в этом варианте осуществления, применим к играм, поддерживающим операцию касания, то есть версию поддержки игрового процесса со считыванием движения не нужно разрабатывать отдельно для каждого первого приложения, что выгодно для снижение затрат на разработку.[000151] In other words, a function in which the target game supports the motion sensing game can be implemented using another application (eg, the first application) or a mobile phone system function without changing the target game. It can be seen that the game launch method provided in this embodiment is applicable to games supporting the touch operation, that is, the motion sensing game process support version does not need to be developed separately for each first application, which is beneficial for reducing development costs.

[00152] Можно понять, что в дополнение к игровому приложению способ, предусмотренный в этом варианте осуществления этой заявки, также применим к другому приложению, установленному на мобильном телефоне, которое может поддерживать операцию касания для управления. Далее подробно описывается технический способ, предусмотренный в вариантах осуществления этой заявки, с использованием игрового приложения в качестве примера.[00152] It can be understood that, in addition to the game application, the method provided in this embodiment of this application is also applicable to another application installed on a mobile phone that can support a touch operation for control. The following describes in detail the technical method provided in the embodiments of this application, using the game application as an example.

[00153] Ссылаясь на фиг. 3А - фиг. 3С, фиг. 4А - фиг. 4С и фиг. 5А - фиг. 5I, описания сделаны ниже со ссылкой на схематические изображения графических пользовательских интерфейсов.[00153] Referring to FIG. 3A - fig. 3C, FIG. 4A - fig. 4C and FIG. 5A - fig. 5I, descriptions are made below with reference to schematic illustrations of graphical user interfaces.

[00154] Во-первых, мобильный телефон активирует функцию игрового процесса со считыванием движения целевой игры.[00154] First, the mobile phone activates the motion sensing gameplay function of the target game.

[00155] В некоторых вариантах осуществления пользователь может активировать функцию игрового процесса со считыванием движения целевой игры с помощью первого приложения (например, игрового помощника или помощника приложения).[00155] In some embodiments, the user may activate the motion sensing gameplay function of the target game with the first application (eg, game assistant or application assistant).

[00156] Например, интерфейс 300, показанный на фиг. 3А представляет собой схематическое изображение рабочего стола мобильного телефона. Интерфейс 300 может включать в себя строку состояния, одну или несколько значков приложений, таких как значок 301 игрового помощника и значок 302 целевой игры (например, Subway Parkour), и док-бар (панель инструментов). Строка состояния может включать в себя имя оператора, время, состояние уровня заряда батареи, состояние сетевого подключения и т.п. Панель инструментов может включать в себя множество значков ярлыков приложений.[00156] For example, the interface 300 shown in FIG. 3A is a schematic representation of a desktop of a mobile phone. The interface 300 may include a status bar, one or more application icons such as a game assistant icon 301 and a target game icon 302 (eg, Subway Parkour), and a dock (toolbar). The status bar may include the operator's name, time, battery level status, network connection status, and so on. The toolbar may include many application shortcut icons.

[00157] Когда пользователь хочет играть в игру, используя игровой процесс со считыванием движения, пользователь может войти в интерфейс игрового помощника, постукивая значок 301 игрового помощника, и активировать функцию игрового процесса со считыванием движения целевой игры. Например, как показано на фиг. 3B, целевая игра, такая как Subway Parkour, в которой должен быть активирован игровой процесс со считыванием движения, выбирается в интерфейсе 303 игрового помощника. Затем постукивают элемент 305 управления функциями игрового процесса со считыванием движения, чтобы активировать функцию игрового процесса со считыванием движения Subway Parkour (Паркур в метро). В этом случае в интерфейсе 307, показанном на фиг. 3C, функции ускорения игры, «не беспокоить» и игровой процесс со считыванием движения активированы в Subway Parkour. Для функций ускорения игры и «не беспокоить» можно сделать ссылку на предшествующий уровень техники, и подробности здесь повторно не описываются. Далее подробно описывается функция игрового процесса со считыванием движения и конкретная реализация функции игрового процесса со считыванием движения.[00157] When the user wants to play a game using the motion sensing gameplay, the user can enter the game assistant interface by tapping the game assistant icon 301 and activate the motion sensing gameplay function of the target game. For example, as shown in FIG. 3B, the target game, such as Subway Parkour, in which the motion sensing gameplay is to be activated is selected in the game assistant interface 303 . Then, the motion sensing game function control 305 is tapped to activate the Subway Parkour motion sensing game function. In this case, the interface 307 shown in FIG. 3C, Game Boost, Do Not Disturb, and Motion Sensing Gameplay are enabled in Subway Parkour. For the game acceleration and do not disturb functions, reference may be made to the prior art, and details will not be repeated here. Next, the motion sensing game process function and the specific implementation of the motion sensing game process function will be described in detail.

[00158] Если в игровом помощнике нет целевой игры, целевая игра может быть альтернативно добавлена в игровой помощник с помощью элемента управления 306 добавления в интерфейсе 303 игрового помощника, после чего активируется игровой процесс со считыванием движения целевой игры.[00158] If there is no target game in the game assistant, the target game can alternatively be added to the game assistant using the add control 306 in the game assistant interface 303, after which the target game motion sensing gameplay is activated.

[00159] В некоторых других вариантах осуществления пользователь может активировать функцию игрового процесса со считыванием движения посредством настройки системы. Функция игрового процесса со считыванием движения может быть независимой функцией в настройке системы или может быть подфункцией игрового помощника и т.п. Это не ограничено в этом варианте осуществления настоящей заявки.[00159] In some other embodiments, a user may enable a motion sensing gameplay feature through a system setting. The motion sensing gameplay function may be an independent function in a system setting, or may be a sub-function of a game assistant or the like. This is not limited in this embodiment of the present application.

[00160] Например, интерфейс 400 настройки, показанный на фиг. 4A является примером интерфейса настройки системы мобильного телефона. Интерфейс 400 настройки включает в себя функциональный элемент 401 игрового процесса со считыванием движения. В ответ на это пользователь постукивает функциональный элемент 401 игрового процесса со считыванием движения, мобильный телефон отображает интерфейс 402, показанный на фиг. 4B. Как показано на фиг. 4C, в ответ на то, что пользователь постукивает элемент управления 403 добавлением, на мобильном телефоне всплывает окно 404 выбора, и пользователь может добавить, используя окно 404 выбора, игру, в которой требуется активация функции игрового процесса со считыванием движения.[00160] For example, the setup interface 400 shown in FIG. 4A is an example of a mobile phone system setting interface. The setting interface 400 includes a motion sensing gameplay function 401 . In response, the user taps the motion sensing gameplay function 401, the mobile phone displays the interface 402 shown in FIG. 4b. As shown in FIG. 4C, in response to the user tapping the add control 403, a selection window 404 pops up on the mobile phone, and the user can add, using the selection window 404, a game that requires activation of the motion sensing gameplay function.

[00161] В еще некоторых вариантах осуществления во время выполнения целевой игры пользователь может альтернативно активировать функцию игрового процесса со считыванием движения целевой игры посредством ввода речевой команды или выполнения предопределенного жеста, такого как скольжение трех пальцев вниз, или другим способом. Другими словами, способ, которым мобильный телефон активирует игровой процесс со считыванием движения, конкретно не ограничен в этой заявке.[00161] In still some embodiments, during the execution of the target game, the user may alternatively activate the motion sensing gameplay function of the target game by entering a voice command or performing a predetermined gesture such as sliding three fingers down, or in another manner. In other words, the manner in which the mobile phone activates the motion sensing game process is not specifically limited in this application.

[00162] После активации игрового процесса со считыванием движения целевой игры необходимо дополнительно предварительно определить некоторые считывания движения, и настроить соответствие между предопределенными считываниями движения и операциями касания в целевой игре.[00162] After activating the motion sensing gameplay of the target game, it is necessary to further predetermine some motion sensing, and adjust the correspondence between the predefined motion sensing and touch operations in the target game.

[00163] Операции касания относятся к таким операциям, как постукивание, двойное постукивание, касание и удержание, скольжение и рисование конкретного шаблона, которые разрешено выполнять пользователю в целевой игре через экран касания.[00163] Touch operations refer to operations such as tapping, double tapping, tapping and holding, sliding, and drawing a specific pattern that the user is allowed to perform in the target game through the touch screen.

[00164] В частности, пользователь может открыть целевую игру, используя значок целевой игры на рабочем столе мобильного телефона, или может открыть целевую игру, используя некоторые другие ярлыки.[00164] In particular, the user may open the target game using the target game icon on the desktop of the mobile phone, or may open the target game using some other shortcuts.

[00165] Например, в ответ на то, что пользователь постукивает значок 501 целевой игры (например, Subway Parkour) на рабочем столе мобильного телефона, показанном на фиг. 5A мобильный телефон начинает целевую игру и отображает исходный интерфейс целевой игры, показанный на фиг. 5B. В ответ на то, что пользователь постукивает элемент управления 502 «постукивать, чтобы начать игру» на исходном интерфейсе целевой игры, целевая игра запускается на мобильном телефоне, то есть отображается интерфейс, показанный на фиг. 5С.[00165] For example, in response to the user tapping the target game icon 501 (eg, Subway Parkour) on the desktop of the mobile phone shown in FIG. 5A, the mobile phone starts the target game and displays the target game home interface shown in FIG. 5b. In response to the user tapping the "tap to start game" control 502 on the target game source interface, the target game is launched on the mobile phone, that is, the interface shown in FIG. 5C.

[00166] В некоторых вариантах осуществления, как показано на фиг. 5D, после того, как мобильный телефон начнет игру, диалоговое окно 503 игрового помощника может всплыть автоматически или может всплыть в ответ на операцию (например, выполняется предопределенный жест или вводится речевая инструкция для оперирования конкретным элементом управления) пользователя на мобильном телефоне. Пользователь может настроить соответствующие функции игрового помощника с помощью диалогового окна 503. Например, настроены ускорение игры, режим «Не беспокоить», надежное касание клавиш и игровой процесс со считыванием движения. В некоторых других вариантах осуществления альтернативно после того, как мобильный телефон входит в целевую игру, но не начинает игру, диалоговое окно 503 игрового помощника может автоматически всплывать или может всплывать в ответ на операцию пользователя на мобильном телефоне. [00166] In some embodiments, as shown in FIG. 5D, after the mobile phone starts the game, the game assistant dialog 503 may pop up automatically or may pop up in response to an operation (e.g., a predetermined gesture is performed or a voice instruction is entered to operate a specific control) of the user on the mobile phone. The user can set the corresponding functions of the game assistant using the dialog box 503. For example, game acceleration, do not disturb mode, secure key touch, and motion-sensing gameplay are set. In some other embodiments, alternatively, after the mobile phone enters the target game but does not start the game, the game assistant dialog 503 may automatically pop up or may pop up in response to a user operation on the mobile phone.

[00167] Диалоговое окно 503 может отображаться в игровом интерфейсе частично прозрачным или непрозрачным образом. То есть диалоговое окно 503 может блокировать часть игрового интерфейса. В качестве альтернативы диалоговое окно 503 может отображаться способом, который не блокирует игровой интерфейс. Например, диалоговое окно отображается слева, справа, вверху или внизу игрового интерфейса. Диалоговое окно 503 и игровой интерфейс отображаются на экране, не блокируя друг друга. Следует отметить, что момент отображения, способ отображения, положение отображения и т.п. диалогового окна 503 конкретно не ограничены в этом варианте осуществления этой заявки.[00167] The dialog box 503 may be displayed in a game interface in a partially transparent or opaque manner. That is, the dialog 503 may block part of the game interface. Alternatively, the dialog 503 may be displayed in a manner that does not block the game interface. For example, a dialog box is displayed on the left, right, top, or bottom of the game interface. The dialog box 503 and the game interface are displayed on the screen without blocking each other. It should be noted that the display time, display method, display position, etc. dialog box 503 is not specifically limited in this embodiment of this application.

[00168] В конкретной реализации, после обнаружения того, что пользователь начинает целевое игровое приложение (или обнаружения того, что на мобильном телефоне отображается конкретный интерфейс целевого игрового приложения), мобильный телефон может добавить уровень игрового помощника к игровому интерфейсу целевого игрового приложения с помощью диспетчера окон уровня инфраструктуры приложений или другой системной службы. Уровень игрового помощника расположен на уровне игрового интерфейса целевого игрового приложения и включает в себя диалоговое окно 503 игрового помощника, причем в дополнение к диалоговому окну 503 другие области уровня являются прозрачными. Таким образом, пользователь может видеть игровой интерфейс целевого игрового приложения и диалоговое окно 503 одновременно, и пользователь может управлять элементом управления в диалоговом окне 503. Можно видеть, что в этой реализации мобильный телефон добавляет интерфейс настройки для предопределенного считывания движения в целевое игровое приложение без модификации исходного целевого игрового приложения.[00168] In a specific implementation, after detecting that the user is starting the target game application (or detecting that the mobile phone is displaying a specific interface of the target game application), the mobile phone may add a game assistant layer to the game interface of the target game application using the dispatcher. application infrastructure layer windows or other system service. The game assistant layer is located at the game interface layer of the target game application and includes a game assistant dialog 503, other areas of the layer being transparent in addition to the dialog 503. Thus, the user can see the game interface of the target game application and the dialog box 503 at the same time, and the user can control the control in the dialog box 503. It can be seen that in this implementation, the mobile phone adds a setting interface for predefined motion sensing to the target game application without modification. the original target game application.

[00169] В другой конкретной реализации, после обнаружения того, что пользователь запускает целевое игровое приложение, или обнаружения того, что на мобильном телефоне отображается конкретный интерфейс целевого игрового приложения), мобильный телефон может альтернативно регулировать размер и положение игрового интерфейса целевого игрового приложения с помощью диспетчера окон уровня прикладной инфраструктуры или другой системной службы. Например, игровой интерфейс целевого игрового приложения уменьшен, чтобы оставить область отображения конкретного размера слева от мобильного телефона. Кроме того, в области отображения отображается интерфейс настройки, предлагающий пользователю настроить предопределенное считывание движения. Можно видеть, что в этой реализации мобильный телефон добавляет интерфейс настройки для предопределенного считывания движения в целевое игровое приложение без модификации исходного целевого игрового приложения.[00169] In another specific implementation, upon detecting that the user is running the target game application, or detecting that the mobile phone is displaying a particular interface of the target game application), the mobile phone may alternatively adjust the size and position of the game interface of the target game application with an application infrastructure level window manager or other system service. For example, the game interface of the target game application is reduced to leave a specific size display area on the left side of the mobile phone. In addition, a setting interface is displayed in the display area to prompt the user to set the predefined motion reading. It can be seen that in this implementation, the mobile phone adds a setting interface for predefined motion sensing to the target game application without modifying the original target game application.

[00170] Затем, в ответ на операцию постукивания пользователем по элементу управления 504 настройки, соответствующего функции игрового процесса со считыванием движения, показанного на фиг. 5D мобильный телефон отображает интерфейс 505, показанный на фиг. 5E, и конкретный элемент 506 настройки для функции игрового процесса со считыванием движения отображается на интерфейсе 505. Например, пользователь может выбрать предопределенное считывание движения с помощью следующего меню и настроить соответствующую операцию касания для выбранного предопределенного считывания движения.[00170] Then, in response to the operation of tapping by the user on the setting control 504 corresponding to the function of the motion sensing gameplay shown in FIG. 5D, the mobile phone displays the interface 505 shown in FIG. 5E, and the specific setting item 506 for the motion sensing gameplay function is displayed on the interface 505. For example, the user can select a predefined motion sensing using the following menu and set the corresponding touch operation for the selected predefined motion sensing.

[00171] Кроме того, при выборе предопределенного считывания движения пользователь может в качестве альтернативы выбрать изображение, включающее в себя предопределенное считывание движения. Следовательно, мобильный телефон распознает изображение, выбранное пользователем, и настраивает распознанное считывание движения в качестве предопределенного считывания движения, то есть устанавливает некоторые предопределенные считывания движения. Изображение, включающее в себя предопределенное считывание движения, может быть картинкой в альбоме мобильного телефона, или может быть картинкой, загруженной мобильным телефоном из Интернета, или может быть картинкой, включая портрет, снятой камерой, которая в данный момент вызывается мобильным телефоном. Способ для мобильного телефона для распознавания предопределенного считывания движения в изображении подробно описан ниже, и подробности здесь повторно не описываются.[00171] In addition, when selecting a predefined motion sensing, the user may alternatively select an image including the predefined motion sensing. Therefore, the mobile phone recognizes the image selected by the user and sets the recognized motion reading as a predefined motion reading, that is, sets some predefined motion readings. The image including the predetermined motion reading may be a picture in an album of the mobile phone, or may be a picture downloaded by the mobile phone from the Internet, or may be a picture including a portrait captured by a camera currently being called by the mobile phone. A method for a mobile phone to recognize a predetermined motion sensing in an image is described in detail below, and the details are not repeated here.

[00172] Таблица 1 является примером соответствия между набором предопределенных считываний движения и операциями касания в целевой игре.[00172] Table 1 is an example of a correspondence between a set of predefined motion reads and touch operations in the target game.

Таблица 1Table 1

Предопределенные считывания движенияPredefined motion readings Операции касания в целевой игреTouch operations in the target game Наклон тела влевоBody tilt to the left Скольжение влево по экрануSwipe left on the screen Наклон тела вправоBody tilt to the right Скольжение вправо по экрануSwipe right on the screen Приседаниеsquat Скольжение вниз по экрануSliding down the screen Прыжки вверхjumping up Скольжение вверх по экрануSliding up the screen Непрерывно прыгать дваждыContinuously jump twice Двойное постукивание по экрану Double tap on the screen ...... ......

[00173] Следует отметить, что в этой заявке, когда мобильный телефон обнаруживает, что считывание движения пользователя является предопределенным считыванием движения, мобильный телефон должен отправить инструкцию операции касания, соответствующую предопределенному считыванию движения, целевой игре, так что целевая игра выполняет ответ, соответствующий операции касания. В дополнение к включению типов операций касания (например, постукивание, двойное постукивание, скольжение и касание и удержание), инструкция операции касания должна дополнительно включать в себя конкретную позицию (или координаты), в которой операция касания выполняется на экране, то есть там, где операция касания выполняется на экране.[00173] Note that, in this application, when the mobile phone detects that the user's motion sensing is a predefined motion sensing, the mobile phone must send a touch operation instruction corresponding to the predefined motion sensing to the target game, so that the target game executes the response corresponding to the operation. touch. In addition to including types of touch operations (e.g., tapping, double tapping, sliding and tapping and holding), the touch operation instruction should further include the specific position (or coordinates) at which the touch operation is performed on the screen, that is, where touch operation is performed on the screen.

[00174] В некоторых примерах мобильный телефон может настроить одно или несколько положений экрана по умолчанию для операций касания, соответствующих предопределенным считываниям движения. То есть пользователь может не настраивать специально положение экрана для операции касания, соответствующей предопределенному считывания движения. Например, в игре Subway Parkour пользователь может скользить влево/вправо/вверх/вниз в любой точке экрана, а игровой персонаж идет влево/идет вправо/прыгает вверх/приседает вниз. Таким образом, если настроены считывание движения и операция касания, например, наклон тела влево, соответствующий скольжению влево, впоследствии, после проверки считывания движения наклона тела пользователя влево, мобильный телефон может отправить инструкцию скольжения влево, то есть отправить координаты по умолчанию (например, координаты центра экрана или координаты любого положения внизу экрана) и действие скольжения влево в игру Subway Parkour. После приема инструкции, игра Subway Parkour считает, что операция скольжения влево принята в положении координат по умолчанию, и выполняет ответ, соответствующий операции, то есть игровой персонаж идет влево.[00174] In some examples, the mobile phone may configure one or more default screen positions for touch operations corresponding to predefined motion readings. That is, the user may not specifically adjust the screen position for the touch operation corresponding to the predetermined motion sensing. For example, in the game Subway Parkour, the user can slide left/right/up/down anywhere on the screen, and the game character walks left/walks right/jumps up/crouches down. Thus, if the motion reading and the touch operation, such as tilting the body to the left corresponding to sliding left, are set, subsequently, after checking the reading of the motion reading of the user's body tilting to the left, the mobile phone can send the slide left instruction, that is, send the default coordinates (for example, coordinates the center of the screen or the coordinates of any position at the bottom of the screen) and the action of sliding left into the game Subway Parkour. After receiving the instruction, the Subway Parkour game considers that the slide left operation is received at the default coordinate position, and executes the response corresponding to the operation, that is, the game character moves to the left.

[00175] В некоторых других примерах, учитывая, что операция касания должна выполняться в конкретной области экрана, целевая игра может отвечать, когда мобильный телефон настраивает соответствие между предопределенными считываниями движения и операциями касания, пользователю, что он может настраивать положения в которых операции касания выполняются на экране.[00175] In some other examples, given that a touch operation is to be performed in a specific area of the screen, the target game may respond when the mobile phone sets up a correspondence between predefined motion readings and touch operations to the user that it can set the positions at which touch operations are performed on the screen.

[00176] Описание сделано на примере, в котором целевой игрой является Honor of Kings. В игре Honor of Kings, когда пользователь настраивает клавишу атаки в правом нижнем углу и когда пользователь настраивает предопределенное считывание движения, соответствующее клавише атаки, в дополнение к настройке операции касания, соответствующей предопределенному считыванию движения для постукивания, причем пользователю дополнительно необходимо настроить положение, в котором выполняется операция касания, чтобы оно было таким же, как положение исходной клавиши атаки в целевой игре. То есть целевое положение настраивается в области, в которой находится исходный ключ атаки.[00176] The description has been made using an example in which the target game is Honor of Kings. In the Honor of Kings game, when the user sets the attack key in the lower right corner, and when the user sets the predefined motion reading corresponding to the attack key, in addition to setting the touch operation corresponding to the predefined tapping motion reading, the user further needs to set the position where a touch operation is performed so that it is the same as the position of the original attack key in the target game. That is, the target position is set in the area where the original attack key is located.

[00177] Например, как показано на фиг. 5F, элементы настройки игрового процесса со считыванием движения могут дополнительно включать в себя элемент управления 507 положением. Пользователь может настраивать, используя элемент управления 507 положением, положение, в котором выполняется каждая операция касания, которая настроена для соответствия с предопределенным считыванием движения. В конкретной реализации, в ответ на постукивание пользователем элемента управления 507 положением, соответствующего предопределенному считыванию движения, мобильный телефон предлагает пользователю выбрать на экране положение (или координаты), в котором выполняется в настоящее время настроенная операция касания. Пользователь может постукивать целевое положение (то есть положения, в котором требуется выполнить операцию касания) на экране, и мобильный телефон записывает координаты положения, по которому было постукивание, и настраивает координаты в качестве координат, в которых выполняется операция касания. Конечно, пользователь может выполнять настройку посредством ввода координат или выбора координат. Это не является конкретно ограниченным в этом варианте осуществления этой заявки.[00177] For example, as shown in FIG. 5F, the motion sensing gameplay settings may further include a position control 507. The user can adjust, using the position control 507, the position at which each touch operation is performed, which is configured to match the predefined motion sensing. In a specific implementation, in response to the user tapping the position control 507 corresponding to the predefined motion sensing, the mobile phone prompts the user to select the position (or coordinates) on the screen at which the currently configured tap operation is being performed. The user can tap the target position (that is, the position at which the touch operation is to be performed) on the screen, and the mobile phone records the coordinates of the tapped position and sets the coordinates as the coordinates at which the touch operation is performed. Of course, the user can make adjustments by inputting coordinates or selecting coordinates. It is not specifically limited in this embodiment of this application.

[00178] Таблица 2 - еще один пример соответствия между набором предопределенных считываний движения и операциями касания в целевой игре (например, Subway Parkour).[00178] Table 2 is another example of the correspondence between a set of predefined motion reads and touch operations in a target game (eg, Subway Parkour).

Таблица 2table 2

Предопределенные считывания движенияPredefined motion readings Операции касания в целевой игреTouch operations in the target game Положение, в котором выполняется соответствующая операция касания (единица измерения: пиксель)Position at which the corresponding touch operation is performed (unit: pixel) Наклон тела влевоBody tilt to the left Скольжение влево по экрануSwipe left on the screen (200, 100)(200, 100) Наклон тела вправоBody tilt to the right Скольжение вправо по экрануSwipe right on the screen (200, 300)(200, 300) Приседаниеsquat Скольжение вниз по экрануSliding down the screen (100, 200)(100, 200) Прыжки вверхjumping up Скольжение вверх по экрануSliding up the screen (300, 200)(300, 200) Непрерывно прыгать дваждыContinuously jump twice Двойное постукивание по экрануDouble tap on the screen (200, 400)(200, 400) ...... ......

[00179] В другом примере, как показано на фиг. 5G, при настройке предопределенного считывания движения и операции касания мобильный телефон может также отображать некоторые клавиши, такие как клавиша 1 и клавиша 2, в игровом интерфейсе. Во время настройки клавиши могут быть ассоциированы с предопределенными считываниями движения. Например, наклон тела влево (предопределенное считывание движения) ассоциирован с операцией скольжения влево (операция касания) и клавишей 1. Это означает, что считывание движения наклона тела влево эквивалентно тому, что пользователь выполняет операцию касания скольжения влево в положении клавиши 1. То есть, при обнаружении считывания движения наклона тела влево мобильный телефон отправляет положение клавиши 1 и инструкцию скольжения влево целевой игре.[00179] In another example, as shown in FIG. 5G, when setting the predefined motion sensing and touch operation, the mobile phone may also display some keys, such as key 1 and key 2, in the game interface. During setup, keys can be associated with predefined motion readings. For example, body tilt left (predefined motion sensing) is associated with slide left operation (touch operation) and key 1. This means that body tilt left motion reading is equivalent to the user performing slide left touch operation at key position 1. That is, upon detecting the left body tilt motion reading, the mobile phone sends the key position 1 and the slide left instruction to the target game.

[00180] Конечно, пользователь может изменить положения клавиш, перемещая клавиши. В качестве альтернативы пользователь может изменить количество клавиш, удалив или добавив элемент управления. Можно понять, что клавиши отображаются, когда настроены предопределенные считывания движения, так что пользователь четко запоминает положения, в которых выполняются операции касания, соответствующие предопределенным считываниям движения. После завершения настройки клавиши не отображаются в интерфейсе игры.[00180] Of course, the user can change the positions of the keys by moving the keys. Alternatively, the user can change the number of keys by removing or adding a control. It can be understood that the keys are displayed when the predetermined motion senses are set, so that the user clearly remembers the positions at which touch operations corresponding to the predetermined motion senses are performed. After completing the setup, the keys are not displayed in the game interface.

[00181] Таблица 3 - еще один пример соответствия между набором предопределенных считываний движения и операциями касания в целевой игре (например, Subway Parkour).[00181] Table 3 is another example of the correspondence between a set of predefined motion reads and touch operations in a target game (eg, Subway Parkour).

Таблица 3Table 3

клавиша 1key 1 Предопределенные считывания движенияPredefined motion readings Операции касания в целевой игреTouch operations in the target game клавиша 2key 2 Наклон тела влевоBody tilt to the left Скольжение влево по экрануSwipe left on the screen клавиша 3key 3 Наклон тела вправоBody tilt to the right Скольжение вправо по экрануSwipe right on the screen клавиша 4key 4 Приседаниеsquat Скольжение вниз по экрануSliding down the screen клавиша 5key 5 Прыжки вверхjumping up Скольжение вверх по экрануSliding up the screen клавиша 6key 6 Непрерывно прыгать дваждыContinuously jump twice Двойное постукивание по экрануDouble tap on the screen ...... ......

[00182] Положение клавиши 1 на экране мобильного телефона это (200, 100), положение клавиши 2 это (200, 300), положение клавиши 3 это (100, 200), положение клавиши 4 это (300, 200), а положение клавиши 5 это (200, 400). Единица измерения - пиксель.[00182] Key position 1 on the mobile phone screen is (200, 100), key position 2 is (200, 300), key position 3 is (100, 200), key position 4 is (300, 200), and key position 5 is (200, 400). The unit of measure is pixel.

[00183] Можно понять, что обычно различные игровые приложения также имеют некоторые общие операции касания. Следовательно, мобильный телефон может настроить общие операции касания в соответствии с предопределенным считыванием движения по умолчанию. То есть одна и та же операция касания в разных игровых приложениях соответствует одному и тому же предопределенному считыванию движения.[00183] It can be understood that, in general, various gaming applications also have some common touch operations. Therefore, the mobile phone can customize the general touch operations according to the default predefined motion sensing. That is, the same touch operation in different gaming applications corresponds to the same predefined motion reading.

[00184] В качестве альтернативы, учитывая, что игровые приложения одного и того же типа имеют более похожие операции касания, поэтому соответствие между предопределенными считываниями движения и операциями касания может быть настроено по умолчанию для игровых приложений одного и того же типа. То есть одна и та же операция касания в игровых приложениях одного и того же типа соответствует одному и тому же предопределенному считыванию движения, что помогает уменьшить нагрузку на пользователя, связанную с запоминанием, так что пользователь сохраняет ту же привычку работы, тем самым повышая универсальность предопределенного считывания движения. Кроме того, затраты на настройку предопределенного считывания движения пользователем также могут быть снижены.[00184] Alternatively, given that game applications of the same type have more similar touch operations, therefore, the correspondence between predefined motion senses and touch operations can be configured by default for game applications of the same type. That is, the same touch operation in the same type of game applications corresponds to the same predefined motion reading, which helps to reduce the burden on the user to remember, so that the user maintains the same operation habit, thereby increasing the versatility of the predefined motion reading. In addition, the cost of setting up a predetermined motion sensing by the user can also be reduced.

[00185] После настройки предопределенного считывания движения конкретный элемент настройки функции игрового процесса со считыванием движения может быть закрыт с помощью элемента управления 508 закрытием на фиг. 5G. Как показано на фиг. 5H, игровой интерфейс по-прежнему отображается.[00185] After setting the predefined motion sensing, the specific motion sensing gameplay function setting item can be closed using the close control 508 in FIG. 5G. As shown in FIG. 5H, the game interface is still displayed.

[00186] Вышеприведенное описание выполнено с использованием примера, в котором, когда функция игрового процесса со считыванием движения впервые активирована, необходимо настроить игровой процесс со считыванием движения. Впоследствии, когда мобильный телефон снова активирует игровой процесс со считыванием движения, может больше не требоваться настройка игрового процесса со считыванием движения, и пользователь может непосредственно играть в игру, используя считывание движения. Конечно, в качестве альтернативы мобильный телефон может поддерживать изменение пользователем настройки игрового процесса со считыванием движения.[00186] The above description has been made using an example in which, when the motion sensing game process function is first activated, it is necessary to set up the motion sensing game process. Subsequently, when the mobile phone activates the motion sensing game again, setting the motion sensing game may no longer be required, and the user can directly play the game using the motion sensing. Of course, alternatively, the mobile phone may support changing the motion sensing game setting by the user.

[00187] Далее описывается процесс, в котором пользователь может играть в игру, используя игровой процесс со считыванием движения (то есть управлять целевой игрой, используя считывание движения).[00187] The following describes a process in which a user can play a game using a motion sensing game process (that is, control a target game using motion sensing).

[00188] В некоторых вариантах осуществления для обеспечения лучшего визуального восприятия пользователю также может быть предложено активировать функцию дублирования экрана, и игровой интерфейс проецируется на другое электронное устройство с большим экраном (например, телевизор), которое подключено к мобильному телефону. В качестве альтернативы, после обнаружения того, что пользователь активирует функцию игрового процесса со считыванием движения, мобильный телефон автоматически активирует функцию дублирования экрана для проецирования игрового интерфейса на другой экран.[00188] In some embodiments, to provide a better visual experience, the user may also be prompted to activate the screen mirroring function, and the game interface is projected onto another electronic device with a large screen (for example, a TV) that is connected to a mobile phone. Alternatively, upon detecting that the user activates the motion sensing gaming function, the mobile phone automatically activates the screen mirroring function to project the game interface onto another screen.

[00189] После активации функции игрового процесса со считыванием движения мобильный телефон (например, первое приложение) может создать окно предварительного просмотра камеры. Например, мобильный телефон может добавить уровень первого приложения к игровому интерфейсу целевого игрового приложения. Уровень может включать в себя окно предварительного просмотра, созданное первым приложением, а другие области уровня являются прозрачными. Таким образом, пользователь может одновременно наблюдать игровой интерфейс целевого игрового приложения и вновь созданное окно предварительного просмотра камеры. Кроме того, пользователь может проверить, используя окно предварительного просмотра, предопределенное считывание движения, выполненное пользователем, чтобы определить, является ли предопределенное считывание движения пользователем правильным. Камера, вызываемая мобильным телефоном, может быть одной или несколькими передними камерами или может быть одной или несколькими задними камерами. Когда мобильный телефон оснащен камерой глубины, камера глубины также может вызываться для получения данных о глубине изображения пользователя, чтобы дополнительно определять позы, такие как наклон тела вперед/назад, подъем рук вперед/назад и подъем ног вперед/назад пользователя. Камера глубины включает в себя любую одну или несколько из камеры со структурированным светом, бинокулярной камеры, времяпролетной (time of flight, TOF) камеры и т.п.[00189] Upon activation of the motion-sensing gameplay function, the mobile phone (eg, the first application) may create a camera preview window. For example, a mobile phone may add a first application layer to the game interface of the target game application. The layer may include a preview window created by the first application, and other areas of the layer are transparent. Thus, the user can simultaneously observe the game interface of the target game application and the newly created camera preview window. In addition, the user can check, using the preview window, the predetermined motion reading performed by the user to determine whether the predetermined motion reading by the user is correct. The camera called by the mobile phone may be one or more front cameras, or it may be one or more rear cameras. When the mobile phone is equipped with a depth camera, the depth camera can also be called to obtain depth data of the user's image to further determine postures such as forward/backward body tilt, forward/backward arm raise, and forward/backward leg raise of the user. The depth camera includes any one or more of a structured light camera, a binocular camera, a time of flight (TOF) camera, and the like.

[00190] В конкретном примере игровой интерфейс, отображаемый на мобильном телефоне, проецируется на электронное устройство с большим экраном, такое как телевизор, который подключен к мобильному телефону, мобильный телефон вызывает заднюю камеру для захвата изображения пользователя, затем определяет считывание движения пользователя на основе захваченного изображения пользователя и определяет, является ли считывание движения предопределенным считыванием движения.[00190] In a specific example, a game interface displayed on a mobile phone is projected onto a large screen electronic device such as a TV, which is connected to the mobile phone, the mobile phone calls the rear camera to capture the user's image, then determines the user's motion reading based on the captured user image and determines whether the motion sensing is a predefined motion sensing.

[00191] Фиг. 5I представляет собой игровой интерфейс 509 целевой игры. Игровой интерфейс 509 включает в себя окно 510 предварительного просмотра камеры. Пользователь может настроить, используя окно 510 предварительного просмотра камеры, положение, в котором находится мобильный телефон, и определить положение, в котором пользователь выполняет предопределенное считывание движения. В некоторых примерах мобильный телефон может начать вызов камеры после начала целевой игры или может начать вызов камеры после запуска игры. Мобильный телефон может все время отображать окно предварительного просмотра камеры, так что пользователь проверяет, используя окно предварительного просмотра камеры, считывание движения, выполняемое пользователем, чтобы определить, является ли выполненное считывание движения правильным. Конечно, после того, как пользователь ознакомится с игровым процессом со считыванием движения, окно предварительного просмотра может альтернативно закрываться вручную или окно предварительного просмотра автоматически закрывается после того, как мобильный телефон отображает окно предварительного просмотра в течение некоторого периода времени. Таким образом, пользователь может просматривать игровой интерфейс в полноэкранном режиме. Это не ограничено в этом варианте осуществления настоящей заявки.[00191] FIG. 5I is the game interface 509 of the target game. The game interface 509 includes a camera preview window 510 . The user can adjust, using the camera preview window 510, the position at which the mobile phone is located and determine the position at which the user performs the predetermined motion reading. In some examples, the mobile phone may start calling the camera after starting the target game, or may start calling the camera after starting the game. The mobile phone can display the camera preview window all the time, so that the user checks, using the camera preview window, the motion reading performed by the user to determine whether the motion reading performed is correct. Of course, after the user becomes familiar with the motion sensing gameplay, the preview window may alternatively be manually closed or the preview window is automatically closed after the mobile phone displays the preview window for a period of time. Thus, the user can view the game interface in full screen mode. This is not limited in this embodiment of the present application.

[00192] Впоследствии, когда пользователь играет в целевую игру, камера мобильного телефона захватывает изображение пользователя в режиме реального времени, анализирует захваченное изображение пользователя, распознает считывание движения пользователя и определяет, является ли считывание движения предопределенным считыванием движения. Если считывание движения является предопределенным считыванием движения, выполняется поиск операции касания, соответствующей предопределенному считыванию движения, инструкция соответствующей операции касания отправляется в целевую игру, и целевая игра выполняет соответствующий ответ. Следовательно, достигается эффект, когда пользователь управляет целевой игрой, используя предопределенное считывание движения.[00192] Subsequently, when the user plays the target game, the mobile phone camera captures a real-time image of the user, analyzes the captured image of the user, recognizes the user's motion reading, and determines whether the motion reading is a predetermined motion reading. If the motion sensing is a predetermined motion sensing, a touch operation corresponding to the predetermined motion sensing is searched, a corresponding touch operation instruction is sent to the target game, and the target game executes the corresponding response. Therefore, an effect is achieved when the user controls the target game using the predetermined motion sensing.

[00193] Нижеследующее иллюстрирует конкретную реализацию распознавания считывания движения пользователя.[00193] The following illustrates a specific implementation of a user's motion sensing recognition.

[00194] Во-первых, мобильный телефон выполняет распознавание точек костей на захваченном изображении пользователя (которое обычно представляет собой изображение RGB или может включать изображение глубины, захваченное камерой глубины) и конвертирует портрет на изображении пользователя в координаты движения костей, объединенные с помощью точек костей (и/или линий соединения между точками костей), чтобы определить считывание движения, соответствующее изображению пользователя. Видно, что координаты движения костей включают в себя координаты точек костей на портрете.[00194] First, the mobile phone performs bone point recognition on the captured user image (which is typically an RGB image or may include a depth image captured by a depth camera) and converts the portrait on the user image into bone movement coordinates combined using the bone points (and/or connection lines between bone points) to determine the motion reading corresponding to the user's image. It can be seen that the coordinates of the movement of the bones include the coordinates of the points of the bones in the portrait.

[00195] Например, фиг. 6A представляет собой изображение 600, захваченное мобильным телефоном. Мобильный телефон может определять портрет, такой как портрет 601 на изображении, используя, например, технологию распознавания портрета. Впоследствии положения суставов, таких как локтевые суставы, лучезапястные суставы и коленные суставы, на портрете 601 определяются с использованием технологии распознавания костей (процесс оценки положения точек суставов костей человеческого тела на изображении или видео с использованием технологии компьютерного зрения), и позиционированные точки суставов, наконец, могут формировать изображение костей человеческого тела, которое может отражать информацию, такую как текущая поза (то есть считывание движения) человеческого тела или тому подобное.[00195] For example, FIG. 6A is an image 600 captured by a mobile phone. The mobile phone can detect a portrait such as portrait 601 in an image using portrait recognition technology, for example. Subsequently, the positions of joints such as elbow joints, wrist joints, and knee joints in the 601 portrait are determined using bone recognition technology (the process of estimating the position of the joint points of the bones of the human body in an image or video using computer vision technology), and the positioned points of the joints are finally , may form an image of the bones of the human body, which may reflect information such as the current posture (ie, motion reading) of the human body, or the like.

[00196] Когда поза (то есть считывание движения) портрета анализируется на основе координат движения костей, поза портрета может быть определена на основе координатных положений точек костей или может быть определена на основе относительного соответствия положений между точками костей или может быть определена на основе линии соединения между любыми двумя точками костей. Это не ограничено в этом варианте осуществления настоящей заявки.[00196] When the pose (i.e., motion reading) of a portrait is analyzed based on the movement coordinates of the bones, the portrait pose may be determined based on the coordinate positions of the points of the bones, or may be determined based on the relative correspondence of the positions between the points of the bones, or may be determined based on the connection line between any two points of the bones. This is not limited in this embodiment of the present application.

[00197] Например, на фиг. 6A показаны некоторые распознанные точки костей в черных треугольниках, и точки костей могут включать в себя: лобную кость 602, шейный позвонок, лопатку, локтевой сустав, лучезапястный сустав, тазовую кость, коленный сустав, голеностопный сустав, и тому подобное. Можно понять, что, когда распознается больше точек костей, распознанная поза пользователя является более точной. Конечно, мобильный телефон может определить на основе сложности предопределенного считывания движения, какие точки костей необходимо распознать, чтобы уменьшить распознавание ненужных точек костей, тем самым помогая уменьшить объем вычислений и улучшая возможности обработки мобильного телефона. Это не ограничено в этом варианте осуществления настоящей заявки.[00197] For example, in FIG. 6A shows some recognized bone points in black triangles, and the bone points may include: frontal bone 602, cervical vertebrae, shoulder blade, elbow joint, wrist joint, pelvic bone, knee joint, ankle joint, and the like. It can be understood that when more bone points are recognized, the recognized posture of the user is more accurate. Of course, the mobile phone can determine, based on the complexity of the predetermined motion reading, which bone points need to be recognized in order to reduce the recognition of unnecessary bone points, thereby helping to reduce the amount of computation and improve the processing capability of the mobile phone. This is not limited in this embodiment of the present application.

[00198] В некоторых примерах поза пользователя может быть определена непосредственно на основе координат точек костей, или отношения относительного положения между точками костей, или линий соединения между точками костей. В некоторых других примерах эталонный портрет может быть альтернативно предварительно задан, то есть эталонные координаты или положения точек костей задаются в эталонном портрете. Впоследствии, когда определена поза пользователя, поза пользователя может быть определена на основе отношения относительного положения между точками костей на подлежащем определению портрете и точками костей на эталонном портрете. Эталонные координаты точек костей в эталонном портрете могут быть средними значениями точек костей, определенными на основе различных портретов в массивных картинках. В качестве альтернативы эталонные координаты точек костей на эталонном портрете могут быть значениями координат точек костей, определенными на основе изображения конкретного человека (например, пользователя мобильного телефона). Это не является конкретно ограниченным в этом варианте осуществления этой заявки.[00198] In some examples, the user's posture may be determined directly based on the coordinates of bone points, or the relative position relationship between bone points, or connection lines between bone points. In some other examples, the reference portrait may alternatively be predetermined, ie the reference coordinates or bone point positions are specified in the reference portrait. Subsequently, when the user's pose is determined, the user's pose can be determined based on the relative position relationship between the bone points in the portrait to be determined and the bone points in the reference portrait. The reference coordinates of the bone points in the reference portrait may be the average values of the bone points determined from different portraits in the massive pictures. Alternatively, the reference coordinates of the bone points in the reference portrait may be the coordinate values of the bone points determined based on the image of a particular person (eg, a mobile phone user). It is not specifically limited in this embodiment of this application.

[00199] Например, из координат точек костей на портрете 601 можно узнать, что линия соединения между лобной костью 602 и шейным позвонком параллельна (или приблизительно параллельна) вертикальному направлению, а координаты других точек костей также находятся в конкретном позиционном отношении. Следовательно, может быть определено, что пользователь на портрете 601 стоит прямо, а руки свисают естественным образом.[00199] For example, from the coordinates of the bone points in the portrait 601, it can be seen that the connection line between the frontal bone 602 and the cervical vertebrae is parallel (or approximately parallel) to the vertical direction, and the coordinates of other bone points are also in a specific positional relationship. Therefore, it can be determined that the user in the portrait 601 is standing upright and the arms are hanging naturally.

[00200] В другом примере на портрете 603, показанном на ФИГ. 6В, из координат точек костей на портрете 603 можно узнать, что линия соединения между лобной костью 602 и шейным позвонком образует конкретный угол с вертикальным направлением (например, поворачиваясь против часовой стрелки на α градусов, причем α больше, чем 10 градусов и менее 90 градусов). Следовательно, может быть определено, что пользователь на портрете 603 находится в позе, наклоненной влево. В некоторых других примерах координаты точек костей на портрете 601 альтернативно могут быть установлены в качестве эталона, и портрет, положение которого необходимо определить, сравнивается с эталоном. Например, линия соединения между лобной костью 602 и шейным позвонком на портрете 603 образует конкретный угол (например, поворот против часовой стрелки на β градусов, причем β больше 10 градусов и меньше 90 градусов) с линией соединения между лобной костью 602 и шейным позвонком на портрете 601. Следовательно, можно определить, что пользователь на портрете 603 находится в позе, наклоненной влево.[00200] In another example, portrait 603 shown in FIG. 6B, from the coordinates of the points of the bones in the portrait 603, it can be seen that the connection line between the frontal bone 602 and the cervical vertebra forms a specific angle with the vertical direction (for example, turning counterclockwise by α degrees, with α greater than 10 degrees and less than 90 degrees ). Therefore, it can be determined that the user in the portrait 603 is in a left-leaning posture. In some other examples, the coordinates of the points of the bones in the portrait 601 may alternatively be set as a reference, and the portrait whose position is to be determined is compared with the reference. For example, the connection line between the frontal bone 602 and the cervical vertebra in the portrait 603 makes a specific angle (eg, a counterclockwise rotation of β degrees, with β greater than 10 degrees and less than 90 degrees) with the connection line between the frontal bone 602 and the cervical vertebra in the portrait. 601. Therefore, it can be determined that the user in the portrait 603 is in a left-leaning posture.

[00201] В другом примере описание по-прежнему делается с использованием примера, в котором координаты точек костей на портрете 601 установлены в качестве эталонных. На портрете 604, показанном на фиг. 6С лучезапястный сустав 605 левой руки на портрете 604 расположен ближе к левому верхнему углу, чем координаты лучезапястного сустава левой руки на портрете 601, а координаты остальных точек костей почти не изменились. Следовательно, может быть определено, что пользователь находится в положении поднятия левого предплечья.[00201] In another example, the description is still made using the example in which the coordinates of the points of the bones in the portrait 601 are set as reference. In portrait 604 shown in FIG. 6C, the wrist joint 605 of the left hand in portrait 604 is located closer to the upper left corner than the coordinates of the wrist joint of the left hand in portrait 601, and the coordinates of the remaining points of the bones have not changed much. Therefore, it can be determined that the user is in the position of raising the left forearm.

[00202] В другом примере описание по-прежнему делается с использованием примера, в котором координаты точек костей на портрете 601 установлены в качестве эталонных. На портрете 606, показанном на фиг. 6D, коленный сустав 607 левой ноги и лучезапястный сустав 608 левой ступни на портрете 606 ближе к верхнему левому углу, чем коленный сустав левой ноги и лучезапястный сустав левой ступни на портрете 601, а координаты остальных точек костей почти не изменились. Следовательно, может быть определено, что пользователь находится в положении подъема левой ноги.[00202] In another example, the description is still made using the example in which the coordinates of the points of the bones in the portrait 601 are set as reference. In portrait 606 shown in FIG. 6D, the left knee joint 607 and the left foot wrist joint 608 in portrait 606 are closer to the upper left than the left knee joint and left foot wrist joint in portrait 601, and the coordinates of the remaining bone points are almost unchanged. Therefore, it can be determined that the user is in the left leg lifting position.

[00203] Следует отметить, что приведенные выше описания сделаны с использованием в качестве примера изображения RGB, захваченного мобильным телефоном. Можно понять, что мобильный телефон может альтернативно вызывать камеру глубины для получения данных о глубине портрета на изображении. Таким образом, на основе данных о глубине может быть дополнительно определено больше положений.[00203] It should be noted that the above descriptions are made using an RGB image captured by a mobile phone as an example. It can be appreciated that the mobile phone may alternatively invoke the depth camera to obtain portrait depth data in the image. Thus, more positions can be further determined based on the depth data.

[00204] Например, фиг. 6E представляет собой схематическое изображение профиля, когда верхняя часть тела пользователя наклонена вперед. Как видно из фиг. 6E, если данные глубины точек костей (например, лобная кость 602, лопатка, локтевой сустав и лучезапястный сустав) верхней части тела портрета на изображении меньше, чем данные глубины точек костей нижней части тела можно узнать, что верхняя часть тела находится ближе к камере мобильного телефона. Следовательно, можно определить, что портрет на изображении наклонен вперед. Точно так же, если данные глубины точек костей верхней части тела портрета больше, чем данные глубины точек костей нижней части тела, можно узнать, что верхняя часть тела находится дальше от камеры мобильного телефона. Следовательно, можно определить, что портрет на изображении наклонен назад.[00204] For example, FIG. 6E is a schematic profile view when the user's upper body is tilted forward. As can be seen from FIG. 6E, if the depth data of the bone points (for example, the frontal bone 602, scapula, elbow joint, and wrist joint) of the upper body of the portrait in the image is smaller than the depth data of the bone points of the lower body, it can be recognized that the upper body is closer to the mobile camera. phone. Therefore, it can be determined that the portrait in the image is tilted forward. Similarly, if the depth data of the bone points of the upper body of the portrait is greater than the depth data of the bone points of the lower body, it can be known that the upper body is further away from the mobile phone camera. Therefore, it can be determined that the portrait in the image is tilted backwards.

[00205] В качестве альтернативы предварительно задано эталонное изображение. Если определено, что данные глубины точек костей верхней части тела портрета на изображении меньше, чем данные глубины точек костей верхней части тела эталонного портрета, можно определить, что портрет на изображении наклонен вперед. Если определено, что данные глубины точек костей верхней части тела портрета на изображении больше, чем данные глубины точек костей верхней части тела эталонного портрета, можно определить, что портрет на изображении наклонен назад.[00205] Alternatively, a reference image is predefined. If it is determined that the depth data of the bone points of the upper body of the portrait in the image is smaller than the depth data of the bone points of the upper body of the reference portrait, it can be determined that the portrait in the image is tilted forward. If it is determined that the depth data of the bone points of the upper body of the portrait in the image is larger than the depth data of the bone points of the upper body of the reference portrait, it can be determined that the portrait in the image is tilted back.

[00206] В другом примере на фиг. 6F представляет собой схематическое изображение профиля, когда левая рука пользователя вытянута вперед. Как можно узнать из фиг. 6F, если данные глубины точек кости (например, левого локтевого сустава и левого лучезапястного сустава) левой руки на изображении меньше, чем данные глубины других точек кости, можно узнать, что левая рука ближе к камере мобильного телефона. Следовательно, можно определить, что левая рука портрета на изображении вытянута вперед. Точно так же, если данные о глубине точек кости левой руки портрета больше, чем данные глубины других точек костей, можно узнать, что левая рука находится дальше от камеры мобильного телефона. Следовательно, можно определить, что левая рука портрета на изображении вытянута назад.[00206] In another example, in FIG. 6F is a schematic profile view when the user's left hand is extended forward. As can be seen from FIG. 6F, if the depth data of bone points (eg, left elbow joint and left wrist joint) of the left hand in the image is smaller than the depth data of other bone points, it can be recognized that the left hand is closer to the mobile phone camera. Therefore, it can be determined that the left arm of the portrait in the image is stretched forward. Similarly, if the depth data of the bone points of the left hand of the portrait is greater than the depth data of other bone points, it can be known that the left hand is farther from the cell phone camera. Therefore, it can be determined that the left arm of the portrait in the image is stretched back.

[00207] Понятно, что альтернативно можно использовать другой способ распознавания портретной позы (то есть считывания движения) на изображении или видео. Это не ограничено в этом варианте осуществления настоящей заявки.[00207] It is understood that another method of recognizing a portrait pose (ie, reading movement) in an image or video can alternatively be used. This is not limited in this embodiment of the present application.

[00208] Вариант осуществления этой заявки дополнительно обеспечивает систему микросхем, показанную на фиг. 7. Система микросхем включает в себя по меньшей мере один процессор 1101 и по меньшей мере одну микросхему 1102 интерфейса. Процессор 1101 может быть соединен со микросхемой 1102 интерфейса с помощью линии связи. Например, микросхема 1102 интерфейса может быть сконфигурирована для приема сигнала от другого устройства (например, памяти электронного устройства 100). В другом примере микросхема 1102 интерфейса может быть сконфигурирована для отправки сигнала другому устройству (например, процессору 1101). Например, микросхема 1102 интерфейса может считывать инструкции, хранящиеся в памяти, и отправлять инструкции процессору 1101. Инструкции, выполняемые процессором 1101, могут инициировать выполнение электронным устройством этапов, выполняемых электронным устройством 100 (например, мобильным телефоном) в вышеупомянутых вариантах осуществления. Разумеется, система микросхем может дополнительно включать в себя другое дискретное устройство. Это не является конкретно ограниченным в этом варианте осуществления этой заявки.[00208] An embodiment of this application further provides the chip system shown in FIG. 7. The chip system includes at least one processor 1101 and at least one interface chip 1102. The processor 1101 may be connected to the interface chip 1102 via a communication link. For example, interface chip 1102 may be configured to receive a signal from another device (eg, the memory of electronic device 100). In another example, interface chip 1102 may be configured to send a signal to another device (eg, processor 1101). For example, interface chip 1102 may read instructions stored in memory and send instructions to processor 1101. Instructions executed by processor 1101 may cause an electronic device to execute steps performed by electronic device 100 (e.g., a mobile phone) in the above embodiments. Of course, the chip system may further include another discrete device. It is not specifically limited in this embodiment of this application.

[00209] Можно понять, что для реализации вышеупомянутых функций вышеупомянутый терминал включает в себя соответствующую аппаратную структуру и/или программные модули для выполнения функций. Специалисту в данной области техники должно быть понятно, что в сочетании с модулями и этапами алгоритма примеров, описанных в вариантах осуществления, раскрытых в данном описании, варианты осуществления настоящей заявки могут быть реализованы аппаратными средствами или комбинацией аппаратных средств и компьютерного программного обеспечения. Выполняется ли функция аппаратным обеспечением или компьютерным программным обеспечением, приводящим аппаратное обеспечение в действие, зависит от конкретных применений и конструктивных ограничений технических решений. Специалист в данной области техники может использовать разные способы реализации описанных функций для каждого конкретного приложения, но не следует считать, что реализация выходит за рамки вариантов осуществления настоящего изобретения.[00209] It can be understood that in order to implement the above functions, the above terminal includes an appropriate hardware structure and/or software modules to perform the functions. One skilled in the art will appreciate that, in combination with the modules and algorithm steps of the examples described in the embodiments disclosed herein, the embodiments of the present application may be implemented in hardware or a combination of hardware and computer software. Whether the function is performed by hardware or by computer software that powers the hardware depends on particular applications and design constraints. A person skilled in the art may use different ways to implement the described functions for each particular application, but the implementation should not be considered outside the scope of the embodiments of the present invention.

[00210] В этом варианте осуществления функциональные модули терминала могут быть получены посредством разделения в соответствии с приведенными выше примерами способов. Например, функциональные модули могут быть получены посредством разделения, соответствующего различным функциям, или две или более функций могут быть интегрированы в один модуль обработки. Интегрированный модуль может быть реализован в виде аппаратного обеспечения, а может быть реализован в виде программного функционального модуля. Следует отметить, что в этом варианте осуществления настоящего изобретения разделение модулей является просто примером и представляет собой просто разделение логических функций. Во время фактической реализации может быть другой способ разделения.[00210] In this embodiment, the functional modules of the terminal can be obtained by separation in accordance with the above example methods. For example, functional modules may be obtained by separation corresponding to different functions, or two or more functions may be integrated into one processing module. An integrated module may be implemented in hardware, or may be implemented in a software function module. It should be noted that in this embodiment of the present invention, the division of modules is merely an example, and is merely a division of logical functions. During the actual implementation, there may be another way to split.

[00211] Приведенные выше описания вариантов осуществления позволяют специалисту в данной области техники понять, что в целях удобного и краткого описания в качестве примера для иллюстрации используется разделение вышеупомянутых функциональных модулей. В реальном применении вышеупомянутые функции могут быть распределены и реализованы различными модулями в соответствии с требованием, то есть внутренняя структура устройства разделена на различные функциональные модули для реализации всех или части функций, описанных выше. Для конкретного рабочего процесса системы, устройства и блока, описанных выше, может быть сделана ссылка на соответствующий процесс в вышеупомянутых вариантах осуществления способа, и подробности здесь повторно не описываются.[00211] The above descriptions of the embodiments enable one skilled in the art to understand that, for purposes of convenience and concise description, a division of the above functional modules is used as an example for illustration. In the actual application, the above functions can be distributed and implemented by various modules according to the requirement, that is, the internal structure of the device is divided into various functional modules to implement all or part of the functions described above. For the particular workflow of the system, device, and unit described above, reference may be made to the corresponding process in the above method embodiments, and the details are not re-described here.

[00212] Функциональные блоки в вариантах осуществления данной заявки могут быть интегрированы в один процессорный блок, или каждый из блоков может физически существовать сам по себе, или два или более блоков объединены в один блок. Интегрированный блок может быть реализован в виде аппаратного обеспечения или может быть реализован в виде функционального блока программного обеспечения.[00212] The functional blocks in embodiments of this application may be integrated into a single processing unit, or each of the units may physically exist on its own, or two or more units may be combined into one unit. The integrated block may be implemented in hardware or may be implemented as a software functional block.

[00213] Когда интегрированный блок реализуется в форме программного функционального блока и продается или используется как самостоятельный продукт, интегрированный блок может храниться на машиночитаемом носителе данных. Исходя из такого понимания, технические решения вариантов осуществления этой заявки по существу или часть, вносящая вклад в соответствующую технологию, или все или некоторые из технических решений могут быть реализованы в виде программного продукта. Компьютерный программный продукт хранится на носителе данных и включает в себя несколько инструкций для указания компьютерному устройству (которым может быть персональный компьютер, сервер, сетевое устройство и т.п.) или процессору выполнять все или некоторые из этапов способов, описанных в вариантах осуществления этой заявки. Вышеупомянутый носитель данных включает в себя: любой носитель, на котором может храниться программный код, такой как флэш-память, съемный жесткий диск, постоянное запоминающее устройство, оперативное запоминающее устройство, магнитный диск или оптический диск.[00213] When an integrated block is implemented in the form of a software functional block and sold or used as a standalone product, the integrated block may be stored on a computer-readable storage medium. Based on such an understanding, the technical solutions of the embodiments of this application in essence or part contributing to the corresponding technology, or all or some of the technical solutions can be implemented as a software product. The computer program product is stored on a storage medium and includes several instructions for directing a computing device (which may be a personal computer, a server, a network device, etc.) or a processor to perform all or some of the steps of the methods described in the embodiments of this application. . The aforementioned storage medium includes: any medium on which program code can be stored, such as flash memory, removable hard disk, read only memory, random access memory, magnetic disk or optical disk.

[00214] Специалисту в данной области техники также может быть понятно, что, когда интегрированный модуль реализуется в виде функционального модуля программного обеспечения и продается или используется как независимый продукт, интегрированный модуль может передаваться в одном или ряде сигналов, распространяемых с использованием коммуникационной сети. Сигнал может быть электрическим сигналом, оптическим сигналом, сигналом звуковой волны, радиосигналом или сигналом в другой форме. Конечный пользователь может загрузить программное обеспечение на локальное устройство (например, персональный компьютер, мобильный телефон или планшетный компьютер) с помощью сигнала.[00214] One of skill in the art may also appreciate that when an integrated module is implemented as a functional software module and sold or used as a standalone product, the integrated module may be transmitted in one or more signals distributed using a communications network. The signal may be an electrical signal, an optical signal, a sound wave signal, a radio signal, or another form of signal. The end user can download the software to a local device (such as a personal computer, mobile phone, or tablet computer) using a signal.

[00215] Приведенные выше описания являются просто конкретными вариантами осуществления этой заявки, но не предназначены для ограничения объема защиты этой заявки. Любое изменение или замена в пределах технического объема, раскрытого в этой заявке, должны подпадать под объем защиты этой заявки. Таким образом, объем защиты настоящей заявки следует использовать в качестве объема защиты пунктов формулы изобретения.[00215] The above descriptions are merely specific embodiments of this application, but are not intended to limit the scope of protection of this application. Any modification or replacement within the technical scope disclosed in this application shall fall within the protection scope of this application. Thus, the scope of the present application should be used as the scope of the claims.

Claims (23)

1. Способ запуска приложения, применимый к электронному устройству, имеющему по меньшей мере одну камеру и экран касания, и при этом способ содержит:1. A method for launching an application applicable to an electronic device having at least one camera and a touch screen, the method comprising: отображение посредством электронного устройства первой картинки первого приложения, при этом первое приложение поддерживает управление пользователем первым приложением посредством операции касания на экране касания;displaying, by the electronic device, a first picture of a first application, the first application supporting the user to control the first application through a touch operation on the touch screen; захват электронным устройством первого изображения пользователя с использованием по меньшей мере одной камеры и распознавание первого считывания движения, относящегося к положению тела пользователя на первом изображении на основе координат движения костей, конвертированных из первого изображения пользователя;capturing by the electronic device a first image of the user using at least one camera and recognizing a first motion reading related to the position of the user's body in the first image based on the motion coordinates of the bones converted from the first image of the user; определение посредством электронного устройства первой информации операции касания, соответствующей первому считыванию движения, на основе предопределенного соответствия между считыванием движения и операцией касания, которая включает в себя тип операции касания и положение, в котором операция касания выполняется на экране касания, при этом первая информация операции касания содержит тип первой операции касания и положение, в котором выполняется первая операция касания на экране касания; иdetermining by the electronic device the first touch operation information corresponding to the first motion reading based on the predetermined correspondence between the motion reading and the touch operation, which includes the type of the touch operation and the position at which the touch operation is performed on the touch screen, wherein the first touch operation information contains the type of the first touch operation and the position at which the first touch operation is performed on the touch screen; And обеспечение электронным устройством ответа от первого приложения, соответствующего первой операции касания, в ответ на определение первой информации операции касания, соответствующей первому считыванию движения, без операции касания, соответствующей первой информации операции касания, выполняемой пользователем.providing the electronic device with a response from the first application corresponding to the first touch operation in response to determining the first touch operation information corresponding to the first motion reading without touch operation corresponding to the first touch operation information performed by the user. 2. Способ по п. 1, причем способ дополнительно содержит:2. The method of claim 1, wherein the method further comprises: отображение электронным устройством второй картинки первого приложения, при этом вторая картинка является такой же, как картинка, отображаемая электронным устройством в ответ на то, что пользователь выполняет первую операцию касания на первой картинке.displaying by the electronic device a second picture of the first application, the second picture being the same as the picture displayed by the electronic device in response to the user performing a first touch operation on the first picture. 3. Способ по п. 1 или 2, отличающийся тем, что определение посредством электронного устройства первой информации операции касания, соответствующей первому считыванию движения, содержит:3. The method according to claim 1 or 2, characterized in that the determination by the electronic device of the first information of the touch operation corresponding to the first motion reading comprises: вызов посредством электронного устройства интерфейса уровня прикладной инфраструктуры и определение первой информации операции касания, соответствующей первому считыванию движения.calling, by the application infrastructure layer interface electronic device, and determining the first touch operation information corresponding to the first motion reading. 4. Способ по любому из пп. 1-3, отличающийся тем, что перед захватом электронным устройством первого изображения пользователя посредством вызова по меньшей мере одной камеры способ дополнительно содержит:4. The method according to any one of paragraphs. 1-3, characterized in that before the electronic device captures the first image of the user by calling at least one camera, the method further comprises: прием электронным устройством операции, при которой пользователь активирует первую функцию; иreceiving by the electronic device an operation in which the user activates the first function; And активацию посредством электронного устройства первой функции в ответ на операцию, при которой пользователь активирует первую функцию, при этом первая функция является функцией, первое приложение которой поддерживает управление пользователем первым приложением посредством считывания движения.activation by the electronic device of the first function in response to an operation in which the user activates the first function, the first function being a function whose first application supports the user to control the first application by motion sensing. 5. Способ по п. 4, отличающийся тем, что после активации электронным устройством первой функции способ дополнительно содержит:5. The method according to claim 4, characterized in that after activation of the first function by the electronic device, the method further comprises: добавление электронным устройством слоя к картинке первого приложения, при этом слой содержит непрозрачную область и прозрачную область, и непрозрачная область отображает интерфейс настройки первой функции.adding a layer by the electronic device to the picture of the first application, wherein the layer contains an opaque area and a transparent area, and the opaque area displays the setting interface of the first function. 6. Способ по п. 5, дополнительно содержащий:6. The method of claim 5, further comprising: прием электронным устройством операции, в которой пользователь настраивает соответствие между считыванием движения и операцией касания, используя интерфейс настройки первой функции, при этомreceiving by the electronic device an operation in which the user sets the correspondence between the motion sensing and the touch operation using the first function setting interface, wherein операция касания содержит тип операции касания и положение, в котором выполняется операция касания на экране касания.the touch operation contains the type of the touch operation and the position at which the touch operation is performed on the touch screen. 7. Способ по п. 6, дополнительно содержащий:7. The method according to p. 6, further comprising: сохранение посредством электронного устройства настройки пользователя для соответствия между считыванием движения и операцией касания; иstoring, by the electronic device, user settings for matching between the motion reading and the touch operation; And добавление электронным устройством второго слоя к картинке первого приложения, при этом второй слой содержит непрозрачную область и прозрачную область, и непрозрачная область отображает окно предварительного просмотра по меньшей мере одной камеры.adding by the electronic device a second layer to the picture of the first application, wherein the second layer contains an opaque area and a transparent area, and the opaque area displays a preview window of at least one camera. 8. Электронное устройство, содержащее: по меньшей мере один процессор, экран касания и по меньшей мере одну камеру, при этом экран касания и по меньшей мере одна камера подсоединены к процессору, причем электронное устройство активируется для выполнения способа запуска приложения согласно любому из пп. 1-7.8. An electronic device comprising: at least one processor, a touch screen, and at least one camera, wherein the touch screen and at least one camera are connected to the processor, and the electronic device is activated to perform the method of launching an application according to any one of paragraphs. 1-7. 9. Компьютерный носитель данных, содержащий компьютерные инструкции, при этом компьютерные инструкции при выполнении на электронном устройстве вызывают выполнение электронным устройством способа запуска приложения по любому из пп. 1-7.9. A computer storage medium containing computer instructions, wherein the computer instructions, when executed on an electronic device, cause the electronic device to execute a method for launching an application according to any one of paragraphs. 1-7. 10. Система микросхем, содержащая по меньшей мере один процессор, при этом, когда по меньшей мере один процессор выполняет инструкции, по меньшей мере один процессор выполняет способ запуска приложения по любому из пп. 1-7.10. A chip system comprising at least one processor, wherein when the at least one processor executes instructions, the at least one processor executes the method of launching an application according to any one of claims. 1-7.
RU2022103927A 2019-07-18 2020-07-16 Application launch method and electronic device RU2802281C2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910651268.4 2019-07-18

Publications (2)

Publication Number Publication Date
RU2022103927A RU2022103927A (en) 2023-08-18
RU2802281C2 true RU2802281C2 (en) 2023-08-24

Family

ID=

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140267167A1 (en) * 2013-03-13 2014-09-18 Amazon Technologies, Inc. Managing sensory information of a user device
US20160030835A1 (en) * 2013-07-12 2016-02-04 Chris Argiro Video-game console for allied touchscreen media
US20180052518A1 (en) * 2016-08-16 2018-02-22 Microsoft Technology Licensing, Llc Device manipulation using hover
CN104951211B (en) * 2014-03-24 2018-12-14 联想(北京)有限公司 A kind of information processing method and electronic equipment
RU2677381C1 (en) * 2015-03-08 2019-01-16 Эппл Инк. Devices, methods and graphic user interfaces for user interface objects with visual and/or haptic feedback managing

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140267167A1 (en) * 2013-03-13 2014-09-18 Amazon Technologies, Inc. Managing sensory information of a user device
US20160030835A1 (en) * 2013-07-12 2016-02-04 Chris Argiro Video-game console for allied touchscreen media
CN104951211B (en) * 2014-03-24 2018-12-14 联想(北京)有限公司 A kind of information processing method and electronic equipment
RU2677381C1 (en) * 2015-03-08 2019-01-16 Эппл Инк. Devices, methods and graphic user interfaces for user interface objects with visual and/or haptic feedback managing
US20180052518A1 (en) * 2016-08-16 2018-02-22 Microsoft Technology Licensing, Llc Device manipulation using hover

Similar Documents

Publication Publication Date Title
CN110045819B (en) Gesture processing method and device
US11986726B2 (en) Application running method and electronic device
CN114816210B (en) A full-screen display method and device for a mobile terminal
JP7081048B2 (en) System navigation bar display method, system navigation bar control method, graphical user interface, and electronic devices
JP7238115B2 (en) Photography scenarios and methods for displaying images on electronic devices
CN111176506A (en) Screen display method and electronic equipment
EP4020491A1 (en) Fitness-assisted method and electronic apparatus
CN115344173A (en) Operation method for split screen display and electronic equipment
CN115437541A (en) Electronic equipment and operation method thereof
WO2022095744A1 (en) Vr display control method, electronic device, and computer readable storage medium
CN110633043A (en) Split screen processing method and terminal equipment
CN113935898A (en) Image processing method, system, electronic device and computer readable storage medium
WO2022105702A1 (en) Method and electronic device for saving image
WO2021238740A1 (en) Screen capture method and electronic device
CN114527903A (en) Key mapping method, electronic equipment and system
WO2024131765A1 (en) Image recognition method and related device
EP4006754A1 (en) Prompting method for fitness training, and electronic device
RU2802281C2 (en) Application launch method and electronic device
WO2022062985A1 (en) Method and apparatus for adding special effect in video, and terminal device
CN116088741A (en) Electronic equipment performance optimization method and device
CN114637392A (en) Display method and electronic equipment
CN115904282A (en) Screen projection method, equipment, storage medium and computer program product
CN114812381A (en) Electronic equipment positioning method and electronic equipment
CN114740986A (en) Handwriting input display method and related equipment
CN114445522A (en) Brush effect graph generation method, image editing method, device and storage medium