KR20200010041A - Method and apparatus for performing user authentication - Google Patents
Method and apparatus for performing user authentication Download PDFInfo
- Publication number
- KR20200010041A KR20200010041A KR1020190079001A KR20190079001A KR20200010041A KR 20200010041 A KR20200010041 A KR 20200010041A KR 1020190079001 A KR1020190079001 A KR 1020190079001A KR 20190079001 A KR20190079001 A KR 20190079001A KR 20200010041 A KR20200010041 A KR 20200010041A
- Authority
- KR
- South Korea
- Prior art keywords
- electronic device
- user
- task
- subject
- live challenge
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 103
- 230000000694 effects Effects 0.000 claims description 10
- 230000003190 augmentative effect Effects 0.000 claims description 8
- 230000009471 action Effects 0.000 claims description 7
- 238000010586 diagram Methods 0.000 description 41
- 230000008569 process Effects 0.000 description 14
- 241000239290 Araneae Species 0.000 description 11
- 238000005516 engineering process Methods 0.000 description 10
- 230000004044 response Effects 0.000 description 8
- 230000006870 function Effects 0.000 description 7
- 230000006399 behavior Effects 0.000 description 6
- 238000012545 processing Methods 0.000 description 5
- 239000003086 colorant Substances 0.000 description 4
- 230000001939 inductive effect Effects 0.000 description 4
- 230000002452 interceptive effect Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 238000004590 computer program Methods 0.000 description 3
- 229920001621 AMOLED Polymers 0.000 description 2
- 241000221931 Hypomyces rosellus Species 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 238000010079 rubber tapping Methods 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000006378 damage Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000000116 mitigating effect Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000009423 ventilation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
- G06F21/36—User authentication by graphic or iconic representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/45—Structures or tools for the administration of authentication
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2221/00—Indexing scheme relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F2221/21—Indexing scheme relating to G06F21/00 and subgroups addressing additional information or applications relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F2221/2133—Verifying human interaction, e.g., Captcha
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Computer Security & Cryptography (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Computer Graphics (AREA)
- Human Computer Interaction (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
본 개시는 사용자 인증 기술에 관한 것이다. 보다 구체적으로, 본 개시는 전자 장치의 사용자와 연관된 컨텍스트 파라미터를 기초로 생성된 라이브 챌린지를 제공하여 사용자 인증을 수행하는 방법 및 장치에 관한 것이다. The present disclosure relates to user authentication techniques. More specifically, the present disclosure relates to a method and apparatus for performing user authentication by providing a live challenge generated based on a context parameter associated with a user of an electronic device.
다양한 유형의 전자 장치에서 디지털 통신 기술이 드라마틱하게 개발됨에 따라, 데이터의 보안을 유지하는 것에 대한 우려가 점차 커지고 있다. 전자 장치에 있어서, 데이터 보안은 허가되지 않은 개인 및 단체에 대해 정보의 액세스, 사용, 공개, 수정 및 파기를 보호하는 것이 요구된다. As the digital communication technology is dramatically developed in various types of electronic devices, there is a growing concern about keeping data secure. In electronic devices, data security is required to protect the access, use, disclosure, modification and destruction of information for unauthorized individuals and organizations.
일반적으로, 특정 프로그램, 애플리케이션, 데이터, 웹 사이트 등과 같은 전자 장치의 제한된 특징에 액세스하기 위해, 사용자가 이에 대한 권한이 있음을 허가 받을 수 있도록, 패스워드를 입력하라는 메시지가 표시될 수 있다. 이외에도 전자 장치의 사용자를 식별 및/ 또는 인증하기 위한 여러 가지 방법이 존재한다. 인증은, 예를 들어, PIN 기반 인증, 패턴-락 기반 인증, CAPTCHA 기반 인증, 생체 인식 (지문 인식, 얼굴 인식, 홍채 인식) 기반 인증 등을 포함할 수 있다. 도 1a는 기존 기술에 따른 인증 유형의 예시들을 도시한 도면이다. In general, in order to access a limited feature of an electronic device, such as a particular program, application, data, web site, etc., a message may be prompted to enter a password so that a user may be authorized to do so. In addition, there are various methods for identifying and / or authenticating a user of the electronic device. The authentication may include, for example, PIN based authentication, pattern-lock based authentication, CAPTCHA based authentication, biometric (fingerprint recognition, face recognition, iris recognition) based authentication, and the like. 1A is a diagram illustrating examples of authentication types according to the existing technology.
그러나, 기존의 사용자 인증 방법은 상호적이지 않고 번거롭다는 문제가 있다. 예를 들어, 사용자가 전자 장치의 애플리케이션/웹 사이트에 액세스하기를 원하는 경우, 기존의 방법은 CAPTCHA, RE-CAPTCHA를 사용하여 웹 로봇(즉, BOT)으로부터 사용자를 식별하고 사용자에게 액세스에 대한 권한을 부여할 수 있다. 사용자는 도 1a에 도시된 바와 같은 챌린지 (예를 들어, 보안 문자(10), 패턴(20), 질문)를 해결할 때 애플리케이션/웹 사이트에 액세스할 수 있다. 도 1a에 도시된 방법에 따르면, BOT이 응용 프로그램 / 웹 사이트를 사용하는 것을 막을 수 있다. 그러나 챌린지 과제가 이미 만들어져 전자 장치에 저장됨에 따라, 비대화형 인증 방법이 수행되게 된다.
However, there is a problem that existing user authentication methods are not mutual and cumbersome. For example, if a user wants to access an application / website on an electronic device, the traditional method uses CAPTCHA, RE-CAPTCHA to identify the user from a web robot (ie BOT) and give the user permission to access it. Can be given. A user may access an application / website when solving a challenge (eg,
따라서, 인증에 있어서, 전술한 단점 또는 다른 단점을 해소하기 위한 보다 유용한 대안 기술이 필요한 실정이다. Thus, there is a need for more useful alternative techniques for mitigating the above or other disadvantages in authentication.
개시된 실시예는 전자 장치의 사용자와 연관된 컨텍스트 파라미터를 기초로 라이브 챌린지를 생성하고, 이를 기반으로 사용자 인증을 수행할 수 있다. 또한, 개시된 실시예는 전자 장치의 주변의 객체를 인지하고, 이를 기반으로 생성된 라이브 챌린지를 AR 모드에서 제공함으로써 사용자 인증을 수행할 수 있다. The disclosed embodiment may generate a live challenge based on a context parameter associated with a user of the electronic device, and perform user authentication based on the live challenge. In addition, the disclosed embodiment may perform user authentication by recognizing an object around the electronic device and providing a live challenge generated in the AR mode in the AR mode.
일 실시예에 따른 사용자 인증을 수행하는 방법은, 전자 장치에서 실행되는 적어도 하나의 애플리케이션으로의 액세스를 위한 사용자 인증 요청을 수신하는 단계; 전자 장치 및 사용자 중 적어도 하나와 연관된 컨텍스트 파라미터를 기초로 인증을 위한 라이브 챌린지를 구성하는 주체 및 태스크를 결정하는 단계; 결정에 기초하여 생성된 라이브 챌린지를 제공하는 단계; 및 제공된 라이브 챌린지의 수행 여부에 기초하여 적어도 하나의 애플리케이션으로의 액세스 여부를 결정하는 단계를 포함할 수 있다. According to an embodiment, a method of performing user authentication may include receiving a user authentication request for access to at least one application executed in an electronic device; Determining a subject and a task constituting a live challenge for authentication based on a context parameter associated with at least one of the electronic device and the user; Providing a live challenge generated based on the determination; And determining whether to access at least one application based on whether the provided live challenge is performed.
일 실시예에 따른 사용자 인증을 수행하는 방법은, 전자 장치에 구비된 카메라의 FoV(field of view)에 표시된 객체를 식별하는 단계를 더 포함하고, 주체 및 태스크를 결정하는 단계는, 식별된 객체 및 컨텍스트 파라미터를 기초로 주체 및 태스크를 결정할 수 있다. According to an embodiment, a method of performing user authentication may further include identifying an object displayed in a field of view (FoV) of a camera included in an electronic device, and determining the subject and the task may include identifying the identified object. And a subject and a task based on the context parameter.
일 실시예에 따른 사용자 인증을 수행하는 방법에 있어서, 주체 및 태스크를 결정하는 단계는, 식별된 객체에 대응되는 주체를 결정하는 단계; 및 결정된 주체가 수행 가능한 태스크를 결정하는 단계를 포함하고, 라이브 챌린지를 제공하는 단계는, 결정된 태스크를 유도하는 질문을 표시하는 단계를 포함할 수 있다. According to an embodiment, a method of performing user authentication may include: determining a subject and a task, including: determining a subject corresponding to the identified object; And determining a task that can be performed by the determined subject, and providing a live challenge may include displaying a question inducing the determined task.
일 실시예에 따른 사용자 인증을 수행하는 방법에 있어서, 라이브 챌린지를 제공하는 단계는, 전자 장치에 AR (augmented reality) 모드가 설정됨에 따라, 주체 및 태스크로 구성된 라이브 챌린지의 AR 영상을 식별된 객체에 중첩하여 출력하는 단계를 포함할 수 있다. In the method of performing user authentication according to an embodiment of the present disclosure, the providing of the live challenge may include identifying an AR image of a live challenge including a subject and a task as an augmented reality (AR) mode is set in the electronic device. It may include the step of overlapping the output.
일 실시예에 따른 사용자 인증을 수행하는 방법은, 객체 식별 이후의 상기 전자 장치 또는 상기 사용자의 이동 (movement) 정보를 결정하는 단계를 더 포함하고, AR 영상을 출력하는 단계는, 결정된 이동 정보에 기초하여, AR 영상이 출력되는 위치를 조정하는 단계를 포함할 수 있다. The method of performing user authentication according to an embodiment may further include determining movement information of the electronic device or the user after object identification, and outputting an AR image may include determining the movement information. Based on the above, the method may include adjusting a position at which the AR image is output.
일 실시예에 따른 사용자 인증을 수행하는 방법은, 전자 장치의 위치를 식별하는 단계; 및 식별된 전자 장치의 위치에 기초하여, 전자 장치의 주변에 존재하는 객체를 결정하는 단계를 포함하고, 주체 및 태스크를 결정하는 단계는, 결정된 객체 및 컨텍스트 파라미터를 기초로 주체 및 태스크를 결정할 수 있다. According to an embodiment, a method of performing user authentication may include identifying a location of an electronic device; And determining an object that exists around the electronic device based on the identified location of the electronic device, and determining the subject and the task may determine the subject and the task based on the determined object and the context parameter. have.
일 실시예에 따른 사용자 인증을 수행하는 방법에 있어서, 액세스 여부를 결정하는 단계는, 라이브 챌린지에 대응되는 사용자의 동작이 기 설정된 시간 내에 식별되지 않음에 따라, 적어도 하나의 애플리케이션에 대한 액세스를 거부(deny)하고, 라이브 챌린지에 대응되는 사용자의 동작이 기 설정된 시간 내에 식별됨에 따라, 적어도 하나의 애플리케이션에 대한 액세스를 허용할 수 있다. In a method of performing user authentication according to an embodiment, determining whether to access may deny access to at least one application because an operation of a user corresponding to a live challenge is not identified within a preset time. The user may allow access to at least one application as the user's operation corresponding to the deny and the live challenge is identified within a preset time.
일 실시예에 따른 사용자 인증을 수행하는 방법에 있어서, 컨텍스트 파라미터는, 전자 장치의 설정 정보, 사용자 인증 요청이 수신된 시간 및 위치, 전자 장치에서 사용자가 수행한 활동(activity), 전자 장치에 수신된 알림, SNS (social network service) 정보, 전자 장치의 주변 환경 정보, 전자 장치가 연결된 네트워크 및 전자 장치에 접속된 다른 전자 장치에 관한 정보 중 적어도 하나를 포함할 수 있다. In the method of performing user authentication according to an embodiment, the context parameter may include setting information of the electronic device, a time and location at which the user authentication request is received, activity performed by the user in the electronic device, and received by the electronic device. And at least one of a notification, social network service (SNS) information, surrounding environment information of the electronic device, a network to which the electronic device is connected, and information about another electronic device connected to the electronic device.
일 실시예에 따른 사용자 인증을 수행하는 방법에 있어서, 주체 및 태스크를 결정하는 단계는, 컨텍스트 파라미터를 기초로, 기 설정된 학습 네트워크 모델을 이용하여, 주체 및 태스크를 결정할 수 있다. In the method of performing user authentication according to an embodiment, the determining of the subject and the task may determine the subject and the task using a preset learning network model based on a context parameter.
일 실시예에 따른 사용자 인증을 수행하는 전자 장치는, 입출력부; 인스트럭션을 저장하는 메모리; 및 메모리와 접속된 적어도 하나의 프로세서를 포함하고, 적어도 하나의 프로세서는, 인스트럭션을 실행함으로써, 전자 장치에서 실행되는 적어도 하나의 애플리케이션으로의 액세스를 위한 사용자 인증 요청을 입출력부를 통해 수신하고, 전자 장치 및 사용자 중 적어도 하나와 연관된 컨텍스트 파라미터를 기초로 인증을 위한 라이브 챌린지를 구성하는 주체 및 태스크를 결정하며, 결정에 기초하여 생성된 라이브 챌린지를 입출력부를 통해 제공하고, 제공된 라이브 챌린지의 수행 여부에 기초하여 적어도 하나의 애플리케이션으로의 액세스 여부를 결정할 수 있다. According to an embodiment, an electronic device for performing user authentication may include: an input / output unit; A memory for storing instructions; And at least one processor connected to the memory, wherein the at least one processor receives a user authentication request for access to at least one application executed in the electronic device through the input / output unit by executing an instruction, And determine a subject and a task constituting a live challenge for authentication based on a context parameter associated with at least one of the user, provide a live challenge generated based on the determination through the input / output unit, and based on whether the provided live challenge is performed. To determine whether to access at least one application.
일 실시예에 따른 컴퓨터 프로그램 제품은 전자 장치에서 실행되는 적어도 하나의 애플리케이션으로의 액세스를 위한 사용자 인증 요청을 수신하는 동작; 전자 장치 및 사용자 중 적어도 하나와 연관된 컨텍스트 파라미터를 기초로 인증을 위한 라이브 챌린지를 구성하는 주체 및 태스크를 결정하는 동작; 결정에 기초하여 생성된 라이브 챌린지를 제공하는 동작; 및 제공된 라이브 챌린지의 수행 여부에 기초하여 적어도 하나의 애플리케이션으로의 액세스 여부를 결정하는 동작을 수행하도록 하는 프로그램이 저장된 기록매체를 포함할 수 있다. According to an embodiment, a computer program product may include receiving a user authentication request for access to at least one application executed in an electronic device; Determining a subject and a task constituting a live challenge for authentication based on a context parameter associated with at least one of the electronic device and the user; Providing a live challenge generated based on the determination; And a recording medium storing a program for performing an operation of determining whether to access at least one application based on whether the provided live challenge is performed.
도 1a는 기존 기술에 따른 인증 유형의 예시들을 도시한 도면이다.
도 1b는 본 개시의 실시예에 따라 사용자 인증을 수행하는 방법을 설명하기 위한 도면이다.
도 2는 본 개시의 일 실시예에 따른 전자 장치의 블록도이다.
도 3은 본 개시의 일 실시 예에 따른 전자 장치의 라이브 챌린지 엔진을 나타내는 블록도이다.
도 4는 본 개시의 일 실시예에 따라 라이브 챌린지를 생성하기 위한 라이브 챌린지 엔진의 프로세스를 설명하기 위한 도면이다.
도 5는 본 개시의 일 실시예에 따른 전자 장치의 사용자를 인증하는 방법을 설명하기 위한 도면이다.
도 6은 본 개시의 일 실시예에 따라 사용자를 인증하기 위한 전자 장치의 인증 엔진의 블록도이다.
도 7a는 본 개시의 일 실시예에 따른 전자 장치가 사용자 주변의 객체를 포착하여 표시하는 프로세스를 설명하기 위한 도면이다.
도 7b는 본 개시의 일 실시예에 따른 전자 장치가 사용자 주변의 객체를 기초로 스토리를 결정하는 프로세스를 설명하기 위한 도면이다.
도 7c는 본 개시의 일 실시예에 따른 전자 장치가 스토리에 대한 주체를 결정하는 프로세스를 설명하기 위한 도면이다.
도 7d는 본 개시의 일 실시예에 따른 전자 장치가 스토리, 주체 및 태스크를 기초로 라이브 챌린지를 생성하는 프로세스를 설명하기 위한 도면이다.
도 8a는 본 개시의 일 실시예에 따라 전자 장치의 사용자를 인증하는 방법을 설명하기 위한 흐름도의 제 1 부분이다.
도 8b는 본 개시의 일 실시예에 따라 전자 장치의 사용자를 인증하는 방법을 설명하기 위한 흐름도의 제 2 부분이다.
도 9는 본 개시의 일 실시예에 따른 전자 장치가 날씨 정보를 기초로 생성된 라이브 챌린지를 이용하여 사용자를 인증하는 방법을 설명하기 위한 도면이다.
도 10은 본 개시의 일 실시예에 따라 인식된 객체를 기초로 생성된 라이브 챌린지를 이용하여 사용자를 인증하는 방법을 설명하기 위한 도면이다.
도 11은 본 개시의 일 실시예에 따라 인식된 객체를 기초로 생성된 라이브 챌린지를 이용하여 사용자를 인증하는 방법을 설명하기 위한 도면이다.
도 12는 본 개시의 일 실시예에 따라 인식된 객체를 기초로 생성된 라이브 챌린지를 이용하여 사용자를 인증하는 방법을 설명하기 위한 도면이다.
도 13은 본 개시의 일 실시예에 따라 인식된 객체를 기초로 생성된 라이브 챌린지를 이용하여 사용자를 인증하는 방법을 설명하기 위한 도면이다.
도 14는 본 개시의 일 실시예에 따라 인식된 객체를 기초로 생성된 라이브 챌린지를 이용하여 사용자를 인증하는 방법을 설명하기 위한 도면이다.
도 15는 본 개시의 일 실시예에 따라 컨텍스트 파라미터를 기초로 생성된 라이브 챌린지를 이용하여 사용자를 인증하는 방법을 설명하기 위한 도면이다.
도 16은 본 개시의 일 실시예에 따라 컨텍스트 파라미터를 기초로 생성된 라이브 챌린지를 이용하여 사용자를 인증하는 방법을 설명하기 위한 도면이다.
도 17은 본 개시의 일 실시예에 따라 컨텍스트 파라미터를 기초로 생성된 라이브 챌린지를 이용하여 사용자를 인증하는 방법을 설명하기 위한 도면이다.
도 18은 본 개시의 일 실시예에 따라 컨텍스트 파라미터를 기초로 생성된 라이브 챌린지를 이용하여 사용자를 인증하는 방법을 설명하기 위한 도면이다.
도 19는 본 개시의 일 실시예에 따라 컨텍스트 파라미터를 기초로 생성된 라이브 챌린지를 이용하여 사용자를 인증하는 방법을 설명하기 위한 도면이다.
도 20은 일 실시예에 따른 전자 장치가 사용자 인증을 수행하는 방법을 설명하기 위한 도면이다.
도 21은 일 실시예에 따라 사용자 인증을 수행하는 전자 장치의 블록도이다. 1A is a diagram illustrating examples of authentication types according to the existing technology.
1B is a diagram for describing a method of performing user authentication according to an embodiment of the present disclosure.
2 is a block diagram of an electronic device according to an embodiment of the present disclosure.
3 is a block diagram illustrating a live challenge engine of an electronic device according to an embodiment of the present disclosure.
4 is a diagram for describing a process of a live challenge engine for generating a live challenge according to one embodiment of the present disclosure.
5 is a diagram for describing a method of authenticating a user of an electronic device, according to an exemplary embodiment.
6 is a block diagram of an authentication engine of an electronic device for authenticating a user according to an embodiment of the present disclosure.
FIG. 7A is a diagram for describing a process of capturing and displaying an object around a user by an electronic device according to an embodiment of the present disclosure.
FIG. 7B is a diagram for describing a process of determining, by an electronic device, a story based on objects around a user, according to an embodiment of the present disclosure.
7C is a diagram for describing a process of determining, by an electronic device, a subject for a story, according to an embodiment of the present disclosure.
FIG. 7D is a diagram for describing a process in which an electronic device generates a live challenge based on a story, a subject, and a task, according to an embodiment of the present disclosure.
8A is a first portion of a flowchart for describing a method of authenticating a user of an electronic device according to an embodiment of the present disclosure.
8B is a second part of a flowchart for describing a method of authenticating a user of an electronic device, according to an embodiment of the present disclosure.
FIG. 9 is a diagram for describing a method of authenticating a user using a live challenge generated based on weather information, according to an embodiment of the present disclosure.
FIG. 10 is a diagram for describing a method of authenticating a user using a live challenge generated based on a recognized object according to one embodiment of the present disclosure.
FIG. 11 is a diagram for describing a method of authenticating a user by using a live challenge generated based on a recognized object according to one embodiment of the present disclosure.
FIG. 12 is a diagram for describing a method of authenticating a user using a live challenge generated based on a recognized object according to one embodiment of the present disclosure.
FIG. 13 is a diagram for describing a method of authenticating a user by using a live challenge generated based on a recognized object according to one embodiment of the present disclosure.
FIG. 14 is a diagram for describing a method of authenticating a user by using a live challenge generated based on a recognized object according to one embodiment of the present disclosure.
FIG. 15 illustrates a method of authenticating a user using a live challenge generated based on a context parameter according to an embodiment of the present disclosure.
FIG. 16 illustrates a method of authenticating a user using a live challenge generated based on a context parameter according to an embodiment of the present disclosure.
FIG. 17 illustrates a method for authenticating a user using a live challenge generated based on a context parameter according to an embodiment of the present disclosure.
FIG. 18 is a diagram for describing a method of authenticating a user using a live challenge generated based on a context parameter according to an embodiment of the present disclosure.
FIG. 19 illustrates a method for authenticating a user using a live challenge generated based on a context parameter according to an embodiment of the present disclosure.
20 is a diagram for describing a method of performing user authentication by an electronic device according to an exemplary embodiment.
21 is a block diagram of an electronic device that performs user authentication, according to an embodiment.
본 개시에서 사용되는 용어에 대해 간략히 설명하고, 본 개시에 따른 사용자 인증 기술에 대해 구체적으로 설명하기로 한다. Terms used in the present disclosure will be briefly described, and a user authentication technique according to the present disclosure will be described in detail.
본 개시에서 사용되는 용어는 사용자 인증 기술에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 개시에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 개시의 전반에 걸친 내용을 토대로 정의되어야 한다. The terms used in the present disclosure selected general terms that are currently widely used as possible while considering functions in user authentication technology, but may vary according to the intention or precedent of a person skilled in the art, the emergence of a new technology, and the like. In addition, in certain cases, there is a term arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the description of the invention. Therefore, the terms used in the present disclosure should be defined based on the meanings of the terms and the contents throughout the present disclosure, rather than simply the names of the terms.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 구성 요소들은 용어들에 의해 한정되지는 않는다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 개시에 따른 사용자 인증 기술의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 항목들의 조합 또는 복수의 관련된 항목들 중의 어느 하나의 항목을 포함한다.Terms including ordinal numbers such as first and second may be used to describe various components, but the components are not limited by the terms. The terms are only used to distinguish one component from another. For example, without departing from the scope of the user authentication technique according to the present disclosure, the first component may be named a second component, and similarly, the second component may also be named the first component. The term and / or includes any one of a plurality of related items or a combination of a plurality of related items.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에서 사용되는 "부"라는 용어는 소프트웨어, FPGA(field programmable gate array) 또는 ASIC(application specific integrated circuit)과 같은 하드웨어 구성요소를 의미하며, "부"는 어떤 역할들을 수행한다. 그렇지만 "부"는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부"는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부"는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 특성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부"들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부"들로 결합되거나 추가적인 구성요소들과 "부"들로 더 분리될 수 있다.When any part of the specification is to "include" any component, this means that it may further include other components, except to exclude other components unless specifically stated otherwise. In addition, the term "part" as used herein refers to a hardware component such as software, a field programmable gate array (FPGA), or an application specific integrated circuit (ASIC), and the "part" performs certain roles. However, "part" is not meant to be limited to software or hardware. The “unit” may be configured to be in an addressable storage medium and may be configured to play one or more processors. Thus, as an example, a "part" refers to components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, procedures, Subroutines, segments of program code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays, and variables. The functionality provided within the components and "parts" may be combined into a smaller number of components and "parts" or further separated into additional components and "parts".
아래에서는 첨부한 도면을 참고하여 본 개시의 실시예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 개시에 따른 사용자 인증 기술은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 개시에 따른 사용자 인증 기술을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.DETAILED DESCRIPTION Hereinafter, exemplary embodiments of the present disclosure will be described in detail with reference to the accompanying drawings so that those skilled in the art may easily implement the present disclosure. However, the user authentication technique according to the present disclosure may be implemented in various different forms and is not limited to the embodiments described herein. In the drawings, parts irrelevant to the description are omitted in order to clearly describe the user authentication technology according to the present disclosure, and like reference numerals designate like parts throughout the specification.
기존의 사용자 인증 기술에 따르면, 사용자 인증은 전자 장치 상에 패스워드/ 패턴, CAPTCHA, 바이오 메트릭 등을 제공하도록 사용자에게 프롬프트(prompt)함으로써 수행될 수 있다. 또한, 전자 장치는 사용자로부터 입력된 패스워드가 이미 저장되어 있는 데이터와 일치하는지 여부에 기초하여 사용자의 인증 여부를 결정할 수 있다. 또한, 패스워드 이외에 바이오 정보가 사용자 인증에 이용될 수 있다. 예를 들어, 사용자는 스마트 폰에 지문을 제공함으로써 인증을 수행할 수 있다. 전술한 바와 같이, 기존의 사용자 인증 기술은 대화형에 해당하지 않으며, 사용자가 매번 자격 증명에 필요한 정보(패스워드, 패턴 등)를 기억하는 것이 어려울 수 있어, 사용자가 불편을 느낄 수 있다. According to the existing user authentication technology, user authentication may be performed by prompting the user to provide a password / pattern, CAPTCHA, biometric, etc. on the electronic device. In addition, the electronic device may determine whether the user is authenticated based on whether the password input from the user matches data already stored. In addition, bioinformation may be used for user authentication in addition to the password. For example, a user can perform authentication by providing a fingerprint to a smartphone. As described above, the existing user authentication technology does not correspond to the interactive, and it may be difficult for the user to remember the information (password, pattern, etc.) required for each time, the user may feel uncomfortable.
기존의 사용자 인증 기술과는 달리, 본 개시에 따른 사용자 인증 기술은 대화형 방식으로 사용자 인증을 수행할 수 있다. 일 실시예에 따른 사용자 인증 방법을 수행하는 전자 장치는 복수의 컨텍스트 파라미터에 기초하여, 라이브 AR 챌린지를 생성할 수 있다. 생성된 라이브 AR 챌린지는 AR 모드로 동작하는 전자 장치의 스크린 상에 디스플레이될 수 있다. 전자 장치는 라이브 AR 챌린지를 디스플레이함으로써, 사용자로 하여금 적어도 하나의 태스크를 실시간으로 수행하도록 유도할 수 있다. 사용자가 태스크를 성공적으로 완료하면, 사용자는 전자 장치에 액세스 할 수 있다. 따라서, 일 실시예에 따른 전자 장치는 실시간으로 라이브 AR 챌린지에 따른 태스크의 수행 여부를 확인함으로써, 사용자와의 상호작용을 통해 인증을 수행할 수 있다. Unlike conventional user authentication techniques, user authentication techniques in accordance with the present disclosure can perform user authentication in an interactive manner. An electronic device that performs a user authentication method according to an embodiment may generate a live AR challenge based on a plurality of context parameters. The generated live AR challenge may be displayed on the screen of the electronic device operating in the AR mode. The electronic device may induce the user to perform at least one task in real time by displaying the live AR challenge. If the user completes the task successfully, the user can access the electronic device. Therefore, the electronic device according to an embodiment may perform authentication by interacting with a user by checking whether a task according to a live AR challenge is performed in real time.
또한, 본 개시에 따른 사용자 인증 기술은 사용자 행동을 기반으로 라이브 챌린지를 생성할 수 있다. 예를 들어, 전자 장치는 "매일 전화하는 사람이 누구입니까?" 라는 질문에 기반한 라이브 챌린지를 제공함으로써, BOT과 전자 장치의 사용자 (즉, 실제 사용자)를 식별하게 할 수 있다.In addition, the user authentication technique according to the present disclosure may generate a live challenge based on user behavior. For example, an electronic device might ask, "Who is calling every day?" By providing a live challenge based on the question, the user of the BOT and the electronic device (that is, the real user) can be identified.
또한, 본 개시에 따른 사용자 인증 기술은 외부 하드웨어 구성 요소를 사용하지 않고 실시간 라이브 AR 챌린지를 생성할 수 있다. In addition, the user authentication technique according to the present disclosure can generate a real time live AR challenge without using external hardware components.
이하에서는, 도 1b 내지 도 21을 참조하여, 본 개시의 실시예에 대해 보다 구체적으로 설명하도록 한다.Hereinafter, an embodiment of the present disclosure will be described in more detail with reference to FIGS. 1B to 21.
도 1b는 본 개시의 실시예에 따라 사용자 인증을 수행하는 방법을 설명하기 위한 도면이다. 1B is a diagram for describing a method of performing user authentication according to an embodiment of the present disclosure.
도 1b를 참조하면, 전자 장치 (100)는 사용자로부터 적어도 하나의 애플리케이션으로의 액세스를 위한 사용자 인증 요청을 수신할 수 있다. 예를 들어, 전자 장치(100)는 액세스에 권한이 필요한 적어도 하나의 애플리케이션 중 하나를 나타내는 아이콘을 터치하는 사용자 입력이 식별되면, 사용자 인증 요청이 수신된 것으로 결정할 수 있다. 다만, 이는 일 예일 뿐, 전자 장치 (100)가 사용자 인증 요청을 수신하는 방법이 전술한 예에 한정되는 것은 아니다. Referring to FIG. 1B, the
일 실시예에 따른 전자 장치 (100)는 사용자 인증 요청이 수신됨에 따라, 사용자의 주변을 포착하기 위해 카메라 기능을 자동으로 동작시킬 수 있다. 카메라는 사용자의 주변에 있는 객체를 캡쳐하여 카메라의 시야(field of view)에 표시하고, 이를 통해 사용자 주변의 객체를 식별할 수 있다. 예를 들어, 전자 장치 (100)는 사용자 주변을 캡쳐한 이미지를 통해, 사용자 뒤에 창문이 있음을 식별할 수 있다. According to an embodiment, when the
또한, 일 실시예에 따른 전자 장치 (100)는 사용자 및 전자 장치 (100) 중 적어도 하나와 관련된 복수의 컨텍스트 파라미터를 결정할 수 있다. 복수의 컨텍스트 파라미터는 전자 장치의 설정 정보, 상기 사용자 인증 요청이 수신된 시간 및 위치, 상기 전자 장치에서 사용자가 수행한 활동(activity), 상기 전자 장치에 수신된 알림, SNS (social network service) 정보, 상기 전자 장치의 주변 환경 정보, 상기 전자 장치가 연결된 네트워크 및 상기 전자 장치에 접속된 다른 전자 장치의 수 중 적어도 하나를 포함할 수 있다. 예를 들어, 전자 장치 (100)는 현재 비가 온다는 것을 결정할 수 있다. Also, the
전자 장치 (100)는 창문과 같은 인식된 객체 및 복수의 컨텍스트 파라미터에 기초하여 실시간 스토리를 결정할 수 있다.The
또한, 전자 장치 (100)는 실시간 스토리에 적용될 적어도 하나의 태스크를 선택할 수 있다. 또한, 전자 장치 (100)는 적어도 하나의 태스크가 적어도 하나의 주체(actor)에 적용될 필요가 있다고 결정할 수 있다. 태스크는 "거미를 죽이는 것"일 수 있다. 또한, 전자 장치 (100)는 실시간 스토리, 적어도 하나의 주체 및 적어도 하나의 태스크를 결합함으로써 라이브 챌린지를 생성할 수 있다. 예를 들어, 도 1b에 도시된 라이브 AR 챌린지는, 전자 장치 (100)에서 인식된 창에 AR 영상인 거미를 증강시킴으로써 생성될 수 있다. 라이브 AR 챌린지는 AR 기술, 가상 현실 (VR) 기술 등을 이용하여 생성될 수 있다. 전자 장치(100)는 AR 모드에서 사용자에게 라이브 챌린지를 표시하고, 예를 들어 "거미 죽이기와 같은 태스크 (110)"를 수행하도록 사용자를 유도할 수 있다. 또한, 사용자는 거미에 대해 터치 동작을 수행하여 요청된 태스크를 완료함으로써 거미를 죽일 수 있다. 사용자가 성공적으로 태스크를 수행하면, 전자 장치(100)는 사용자의 액세스를 허용할 수 있다. 사용자가 성공적으로 태스크를 수행하지 않으면, 전자 장치 (100)는 액세스를 거부할 수 있다. In addition, the
다른 예에 따라, 전자 장치 (100)에 창문이 인식된 시간이 아침 시간인 경우, 라이브 AR 챌린지는 환기를 위한 "창문 열기"일 수 있다. 또 다른 예에 따라, 전자 장치 (100)에 창문이 인식된 시간이 저녁 시간인 경우, 라이브 AR 챌린지는 "창문 닫기"일 수 있다. 라이브 AR 챌린지는 사용자 행동 및 사용자 환경 등을 나타내는 컨텍스트 파라미터에 기초하여 실시간으로 생성될 수 있다. 이에 따라, 상호적인 방식의 사용자 인증이 수행될 수 있다. According to another example, when the time when the window is recognized by the
도 2는 본 개시의 일 실시예에 따른 전자 장치의 블록도이다. 2 is a block diagram of an electronic device according to an embodiment of the present disclosure.
도 2를 참조하면, 전자 장치(100)는 카메라(110), 라이브 챌린지 엔진 (120), AR 엔진 (130), 인증 엔진 (140), 통신부 (150), 프로세서 (160), 메모리 (170) 및 디스플레이 (180)를 포함할 수 있다. 다만, 이는 일 예일 뿐, 전자 장치(100)는 전술한 구성 요소들 보다 더 적거나 많은 구성 요소들을 포함할 수도 있다. 예를 들어, 전자 장치(100)는 자이로스코프, 가속도 센서 등 사용자 또는 전자 장치(100)의 위치 또는 이동을 식별할 수 있는 센서를 더 포함할 수 있으며, 전술한 센서는 예시일 뿐, 전자 장치(100)에 포함되는 센서가 전술한 예에 한정되는 것은 아니다. Referring to FIG. 2, the
일 실시예에 따른 라이브 챌린지 엔진 (120)은 전자 장치 (100)의 사용자임을 인증하기 위한 사용자 인증 요청을 수신할 수 있다. 사용자 인증 요청이 수신됨에 따라, 라이브 챌린지 엔진 (120)은 전자 장치 (100)의 사용자에 대한 라이브 챌린지를 생성할 수 있다. 라이브 챌린지는 실시간 스토리를 나타내며, 사용자에 의해 수행될 적어도 하나의 태스크를 포함할 수 있다.The live challenge engine 120 according to an embodiment may receive a user authentication request for authenticating that the
일 실시예에서, 라이브 챌린지 엔진 (120)은 사용자 인증 요청을 수신하면, 카메라 (110)를 자동으로 개시함으로써, 사용자에 대한 라이브 챌린지를 생성할 수 있다. 카메라 (110)는 촬상 센서 등일 수 있으며, 사용자의 주변의 이미지를 포착하는데 사용될 수 있다. 또한, 라이브 챌린지 엔진 (120)은 카메라 (110)의 시야에 디스플레이된 사용자의 주위의 객체를 인식할 수 있다.In one embodiment, the live challenge engine 120 may generate a live challenge for the user by automatically initiating the
또한, 라이브 챌린지 엔진 (120)은 사용자 및 전자 장치 (100) 중 적어도 하나와 관련된 복수의 컨텍스트 파라미터를 결정할 수 있다. 일 실시예에서, 복수의 컨텍스트 파라미터는 전자 장치의 설정 정보, 상기 사용자 인증 요청이 수신된 시간(ex: 현재 날짜 및 시간) 및 위치, 상기 전자 장치에서 사용자가 수행한 활동(activity), 상기 전자 장치에 수신된 알림, SNS (social network service) 정보, 상기 전자 장치의 주변 환경 정보(ex: 날씨, 조명), 상기 전자 장치가 연결된 네트워크 및 상기 전자 장치에 접속된 다른 전자 장치의 수 중 적어도 하나를 포함할 수 있다.
In addition, the live challenge engine 120 may determine a plurality of context parameters associated with at least one of the user and the
또한, 라이브 챌린지 엔진 (120)은 인식된 객체 및 복수의 컨텍스트 파라미터에 기초하여 실시간 스토리를 결정할 수 있다. 라이브 챌린지 엔진(120)은 실시간 스토리에 기초하여 적어도 하나의 주체를 결정할 수 있다. 라이브 챌린지 엔진 (120)은 적어도 하나의 주체에 적용될 적어도 하나의 작업을 결정할 수 있다. 또한, 라이브 챌린지 엔진 (120)은 실시간 스토리, 적어도 하나의 주체 및 적어도 하나의 태스크를 결합함으로써 라이브 챌린지를 생성할 수 있다. 이 때, 라이브 챌린지는 라이브 AR 챌린지를 포함할 수 있다. 라이브 AR 챌린지는 인식된 객체에 주체 및 태스크를 나타내는 AR 영상을 증강시킴으로써 생성될 수 있으며, 이는 전자 장치 (100)가 AR 모드로 동작하는 경우 제공될 수 있다.In addition, the live challenge engine 120 may determine the real-time story based on the recognized object and the plurality of context parameters. The live challenge engine 120 may determine at least one subject based on the real time story. The live challenge engine 120 may determine at least one task to be applied to the at least one subject. In addition, the live challenge engine 120 may generate a live challenge by combining a real time story, at least one subject, and at least one task. At this time, the live challenge may include a live AR challenge. The live AR challenge may be generated by augmenting an AR image representing a subject and a task in a recognized object, which may be provided when the
일 실시예에 따른, 인증 엔진 (140)은 메모리 (170) 및 프로세서 (160)에 결합될 수 있다. 인증 엔진 (140)은 라이브 AR 챌린지에 기초하여 사용자 인증을 수행할 수 있다. AR 엔진 (130)은 전자 장치 (100)의 스크린 상에 AR 모드로 라이브 AR 챌린지를 디스플레이할 수 있다. 또한, AR 엔진 (130)은 AR 모드에서 사용자에 의해 수행되어야 하는 적어도 하나의 태스크를 도출할 수 있다. 인증 엔진 (140)은 적어도 하나의 태스크가 AR 모드에서 사용자에 의해 성공적으로 수행되는지 여부를 결정할 수 있다. 또한, 인증 엔진 (140)은 적어도 하나의 태스크가 사용자에 의해 성공적으로 수행됨에 따라 전자 장치(100)의 적어도 하나의 애플리케이션에 대한 사용자의 액세스를 허가할 수 있다.According to one embodiment,
다른 실시예에 따라, 전자 장치 (100)는 카메라 (110)를 사용하지 않고 사용자의 주변에 있는 물체를 식별할 수 있다. 전자 장치 (100)는 GPS (Global Positioning System) 센서, 자이로스코프 또는 임의의 다른 센서를 이용하여 사용자의 위치가 실내인지 여부 등을 결정하고, 사용자의 위치에 기초하여 객체를 인식할 수 있다. 예를 들어, 전자 장치 (100)눈 사용자가 자신의 침실에 있다고 결정하면, 전자 장치 (100)는 그 특정 위치 (침실과 같은)에 대한 데이터를 인출하고, 인출된 데이터를 기초로 라이브 챌린지를 생성하기 위해 특정 위치에 존재하는 물체를 인식할 수 있다. 인출된 데이터는, 예를 들어, 특정 위치를 촬영한 이미지일 수도 있다. 다만, 이는 일 예일 뿐, 데이터가 이에 한정되는 것은 아니다. According to another embodiment, the
다른 실시예에 따라, 전자 장치 (100)는 카메라, AR, VR 등을 사용하지 않고 라이브 챌린지를 생성할 수 있다. 전자 장치 (100)는 복수의 컨텍스트 파라미터 (현재 사용자 행동과 같은)에 기초하여 라이브 챌린지를 동적으로 생성할 수 있다. 예를 들어, GPS 등을 이용하여 획득한 전자 장치 (100)의 좌표를 기반으로, 사용자의 위치가 사무실로 결정될 수 있다. 따라서, 전자 장치 (100)는 사무실에 존재하는 객체를 결정하고, 이를 기반으로 주체 및 태스크를 결정하여 라이브 챌린지를 생성할 수 있다. 예를 들어, 전자 장치(100)는 사용자 책상에서 물병의 색을 선택하도록 사용자에게 요청할 수 있다.According to another embodiment, the
통신부 (150)는 전자 장치 (100) 내의 하드웨어 구성 요소들이 내부적으로 통신할 수 있도록 구성될 수 있다. The communicator 150 may be configured to allow hardware components in the
프로세서 (160)는 전자 장치 (100)의 사용자를 인증하기 위해 메모리 (170)에 저장된 다양한 명령어들을 처리할 수 있도록 메모리 (170)와 결합될 수 있다.The processor 160 may be combined with the memory 170 to process various instructions stored in the memory 170 to authenticate a user of the
메모리 (170)는 프로세서 (160)에 의해 실행될 명령어들을 저장할 수 있다. 메모리 (170)는 비휘발성 저장 요소들을 포함할 수 있다. 이러한 비휘발성 저장 요소의 예는 자기 하드 디스크, 광 디스크, 플로피 디스크, 플래시 메모리, 또는 전기적으로 프로그램 가능한 메모리 (EPROM) 또는 전기적으로 소거 가능하고 프로그램 가능한 (EEPROM) 메모리를 포함할 수 있다. 또한, 메모리 (170)는 일부 예에서 비 일시적인 저장 매체로 간주될 수 있다. 용어 "비 일시적"은 저장 매체가 반송파 또는 전파된 신호로 구현되지 않음을 나타낸다. 그러나, "비 일시적"이라는 용어는 메모리 (170)가 이동 불가능한 것으로 해석되어서는 안 된다. 일부 예에서, 메모리 (170)는 메모리보다 많은 양의 정보를 저장하도록 구성될 수 있다. 특정 예에서, 비 일시적인 저장 매체는 시간이 지남에 따라 (예를 들어, 랜덤 액세스 메모리 (RAM) 또는 캐시에서) 변화할 수 있는 데이터를 저장할 수 있다.The memory 170 may store instructions to be executed by the processor 160. Memory 170 may include nonvolatile storage elements. Examples of such nonvolatile storage elements may include magnetic hard disks, optical disks, floppy disks, flash memory, or electrically programmable memory (EPROM) or electrically erasable and programmable (EEPROM) memory. In addition, memory 170 may be considered a non-transitory storage medium in some examples. The term "non-transitory" indicates that the storage medium is not implemented with a carrier wave or a propagated signal. However, the term "non-transitory" should not be interpreted that the memory 170 is immovable. In some examples, memory 170 may be configured to store more information than the memory. In certain instances, non-transitory storage media may store data that may change over time (eg, in random access memory (RAM) or cache).
일 실시예에서, 디스플레이 (180)는 전자 장치 (100)에 컨텐츠를 디스플레이 하도록 구성될 수 있다. 디스플레이 (180)는, 예를 들어, LCD (Liquid Crystal Display), AM-OLED (Active Matrix Organic Light Emitting Diode) 디스플레이, LED (Light Emitting Diode) 디스플레이 등을 포함할 수 있다.In an embodiment, the display 180 may be configured to display content on the
한편, 도 2는 전자 장치 (100)의 다양한 하드웨어 구성 요소를 도시하지만, 본 개시에 따른 전자 장치 (100)의 구성이 이에 한정되는 것은 아니다. 다른 실시 예에서, 전자 장치 (100)는 더 적은 또는 더 많은 수의 구성 요소를 포함할 수 있다. 또한, 각 구성 요소의 라벨 또는 명칭은 단지 예시적인 목적으로 사용된 것이며, 본 개시의 범위를 제한하지 않는다. 하나 이상의 구성 요소는 함께 결합되어 전자 장치 (100)의 사용자를 인증하는 동일하거나 실질적으로 유사한 기능을 수행할 수 있다. 2 illustrates various hardware components of the
전자 장치 (100)는, 예를 들어, 스마트 폰, 이동 전화, 랩톱, 태블릿, 패블릿 (phablet) 등일 수 있지만, 이에 한정되는 것은 아니다.The
도 3은 본 개시의 일 실시 예에 따른 전자 장치의 라이브 챌린지 엔진을 나타내는 블록도이다. 3 is a block diagram illustrating a live challenge engine of an electronic device according to an embodiment of the present disclosure.
도 3을 참조하면, 라이브 챌린지 엔진 (120)은 객체 인식 엔진 (121), 컨텍스트 결정 엔진 (122), 데이터베이스 식별 엔진 (123), 컨볼루션 엔진 (124), 실시간 스토리 엔진 (125), 주체 결정 엔진 (126), 태스크 결정 엔진 (127) 및 응답 결정 엔진 (128)을 포함할 수 있다.Referring to FIG. 3, the live challenge engine 120 includes an object recognition engine 121, a context determination engine 122, a database identification engine 123, a convolution engine 124, a real-time story engine 125, and a subject determination. Engine 126, task determination engine 127, and response determination engine 128.
일 실시예에서, 라이브 챌린지 엔진 (120)은 사용자 인증 요청을 수신하면 전자 장치 (100)의 카메라 (110)를 자동으로 시작할 수 있다. 또한, 객체 인식 엔진 (121)은 카메라 (110)의 시야에 디스플레이 된 사용자의 주변의 객체를 인식할 수 있다. 다른 예에 따라 객체 인식 엔진(121)은 전자 장치(100)에 구비된 GPS 등의 위치를 결정할 수 있는 센서를 기반으로 사용자 주변에 존재하는 객체를 결정할 수도 있다. In one embodiment, the live challenge engine 120 may automatically start the
또한, 컨텍스트 결정 엔진 (122)은 사용자 및 전자 장치 중 적어도 하나와 관련된 복수의 컨텍스트 파라미터를 결정할 수 있다. 또한, 실시간 스토리 엔진 (125)은 인식된 객체 및 복수의 컨텍스트 파라미터에 기초하여 실시간 스토리를 결정할 수 있다. In addition, the context determination engine 122 may determine a plurality of context parameters associated with at least one of a user and an electronic device. In addition, the real-time story engine 125 may determine the real-time story based on the recognized object and the plurality of context parameters.
주체 결정 엔진 (126)은 실시간 스토리에 기초하여 적어도 하나의 주체를 결정할 수 있다. 데이터베이스 식별 엔진 (123)은 데이터베이스로부터 사용자 스토리를 식별 및 선택하도록 구성할 수 있다. 또한, 데이터베이스 식별 엔진 (123)은 데이터베이스로부터 사용자 스토리에 대한 주체 그룹을 식별/ 선택하도록 구성될 수 있다. 태스크 결정 엔진 (127)은 적어도 하나의 주체에 적용될 적어도 하나의 태스크를 결정할 수 있다. The subject determination engine 126 may determine at least one subject based on a real time story. Database identification engine 123 may be configured to identify and select user stories from a database. In addition, database identification engine 123 may be configured to identify / select a group of subjects for the user story from the database. The task determination engine 127 may determine at least one task to be applied to at least one subject.
컨볼루션 엔진 (124)은 실시간 스토리, 적어도 하나의 주체 및 적어도 하나의 태스크를 결합하여 라이브 챌린지를 생성할 수 있다. 라이브 챌린지 엔진 (120)은 컨볼루션 엔진 (124)으로부터 라이브 챌린지를 수신할 수 있다. Convolution engine 124 may combine a real-time story, at least one subject, and at least one task to generate a live challenge. The live challenge engine 120 can receive a live challenge from the convolution engine 124.
태스크 결정 엔진 (127)은 실시간으로 사용자가 결정된 적어도 하나의 태스크를 수행하도록 유도할 수 있다. The task determination engine 127 may induce the user to perform at least one determined task in real time.
응답 결정 엔진 (128)은 적어도 하나의 태스크가 사용자에 의해 성공적으로 수행되는지 여부를 결정할 수 있다.Response determination engine 128 may determine whether at least one task is successfully performed by the user.
다른 실시예에 따른 라이브 챌린지 엔진 (120)은 카메라 (110)를 사용하지 않고 사용자에 대한 라이브 챌린지를 생성할 수도 있다. 이는 도 2를 참조하여 전술한 바와 대응될 수 있다. The live challenge engine 120 according to another embodiment may generate a live challenge for the user without using the
도 4는 본 개시의 일 실시예에 따라 라이브 챌린지를 생성하기 위한 라이브 챌린지 엔진의 프로세스를 설명하기 위한 도면이다. 4 is a diagram for describing a process of a live challenge engine for generating a live challenge according to one embodiment of the present disclosure.
도 4를 참조하면, 전자 장치 (100)의 사용자에 대한 라이브 챌린지를 생성하기 위해 전자 장치 (100)의 라이브 챌린지 엔진 (120)에 의해 다음의 프로세스가 수행될 수 있다.Referring to FIG. 4, the following process may be performed by the live challenge engine 120 of the
단계 401a에서, 라이브 챌린지 엔진 (120)은 검출된 객체를 데이터베이스 식별자 엔진 (123)으로 전송할 수 있다. 객체는, 예를 들어, 빅스비(Bixby) 비전에 의해 검출될 수 있다. In
단계 401b에서, 라이브 챌린지 엔진 (120)은 컨볼루션 엔진 (124)에 복수의 컨텍스트 파라미터를 전송할 수 있다. 복수의 컨텍스트 파라미터에는 현재 날짜, 현재 시간, 현재 위치, 라이브 챌린지의 난이도, 날씨 정보, 사용자의 현재 환경의 조명 조건, 사용자/전자 장치 (100)가 이동하는 속도 정보, 풍경, 포트레잇(portrait), 전자 장치 (100)의 방향 (ex: 역방향 또는 정방향), 계절 정보 (ex: 봄, 여름, 가을, 겨울), 전자 장치 (100)에 접속된 액세서리의 수/ 종류, 설정 정보 (ex: 사운드 온 / 오프, 절전 온 / 오프) 등이 포함될 수 있다. In
단계 402에서, 라이브 챌린지 엔진 (120)은 메모리 (170)에 저장된 복수의 데이터베이스로부터 어느 하나를 선택할 수 있다. In
단계 403에서, 라이브 챌린지 엔진 (120)은 선택된 데이터베이스 및 엔트리 개수를 컨볼루션 엔진 (124)에 전송할 수 있다. In
단계 404a 및 단계 404b에서, 컨볼루션 엔진 (124)은 모든 컨텍스트 파라미터 및 수신된 엔트리 개수를 데이터베이스에 혼합하고 일부 해싱 기술, 난수 생성 기술을 이용하여 매시간 고유 값을 생성할 수 있다.In
단계 405a 및 단계 405b에서, 컨볼루션 엔진 (124)은 생성된 값을 메모리 (170)에 저장된 데이터베이스에 전송할 수 있다. 한편, 라이브 챌린지 엔진 (120)은 생성된 값을 주체 결정 엔진 (126)에 전송할 수 있다. In
단계 406에서, 라이브 챌린지 엔진 (120)은 생성된 값을 수신하면 메모리 (170)에 저장된 데이터베이스로부터 사용자 스토리를 선택할 수 있다. 또한, 주체 결정 엔진 (126)은 사용자 스토리를 태스크 결정 엔진 (127)으로 전송할 수 있다.In
단계 407에서, 태스크 결정 엔진 (127)은 사용자에게 표시될 수 있는 질문/ 태스크를 결정할 수 있다. 태스크 결정 엔진 (127)은 주체 및 인식된 객체의 각 유형에 대해 수행될 수 있는 태스크의 목록을 저장하고 있을 수 있다. 또한, 태스크 결정 엔진 (127)은 입력 및 출력의 일부 데이터 세트를 기초로 학습 네트워크 모델을 이용하여 트레이닝될 수 있다. 예를 들어 주체와 객체가 입력으로, 질문이 출력으로 사용될 수 있다. 따라서, 주체 및 객체에 기초하여, 태스크 결정 엔진 (127)은 현재 시나리오에 대해 제시될 수 있는 질문 세트를 식별할 수 있다. 태스크 결정 엔진 (127)은 위치, 타이머 등과 같은 현재 사용자 환경에 기초하여 질문을 결정할 수 있다. 예를 들어, 사용자가 영화를 보는 경우, 태스크 결정 엔진 (127)은 영화 배우가 누구인지에 관한 정보를 입력하도록 질문을 결정할 수 있다.In
단계 408에서, 태스크 결정 엔진 (127)은 질문/ 활동이 결정되면, 결정된 질문/활동을 응답 결정 엔진 (128)으로 전송할 수 있다. In
단계 409에서, 응답 결정 엔진 (128)은 질문에 대한 정확한 응답을 결정하고, 이를 주체 결정 엔진 (126)에 전송할 수 있다.In
단계 410에서, 주체 결정 엔진 (126)은 사용자 스토리, 라이브 챌린지에 대한 난이도 및 컨텍스트 파라미터와 같은 입력에 기초하여, 주체의 특성 (예를 들어, 크기, 형상, 색상 또는 사용자 스토리)을 선택할 수 있다. In step 410, the subject determination engine 126 may select a characteristic of the subject (eg, size, shape, color or user story) based on inputs such as user story, difficulty for the live challenge and context parameters. .
예를 들어, 사용자 스토리로 "창이 표시되고 창에 커튼이 있음"을 보여주는 예제 시나리오를 가정할 수 있다. 현재 사용 환경을 위한 컨텍스트 파라미터는 다음과 같다.For example, suppose you have an example scenario that shows "Your window is displayed and the window has a curtain" as the user story. The context parameters for the current usage environment are as follows:
a. 사용자의 현재 위치 (예 : 다른 주, 다른 국가), a. Your current location (e.g. different states, different countries),
b. 현재 날씨 상태 (예 : 맑음, 비 등), b. Current weather conditions (e.g. sunny, rainy, etc.),
c. 현재 시간 (예 : 낮, 밤 오후 등), c. Current time (e.g. day, night afternoon, etc.),
d. 난이도 값 (예 : 어려움, 쉬움, 중간). d. Difficulty values (e.g. Difficult, Easy, Medium).
사용자가 인도에 있고, 날씨가 맑고, 낮 시간이며, 난이도가 쉬운 경우, 주체 결정 엔진 (126)은 열린 커튼이 보여지는 창을 표시(난이도가 쉬움)할 수 있고, 사용자는 햇볕이 잘 비추므로 커튼을 닫으라는 요청을 받을 수 있다. If the user is in India, the weather is sunny, day time, and easy, the subject determination engine 126 may display a window with open curtains visible (easy difficulty), and the user is well lit You may be asked to close the curtain.
사용자 인증을 위해, 사용자의 행동을 캡쳐하고, 이로부터 라이브 챌린지의 데이터 베이스 및 라이브 챌린지에 대한 해결책을 생성하여 저장하는 백그라운드 서비스가 전자 장치 (100)에서 지속적으로 실행될 수 있다. 라이브 챌린지를 생성하려면 다음 유형의 기능의 활성화가 필요하다.For user authentication, a background service that captures the user's behavior and creates and stores a database of live challenges and solutions for live challenges can be continuously executed in the
a. 메시지 및 메일 a. Messages and mail
b. 위치 b. location
c. 전화 c. telephone
d. 일반 활동 [예 : 일정, 일정, 건강 기록 등] d. General activities [e.g. schedule, schedule, health record, etc.]
e. 사용자 트렌드 [카메라 사용량, 통화 사용량, 잦은 통화, 홈-오피스 루틴] e. User Trends [Camera Usage, Call Usage, Frequent Calls, Home-Office Routines]
도 5는 본 개시의 일 실시예에 따른 전자 장치의 사용자를 인증하는 방법을 설명하기 위한 도면이다. 5 is a diagram for describing a method of authenticating a user of an electronic device, according to an exemplary embodiment.
다음 절차에서는 전자 장치 (100)의 AR 엔진 (130)이 사용자 인증에 관여하는 실시예에 대해 설명하도록 한다. In the following procedure, an embodiment in which the
1) 전자 장치 (100)의 입력 모듈 (101)은 사용자 인증 요청을 수신할 수 있다.
1) The
2) 사용자 인증 요청은 AR 엔진 (130)에 전송될 수 있다.2) The user authentication request may be sent to the
3) 또한, AR 엔진 (130)은 전자 장치 (100)의 카메라 (110)를 동작시킬 수 있다.3) In addition, the
4) 카메라 (110)는 이미지를 전자 장치의 Bixby 비전 (110a)에 전송할 수 있다. 사용자가 사인을 해석하거나, AR 이미지를 구성하기 위해 뷰파인더 내의 시각 아이콘을 탭할 수 있도록, Bixby 비전 (110a)은 카메라 (110) 내부에 구축될 수 있다.4) The
5) 빅스비 (Bixby) 비전 (110a)은 사용자의 시야 내의 객체를 식별하고 식별된 객체를 입력 모듈 (101)에 보낼 수 있다.5)
6) 입력 모듈 (101)은 식별된 객체를 라이브 챌린지 엔진 (120)으로 송신할 수 있다.6) The
7) 라이브 챌린지 엔진 (120)은 사용자 스토리 및 주체를 증강시킴으로써 라이브 AR 챌린지를 생성할 수 있다. 라이브 AR 챌린지는 식별된 객체 및 다른 컨텍스트 파라미터에 기초하여 생성될 수 있다. 또한, 라이브 챌린지 엔진 (120)은 라이브 AR 챌린지를 입력 모듈 (101)에 전송할 수 있다. 또한, 라이브 챌린지 엔진 (120)은 라이브 AR 챌린지의 결과를 인증 엔진 (140)에 전송할 수 있다.7) The live challenge engine 120 may generate a live AR challenge by augmenting the user story and the subject. Live AR challenges may be generated based on the identified objects and other context parameters. In addition, the live challenge engine 120 may send a live AR challenge to the
8) 입력 모듈 (101)은 라이브 AR 챌린지 및 컨텍스트 파라미터를 AR 엔진 (130)에 송신할 수 있다.8) The
9) AR 엔진 (130)은 카메라 (110)를 통해 AR 모드에서 라이브 챌린지를 표시할 수 있다. AR 애니메이터 (131)는 전자 장치 (100)의 디스플레이 (180)의 특정 위치에 라이브 챌린지를 디스플레이 하도록 구성될 수 있다. 또한, AR 엔진 (130)은 사용자 및 전자 장치 (100)의 이동 정보를 획득하기 위해 이동/움직임 검출기 (132)를 동작시킬 수 있다.9)
10) 이동/움직임 검출기 (132)는 이동 정보를 AR 엔진 (130)에 계속적으로 송신할 수 있다.10) The movement / motion detector 132 may continuously transmit movement information to the
11) AR 엔진 (130)은 이동 정보를 입력 모듈 (101)에 전송할 수 있다. 입력 모듈 (101)은 라이브 AR 챌린지가 성공적으로 완료되었는지 여부를 식별할 수 있다.11) The
12) 또한, 입력 모듈 (101)은 인증 결과를 인증 엔진 (140)에 전송할 수 있다. 인증 엔진 (140)은 라이브 AR 챌린지가 성공적으로 완료되었는지 여부를 결정하기 위해 라이브 챌린지 엔진 (120)으로부터 수신한 결과와 입력 모듈 (101)로부터 수신한 결과의 연관성을 판단할 수 있다.12) Also, the
a. 입력 모듈 (101)로부터의 결과와 라이브 챌린지 엔진 (120)으로부터의 결과가 동일하다면, 챌린지는 성공적으로 완료될 수 있다. 따라서, 인증 엔진 (140)은 사용자의 전자 장치 (100)에 대한 액세스를 허용할 수 있다.a. If the results from the
b. 입력 모듈 (101)로부터의 결과와 라이브 챌린지 엔진 (120)으로부터의 결과가 동일하지 않으면, 라이브 챌린지는 성공적으로 완료되지 않을 수 있다. 따라서, 인증 엔진 (140)은 사용자의 전자 장치 (100)에 대한 액세스를 거부할 수 있다. b. If the result from the
도 6은 본 개시의 일 실시예에 따라 사용자를 인증하기 위한 전자 장치의 인증 엔진의 블록도이다. 6 is a block diagram of an authentication engine of an electronic device for authenticating a user according to an embodiment of the present disclosure.
라이브 챌린지 엔진 (120)은 라이브 챌린지를 생성하고 관련 정보를 AR 엔진 (130)에 전달하여 카메라 (110)와 상호적으로 라이브 챌린지를 제공할 수 있다. AR 엔진 (130)은 AR 애니메이터 (131) 및 이동 검출기 (132)를 포함할 수 있다. AR 엔진 (130)은 라이브 챌린지를 언제, 어디서, 어떻게 보여줄 지에 대한 분석을 수행할 수 있다. The live challenge engine 120 may generate a live challenge and deliver relevant information to the
AR 애니메이터 (131)는 라이브 챌린지의 데이터를 분석하고 전자 장치 (100)에서 라이브 챌린지를 표시할 위치를 결정할 수 있다. AR 애니메이터 (131)는 라이브 챌린지에 의해 제공된 파라미터에 기초하여 라이브 챌린지가 표시되는 정확한 위치를 계산할 수 있다. AR 애니메이터 (131)는 계산에 기초하여 결정된 위치에, 디스플레이의 AR 모드에서 라이브 챌린지를 디스플레이 할 수 있다. 또한, AR 엔진 (130)은 이동 검출기 (132)와 상호 작용하여 사용자 입력을 수신하고, 사용자 입력을 인증 엔진 (140)에 전송할 수 있다. 이동/움직임 검출기 (132)는 자이로스코프, 가속도계 등과 같은 센서를 사용하여, 전자 장치 (100)의 이동을 검출하고, 사용자가 올바른 상태 /3D 공간에 있는지 여부를 식별할 수 있다. The AR animator 131 may analyze data of the live challenge and determine a location to display the live challenge in the
다음 절차는 전자 장치 (100)의 사용자를 인증하기 위해 전자 장치 (100)의 AR 엔진 (130)에서 수행될 수 있다. The following procedure may be performed in the
1) AR 애니메이터 (131) 및 카메라 (110)를 가동시킨다.1) Activate the AR animator 131 and the
2) 3D 평면에 대한 기본 좌표와 목적지 좌표를 획득한다.2) Obtain basic coordinates and destination coordinates for the 3D plane.
3) 목적지 및 전자 장치 (100)의 좌표가 일치하지 않을 때까지 전자 장치 (100) 및 사용자의 이동을 관찰한다;3) observe the movement of the
4) 전자 장치 (100)가 제한된 시간 내에 필요한 동작을 수행하지 않으면, AR 애니메이터 (131) 및 카메라 (110)의 실행을 중지(disable)시키고, 인증이 실패한 것으로 설정한다.4) If the
5) 전자 장치 (100)가 목적지 좌표에 있으면,5) If the
a. 라이브 챌린지 엔진 (120)은 설문지 [원 탭 액티비티와 같은] 또는 활동[사용자 움직임 추적과 같은]의 유형을 선택할 수 있다. a. The live challenge engine 120 may select the type of questionnaire (such as one tap activity) or activity (such as user movement tracking).
b. 라이브 챌린지 엔진 (120)은 크기, 타입, 서브 타입, 컬러, 베이스 좌표 등의 객체의 세부 사항과 객체의 수와 같은 이벤트 세부 사항을 수신할 수 있다. 또한, 라이브 챌린지 엔진 (120)은 수신된 이벤트 세부 사항을 AR 엔진 (130)에 보낼 수 있다.
b. The live challenge engine 120 may receive event details, such as the number of objects and details of the object, such as size, type, subtype, color, base coordinates, and the like. The live challenge engine 120 can also send the received event details to the
c. AR 엔진 (130)은 사용자의 액션에 관한 정보를 수신하고, 사용자 액션을 결과 데이터와 비교하여 결과 데이터를 인증 엔진 (140)에 보낼 수 있다.
c. The
인증 엔진 (140)은 요청이 성공적인지 여부를 결정할 수 있다. 구체적으로, 인증 엔진(140)은 라이브 챌린지 엔진 (120)에 의해 전송된 원래 결과와 AR 엔진 (130)에 의해 전송된 데이터에 따른 사용자 행동의 비교에 기초하여 요청이 성공적인지 여부를 결정할 수 있다.
도 7a 내지 도 7d는 본 개시의 실시예에 따라 전자 장치 (100)의 사용자를 인증하는 예시적인 시나리오를 설명하기 위한 도면이다. 본 실시예에서는 사용자가 전자 장치 (100)에 액세스하기를 원하는 상황을 가정하도록 한다. 7A to 7D are diagrams for describing an example scenario for authenticating a user of the
전자 장치 (100)는 사용자로부터 액세스 요청을 수신할 수 있다. 액세스 요청이 수신됨에 따라, 전자 기기 (100)는 자동적으로 카메라 (110)를 구동시켜 카메라 (110)의 시야에 표시된 사용자의 주변에 있는 객체를 포착할 수 있다. 도 7a는 본 개시의 일 실시예에 따른 전자 장치가 사용자 주변의 객체를 포착하여 표시하는 프로세스를 설명하기 위한 도면이다. 사용자가 집에 있는 경우, 도 7a에 도시된 바와 같이, 전자 기기 상에 창문 (200)이 표시될 수 있다. The
또한, 전자 기기 (100)는 검출된 객체 및 사용자의 상황에 기초하여 사용자 스토리를 결정할 수 있다. 도 7b는 본 개시의 일 실시예에 따른 전자 장치가 사용자 주변의 객체를 기초로 스토리를 결정하는 프로세스를 설명하기 위한 도면이다. 스토리는 도 7b에 도시된 바와 같이, 검출된 객체 (창문 (200)과 같은)에 기초하여, 데이터베이스로부터 선택된 거미집 (210a)을 포함할 수 있다. 또한, 다른 실시예에 따라, 전자 기기 (100)는 검출된 객체 및 사용자의 상황에 기초하여 스토리를 결정할 수 있다. In addition, the
또한, 전자 장치 (100)는 사용자의 컨텍스트에 기초하여 선택된 사용자 스토리에 대한 주체를 결정할 수 있다. 도 7c는 본 개시의 일 실시예에 따른 전자 장치가 스토리에 대한 주체를 결정하는 프로세스를 설명하기 위한 도면이다. 주체는 도 7c에 도시된 바와 같이 검출된 객체 (창문 (200)과 같은) 및 스토리에 기초하여 데이터베이스로부터 선택된 거미 (210b)이다. In addition, the
또한, 전자 장치 (100)는 선택된 스토리 및 주체에 기초하여 사용자에 대한 라이브 챌린지를 생성할 수 있다. 구체적으로, 전자 장치(100)는 스토리 및 주체를 기반으로 태스크를 결정할 수 있다. 도 7d는 본 개시의 일 실시예에 따른 전자 장치가 스토리, 주체 및 태스크를 기초로 라이브 챌린지를 생성하는 프로세스를 설명하기 위한 도면이다. 도 7d를 참조하면, 전자 장치(100)는 창문 (200)상에 거미 (210b) 및 거미집 (210a)을 증강시킨 AR 영상을 표시하고, 거미(210b)를 죽이는 것을 태스크로 제시할 수 있다. 사용자는 도 7d에 도시 된 바와 같이, 거미 (210b)를 죽이는 것을 라이브 챌린지로 요청 받을 수 있다. 사용자가 거미 (210b)를 향하여 사용자의 손(300)을 움직이고 거미 (210b)를 죽이기 위해 태핑을 수행하면, 라이브 챌린지가 완료될 수 있다. 전자 장치 (100)는 라이브 챌린지가 완료되었는지 여부를 결정하기 위해 사용자의 움직임을 지속적으로 모니터링할 수 있다. 이에 따라 전자 장치 (100)는 상호적으로 사용자를 식별하고 인증할 수 있다.In addition, the
도 8a는 본 개시의 일 실시예에 따라 전자 장치의 사용자를 인증하는 방법을 설명하기 위한 흐름도의 제 1 부분이다. 또한, 도 8b는 본 개시의 일 실시예에 따라 전자 장치의 사용자를 인증하는 방법을 설명하기 위한 흐름도의 제 2 부분이다.8A is a first portion of a flowchart for describing a method of authenticating a user of an electronic device according to an embodiment of the present disclosure. 8B is a second part of a flowchart illustrating a method of authenticating a user of an electronic device according to an embodiment of the present disclosure.
이하에서는, 도 8a 및 도 8b를 참조하여 일 실시예에 따른 사용자 인증 방법에 대해 구체적으로 설명하도록 한다. Hereinafter, a user authentication method according to an embodiment will be described in detail with reference to FIGS. 8A and 8B.
단계 801에서, 전자 장치(100)는 사용자 인증 요청을 수신할 수 있다. 예를 들어, 전자 장치에 구비된 라이브 챌린지 엔진 (120)이 사용자를 인증하기 위한 요청을 수신할 수 있다.In
단계 802에서, 전자 장치(100)는 AR을 이용하여 인증을 수행할 것인지 여부를 결정할 수 있다. 예를 들어, 라이브 챌린지 엔진 (120)은 AR을 사용하여 인증을 수행하는지를 결정할 수 있다.In
일 실시예에 따른 전자 장치(100)는 AR을 이용하여 인증을 수행할 것인지 여부를 묻는 메시지를 표시하고, 이에 대한 사용자 응답을 기초로 AR을 이용하여 인증을 수행할 것인지 여부를 결정할 수 있다. 다른 실시예에 따라, 전자 장치(100)는 AR 모드로 동작중인 경우, 별도의 질의 없이 AR을 이용하여 인증을 수행하는 것으로 결정할 수 있다. According to an embodiment, the
단계 803에서, 전자 장치(100)는 카메라(110)를 자동적으로 실행할 수 있다. 전자 장치(100)는 AR을 이용하여 인증을 수행하는 것으로 결정됨에 따라, 카메라(100)를 실행할 수 있다. 또한, 전자 장치(100)에 구비된 라이브 챌린지 엔진 (120)에서 해당 동작을 수행할 수 있다. In
단계 804에서, 전자 장치(100)는 카메라의 FoV에 표시된 사용자의 주변 객체를 식별할 수 있다. 예를 들어, 전자 장치(100)에 구비된 객체 인식 엔진 (121)이 사용자의 주위의 객체를 식별할 수 있다. In operation 804, the
단계 805에서, 전자 장치(100)는 사용자 및 전자 장치 (100) 중 적어도 하나와 연관된 복수의 컨텍스트 파라미터를 결정할 수 있다. 예를 들어, 전자 장치(100)에 구비된 컨텍스트 결정 엔진 (122)이 사용자 및 전자 장치 (100) 중 적어도 하나와 연관된 컨텍스트 파라미터를 결정할 수 있다.In
단계 806에서, 전자 장치(100)는 인식된 객체 및 복수의 컨텍스트 파라미터에 기초하여 실시간 스토리를 결정할 수 있다. 예를 들어, 전자 장치(100)에 구비된 실시간 스토리 엔진 (125)이 인식된 객체 및 복수의 컨텍스트 파라미터에 기초하여 실시간 스토리를 결정할 수 있다. In operation 806, the
전자 장치(100)의 데이터베이스에는 객체 및 컨텍스트 파라미터에 대응되는 스토리에 관한 정보가 미리 저장되어 있을 수 있다. 전자 장치(100)는 객체가 인식되고, 현재 상황을 나타내는 복수의 컨텍스트 파라미터가 결정되는 경우, 데이터베이스에 미리 저장된 정보와 이를 비교하여 실시간 스토리를 결정할 수 있다. Information about a story corresponding to an object and a context parameter may be stored in the database of the
단계 807에서, 전자 장치(100)는 실시간 스토리에 기초하여 적어도 하나의 주체를 결정할 수 있다. 예를 들어, 전자 장치(100)에 구비된 주체 결정 엔진 (126)은 실시간 스토리에 기초하여 적어도 하나의 주체를 결정할 수 있다. In operation 807, the
전자 장치(100)의 데이터베이스에는 스토리 별로 설정할 수 있는 적어도 하나의 주체에 관한 정보가 미리 저장될 수 있다. 일 실시예에 따른 전자 장치(100)는 스토리가 결정된 경우, 결정된 스토리, 컨텍스트 파라미터, 인식된 객체 중 적어도 하나에 기초하여 주체를 결정할 수 있다. Information on at least one subject that can be set for each story may be stored in the database of the
단계 808에서, 전자 장치(100)는 적어도 하나의 주체에 적용될 적어도 하나의 태스크를 결정할 수 있다. 예를 들어, 전자 장치(100)에 구비된 태스크 결정 엔진 (127)이 적어도 하나의 주체에 적용될 적어도 하나의 태스크를 결정할 수 있다. In
전자 장치(100)의 데이터베이스에는 스토리 별로 설정할 수 있는 적어도 하나의 태스크에 관한 정보가 미리 저장될 수 있다. 일 실시예에 따른 전자 장치(100)는 스토리, 주체, 컨텍스트 파라미터 및 인식된 객체 중 적어도 하나에 기초하여 태스크를 결정할 수 있다. Information regarding at least one task that can be set for each story may be stored in the database of the
단계 809에서, 전자 장치(100)는 인식된 객체 및 복수의 컨텍스트 파라미터에 기초하여 전자 디바이스 (100)의 사용자에 대한 라이브 AR 챌린지를 생성할 수 있다. 전자 장치(100)는 스토리, 주체, 태스크를 기반으로 라이브 AR 챌린지를 생성할 수 있다. 라이브 AR 챌린지는 사용자로 하여금 수행해야 하는 태스크를 이끌어내도록 할 수 있다. In operation 809, the
예를 들어, 전자 장치(100)에 구비된 라이브 챌린지 엔진 (120)은 인식한 객체 및 복수의 컨텍스트 파라미터에 기초하여 사용자에 대한 라이브 AR 챌린지를 생성할 수 있다.
For example, the live challenge engine 120 included in the
단계 810에서, 전자 장치(100)는 AR 모드에서 디스플레이에 라이브 AR 챌린지를 표시할 수 있다. In
단계 811에서, 전자 장치(100)는 AR 모드에서 사용자에 의해 수행 될 적어도 하나의 태스크를 도출할 수 있다. 예를 들어, 태스크 결정 엔진 (127)은 AR 모드에서 사용자에 의해 수행될 적어도 하나의 태스크를 결정할 수 있다. In
단계 812에서, 전자 장치(100)는 적어도 하나의 태스크가 AR 모드에서 사용자에 의해 성공적으로 수행되는지 여부를 결정할 수 있다. 예를 들어, 전자 장치(100)에 구비된 응답 결정 엔진 (128)은 적어도 하나의 태스크가 AR 모드에서 사용자에 의해 성공적으로 수행되는지를 결정할 수 있다. In
단계 813에서, 전자 장치(100)는 라이브 AR 챌린지가 완료되었는지 여부를 결정할 수 있다. 예를 들어, 라이브 챌린지 엔진 (120)이 라이브 AR 챌린지가 완료되었는지 여부를 결정할 수 있다.In
단계 814에서, 전자 장치(100)는 사용자의 전자 장치에 액세스를 허용할 수 있다. 전자 장치(100)는 사용자가 라이브 AR 챌린지를 완료한 경우, 사용자의 전자 장치에 대한 액세스를 허가할 수 있다. In
단계 815에서, 전자 장치(100)는 사용자의 전자 장치 액세스 허용을 거부할 수 있다. 전자 장치(100)는 사용자가 라이브 AR 챌린지를 완료하지 못한 경우, 사용자의 전자 장치에 대한 액세스하는 것을 거부할 수 있다. In
예를 들어, 인증 엔진(140)은 사용자가 전자 장치 (100)에 액세스하는 것을 거부할 수 있다. For example, the
단계 816에서, 전자 장치(100)는 사용자 및 전자 장치 중 적어도 하나와 연관된 복수의 컨텍스트 파라미터를 결정할 수 있다. 전자 장치(100)는 AR을 이용하여 인증을 수행하지 않는 것으로 결정함에 따라, 사용자 및 전자 장치 중 적어도 하나와 연관된 복수의 컨텍스트 파라미터를 결정할 수 있다. 예를 들어, 컨텍스트 결정 엔진 (122)은 사용자 및 전자 장치 (100) 중 적어도 하나와 연관된 복수의 컨텍스트 파라미터를 결정할 수 있다. In
단계 817에서, 전자 장치(100)는 복수의 컨텍스트 파라미터에 기초하여 실시간 스토리를 결정할 수 있다. 예를 들어, 실시간 스토리 엔진 (125)은 복수의 컨텍스트 파라미터들에 기초하여 실시간 스토리를 결정할 수 있다.In operation 817, the
단계 818에서, 전자 장치(100)는 실시간 스토리에 기초하여 적어도 하나의 주체를 결정할 수 있다. 예를 들어, 주체 결정 엔진 (126)은 실시간 스토리에 기초하여 적어도 하나의 주체를 결정할 수 있다. In
단계 819에서, 전자 장치(100)는 적어도 하나의 주체에 적용될 적어도 하나의 태스크를 결정할 수 있다. 예를 들어, 태스크 결정 엔진 (127)은 적어도 하나의 주체에 적용될 적어도 하나의 태스크를 결정할 수 있다.In
단계 820에서, 전자 장치(100)는 실시간 스토리, 적어도 하나의 주체 및 적어도 하나의 태스크에 기초하여 라이브 챌린지를 생성할 수 있다. 예를 들어, 라이브 챌린지 엔진 (120)은 실시간 스토리, 적어도 하나의 주체 및 적어도 하나의 태스크에 기초하여 전자 장치 (100)의 사용자에 대한 라이브 챌린지를 생성할 수 있다. In operation 820, the
단계 821에서, 전자 장치(100)는 디스플레이 (180) 상에 라이브 챌린지를 디스플레이 할 수 있다. In
단계 822에서, 전자 장치(100)는 사용자에 의해 수행되어야 하는 적어도 하나의 태스크를 도출할 수 있다. 예를 들어, 태스크 결정 엔진 (127)은 사용자에 의해 수행될 적어도 하나의 태스크를 도출할 수 있다.In
단계 823에서, 전자 장치(100)는 적어도 하나의 태스크가 사용자에 의해 성공적으로 수행되는지 여부를 결정할 수 있다. 예를 들어, 응답 결정 엔진 (128)은 적어도 하나의 태스크가 사용자에 의해 성공적으로 수행되었는지 여부를 결정할 수 있다. In
전술한 흐름도 (800)에서의 다양한 동작, 동작, 블록, 단계 등은 다른 순서 또는 동시에 수행될 수 있다. 또한, 일부 실시 예에서, 본 개시의 범위를 벗어나지 않으면 서, 동작, 동작, 블록, 단계 등의 일부는 생략되거나, 추가되거나, 수정될 수 있다.Various operations, operations, blocks, steps, etc. in the aforementioned flowchart 800 may be performed in a different order or simultaneously. In addition, in some embodiments, some of the operations, operations, blocks, steps, and the like may be omitted, added, or modified without departing from the scope of the present disclosure.
도 9는 본 개시의 일 실시예에 따른 전자 장치가 날씨 정보를 기초로 생성된 라이브 챌린지를 이용하여 사용자를 인증하는 방법을 설명하기 위한 도면이다. FIG. 9 is a diagram for describing a method of authenticating a user using a live challenge generated based on weather information, according to an embodiment of the present disclosure.
전자 장치(100)는 사용자로부터 사용자 인증 요청을 수신할 수 있다. 본 실시예에서는, 전자 장치(100)의 사용자 인증이 AR 모드에서 수행되는 것으로 가정한다. The
도 9를 참조하면, 전자 장치(100)는 사용자 인증 요청이 수신됨에 따라, 자동적으로 카메라 실행시킬 수 있다. 이에 따라, 카메라의 시야 (FoV)에 사용자의 주위의 객체가 포착될 수 있다. 예를 들어, 카메라 (110)의 시야에 차량(910)이 포착될 수 있다. Referring to FIG. 9, when the user authentication request is received, the
한편, 전자 장치(100)는 컨텍스트 파라미터를 기초로 현재 날씨가 흐리다는 것을 결정할 수 있다. 전자 장치(100)는 포착된 객체 및 컨텍스트 파라미터를 기초로 주체 및 태스크를 차량의 와이퍼(930) 및 차량의 와이퍼(930)로 빗방울 제거하기로 결정할 수 있다. 이에 따라, 전자 장치(100)는 카메라의 FoV에 포착된 차량(910)의 실세계 영상에 차량의 와이퍼(930) 및 빗방울(920)의 AR 영상을 중첩시킬 수 있다. 또한, 전자 장치(100)는 실세계 영상과 AR 영상이 중첩된 영상과 함께 와이퍼(930)를 터치하여 빗방울(920)을 제거할 것을 유도하는 질문 또는 멘트를 출력함으로써 라이브 AR 챌린지를 제공할 수 있다. Meanwhile, the
사용자가 손(300)으로 와이퍼(930)를 터치하여 빗방울(920)을 제거하는 라이브 챌린지를 완료함에 따라, 사용자의 전자 장치(100)에 대한 액세스가 허용될 수 있다. As the user completes the live challenge of removing the
도 10은 본 개시의 일 실시예에 따라 인식된 객체를 기초로 생성된 라이브 챌린지를 이용하여 사용자를 인증하는 방법을 설명하기 위한 도면이다. FIG. 10 is a diagram for describing a method of authenticating a user using a live challenge generated based on a recognized object according to one embodiment of the present disclosure.
전자 장치(100)는 사용자로부터 사용자 인증 요청을 수신할 수 있다. 본 실시예에서는, 전자 장치(100)의 사용자 인증이 AR 모드에서 수행되는 것으로 가정한다. The
도 10을 참조하면, 전자 장치(100)는 사용자 인증 요청이 수신됨에 따라, 자동적으로 카메라를 실행시킬 수 있다. 이에 따라, 카메라의 시야 (FoV)에 사용자의 주위의 객체가 포착될 수 있다. 예를 들어, 카메라의 시야에 풍선 (1010)이 포착될 수 있다. Referring to FIG. 10, when a user authentication request is received, the
전자 장치(100)는 포착된 객체를 기초로 라이브 챌린지를 생성할 수 있다. 예를 들어, 전자 장치(100)는 라이브 챌린지를 구성하는 주체로, 나침반(1020)을 선택할 수 있다. 또한, 전자 장치(100)는 라이브 챌린지를 구성하는 태스크를 나침반(1020)을 이용하여 풍선(1010)의 방향을 가리키기로 결정할 수 있다. 또한, 사용자는 나침반(1020)이 바늘이 풍선(1010)을 가리키도록 나침반(1020)을 회전시키는 라이브 AR 챌린지를 완료하도록 요청 받을 수 있다. 사용자는 손(300)으로 나침반(1020)의 바늘을 풍선(1010)의 방향으로 회전시킴으로써 전자 장치(100)에 액세스 할 수 있다. The
도 11은 본 개시의 일 실시예에 따라 인식된 객체를 기초로 생성된 라이브 챌린지를 이용하여 사용자를 인증하는 방법을 설명하기 위한 도면이다. FIG. 11 is a diagram for describing a method of authenticating a user by using a live challenge generated based on a recognized object according to one embodiment of the present disclosure.
전자 장치(100)는 사용자로부터 사용자 인증 요청을 수신할 수 있다. 본 실시예에서는, 전자 장치(100)의 사용자 인증이 AR 모드에서 수행되는 것으로 가정한다. The
도 11을 참조하면, 전자 장치(100)는 사용자 인증 요청이 수신됨에 따라, 자동적으로 카메라를 실행시킬 수 있다. 이에 따라, 카메라의 시야 (FoV)에 사용자의 주위의 객체가 포착될 수 있다. 예를 들어, 카메라의 시야에 모자 (1120)가 포착될 수 있다. Referring to FIG. 11, when the user authentication request is received, the
전자 장치(100)는 포착된 객체를 기초로 라이브 챌린지를 생성할 수 있다. 예를 들어, 전자 장치(100)는 라이브 챌린지를 구성하는 주체로, 카우보이 (1110)를 선택할 수 있다. 또한, 전자 장치(100)는 라이브 챌린지를 구성하는 태스크를 카우보이(1110)에 모자를 씌우기로 결정할 수 있다. 이에 따라, 전자 장치(100)는 카메라의 FoV에 포착된 모자(1120)의 실세계 영상에 카우보이 (1110)의 AR 영상을 중첩시킴으로써 라이브 챌린지를 생성할 수 있다. The
또한, 전자 장치(100)는 실세계 영상과 AR 영상이 중첩된 영상과 함께, 카우보이(1110)의 머리에 사용자가 모자(1120)를 이동시키도록 유도하는 질문 또는 멘트를 출력함으로써 라이브 AR 챌린지를 제공할 수 있다. 또한, 사용자는 손(300)으로 모자(1120)을 드래그하여 카우보이(1110)의 얼굴에 위치시키도록 요청받을 수 있다.In addition, the
도 12는 본 개시의 일 실시예에 따라 인식된 객체를 기초로 생성된 라이브 챌린지를 이용하여 사용자를 인증하는 방법을 설명하기 위한 도면이다. FIG. 12 is a diagram for describing a method of authenticating a user using a live challenge generated based on a recognized object according to one embodiment of the present disclosure.
전자 장치(100)는 사용자로부터 사용자 인증 요청을 수신할 수 있다. 본 실시예에서는, 전자 장치(100)의 사용자 인증이 AR 모드에서 수행되는 것으로 가정한다. The
도 12을 참조하면, 전자 장치(100)는 사용자 인증 요청이 수신됨에 따라, 자동적으로 카메라를 실행시킬 수 있다. 이에 따라, 카메라의 시야 (FoV)에 사용자의 주위의 객체가 포착될 수 있다. 예를 들어, 카메라의 시야에 카우보이 (1210)가 포착될 수 있다. Referring to FIG. 12, when the user authentication request is received, the
전자 장치(100)는 포착된 객체를 기초로 라이브 챌린지를 생성할 수 있다. 예를 들어, 전자 장치(100)는 라이브 챌린지를 구성하는 주체로, 객체인 카우보이를 선택하고, 라이브 챌린지를 구성하는 태스크를 카우보이(1210)에 콧수염(1220) 붙이기로 결정할 수 있다. 이에 따라, 전자 장치(100)는 카메라의 FoV에 포착된 카우보이(1220)의 실세계 영상에 콧수염 (1220)의 AR 영상을 중첩시킴으로써 라이브 챌린지를 생성할 수 있다. 또한, 사용자는 손(300)으로 콧수염(1220)을 드래그하여 카우보이(1210)의 얼굴에 위치시키도록 요청받을 수 있다. The
도 13은 본 개시의 일 실시예에 따라 인식된 객체를 기초로 생성된 라이브 챌린지를 이용하여 사용자를 인증하는 방법을 설명하기 위한 도면이다. FIG. 13 is a diagram for describing a method of authenticating a user by using a live challenge generated based on a recognized object according to one embodiment of the present disclosure.
전자 장치(100)는 사용자로부터 사용자 인증 요청을 수신할 수 있다. The
도 13을 참조하면, 전자 장치(100)는 사용자 인증 요청이 수신됨에 따라, 자동적으로 카메라를 실행시킬 수 있다. 이에 따라, 카메라의 시야 (FoV)에 사용자의 주위의 객체가 포착될 수 있다. Referring to FIG. 13, when the user authentication request is received, the
전자 장치(100)는 포착된 객체를 기초로 라이브 챌린지를 생성할 수 있다. 예를 들어, 전자 장치(100)는 라이브 챌린지를 구성하는 주체로, 카메라에 포착된 서로 다른 색상의 풍선(1310)을 선택하고, 라이브 챌린지를 구성하는 태스크를 서로 다른 색상의 풍선(1310) 중 홀수개인 특정 색상의 풍선을 선택하기로 결정할 수 있다. 이에 따라, 전자 장치(100)는 카메라의 시야에 포착된 서로 다른 색상의 풍선 (1310) 중 홀수개인 특정 색상의 풍선을 선택하는 것을 유도하는 멘트 또는 질문을 출력할 수 있다. The
사용자가 손(300)으로 홀수개인 특정 색상의 풍선을 선택하여 라이브 챌린지를 완료하는 경우, 전자 장치(100)에의 액세스가 허용될 수 있다. When the user completes the live challenge by selecting a balloon having an odd number of colors by
도 14는 본 개시의 일 실시예에 따라 인식된 객체를 기초로 생성된 라이브 챌린지를 이용하여 사용자를 인증하는 방법을 설명하기 위한 도면이다. FIG. 14 is a diagram for describing a method of authenticating a user by using a live challenge generated based on a recognized object according to one embodiment of the present disclosure.
전자 장치(100)는 사용자로부터 사용자 인증 요청을 수신할 수 있다. 도 14를 참조하면, 전자 장치(100)는 사용자 인증 요청이 수신됨에 따라, 자동적으로 카메라를 실행시킬 수 있다. 이에 따라, 카메라의 시야 (FoV)에 사용자의 주위의 객체가 포착될 수 있다. 예를 들어, 카메라의 시야에 오두막 (1410)이 포착될 수 있다. The
전자 장치(100)는 오두막(1410)이 포착됨에 따라, 라이브 챌린지를 오두막(1410)의 문을 두드리는 것으로 결정할 수 있다. 전자 장치(100)는 카메라의 시야에 포착된 오두막(1410)의 문을 두드리는 것을 유도하는 멘트 또는 질문을 출력할 수 있다. As the
사용자가 손(300)으로 오두막(1410)의 문을 두드리는 라이브 챌린지를 완료하는 경우, 전자 장치(100)에의 액세스가 허용될 수 있다. When the user completes the live challenge of knocking on the door of the
도 15는 본 개시의 일 실시예에 따라 컨텍스트 파라미터를 기초로 생성된 라이브 챌린지를 이용하여 사용자를 인증하는 방법을 설명하기 위한 도면이다. FIG. 15 illustrates a method of authenticating a user using a live challenge generated based on a context parameter according to an embodiment of the present disclosure.
전자 장치(100)는 사용자로부터 사용자 인증 요청을 수신할 수 있다. 전자 장치(100)는 사용자 인증 요청이 수신됨에 따라, 사용자와 연관된 패스워드 2-3글자를 입력하도록 문자 입력판을 제공할 수 있다. 여기에서, 사용자와 연관된 패스워드는 컨텍스트 파라미터를 기초로 결정되는 것으로, 사용자 또는 전자 장치의 상황을 나타내는 단어일 수 있다. The
한편, 각 글자에 대해, 첫번째 문자는 굵은 글씨로 입력되고, 두번째 문자는 이탈릭체로 입력되며, 세번째 문자는 소문자로 입력될 수 있도록 문자 입력판이 디스플레이 상에 표시될 수 있다. 다만, 이는 일 예일 뿐, 보다 복잡한 라이브 챌린지를 생성하기 위해 문자의 조합이 뒤섞인 문자 입력판이 제공될 수도 있다. 또한, 다른 예에 따라, 문자의 크기, 색상 등이 다르게 설정될 수도 있다. On the other hand, for each character, the first character is input in bold letters, the second character is input in italics, the third character may be displayed on the display so that the third character can be entered in lowercase. However, this is merely an example, and a character input panel may be provided in which a combination of characters is mixed to generate a more complicated live challenge. In addition, according to another example, the size, color, etc. of the character may be set differently.
사용자는 손(300)으로 각 문자 입력판에서 특정 글자를 터치함으로써, 라이브 챌린지를 수행할 수 있다. 라이브 챌린지가 성공적으로 수행되는 경우 사용자는 전자 장치(100)에 액세스 할 수 있다. The user may perform a live challenge by touching a specific letter in each letter input panel with the
도 16은 본 개시의 일 실시예에 따라 컨텍스트 파라미터를 기초로 생성된 라이브 챌린지를 이용하여 사용자를 인증하는 방법을 설명하기 위한 도면이다. FIG. 16 illustrates a method of authenticating a user using a live challenge generated based on a context parameter according to an embodiment of the present disclosure.
전자 장치(100)는 사용자로부터 사용자 인증 요청을 수신할 수 있다. 전자 장치(100)는 사용자 인증 요청이 수신됨에 따라, 컨텍스트 파라미터를 기초로 라이브 챌린지를 구성하는 주체 및 태스크를 결정할 수 있다. 도 16을 참조하면, 전자 장치(100)에는 사용자가 최근 전자 장치(100)를 통해 New delhi로의 여행을 위한 비행기 표를 예약했다는 컨텍스트 정보가 저장되어 있을 수 있다. 이를 기초로, 전자 장치(100)는 비행기가 달력에서 여행 일자 위에 위치하도록 비행기를 이동시키는 라이브 챌린지를 생성할 수 있다. The
이에 따라, 전자 장치(100)는 디스플레이 상에 비행기 이미지, 달력 이미지 및 비행기를 달력에서 여행 일자 위에 위치시킬 것을 유도하는 질문 또는 멘트를 표시할 수 있다. 사용자는 손(300)으로 비행기를 드래그하여 여행 일자에 대응되는 날짜 위에 위치시킴으로써, 전자 장치(100)에 액세스 할 수 있다. Accordingly, the
도 17은 본 개시의 일 실시예에 따라 컨텍스트 파라미터를 기초로 생성된 라이브 챌린지를 이용하여 사용자를 인증하는 방법을 설명하기 위한 도면이다. FIG. 17 illustrates a method for authenticating a user using a live challenge generated based on a context parameter according to an embodiment of the present disclosure.
전자 장치(100)는 사용자로부터 사용자 인증 요청을 수신할 수 있다. 전자 장치(100)는 사용자 인증 요청이 수신됨에 따라, 컨텍스트 파라미터를 기초로 라이브 챌린지를 구성하는 주체 및 태스크를 결정할 수 있다. 도 17을 참조하면, 전자 장치(100)에는 사용자의 통화 기록이 저장되어 있을 수 있다. 전자 장치(100)는 이를 기초로, 사용자가 어제 통화를 가장 많이 한 사람이 누구인지를 선택하는 라이브 챌린지를 생성할 수 있다. The
이에 따라, 전자 장치(100)는 디스플레이 상에 전화 아이콘, 사용자가 어제 통화한 사람들의 정보 및 어제 통화를 가장 많이 한 사람이 누구인지를 선택할 것을 유도하는 질문 또는 멘트를 표시할 수 있다. 사용자는 손(300)으로 전화 아이콘을 드래그하여 어제 통화를 가장 많이 한 사람의 이미지 상에 위치시킴으로써, 전자 장치(100)에 액세스 할 수 있다. Accordingly, the
도 18은 본 개시의 일 실시예에 따라 컨텍스트 파라미터를 기초로 생성된 라이브 챌린지를 이용하여 사용자를 인증하는 방법을 설명하기 위한 도면이다. FIG. 18 is a diagram for describing a method of authenticating a user using a live challenge generated based on a context parameter according to an embodiment of the present disclosure.
전자 장치(100)는 사용자로부터 사용자 인증 요청을 수신할 수 있다. 전자 장치(100)는 사용자 인증 요청이 수신됨에 따라, 컨텍스트 파라미터를 기초로 라이브 챌린지를 구성하는 주체 및 태스크를 결정할 수 있다. 도 18을 참조하면, 전자 장치(100)에는 사용자의 지출 내역이 저장되어 있을 수 있다. 전자 장치(100)는 이를 기초로, 사용자가 식료품 가게에서 제일 많이 지불한 금액이 얼마인지를 선택하는 라이브 챌린지를 생성할 수 있다. The
이에 따라, 전자 장치(100)는 디스플레이 상에 돈 이미지 및 지갑 이미지를 표시하고, 사용자가 식료품 구입을 위해 지불한 금액이 얼마인지를 선택할 것을 유도하는 질문 또는 멘트를 표시할 수 있다. 사용자는 손(300)으로 돈 이미지를 지갑으로 드래그하는 동작을, 사용자가 지불한 금액을 나타낼까지 반복적으로 수행할 수 있다. 사용자가 라이브 챌린지를 완료한 경우, 사용자는 전자 장치(100)에 액세스 할 수 있다. Accordingly, the
도 19는 본 개시의 일 실시예에 따라 컨텍스트 파라미터를 기초로 생성된 라이브 챌린지를 이용하여 사용자를 인증하는 방법을 설명하기 위한 도면이다. FIG. 19 illustrates a method for authenticating a user using a live challenge generated based on a context parameter according to an embodiment of the present disclosure.
전자 장치(100)는 사용자로부터 사용자 인증 요청을 수신할 수 있다. 전자 장치(100)는 사용자 인증 요청이 수신됨에 따라, 컨텍스트 파라미터를 기초로 라이브 챌린지를 구성하는 주체 및 태스크를 결정할 수 있다. 도 19를 참조하면, 전자 장치(100)에는 사용자의 통화 기록, 메신저 기록, 스케쥴 정보, 사진 등이 저장되어 있을 수 있다. 전자 장치(100)는 이를 기초로, 사용자가 지난 달 오늘 날짜에 어디에서 누구를 만났는지를 선택하는 라이브 챌린지를 생성할 수 있다. The
이에 따라, 전자 장치(100)는 디스플레이 상에 사용자가 실제 지난 달 오늘 날짜에 갔었던 장소의 이미지 및 이외의 다른 장소의 이미지를 포함한 복수의 장소 이미지를 표시할 수 있다. 또한, 전자 장치(100)는 사용자가 지난 달 오늘 날짜에 만났었던 사람에 관한 정보를 입력함에 따라, 이에 대한 이미지를 생성하고, 이를 특정 장소에 이동시키도록 유도하는 멘트 또는 질문을 표시할 수 있다. 사용자는 손(300)으로 지난 달 오늘 날짜에 만났었던 사람의 이미지를 특정 장소의 이미지 상에 드래그함으로써, 라이브 챌린지를 완료할 수 있다. 사용자가 라이브 챌린지를 완료한 경우, 사용자는 전자 장치(100)에 액세스 할 수 있다. Accordingly, the
도 20은 일 실시예에 따른 전자 장치가 사용자 인증을 수행하는 방법을 설명하기 위한 도면이다. 20 is a diagram for describing a method of performing user authentication by an electronic device according to an exemplary embodiment.
단계 S2010에서, 전자 장치는 전자 장치에서 실행되는 적어도 하나의 애플리케이션으로의 액세스를 위한 사용자 인증 요청을 수신할 수 있다. 예를 들어, 전자 장치가 잠금 상태인 경우, 사용자로부터 터치 입력이 수신됨에 따라, 전자 장치는 전자 장치의 홈 화면으로의 액세스를 위한 사용자 인증 요청이 수신된 것으로 결정할 수 있다. 다만, 이는 일 예일 뿐, 사용자 인증 요청을 수신하는 방식이 전술한 예에 한정되는 것은 아니다. In operation S2010, the electronic device may receive a user authentication request for access to at least one application executed in the electronic device. For example, when the electronic device is in a locked state, as a touch input is received from the user, the electronic device may determine that a user authentication request for access to the home screen of the electronic device has been received. However, this is merely an example, and a manner of receiving a user authentication request is not limited to the above-described example.
단계 S2020에서, 전자 장치는 전자 장치 및 사용자 중 적어도 하나와 연관된 컨텍스트 파라미터를 기초로 인증을 위한 라이브 챌린지를 구성하는 주체 및 태스크를 결정할 수 있다. In operation S2020, the electronic device may determine a subject and a task constituting a live challenge for authentication based on a context parameter associated with at least one of the electronic device and the user.
일 실시예에 따른 전자 장치는 컨텍스트 파라미터를 기초로 전자 장치 또는 사용자의 상황을 결정할 수 있다. 전자 장치는 상호적인 방식의 사용자 인증을 위해, 결정된 상황에 기초하여 라이브 챌린지를 구성하는 주체 및 태스크를 결정할 수 있다. 여기에서, 주체는 특정 태스크를 수행하는 대상으로서, 인물, 사물, 동물 등이 모두 가능할 수 있다.According to an embodiment, the electronic device may determine a situation of the electronic device or the user based on the context parameter. The electronic device may determine a subject and a task constituting the live challenge based on the determined situation for the mutual authentication of the user. Here, the subject may be a person, an object, an animal, or the like as a target that performs a specific task.
한편, 다른 실시예에 따라 전자 장치는 카메라의 FoV 상에 감지된 객체를 식별하고, 식별된 객체를 기초로 라이브 챌린지를 구성하는 주체 및 태스크를 결정할 수 있다. 이는 도 9 내지 도 14를 참조하여 설명한 라이브 챌린지를 생성하는 방법과 대응될 수 있다. Meanwhile, according to another exemplary embodiment, the electronic device may identify an object detected on the FoV of the camera and determine a subject and a task constituting the live challenge based on the identified object. This may correspond to the method of generating the live challenge described with reference to FIGS. 9 to 14.
단계 S2030에서, 전자 장치는 결정에 기초하여 생성된 라이브 챌린지를 제공할 수 있다.In operation S2030, the electronic device may provide a live challenge generated based on the determination.
일 실시예에 따른 전자 장치는 라이브 챌린지를 구성하는 주체 및 태스크에 관한 영상 및 태스크를 수행하도록 유도하는 멘트 또는 질문을 디바이스에 출력할 수 있다.According to an embodiment of the present disclosure, the electronic device may output an image or a question related to a subject and a task constituting the live challenge and a question or a question to induce a task to the device.
단계 S2040에서, 전자 장치는 제공된 라이브 챌린지의 수행 여부에 기초하여 적어도 하나의 애플리케이션으로의 액세스 여부를 결정할 수 있다. In operation S2040, the electronic device may determine whether to access at least one application based on whether the provided live challenge is performed.
일 실시예에 따른 전자 장치는 라이브 챌린지에 대응되는 사용자의 동작이 기 설정된 시간 내에 식별되지 않는 경우, 적어도 하나의 애플리케이션에 대한 액세스를 거부(deny)할 수 있다. 전자 장치는 라이브 챌린지에 대응되는 사용자의 동작이 기 설정된 시간 내에 식별되는 경우에는, 적어도 하나의 애플리케이션에 대한 액세스를 허용할 수 있다. According to an embodiment of the present disclosure, when an operation of a user corresponding to a live challenge is not identified within a preset time, the electronic device may deny access to at least one application. If the user's action corresponding to the live challenge is identified within a preset time, the electronic device may allow access to at least one application.
도 21은 일 실시예에 따라 사용자 인증을 수행하는 전자 장치의 블록도이다. 21 is a block diagram of an electronic device that performs user authentication, according to an embodiment.
도 21에 도시된 바와 같이, 일 실시예에 따른 전자 장치(2100)는 입출력부(2110), 프로세서(2120) 및 메모리(2130)를 포함할 수 있다. 그러나 도시된 구성요소 모두가 필수구성요소인 것은 아니다. 도시된 구성요소보다 많은 구성요소에 의해 전자 장치(2100)가 구현될 수도 있고, 그보다 적은 구성요소에 의해서도 전자 장치(2100)는 구현될 수 있다. 예를 들어, 전자 장치(2100)는 복수의 프로세서를 포함할 수 있고, 카메라 및 적어도 하나의 센서를 포함할 수도 있다. As illustrated in FIG. 21, an
이하 상기 구성요소들에 대해 차례로 살펴본다.Hereinafter, the components will be described in turn.
입출력부(2110)는, 사용자 입력을 수신하거나, 오디오 신호 또는 이미지 신호의 출력을 위한 것으로, 이에는 디스플레이부와 음향 출력부 등이 포함될 수 있다. 다만, 이는 일 예일 뿐, 입출력부(2110)의 구성 요소가 전술한 예에 한정되는 것은 아니다. The input /
일 실시예에 따른 입출력부(2110)는 사용자 인증 요청을 수신할 수 있다. 입출력부(2110)는 사용자 인증 요청이 수신됨에 따라, 컨텍스트 파라미터를 기초로 생성된 라이브 챌린지를 출력할 수 있다. 또한, 입출력부(2110)는 라이브 챌린지가 제공됨에 따라, 사용자가 라이브 챌린지 수행을 위해 입력하는 정보들을 수신할 수도 있다. The input /
프로세서(2120)는, 통상적으로 전자 장치(2100)의 전반적인 동작을 제어한다. 예를 들어, 프로세서(2120)는, 메모리(2130)에 저장된 프로그램들을 실행함으로써, 전술한 사용자 인증 방법의 동작을 수행할 수 있다. The
프로세서(2120)는 전자 장치에서 실행되는 적어도 하나의 애플리케이션으로의 액세스를 위한 사용자 인증 요청을 수신하도록 입출력부(2110)를 제어할 수 있다. 또한, 프로세서(2120)는 전자 장치 및 사용자 중 적어도 하나와 연관된 컨텍스트 파라미터를 기초로 인증을 위한 라이브 챌린지를 구성하는 주체 및 태스크를 결정할 수 있다. 프로세서(2120)는 결정에 기초하여 생성된 라이브 챌린지를 입출력부(2110)를 통해 제공할 수 있다. 또한, 프로세서(2120)는 제공된 라이브 챌린지의 수행 여부에 기초하여 적어도 하나의 애플리케이션으로의 액세스 여부를 결정할 수 있다. The
일 실시예에 따른 프로세서(2120)는 카메라(미도시)의 FoV(field of view)에 표시된 객체를 식별할 수 있다. 프로세서(2120)는 식별된 객체 및 컨텍스트 파라미터를 기초로 주체 및 태스크를 결정할 수 있다. 또한, 프로세서(2120)는 결정된 태스크를 유도하는 질문을 입출력부를 통해 표시할 수 있다. The
일 실시예에 따른 프로세서(2120)는 전자 장치(2100)에 AR (augmented reality) 모드가 설정됨에 따라, 주체 및 태스크로 구성된 라이브 챌린지의 AR 영상을 식별된 객체에 중첩하여 출력할 수 있다. As the augmented reality (AR) mode is set in the
일 실시예에 따른 프로세서(2120)는 센서(미도시)를 통해 식별된 전자 장치 또는 사용자의 이동 (movement)을 기초로 객체 식별 이후의 전자 장치 또는 사용자의 이동 정보를 결정할 수 있다. 프로세서(2120)는 결정된 이동 정보에 기초하여, AR 영상이 출력되는 위치를 조정할 수 있다. According to an embodiment, the
일 실시예에 따른 프로세서(2120)는 센서(미도시)를 통해 전자 장치의 위치를 식별할 수 있다. 프로세서(2120)는 센서(미도시)를 통해 식별된 전자 장치의 위치에 기초하여 자 장치의 주변에 존재하는 객체를 결정할 수 있다. 프로세서(2120)는 결정된 객체 및 컨텍스트 파라미터를 기초로 주체 및 태스크를 결정할 수 있다. The
일 실시예에 따른 프로세서(2120)는 라이브 챌린지에 대응되는 사용자의 동작이 기 설정된 시간 내에 식별되지 않음에 따라, 적어도 하나의 애플리케이션에 대한 액세스를 거부(deny)할 수 있다. 또한, 프로세서(2120)는 라이브 챌린지에 대응되는 사용자의 동작이 기 설정된 시간 내에 식별됨에 따라, 적어도 하나의 애플리케이션에 대한 액세스를 허용할 수 있다. According to an embodiment of the present disclosure, the
일 실시예에 따른 프로세서(2120)는 컨텍스트 파라미터를 기초로, 기 설정된 학습 네트워크 모델을 이용하여, 주체 및 태스크를 결정할 수 있다. The
메모리(2130)는, 프로세서(2120)에서의 처리 및 제어를 위한 프로그램을 저장할 수도 있고, 입/출력되는 데이터들(예를 들어, 라이브 챌린지, 컨텍스트 파라미터)을 저장할 수도 있다. The
메모리(2130)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 또한, 전자 장치(2100)는 인터넷(internet)상에서 메모리(2130)의 저장 기능을 수행하는 웹 스토리지(web storage) 또는 클라우드 서버를 운영할 수도 있다.The
본 개시에 따른 실시예는 적어도 하나의 하드웨어 장치상에서 실행되는 적어도 하나의 소프트웨어 프로그램을 통해 구현될 수 있다. 도 1 내지 도 21에 도시된 구성 요소 또는 실시예는 하드웨어 장치 또는 하드웨어 장치와 소프트웨어 모듈의 조합 중 적어도 하나 일 수 있는 블록을 포함할 수 있다.Embodiments according to the present disclosure may be implemented through at least one software program executed on at least one hardware device. The components or embodiments illustrated in FIGS. 1 through 21 may include a block that may be at least one of a hardware device or a combination of hardware device and software module.
본 개시에서 사용된 표현 또는 용어는 설명을 위한 것이지 제한을 위한 것이 아님을 이해해야 한다. 따라서, 본 개시의 실시예는 바람직한 실시예와 관련하여 설명되었지만, 본 개시의 실시예는 본 개시에 따른 기술적 사상의 범위 내에서 변형하여 실시될 수 있다. It is to be understood that the phraseology or terminology used herein is for the purpose of description and not of limitation. Therefore, although the embodiments of the present disclosure have been described in connection with the preferred embodiments, the embodiments of the present disclosure may be modified and implemented within the scope of the technical idea according to the present disclosure.
본 개시의 일 실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. Method according to an embodiment of the present disclosure may be implemented in the form of program instructions that can be executed by various computer means may be recorded on a computer readable medium. Computer-readable media may include, alone or in combination with the program instructions, data files, data structures, and the like. The program instructions recorded on the media may be those specially designed and constructed for the present invention, or they may be of the kind well-known and available to those having skill in the computer software arts. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical media such as CD-ROMs, DVDs, and magnetic disks such as floppy disks. Magneto-optical media, and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like.
실시 예에 따른 장치는 프로세서, 프로그램 데이터를 저장하고 실행하는 메모리, 디스크 드라이브와 같은 영구 저장부(permanent storage), 외부 장치와 통신하는 통신 포트, 터치 패널, 키(key), 버튼 등과 같은 사용자 인터페이스 장치 등을 포함할 수 있다. 소프트웨어 모듈 또는 알고리즘으로 구현되는 방법들은 상기 프로세서상에서 실행 가능한 컴퓨터가 읽을 수 있는 코드들 또는 프로그램 명령들로서 컴퓨터가 읽을 수 있는 기록 매체 상에 저장될 수 있다. 여기서 컴퓨터가 읽을 수 있는 기록 매체로 마그네틱 저장 매체(예컨대, ROM(read-only memory), RAM(random-access memory), 플로피 디스크, 하드 디스크 등) 및 광학적 판독 매체(예컨대, 시디롬(CD-ROM), 디브이디(DVD: Digital Versatile Disc)) 등이 있다. 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템들에 분산되어, 분산 방식으로 컴퓨터가 판독 가능한 코드가 저장되고 실행될 수 있다. 매체는 컴퓨터에 의해 판독가능하며, 메모리에 저장되고, 프로세서에서 실행될 수 있다. According to an embodiment, a device may include a processor, a memory for storing and executing program data, a persistent storage such as a disk drive, a communication port for communicating with an external device, a touch panel, a key, a user interface such as a button, and the like. Device and the like. Methods implemented by software modules or algorithms may be stored on a computer readable recording medium as computer readable codes or program instructions executable on the processor. The computer-readable recording medium may be a magnetic storage medium (eg, read-only memory (ROM), random-access memory (RAM), floppy disk, hard disk, etc.) and an optical reading medium (eg, CD-ROM). ) And DVD (Digital Versatile Disc). The computer readable recording medium can be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion. The medium is readable by the computer, stored in the memory, and can be executed by the processor.
본 개시에서, 용어 "컴퓨터 프로그램 제품" 또는 "컴퓨터로 읽을 수 있는 기록매체"는 메모리, 하드 디스크 라이브에 설치된 하드 디스크, 및 신호 등의 매체를 전체적으로 지칭하기 위해 사용된다. 이들 "컴퓨터 프로그램 제품" 또는 "컴퓨터로 읽을 수 있는 기록매체"는 본 개시에 따른 라이브 챌린지 제공을 통한 사용자 인증 동작을 수행하는 명령어로 구성된 소프트웨어를 컴퓨터 시스템에 제공하는 수단이다. In the present disclosure, the term "computer program product" or "computer-readable recording medium" is used to refer to media such as a memory, a hard disk installed in a hard disk live, and a signal. These "computer program products" or "computer-readable recording media" are means for providing a computer system with software consisting of instructions for performing a user authentication operation by providing a live challenge according to the present disclosure.
도면에 도시된 실시 예들에서 참조 부호를 기재하였으며, 실시 예들을 설명하기 위하여 특정 용어들을 사용하였으나, 특정 용어에 의해 본 발명이 한정되는 것은 아니며, 실시 예는 당업자에 있어서 통상적으로 생각할 수 있는 모든 구성 요소들을 포함할 수 있다. In the embodiments illustrated in the drawings, reference numerals have been used, and specific terms have been used to describe the embodiments, but the present invention is not limited to the specific terms, and the embodiments are all contemplated by those skilled in the art. It may contain elements.
실시 예는 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들은 특정 기능들을 실행하는 다양한 개수의 하드웨어 또는/및 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 실시 예는 하나 이상의 마이크로프로세서들의 제어 또는 다른 제어 장치들에 의해서 다양한 기능들을 실행할 수 있는, 메모리, 프로세싱, 로직(logic), 룩 업 테이블(look-up table) 등과 같은 직접 회로 구성들을 채용할 수 있다. 또한, 실시예는 동종의 또는 서로 다른 종류의 코어들, 서로 다른 종류의 CPU들을 채용할 수도 있다. 본 발명에의 구성 요소들이 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있는 것과 유사하게, 실시 예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 실시 예는 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. "매커니즘", "요소", "수단", "구성"과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다. 상기 용어는 프로세서 등과 연계하여 소프트웨어의 일련의 처리들(routines)의 의미를 포함할 수 있다.An embodiment may be represented by functional block configurations and various processing steps. Such functional blocks may be implemented in various numbers of hardware or / and software configurations that perform particular functions. For example, an embodiment may comprise an integrated circuit configuration such as memory, processing, logic, look-up table, etc., capable of executing various functions by the control of one or more microprocessors or other control devices. You can employ them. In addition, an embodiment may employ the same or different types of cores, different types of CPUs. Similar to the components of the present invention that may be implemented in software programming or software elements, embodiments include C, C ++, including various algorithms implemented in combinations of data structures, processes, routines, or other programming constructs. It may be implemented in a programming or scripting language such as Java, assembler, or the like. Functional aspects may be implemented in algorithms running on one or more processors. In addition, the embodiment may employ the prior art for electronic configuration, signal processing, and / or data processing. Terms such as "mechanism", "element", "means", "configuration" can be used broadly and are not limited to mechanical and physical configurations. The term may include the meaning of a series of routines of software in conjunction with a processor or the like.
실시 예에서 설명하는 특정 실행들은 일 실시 예들로서, 어떠한 방법으로도 실시 예의 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다. 또한, 도면에 도시된 구성 요소들 간의 선들의 연결 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것으로서, 실제 장치에서는 대체 가능하거나 추가의 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들로서 나타내어질 수 있다. 또한, "필수적인", "중요하게" 등과 같이 구체적인 언급이 없다면 본 발명의 적용을 위하여 반드시 필요한 구성 요소가 아닐 수 있다.Specific implementations described in the embodiments are examples, and do not limit the scope of the embodiments in any way. For brevity of description, descriptions of conventional electronic configurations, control systems, software, and other functional aspects of the systems may be omitted. In addition, the connection or connection members of the lines between the components shown in the drawings are illustrative of the functional connection and / or physical or circuit connections as an example, in the actual device replaceable or additional various functional connections, physical It may be represented as a connection, or circuit connections. In addition, unless otherwise specified, such as "essential", "important" may not be a necessary component for the application of the present invention.
본 개시(특히 특허청구범위에서)에서 "상기"의 용어 및 이와 유사한 지시 용어의 사용은 단수 및 복수 모두에 해당하는 것일 수 있다. 또한, 실시 예에서 범위(range)를 기재한 경우 상기 범위에 속하는 개별적인 값을 적용한 발명을 포함하는 것으로서(이에 반하는 기재가 없다면), 상세한 설명에 상기 범위를 구성하는 각 개별적인 값을 기재한 것과 같다. 마지막으로, 실시 예에 따른 방법을 구성하는 단계들에 대하여 명백하게 순서를 기재하거나 반하는 기재가 없다면, 상기 단계들은 적당한 순서로 행해질 수 있다. 반드시 상기 단계들의 기재 순서에 따라 실시 예들이 한정되는 것은 아니다. 실시 예에서 모든 예들 또는 예시적인 용어(예들 들어, 등등)의 사용은 단순히 실시 예를 상세히 설명하기 위한 것으로서 특허청구범위에 의해 한정되지 않는 이상 상기 예들 또는 예시적인 용어로 인해 실시 예의 범위가 한정되는 것은 아니다. 또한, 당업자는 다양한 수정, 조합 및 변경이 부가된 특허청구범위 또는 그 균등물의 범주 내에서 설계 조건 및 팩터에 따라 구성될 수 있음을 알 수 있다.In the present disclosure (particularly in the claims), the use of the term “above” and similar indicating terminology may correspond to both the singular and the plural. In addition, when a range is described in an embodiment, the invention includes the invention to which the individual values belonging to the range are applied (unless stated to the contrary), and the description is the same as describing each individual value constituting the range. . Finally, if there is no explicit order or contradiction with respect to the steps constituting the method according to the embodiment, the steps may be performed in a suitable order. The embodiments are not necessarily limited according to the order of description of the above steps. The use of all examples or exemplary terms (eg, etc.) in the embodiments is merely for describing the embodiments in detail, and the scope of the embodiments is limited by the above examples or exemplary terms unless defined by the claims. It is not. Also, one of ordinary skill in the art appreciates that various modifications, combinations and changes can be made in accordance with design conditions and factors within the scope of the appended claims or their equivalents.
Claims (20)
상기 전자 장치 및 사용자 중 적어도 하나와 연관된 컨텍스트 파라미터를 기초로 인증을 위한 라이브 챌린지를 구성하는 주체 및 태스크를 결정하는 단계;
상기 결정에 기초하여 생성된 라이브 챌린지를 제공하는 단계; 및
상기 제공된 라이브 챌린지의 수행 여부에 기초하여 상기 적어도 하나의 애플리케이션으로의 액세스 여부를 결정하는 단계를 포함하는, 사용자 인증을 수행하는 방법. Receiving a user authentication request for access to at least one application running on the electronic device;
Determining a subject and a task constituting a live challenge for authentication based on a context parameter associated with at least one of the electronic device and a user;
Providing a live challenge generated based on the determination; And
Determining whether to access the at least one application based on whether or not the provided live challenge has been performed.
상기 전자 장치에 구비된 카메라의 FoV(field of view)에 표시된 객체를 식별하는 단계를 더 포함하고,
상기 주체 및 상기 태스크를 결정하는 단계는,
상기 식별된 객체 및 상기 컨텍스트 파라미터를 기초로 상기 주체 및 상기 태스크를 결정하는, 사용자 인증을 수행하는 방법. The method of claim 1,
Identifying an object displayed in a field of view (FoV) of a camera provided in the electronic device;
Determining the subject and the task,
And determining the subject and the task based on the identified object and the context parameter.
상기 식별된 객체에 대응되는 주체를 결정하는 단계; 및
상기 결정된 주체가 수행 가능한 태스크를 결정하는 단계를 포함하고,
상기 라이브 챌린지를 제공하는 단계는,
상기 결정된 태스크를 유도하는 질문을 표시하는 단계를 포함하는, 사용자 인증을 수행하는 방법. The method of claim 2, wherein the determining of the subject and the task comprises:
Determining a subject corresponding to the identified object; And
Determining a task that the determined subject can perform;
Providing the live challenge,
Displaying a question leading to the determined task.
상기 전자 장치에 AR (augmented reality) 모드가 설정됨에 따라, 상기 주체 및 상기 태스크로 구성된 라이브 챌린지의 AR 영상을 상기 식별된 객체에 중첩하여 출력하는 단계를 포함하는, 사용자 인증을 수행하는 방법. The method of claim 2, wherein providing the live challenge comprises:
And displaying an AR image of a live challenge composed of the subject and the task by superimposing the identified object on the identified object as an augmented reality mode is set in the electronic device.
객체 식별 이후의 상기 전자 장치 또는 상기 사용자의 이동 (movement) 정보를 결정하는 단계를 더 포함하고,
상기 AR 영상을 출력하는 단계는,
상기 결정된 이동 정보에 기초하여, 상기 AR 영상이 출력되는 위치를 조정하는 단계를 포함하는, 사용자 인증을 수행하는 방법. The method of claim 4, wherein
Determining movement information of the electronic device or the user after object identification;
The outputting of the AR image may include:
And adjusting a position at which the AR image is output based on the determined movement information.
상기 전자 장치의 위치를 식별하는 단계; 및
상기 식별된 전자 장치의 위치에 기초하여, 상기 전자 장치의 주변에 존재하는 객체를 결정하는 단계를 포함하고,
상기 주체 및 상기 태스크를 결정하는 단계는,
상기 결정된 객체 및 상기 컨텍스트 파라미터를 기초로 상기 주체 및 상기 태스크를 결정하는, 사용자 인증을 수행하는 방법. The method of claim 1,
Identifying a location of the electronic device; And
Determining an object existing around the electronic device based on the identified location of the electronic device;
Determining the subject and the task,
And determining the subject and the task based on the determined object and the context parameter.
상기 라이브 챌린지에 대응되는 사용자의 동작이 기 설정된 시간 내에 식별되지 않음에 따라, 상기 적어도 하나의 애플리케이션에 대한 액세스를 거부(deny)하고,
상기 라이브 챌린지에 대응되는 사용자의 동작이 상기 기 설정된 시간 내에 식별됨에 따라, 상기 적어도 하나의 애플리케이션에 대한 액세스를 허용하는, 사용자 인증을 수행하는 방법. The method of claim 1, wherein determining whether to access the,
As the user's action corresponding to the live challenge is not identified within a preset time, denying access to the at least one application,
And allowing access to the at least one application as the user's action corresponding to the live challenge is identified within the preset time.
상기 전자 장치의 설정 정보, 상기 사용자 인증 요청이 수신된 시간 및 위치, 상기 전자 장치에서 사용자가 수행한 활동(activity), 상기 전자 장치에 수신된 알림, SNS (social network service) 정보, 상기 전자 장치의 주변 환경 정보, 상기 전자 장치가 연결된 네트워크 및 상기 전자 장치에 접속된 다른 전자 장치에 관한 정보 중 적어도 하나를 포함하는, 사용자 인증을 수행하는 방법. The method of claim 1, wherein the context parameter,
Setting information of the electronic device, time and location at which the user authentication request was received, activity performed by the user in the electronic device, notification received by the electronic device, social network service (SNS) information, and the electronic device And at least one of information about the surrounding environment, information about a network to which the electronic device is connected, and other electronic devices connected to the electronic device.
상기 컨텍스트 파라미터를 기초로, 기 설정된 학습 네트워크 모델을 이용하여, 상기 주체 및 상기 태스크를 결정하는, 사용자 인증을 수행하는 방법. The method of claim 1, wherein the determining of the subject and the task comprises:
And determining the subject and the task by using a preset learning network model based on the context parameter.
인스트럭션을 저장하는 메모리; 및
상기 메모리와 접속된 적어도 하나의 프로세서를 포함하고,
상기 적어도 하나의 프로세서는, 상기 인스트럭션을 실행함으로써,
전자 장치에서 실행되는 적어도 하나의 애플리케이션으로의 액세스를 위한 사용자 인증 요청을 상기 입출력부를 통해 수신하고,
상기 전자 장치 및 사용자 중 적어도 하나와 연관된 컨텍스트 파라미터를 기초로 인증을 위한 라이브 챌린지를 구성하는 주체 및 태스크를 결정하며,
상기 결정에 기초하여 생성된 라이브 챌린지를 상기 입출력부를 통해 제공하고,
상기 제공된 라이브 챌린지의 수행 여부에 기초하여 상기 적어도 하나의 애플리케이션으로의 액세스 여부를 결정하는, 사용자 인증을 수행하는 전자 장치. Input and output unit;
A memory for storing instructions; And
At least one processor connected with the memory,
The at least one processor executes the instructions,
Receive a user authentication request for access to at least one application running on the electronic device through the input and output unit,
Determine a subject and a task constituting a live challenge for authentication based on a context parameter associated with at least one of the electronic device and a user,
Providing a live challenge generated based on the determination through the input / output unit,
And determine whether to access the at least one application based on whether the provided live challenge is performed.
카메라를 더 포함하고,
상기 적어도 하나의 프로세서는, 상기 인스트럭션을 실행함으로써,
상기 카메라의 FoV(field of view)에 표시된 객체를 식별하고,
상기 식별된 객체 및 상기 컨텍스트 파라미터를 기초로 상기 주체 및 상기 태스크를 결정하는, 사용자 인증을 수행하는 전자 장치. The method of claim 10,
Further includes a camera,
The at least one processor executes the instructions,
Identify an object displayed in a field of view (FoV) of the camera,
And determine the subject and the task based on the identified object and the context parameter.
디스플레이를 더 포함하고,
상기 적어도 하나의 프로세서는, 상기 인스트럭션을 실행함으로써,
상기 식별된 객체에 대응되는 주체를 결정하고,
상기 결정된 주체가 수행 가능한 태스크를 결정하며,
상기 결정된 태스크를 유도하는 질문을 상기 디스플레이에 표시하는, 사용자 인증을 수행하는 전자 장치. The method of claim 11,
Further includes a display,
The at least one processor executes the instructions,
Determine a subject corresponding to the identified object,
Determine the task that the determined subject can perform,
And display a question leading to the determined task on the display.
상기 전자 장치에 AR (augmented reality) 모드가 설정됨에 따라, 상기 주체 및 상기 태스크로 구성된 라이브 챌린지의 AR 영상을 상기 식별된 객체에 중첩하여 출력하는, 사용자 인증을 수행하는 전자 장치. The method of claim 11, wherein the at least one processor executes the instructions.
When an augmented reality (AR) mode is set in the electronic device, an AR image of a live challenge composed of the subject and the task is overlaid on the identified object and output.
상기 전자 장치 또는 상기 사용자의 이동 (movement)을 식별하는 센서를 더 포함하고,
상기 적어도 하나의 프로세서는, 상기 인스트럭션을 실행함으로써,
상기 센서를 통해, 객체 식별 이후의 상기 전자 장치 또는 상기 사용자의 이동 정보를 결정하고,
상기 결정된 이동 정보에 기초하여, 상기 AR 영상이 출력되는 위치를 조정하는, 사용자 인증을 수행하는 전자 장치. The method of claim 13,
Further comprising a sensor for identifying the movement of the electronic device or the user,
The at least one processor executes the instructions,
Determine, via the sensor, movement information of the electronic device or the user after object identification;
And an electronic device configured to adjust a position at which the AR image is output based on the determined movement information.
상기 전자 장치의 위치를 식별하는 센서를 더 포함하고,
상기 적어도 하나의 프로세서는, 상기 인스트럭션을 실행함으로써,
상기 센서를 통해 식별된 전자 장치의 위치에 기초하여 상기 전자 장치의 주변에 존재하는 객체를 결정하며,
상기 결정된 객체 및 상기 컨텍스트 파라미터를 기초로 상기 주체 및 상기 태스크를 결정하는, 사용자 인증을 수행하는 전자 장치.The method of claim 10,
Further comprising a sensor for identifying the location of the electronic device,
The at least one processor executes the instructions,
Determine an object that exists around the electronic device based on the location of the electronic device identified through the sensor,
And determine the subject and the task based on the determined object and the context parameter.
상기 라이브 챌린지에 대응되는 사용자의 동작이 기 설정된 시간 내에 식별되지 않음에 따라, 상기 적어도 하나의 애플리케이션에 대한 액세스를 거부(deny)하고,
상기 라이브 챌린지에 대응되는 사용자의 동작이 상기 기 설정된 시간 내에 식별됨에 따라, 상기 적어도 하나의 애플리케이션에 대한 액세스를 허용하는, 사용자 인증을 수행하는 전자 장치. The method of claim 10, wherein the at least one processor executes the instructions.
As the user's action corresponding to the live challenge is not identified within a preset time, denying access to the at least one application,
And allow access to the at least one application as the operation of the user corresponding to the live challenge is identified within the preset time.
상기 전자 장치의 설정 정보, 상기 사용자 인증 요청이 수신된 시간 및 위치, 상기 전자 장치에서 사용자가 수행한 활동(activity), 상기 전자 장치에 수신된 알림, SNS (social network service) 정보, 상기 전자 장치의 주변 환경 정보, 상기 전자 장치가 연결된 네트워크 및 상기 전자 장치에 접속된 다른 전자 장치에 관한 정보 중 적어도 하나를 포함하는, 사용자 인증을 수행하는 전자 장치. The method of claim 10, wherein the context parameter,
Setting information of the electronic device, time and location at which the user authentication request was received, activity performed by the user in the electronic device, notification received by the electronic device, social network service (SNS) information, and the electronic device And at least one of information about the surrounding environment, information about a network to which the electronic device is connected, and other electronic devices connected to the electronic device.
상기 컨텍스트 파라미터를 기초로, 기 설정된 학습 네트워크 모델을 이용하여, 상기 주체 및 상기 태스크를 결정하는, 사용자 인증을 수행하는 전자 장치. The processor of claim 10, wherein the at least one processor executes the instructions.
And determine the subject and the task by using a preset learning network model based on the context parameter.
상기 전자 장치 및 사용자 중 적어도 하나와 연관된 컨텍스트 파라미터를 기초로 인증을 위한 라이브 챌린지를 구성하는 주체 및 태스크를 결정하는 동작;
상기 결정에 기초하여 생성된 라이브 챌린지를 제공하는 동작; 및
상기 제공된 라이브 챌린지의 수행 여부에 기초하여 상기 적어도 하나의 애플리케이션으로의 액세스 여부를 결정하는 동작을 수행하도록 하는 프로그램이 저장된 기록매체.Receiving a user authentication request for access to at least one application running on the electronic device;
Determining a subject and a task constituting a live challenge for authentication based on a context parameter associated with at least one of the electronic device and a user;
Providing a live challenge generated based on the determination; And
And a program for determining whether to access the at least one application based on whether the provided live challenge is performed.
상기 전자 장치에 구비된 카메라의 FoV(field of view)에 표시된 객체를 식별하는 동작을 더 포함하고,
상기 주체 및 상기 태스크를 결정하는 동작은,
상기 식별된 객체 및 상기 컨텍스트 파라미터를 기초로 상기 주체 및 상기 태스크를 결정하는, 프로그램이 저장된 기록매체. The method of claim 19,
The method may further include identifying an object displayed in a field of view (FoV) of a camera provided in the electronic device.
The operation of determining the subject and the task,
And determine the subject and the task based on the identified object and the context parameter.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/KR2019/008890 WO2020017902A1 (en) | 2018-07-18 | 2019-07-18 | Method and apparatus for performing user authentication |
EP19836976.1A EP3769246A4 (en) | 2018-07-18 | 2019-07-18 | Method and apparatus for performing user authentication |
CN201980045581.1A CN112384916B (en) | 2018-07-18 | 2019-07-18 | Method and apparatus for performing user authentication |
US16/515,815 US11281760B2 (en) | 2018-07-18 | 2019-07-18 | Method and apparatus for performing user authentication |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
IN201841026856 | 2018-07-18 | ||
IN201841026856 | 2018-07-18 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20200010041A true KR20200010041A (en) | 2020-01-30 |
Family
ID=69322085
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190079001A KR20200010041A (en) | 2018-07-18 | 2019-07-01 | Method and apparatus for performing user authentication |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR20200010041A (en) |
CN (1) | CN112384916B (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023106621A1 (en) * | 2021-12-08 | 2023-06-15 | 삼성전자주식회사 | Cloud server for authenticating user and operation method thereof |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1889562A (en) * | 2005-06-28 | 2007-01-03 | 华为技术有限公司 | Method for identifying equipment for receiving initial session protocol request information |
US10614626B2 (en) * | 2005-10-26 | 2020-04-07 | Cortica Ltd. | System and method for providing augmented reality challenges |
US9298898B2 (en) * | 2013-07-18 | 2016-03-29 | At&T Intellectual Property I, L.P. | Event-based security challenges |
-
2019
- 2019-07-01 KR KR1020190079001A patent/KR20200010041A/en not_active Application Discontinuation
- 2019-07-18 CN CN201980045581.1A patent/CN112384916B/en active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023106621A1 (en) * | 2021-12-08 | 2023-06-15 | 삼성전자주식회사 | Cloud server for authenticating user and operation method thereof |
Also Published As
Publication number | Publication date |
---|---|
CN112384916B (en) | 2024-04-09 |
CN112384916A (en) | 2021-02-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11281760B2 (en) | Method and apparatus for performing user authentication | |
US20220021734A1 (en) | Systems and methods for synchronizing content and information on multiple computing devices | |
JP6417676B2 (en) | Information processing apparatus, information processing method, eyewear terminal, and authentication system | |
US10242364B2 (en) | Image analysis for user authentication | |
EP3284016B1 (en) | Authentication of a user of a device | |
US10885306B2 (en) | Living body detection method, system and non-transitory computer-readable recording medium | |
US11714890B2 (en) | Systems and methods for authenticating users | |
CN106557678B (en) | Intelligent terminal mode switching method and device | |
US10846514B2 (en) | Processing images from an electronic mirror | |
US11237629B2 (en) | Social networking technique for augmented reality | |
US20230089622A1 (en) | Data access control for augmented reality devices | |
US11599717B2 (en) | Separately collecting and storing form contents | |
KR102588524B1 (en) | Electronic apparatus and operating method thereof | |
US9992650B2 (en) | Leader and follower management system for wearable devices | |
WO2023230290A1 (en) | Devices, methods, and graphical user interfaces for user authentication and device management | |
KR20200010041A (en) | Method and apparatus for performing user authentication | |
KR20200143317A (en) | User authentication on display device | |
US20210201543A1 (en) | Augmented Reality Systems | |
KR102193636B1 (en) | User authentication on display device | |
US12135933B2 (en) | Separately collecting and storing form contents |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal |