Nothing Special   »   [go: up one dir, main page]

KR20130084543A - 사용자 인터페이스 제공 장치 및 방법 - Google Patents

사용자 인터페이스 제공 장치 및 방법 Download PDF

Info

Publication number
KR20130084543A
KR20130084543A KR1020120005400A KR20120005400A KR20130084543A KR 20130084543 A KR20130084543 A KR 20130084543A KR 1020120005400 A KR1020120005400 A KR 1020120005400A KR 20120005400 A KR20120005400 A KR 20120005400A KR 20130084543 A KR20130084543 A KR 20130084543A
Authority
KR
South Korea
Prior art keywords
information
application
graphic object
emotion
type
Prior art date
Application number
KR1020120005400A
Other languages
English (en)
Inventor
김현준
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020120005400A priority Critical patent/KR20130084543A/ko
Priority to US13/743,453 priority patent/US20130185648A1/en
Publication of KR20130084543A publication Critical patent/KR20130084543A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

일 양상에 따른 사용자 인터페이스 제공 방법은, 실행 중인 애플리케이션의 종류와 관련되는 애플리케이션 정보, 사용자의 감정 상태와 관련되는 감정 정보, 및 사용자의 기기 사용 환경과 관련되는 상황 정보 중 적어도 하나를 수집하는 단계, 애플리케이션 정보, 감정 정보, 및 상황 정보 중 적어도 두 개를 매핑하여 특성 정보를 생성하는 단계, 및 특성 정보를 이용하여 애플리케이션과 관련된 그래픽 오브젝트(Graphic Object)를 동적으로 재구성하는 단계를 포함할 수 있다.

Description

사용자 인터페이스 제공 장치 및 방법{Apparatus and Method for providing user interface}
그래픽 사용자 인터페이스 및 감정 인식 기술과 관련된다.
그래픽 사용자 인터페이스(Graphical User Interface, GUI)는 컴퓨터를 사용하면서, 그림으로 된 화면 위의 물체나 틀, 색상과 같은 그래픽 요소들을 어떠한 기능과 용도를 나타내기 위해 고안된 사용자를 위한 컴퓨터 인터페이스이다.
그래픽 사용자 인터페이스에서 어떤 요소를 제어하려면 그 요소에 해당하는 그래픽을 직접 조작하여야 한다. 일반적으로 그래픽 사용자 인터페이스는 2차원이나 3차원의 가상 공간에서 그 기능을 은유적 혹은 대표적으로 나타내는 그래픽으로 요소를 꾸미고 이를 선택, 이동, 복사하여 작동한다.
한편, 현대인들은 많은 스트레스와 긴장 속에서 살아가고 있다. 최근에는 스마트폰과 같이 터치패널을 구비한 기기의 다양한 센서 정보를 통해 사용자의 감정을 인식하고 인식된 감정에 기반한 여러가지 서비스를 제공하기 위한 연구가 급증하고 있는 추세이다.
사용자의 감정 및/또는 환경에 따라 그래픽 오브젝트를 재구성할 수 있는 사용자 인터페이스 제공 장치 및 방법이 제시된다.
일 양상에 따른 사용자 인터페이스 제공 장치는, 실행 중인 애플리케이션의 종류와 관련되는 애플리케이션 정보 및 사용자의 감정 상태와 관련되는 감정 정보를 수집하는 센서부, 애플리케이션 정보와 감정 정보를 매핑하여 특성 정보를 생성하는 특성 정보 생성부, 및 특성 정보를 이용하여 애플리케이션과 관련된 그래픽 오브젝트(Graphic Object)를 동적으로 재구성하여 표시하는 UI 재구성부를 포함할 수 있다.
다른 양상에 따른 사용자 인터페이스 제공 장치는, 실행 중인 애플리케이션의 종류와 관련되는 애플리케이션 정보 및 사용자의 기기 사용 환경과 관련되는 상황 정보를 수집하는 센서부, 애플리케이션 정보와 상황 정보를 매핑하여 특성 정보를 생성하는 특성 정보 생성부, 및 특성 정보를 이용하여 애플리케이션과 관련된 그래픽 오브젝트(Graphic Object)를 동적으로 재구성하는 UI 재구성부를 포함할 수 있다.
또 다른 양상에 따른 사용자 인터페이스 제공 장치는, 실행 중인 애플리케이션의 종류와 관련되는 애플리케이션 정보, 사용자의 감정 상태와 관련되는 감정 정보, 및 사용자의 기기 사용 환경과 관련되는 상황 정보를 수집하는 센서부, 애플리케이션 정보, 감정 정보, 및 상황 정보를 매핑하여 특성 정보를 생성하는 특성 정보 생성부, 및 특성 정보를 이용하여 애플리케이션과 관련된 그래픽 오브젝트(Graphic Object)를 동적으로 재구성하는 UI 재구성부를 포함할 수 있다.
한편, 일 양상에 따른 사용자 인터페이스 제공 방법은, 실행 중인 애플리케이션의 종류와 관련되는 애플리케이션 정보, 사용자의 감정 상태와 관련되는 감정 정보, 및 사용자의 기기 사용 환경과 관련되는 상황 정보 중 적어도 하나를 수집하는 단계, 애플리케이션 정보, 감정 정보, 및 상황 정보 중 적어도 두 개를 매핑하여 특성 정보를 생성하는 단계, 및 특성 정보를 이용하여 애플리케이션과 관련된 그래픽 오브젝트(Graphic Object)를 동적으로 재구성하는 단계를 포함할 수 있다.
사용자의 감정 또는 단말의 사용 환경을 반영하여 그래픽 오브젝트가 표시되기 때문에 사용자의 다양한 인터랙션을 유도할 수가 있고 기기 사용의 편의성을 증진시킬 수가 있다.
도 1은 일 실시예에 따른 사용자 인터페이스(User Interface, UI) 제공 장치의 구성을 도시한다.
도 2는 일 실시예에 따른 특성 정보를 도시한다.
도 3은 다른 실시예에 따른 특성 정보를 도시한다.
도 4는 또 다른 실시예에 따른 특성 정보를 도시한다.
도 5는 일 실시예에 따른 그래픽 오브젝트 재구성 방법을 도시한다.
도 6은 다른 실시예에 따른 그래픽 오브젝트 재구성 방법을 도시한다.
도 7은 또 다른 실시예에 따른 그래픽 오브젝트 재구성 방법을 도시한다.
도 8은 일 실시예에 따른 사용자 인터페이스 제공 방법을 도시한다.
이하, 첨부된 도면을 참조하여 본 발명의 실시를 위한 구체적인 예를 상세히 설명한다.
도 1은 일 실시예에 따른 사용자 인터페이스(User Interface, UI) 제공 장치의 구성을 도시한다.
도 1을 참조하면, 본 실시예에 따른 UI 제공 장치(100)는 터치 스크린 기반의 사용자 인터페이스가 구비된 단말에 적용될 수 있다. 단말은 스마트폰(Smart Phone), 휴대폰(Mobile Phone), 태블릿 PC(Tablet PC) 등이 될 수 있다.
UI 제공 장치(100)는 센서부(101), 특성 정보 생성부(102), 특성 정보 DB(103), UI 재구성부(104), 표시부(105), 및 설정부(106)를 포함할 수 있다.
센서부(101)는 애플리케이션 정보(Application Information), 감정 정보(Emotion Information), 상황 정보(Context Information)를 수집할 수 있다. 애플리케이션 정보는 실행 중인 애플리케이션의 종류와 관련된 정보가 될 수 있다. 감정 정보는 단말 사용자의 감정 상태와 관련된 정보가 될 수 있다. 상황 정보는 단말의 사용 환경과 관련된 정보가 될 수 있다.
일 양상에 따라, 센서부(101)는 애플리케이션 인식부(110), 감정 인식부(120), 및 상황 인식부(130)를 포함할 수 있다.
애플리케이션 인식부(110)는 실행 중인 애플리케이션의 종류가 무엇인지 검출할 수 있다. 예컨대, 애플리케이션 인식부(110)는 실행 중인 애플리케이션의 식별자(ID)를 검출하는 소프트웨어 센서 또는 이러한 소프트웨어 센서로부터 애플리케이션의 식별자를 수신하는 모듈이 될 수 있다.
감정 인식부(120)는 단말 사용자의 감정 상태가 어떠한지 검출할 수 있다. 예컨대, 감정 인식부(120)는 사용자의 얼굴 영상, 음성, 텍스트 등을 분석하여 사용자의 감정을 인식하는 것이 가능하다. 사용자의 얼굴 영상은 단말에 구비된 카메라로부터 획득될 수 있다. 사용자의 음성은 단말에 구비된 마이크로부터 획득될 수 있다. 사용자의 텍스트는 텍스트 메시지 전송과 관련된 애플리케이션으로부터 획득될 수 있다. 본 실시예에 따라, 감정 인식부(120)가 사용자의 감정을 인식하는 구체적인 방법은 특별히 제한되지 아니한다. 일 예로서, 감정 인식부(120)는 감정 모델을 이용하여 각 감정 종류(예컨대, 행복, 슬픔 등)에 소정의 감정값을 부여한 후, 부여된 감정값에 따라 대표 감정을 선택할 수 있다.
상황 인식부(130)는 단말의 사용 환경이 어떠한지 검출할 수 있다. 예컨대, 상황 인식부(130)는 단말의 위치, 애플리케이션의 사용 시각, 날씨, 온도 등을 인식하는 것이 가능하다. 상황 인식부(130)는 단말에 구비된 각종 센서(예컨대, GPS 센서, 온도 센서, 가속도 센서 등)의 센서값을 분석하여 단말의 사용 환경을 알아낼 수 있다. 본 실시예에 따라, 상황 인식부(130)가 단말의 사용 환경을 인식하는 구체적인 방법 역시 특별히 제한되지 아니한다. 일 예로서, 상황 인식부(130)는 애플리케이션이 실행되면 애플리케이션이 실행될 당시의 시각 및 장소를 검출하는 것이 가능하다.
다른 양상에 따라, 센서부(101)는 애플리케이션 인식부(110)와 감정 인식부(120)로만 구성될 수도 있고, 애플리케이션 인식부(110)와 상황 인식부(130)로만 구성될 수도 있다.
특성 정보 생성부(102)는 특성 정보를 생성한다.
일 양상에 따라, 특성 정보는 센서부(101)에 의해 얻어진 애플리케이션 정보, 감정 정보, 및 상황 정보가 매핑된 정보가 될 수 있다. 예컨대, 특성 정보 생성부(102)는 어떤 애플리케이션의 실행되면, 실행된 애플리케이션의 식별자(애플리케이션 정보), 그 애플리케이션이 실행될 때의 사용자의 감정(감정 정보), 및 그 애플리케이션이 실행될 때의 시각과 장소(상황 정보)를 매핑하여 하나의 행(row) 데이터를 생성할 수 있다.
다른 양상에 따라, 특성 정보는 애플리케이션 정보와 감정 정보가 매핑된 정보가 될 수도 있고, 애플리케이션 정보와 상황 정보가 매핑된 정보가 될 수도 있다.
특성 정보 생성부(102)는 애플리케이션이 실행될 때 마다 각 애플리케이션 별로 전술한 행 데이터를 생성하여 이를 특성 정보 DB(103)에 테이블 형태로 저장할 수 있다.
특성 정보 생성부(102)는 특성 정보 DB(103)에 저장된 특성 정보를 갱신할 수 있다. 예컨대, 동일한 애플리케이션이 실행될 때, 그 애플리케이션에 매핑되어 있는 감정 정보 또는 상황 정보가 변경되면, 기 저장된 특성 정보와 새롭게 생성된 특성 정보를 적절히 조합하는 것이 가능하다. 조합 방법은 특별히 제한되지 아니한다. 일 예로서, 양 정보의 평균치를 이용하여 갱신할 수도 있고, 최근 값에 가중치를 주고 평균치를 계산하는 방법이 이용될 수도 있다.
특성 정보 DB(103)는 특성 정보 생성부(102)에 의해 생성된 특성 정보를 저장한다. 특성 정보 DB(103)에 저장되는 특성 정보의 구체적 형태에 대해서는 후술한다.
UI 재구성부(104)는 표시부(105)를 제어한다. 예컨대, UI 재구성부(104)는 표시부(105)에 표시되는 바탕화면, 각종 그래픽 아이콘, 표시 효과 등을 제어할 수 있다.
UI 재구성부(104)는 특성 정보 생성부(102)에 의해 생성된 특성 정보 또는 특성 정보 DB(103)에 저장된 특성 정보를 이용하여 표시부(105)에 표시되는 그래픽 오브젝트(Graphic Object)를 동적으로 재구성한다. 그래픽 오브젝트는 애플리케이션의 실행 아이콘이 될 수 있다. 사용자는 표시부(105)에 표시된 그래픽 오브젝트를 터치하여 애플리케이션의 실행을 제어할 수 있다. 예컨대, UI 재구성부(104)는 특성 정보를 이용하여 그래픽 오브젝트를 분류하는 것이 가능하다.
일 양상에 따라, UI 재구성부(104)는 감정 정보를 참조하여 감정의 종류 별로 실행 아이콘의 경계선, 색상, 및 크기 중 적어도 하나를 가변하거나, 감정의 종류 별로 실행 아이콘을 그룹핑하거나, 또는 감정의 종류 별로 실행 아이콘에 서로 다른 식별 아이콘을 부가하는 것이 가능하다.
다른 양상에 따라, UI 재구성부(104)는 상황 정보를 참조하여 상황의 종류 별로 실행 아이콘의 경계선, 색상, 및 크기 중 적어도 하나를 가변하거나, 상황의 종류 별로 실행 아이콘을 그룹핑하거나, 또는 상황의 종류 별로 실행 아이콘에 서로 다른 식별 아이콘을 부가하는 것이 가능하다.
표시부(105)는 UI 재구성부(104)에 의해 제어되는 터치 스크린이 될 수 있다.
설정부(106)는 센서부(101)에 의해 수집된 정보 또는 사용자 입력에 따라 UI 재구성부(104)의 그래픽 오브젝트의 재구성 방식을 설정할 수 있다. 예컨대, 설정부(106)는 센서부(101)에 의해 수집된 사용자의 감정 정보 및/또는 단말의 상황 정보, 또는 사용자의 요청에 따라 후술할 도 5 내지 도 7과 같은 UI 재구성부(104)의 그래픽 오브젝트 표현 방식을 설정할 수가 있다.
도 2는 일 실시예에 따른 특성 정보를 도시한다.
도 1 및 도 2를 참조하면, 특성 정보(200)는 애플리케이션 정보(210), 감정 정보(220), 및 상황 정보(230)가 매핑된다.
애플리케이션 정보(210)는 애플리케이션의 이름(Name)과 대상(Target)을 포함할 수 있다. 감정 정보(220)는 행복, 슬픔과 같은 각 감정의 종류별 감정값을 포함할 수 있다. 상황 정보(230)는 시간, 장소와 같은 각 상황의 종류별 상황값을 포함할 수 있다.
예를 들어, ①번 행 데이터(201)는 SMS 서비스와 관련된 애플리케이션이 실행되었을 때 생성된 특성 정보를 나타낸다. 즉 ①번 행 데이터(201)는 사용자가 '홍길동'에게 문자 메시지를 전송할 때, 사용자의 감정은 주로 '행복(예컨대, 가장 높은 값)'이고, 그 문자메시지는 시간 'T1' 및 'T2'에 장소 'L1'에서 주로 전송되었음을 나타낼 수 있다.
또한 ②번 행 데이터(202)는 사용자가 '김철수'에게 문자 메시지를 전송할 때, 사용자의 감정은 주로 '슬픔(예컨대, 가장 높은 값)'이고, 그 문자메시지는 시간 'T1'에 장소 'L1' 및 'L3'에서 주로 전송되었음을 나타낼 수 있다.
마찬가지로 ③번 행 데이터(203)는 Music Player 애플리케이션에서 '아이유.mp3' 노래가 재생되었고, 그 때의 사용자는 행복했으며, 그 노래를 듣는 시간과 장소는 각각 'T3' 및 'L3'이었음을 나타낼 수 있다.
이와 같은 특성 정보(200)는 센서부(101)에 의해 수집된 각종 정보를 특성 정보 생성부(102)가 조합해서 생성하는 것이 가능하다.
또한 특성 정보(200)는 특성 정보 생성부(102)에 의해 갱신될 수도 있다. 예컨대, ①번 행 데이터(201)와 관련하여, '홍길동'과 문자메시지를 주고 받는 도중에 사용자의 기분이 안좋아진 경우, 감정 정보(220)의 각 감정값이 변경될 수 있다.
도 3은 다른 실시예에 따른 특성 정보를 도시한다.
도 2 및 도 3을 참조하면, 도 3의 특성 정보(300)는 애플리케이션 정보(210) 및 감정 정보(220)를 포함한다. 즉 도 3의 특성 정보(300)는 도 2의 특성 정보(200)에서 상황 정보(230)를 제외한 형태로 형성될 수 있다. 예컨대, 도 1에서, 센서부(101)에 상황 인식부(130)가 없는 경우, 특성 정보 생성부(102)가 애플리케이션 인식부(110) 및 감정 인식부(120)의 결과를 매핑하여 도 3과 같은 특성 정보(300)를 생성 및 저장하는 것이 가능하다.
도 4는 또 다른 실시예에 따른 특성 정보를 도시한다.
도 2 및 도 4를 참조하면, 도 4의 특성 정보(400)는 애플리케이션 정보(210) 및 상황 정보(230)를 포함한다. 즉 도 4의 특성 정보(400)는 도 2의 특성 정보(200)에서 감정 정보(220)를 제외한 형태로 형성될 수 있다. 예컨대, 도 1에서, 센서부(101)에 감정 인식부(120)가 없는 경우, 특성 정보 생성부(102)가 애플리케이션 인식부(110) 및 상황 인식부(130)의 결과를 매핑하여 도 4와 같은 특성 정보(400)를 생성 및 저장하는 것이 가능하다.
도 5는 일 실시예에 따른 그래픽 오브젝트 재구성 방법을 도시한다.
도 1 및 도 5를 참조하면, UI 재구성부(104)는 특성 정보에 따라 애플리케이션의 실행과 관련된 그래픽 오브젝트의 경계선, 색상, 또는 크기 등을 가변할 수 있다.
일 예로서, UI 재구성부(104)는 감정의 종류에 따라 그래픽 오브젝트의 경계선을 다르게 표현하는 것이 가능하다. 예컨대, 도 5의 (A)에서, 그래픽 오브젝트 'H'는 행복한 감정과 관련된 애플리케이션의 실행 아이콘들을 나타내고, 그래픽 오브젝트 'A'는 화난 감정과 관련된 애플리케이션의 실행 아이콘들을 나타낼 수 있다. UI 재구성부(104)는 도시된 것처럼 행복한 감정과 관련된 애플리케이션의 실행 아이콘들의 경계선을 상대적으로 두껍게 표현하고, 화난 감정과 관련된 애플리케이션의 실행 아이콘들의 경계선을 점선으로 표현할 수 있다.
다른 예로서, UI 재구성부(104)는 감정의 종류에 따라 그래픽 오브젝트의 색상을 다르게 표현하는 것이 가능하다. 예컨대, 도 5의 (B)에서, 그래픽 오브젝트 'H'는 행복한 감정과 관련된 애플리케이션의 실행 아이콘들을 나타내고, 그래픽 오브젝트 'A'는 화난 감정과 관련된 애플리케이션의 실행 아이콘들을 나타낼 수 있다. UI 재구성부(104)는 도시된 것처럼 행복한 감정과 관련된 애플리케이션의 실행 아이콘들의 색상과 화난 감정과 관련된 애플리케이션의 실행 아이콘들의 색상을 서로 다르게 표현할 수 있다.
또 다른 예로서, UI 재구성부(104)는 감정의 종류에 따라 그래픽 오브젝트의 크기를 다르게 표현하는 것이 가능하다. 예컨대, 도 5의 (C)에서, 그래픽 오브젝트 'H'는 행복한 감정과 관련된 애플리케이션의 실행 아이콘들을 나타내고, 그래픽 오브젝트 'A'는 화난 감정과 관련된 애플리케이션의 실행 아이콘들을 나타낼 수 있다. UI 재구성부(104)는 도시된 것처럼 행복한 감정과 관련된 애플리케이션의 실행 아이콘들의 크기를 화난 감정과 관련된 애플리케이션의 실행 아이콘들의 크기보다 상대적으로 더 크게 표현할 수 있다.
도 6은 다른 실시예에 따른 그래픽 오브젝트 재구성 방법을 도시한다.
도 1 및 도 6을 참조하면, UI 재구성부(104)는 특성 정보에 따라 애플리케이션의 실행과 관련된 그래픽 오브젝트를 그룹핑할 수가 있다.
일 예로서, UI 재구성부(104)는 감정 종류를 고려해서 그래픽 오브젝트의 배치 순서를 재배열할 수 있다. 예컨대, 도 6의 (A)와 같이, 동일한 감정 종류에 대응되는 그래픽 오브젝트끼리 그룹지어 그래픽 오브젝트를 배열하는 것이 가능하다.
다른 예로서, UI 재구성부(104)는 바탕화면을 감정 종류별로 계층화하고 계층화된 바탕화면에 각각의 그래픽 오브젝트를 표현할 수 있다. 예컨대, 도 6의 (B)와 같이, 제 1 레벨의 바탕화면(601)에는 행복한 감정에 대응되는 그래픽 오브젝트들이 표시되고, 제 2 레벨의 바탕화면(602)에는 혐오스런 감정에 대응되는 그래픽 오브젝트들이 표시되는 것이 가능하다.
도 7은 또 다른 실시예에 따른 그래픽 오브젝트 재구성 방법을 도시한다.
도 1 및 도 7을 참조하면, UI 재구성부(104)는 특성 정보에 따라 그래픽 오브젝트에 고유의 식별 아이콘을 부가할 수 있다. 예컨대, 행복한 감정에 대응되는 그래픽 오브젝트 'H'에는 '스마일' 식별 아이콘(701)을 부가하고, 화난 감정에 대응되는 그래픽 오브젝트 'A'에는 '앵그리' 식별 아이콘(702)을 부가할 수 있다.
한편, 도 5 내지 도 7에서는 이해를 돕기 위해 특성 정보에 따른 그래픽 오브젝트의 재구성을 감정의 종류에 따른 그래픽 오브젝트의 분류로서 예시하였으나, 상황의 종류에 따라 그래픽 오브젝트가 분류될 수도 있음은 물론이다. 예컨대, 도 5 내지 도 7에서, 장소를 고려하여, 'H'는 '학교'에서 주로 사용한 애플리케이션을, 'A'는 '집'에서 주로 사용한 애플리케이션을 나타낼 수도 있다. 나아가 더 세부적으로, 'H'는 '학교'에서 '행복'할 때 주로 사용한 애플리케이션을, 'A'는 '학교'에서 '슬플'때 주로 사용한 애플리케이션을 나타낼 수도 있다. 그 밖에도 '시각' 또는 '날씨' 별로 그래픽 오브젝트가 재구성되는 것도 가능하다.
도 8은 일 실시예에 따른 사용자 인터페이스 제공 방법을 도시한다.
도 1 및 도 8을 참조하면, 본 실시예에 따른 사용자 인터페이스 제공 방법에 따라, 애플리케이션 정보, 감정 정보, 및 상황 정보 중 적어도 하나가 수집된다(801). 예컨대, 센서부(101)가 실행되는 애플리케이션의 종류, 사용자의 감정 상태, 단말의 주변 환경 등을 검출하는 것이 가능하다.
그리고 수집된 정보에 기초하여 특성 정보가 생성된다(802). 예컨대, 특성 정보 생성부(102)가 도 2 내지 도 4와 같이 수집된 각 정보를 매핑하여 특성 정보를 생성하는 것이 가능하다.
그리고 생성된 특성 정보에 따라 그래픽 오브젝트가 재구성된다(803). 그래픽 오브젝트는 애플리케이션 실행을 제어하는 실행 아이콘이 될 수 있다. 예컨대, UI 재구성부(104)가 도 5 내지 도 7과 같이 감정 또는 상황을 고려하여 그래픽 오브젝트의 경계선, 색상, 크기를 가변하거나, 그래픽 오브젝트를 그룹핑하거나, 또는 그래픽 오브젝트에 식별 아이콘을 부가하는 것이 가능하다.
이상에서 살펴본 것과 같이, 개시된 실시예에 따르면, 사용자의 감정 또는 단말의 사용 환경을 반영하여 그래픽 오브젝트가 표시되기 때문에 사용자의 다양한 인터랙션을 유도할 수가 있고 기기 사용의 편의성을 증진시킬 수가 있다.
한편, 본 발명의 실시 예들은 컴퓨터로 읽을 수 있는 기록 매체에 컴퓨터가 읽을 수 있는 코드로 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다.
컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현하는 것을 포함한다. 또한, 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고 본 발명을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술 분야의 프로그래머들에 의하여 용이하게 추론될 수 있다.
나아가 전술한 실시 예들은 본 발명을 예시적으로 설명하기 위한 것으로 본 발명의 권리범위가 특정 실시 예에 한정되지 아니할 것이다.
101: 센서부
102: 특성 정보 생성부
103: 특성 정보 DB
104: UI 재구성부
105: 표시부
106: 설정부
210: 애플리케이션 정보
220: 감정 정보
230: 상황 정보

Claims (22)

  1. 실행 중인 애플리케이션의 종류와 관련되는 애플리케이션 정보 및 사용자의 감정 상태와 관련되는 감정 정보를 수집하는 센서부;
    상기 애플리케이션 정보와 상기 감정 정보를 매핑하여 특성 정보를 생성하는 특성 정보 생성부; 및
    상기 특성 정보를 이용하여 상기 애플리케이션과 관련된 그래픽 오브젝트(Graphic Object)를 동적으로 재구성하여 표시하는 UI 재구성부; 를 포함하는 사용자 인터페이스 제공 장치.
  2. 제 1 항에 있어서,
    상기 센서부에 의해 수집된 정보 또는 사용자 입력에 따라 상기 UI 재구성부의 그래픽 오브젝트의 재구성 방식을 설정하는 설정부; 를 더 포함하는 사용자 인터페이스 제공 장치.
  3. 제 1 항에 있어서, 상기 그래픽 오브젝트는
    상기 애플리케이션의 실행 아이콘인 것을 특징으로 하는 사용자 인터페이스 제공 장치.
  4. 제 1 항에 있어서, 상기 UI 재구성부는
    상기 특성 정보의 감정 종류를 고려하여 상기 그래픽 오브젝트를 분류하는 것을 특징으로 하는 사용자 인터페이스 제공 장치.
  5. 제 4 항에 있어서, 상기 UI 재구성부는
    상기 감정 종류에 따라 상기 그래픽 오브젝트의 경계선, 색상, 및 크기 중 적어도 하나를 가변하는 것을 특징으로 하는 사용자 인터페이스 제공 장치.
  6. 제 4 항에 있어서, 상기 UI 재구성부는
    상기 감정 종류에 따라 상기 그래픽 오브젝트를 그룹핑하는 것을 특징으로 하는 사용자 인터페이스 제공 장치.
  7. 제 4 항에 있어서, 상기 UI 재구성부는
    상기 감정 종류에 따라 상기 그래픽 오브젝트에 식별 아이콘을 부가하는 것을 특징으로 하는 사용자 인터페이스 제공 장치.
  8. 실행 중인 애플리케이션의 종류와 관련되는 애플리케이션 정보 및 사용자의 기기 사용 환경과 관련되는 상황 정보를 수집하는 센서부;
    상기 애플리케이션 정보와 상기 상황 정보를 매핑하여 특성 정보를 생성하는 특성 정보 생성부; 및
    상기 특성 정보를 이용하여 상기 애플리케이션과 관련된 그래픽 오브젝트(Graphic Object)를 동적으로 재구성하는 UI 재구성부; 를 포함하는 사용자 인터페이스 제공 장치.
  9. 제 8 항에 있어서,
    상기 센서부에 의해 수집된 정보 또는 사용자 입력에 따라 상기 UI 재구성부의 그래픽 오브젝트의 재구성 방식을 설정하는 설정부; 를 더 포함하는 사용자 인터페이스 제공 장치.
  10. 제 8 항에 있어서, 상기 그래픽 오브젝트는
    상기 애플리케이션의 실행 아이콘인 것을 특징으로 하는 사용자 인터페이스 제공 장치.
  11. 제 8 항에 있어서, 상기 UI 재구성부는
    상기 특성 정보의 상황 종류를 고려하여 상기 그래픽 오브젝트를 분류하는 것을 특징으로 하는 사용자 인터페이스 제공 장치.
  12. 제 11 항에 있어서, 상기 UI 재구성부는
    상기 상황 종류에 따라 상기 그래픽 오브젝트의 경계선, 색상, 및 크기 중 적어도 하나를 가변하는 것을 특징으로 하는 사용자 인터페이스 제공 장치.
  13. 제 11 항에 있어서, 상기 UI 재구성부는
    상기 상황 종류에 따라 상기 그래픽 오브젝트를 그룹핑하는 것을 특징으로 하는 사용자 인터페이스 제공 장치.
  14. 제 11 항에 있어서, 상기 UI 재구성부는
    상기 상황 종류에 따라 상기 그래픽 오브젝트에 식별 아이콘을 부가하는 것을 특징으로 하는 사용자 인터페이스 제공 장치.
  15. 실행 중인 애플리케이션의 종류와 관련되는 애플리케이션 정보, 사용자의 감정 상태와 관련되는 감정 정보, 및 사용자의 기기 사용 환경과 관련되는 상황 정보를 수집하는 센서부;
    상기 애플리케이션 정보, 상기 감정 정보, 및 상기 상황 정보를 매핑하여 특성 정보를 생성하는 특성 정보 생성부; 및
    상기 특성 정보를 이용하여 상기 애플리케이션과 관련된 그래픽 오브젝트(Graphic Object)를 동적으로 재구성하는 UI 재구성부; 를 포함하는 사용자 인터페이스 제공 장치.
  16. 제 15 항에 있어서,
    상기 센서부에 의해 수집된 정보 또는 사용자 입력에 따라 상기 UI 재구성부의 그래픽 오브젝트의 재구성 방식을 설정하는 설정부; 를 더 포함하는 사용자 인터페이스 제공 장치.
  17. 제 15 항에 있어서, 상기 그래픽 오브젝트는
    상기 애플리케이션의 실행 아이콘인 것을 특징으로 하는 사용자 인터페이스 제공 장치.
  18. 제 15 항에 있어서, 상기 UI 재구성부는
    상기 특성 정보의 감정 종류 및 상황 종류 중 적어도 하나를 고려하여 상기 그래픽 오브젝트를 분류하는 것을 특징으로 하는 사용자 인터페이스 제공 장치.
  19. 제 18 항에 있어서, 상기 UI 재구성부는
    상기 감정 종류 또는 상황 종류에 따라 상기 그래픽 오브젝트의 경계선, 색상, 및 크기 중 적어도 하나를 가변하는 것을 특징으로 하는 사용자 인터페이스 제공 장치.
  20. 제 18 항에 있어서, 상기 UI 재구성부는
    상기 감정 종류 또는 상황 종류에 따라 상기 그래픽 오브젝트를 그룹핑하는 것을 특징으로 하는 사용자 인터페이스 제공 장치.
  21. 제 18 항에 있어서, 상기 UI 재구성부는
    상기 감정 종류 또는 상황 종류에 따라 상기 그래픽 오브젝트에 식별 아이콘을 부가하는 것을 특징으로 하는 사용자 인터페이스 제공 장치.
  22. 실행 중인 애플리케이션의 종류와 관련되는 애플리케이션 정보, 사용자의 감정 상태와 관련되는 감정 정보, 및 사용자의 기기 사용 환경과 관련되는 상황 정보 중 적어도 하나를 수집하는 단계;
    상기 애플리케이션 정보, 상기 감정 정보, 및 상기 상황 정보 중 적어도 두 개를 매핑하여 특성 정보를 생성하는 단계; 및
    상기 특성 정보를 이용하여 상기 애플리케이션과 관련된 그래픽 오브젝트(Graphic Object)를 동적으로 재구성하는 단계; 를 포함하는 사용자 인터페이스 제공 방법.
KR1020120005400A 2012-01-17 2012-01-17 사용자 인터페이스 제공 장치 및 방법 KR20130084543A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020120005400A KR20130084543A (ko) 2012-01-17 2012-01-17 사용자 인터페이스 제공 장치 및 방법
US13/743,453 US20130185648A1 (en) 2012-01-17 2013-01-17 Apparatus and method for providing user interface

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120005400A KR20130084543A (ko) 2012-01-17 2012-01-17 사용자 인터페이스 제공 장치 및 방법

Publications (1)

Publication Number Publication Date
KR20130084543A true KR20130084543A (ko) 2013-07-25

Family

ID=48780871

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120005400A KR20130084543A (ko) 2012-01-17 2012-01-17 사용자 인터페이스 제공 장치 및 방법

Country Status (2)

Country Link
US (1) US20130185648A1 (ko)
KR (1) KR20130084543A (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017043857A1 (ko) * 2015-09-07 2017-03-16 삼성전자 주식회사 어플리케이션 제공 방법 및 이를 위한 전자 기기
KR20200092207A (ko) * 2019-01-24 2020-08-03 삼성전자주식회사 전자 장치 및 이를 이용한 감정 정보에 대응하는 그래픽 오브젝트를 제공하는 방법
US11184678B2 (en) 2013-12-19 2021-11-23 Samsung Electronics Co., Ltd. Display apparatus and method for recommending contents of the display apparatus

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102081229B1 (ko) * 2013-06-24 2020-02-26 한국전자통신연구원 텍스트 입력에 따른 실시간 이미지 출력 장치 및 방법
US9613155B2 (en) * 2013-07-19 2017-04-04 The Trustees Of The Stevens Institute Of Technology System and framework for multi-dimensionally visualizing and interacting with large data sets
CN103605513A (zh) * 2013-11-06 2014-02-26 小米科技有限责任公司 一种图标处理方法、装置及终端设备
KR102188090B1 (ko) * 2013-12-11 2020-12-04 엘지전자 주식회사 스마트 가전제품, 그 작동방법 및 스마트 가전제품을 이용한 음성인식 시스템
US10275583B2 (en) * 2014-03-10 2019-04-30 FaceToFace Biometrics, Inc. Expression recognition in messaging systems
US9817960B2 (en) 2014-03-10 2017-11-14 FaceToFace Biometrics, Inc. Message sender security in messaging system
US20160062571A1 (en) 2014-09-02 2016-03-03 Apple Inc. Reduced size user interface
CN106662966B (zh) * 2014-09-02 2020-08-18 苹果公司 多维对象重排
US11010726B2 (en) * 2014-11-07 2021-05-18 Sony Corporation Information processing apparatus, control method, and storage medium
CN104407771A (zh) * 2014-11-10 2015-03-11 深圳市金立通信设备有限公司 一种终端
CN104461235A (zh) * 2014-11-10 2015-03-25 深圳市金立通信设备有限公司 一种应用图标处理方法
USD780782S1 (en) * 2014-11-11 2017-03-07 Sprint Spectrum L.P. Display screen with animated graphical user interface
USD765700S1 (en) 2015-06-07 2016-09-06 Apple Inc. Display screen or portion thereof with animated graphical user interface
CN105391868B (zh) * 2015-12-03 2018-11-02 小米科技有限责任公司 列表显示方法和装置
DK201670595A1 (en) 2016-06-11 2018-01-22 Apple Inc Configuring context-specific user interfaces
CN108073336A (zh) * 2016-11-18 2018-05-25 香港中文大学 基于触摸的用户情绪检测系统和方法
CN108334583B (zh) * 2018-01-26 2021-07-09 上海智臻智能网络科技股份有限公司 情感交互方法及装置、计算机可读存储介质、计算机设备
JP7199451B2 (ja) 2018-01-26 2023-01-05 インスティテュート オブ ソフトウェア チャイニーズ アカデミー オブ サイエンシズ 感情コンピューティングユーザインターフェースに基づく感性的インタラクションシステム、装置及び方法
GB2607172B (en) * 2019-04-25 2023-11-01 Motional Ad Llc Graphical user interface for display of autonomous vehicle behaviors
US11893212B2 (en) 2021-06-06 2024-02-06 Apple Inc. User interfaces for managing application widgets

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100822029B1 (ko) * 2007-01-11 2008-04-15 삼성전자주식회사 모바일 단말기에서의 사용자 히스토리를 이용한 개인화서비스 방법 및 그 시스템
KR20100083044A (ko) * 2009-01-12 2010-07-21 삼성전자주식회사 이동단말의 위치정보를 활용한 위치 서비스 제공 및 수신방법

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7493315B2 (en) * 2000-11-15 2009-02-17 Kooltorch, L.L.C. Apparatus and methods for organizing and/or presenting data
US7137070B2 (en) * 2002-06-27 2006-11-14 International Business Machines Corporation Sampling responses to communication content for use in analyzing reaction responses to other communications
US7665024B1 (en) * 2002-07-22 2010-02-16 Verizon Services Corp. Methods and apparatus for controlling a user interface based on the emotional state of a user
US7788104B2 (en) * 2004-09-10 2010-08-31 Panasonic Corporation Information processing terminal for notification of emotion
KR100678212B1 (ko) * 2005-03-11 2007-02-02 삼성전자주식회사 휴대단말기의 감정정보 제어방법
GB0513786D0 (en) * 2005-07-05 2005-08-10 Vida Software S L User interfaces for electronic devices
US20130326338A1 (en) * 2007-09-07 2013-12-05 Adobe Systems Incorporated Methods and systems for organizing content using tags and for laying out images
US20090128567A1 (en) * 2007-11-15 2009-05-21 Brian Mark Shuster Multi-instance, multi-user animation with coordinated chat
US20090177976A1 (en) * 2008-01-09 2009-07-09 Bokor Brian R Managing and presenting avatar mood effects in a virtual world
WO2010000074A1 (en) * 2008-07-03 2010-01-07 Germann Stephen R Method and system for applying metadata to data sets of file objects
EP2175343A1 (en) * 2008-10-08 2010-04-14 Research in Motion Limited A method and handheld electronic device having a graphical user interface which arranges icons dynamically
US9665563B2 (en) * 2009-05-28 2017-05-30 Samsung Electronics Co., Ltd. Animation system and methods for generating animation based on text-based data and user information
US20120011477A1 (en) * 2010-07-12 2012-01-12 Nokia Corporation User interfaces
KR20120030789A (ko) * 2010-09-20 2012-03-29 한국전자통신연구원 감성 정보가 포함된 서비스 제공 장치 및 방법
US20120167035A1 (en) * 2010-12-22 2012-06-28 Electronics And Telecommunications Research Institute Apparatus and method for developing customer-oriented emotional home application service
US9137620B1 (en) * 2010-12-27 2015-09-15 Sprint Communications Company L.P. Conformity analysis system for analyzing conformity to restrictions on the use of a wireless communication device
US20130091444A1 (en) * 2011-10-11 2013-04-11 Microsoft Corporation Automatic rendering of interactive user interface elements
US20130159228A1 (en) * 2011-12-16 2013-06-20 Microsoft Corporation Dynamic user experience adaptation and services provisioning

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100822029B1 (ko) * 2007-01-11 2008-04-15 삼성전자주식회사 모바일 단말기에서의 사용자 히스토리를 이용한 개인화서비스 방법 및 그 시스템
KR20100083044A (ko) * 2009-01-12 2010-07-21 삼성전자주식회사 이동단말의 위치정보를 활용한 위치 서비스 제공 및 수신방법

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11184678B2 (en) 2013-12-19 2021-11-23 Samsung Electronics Co., Ltd. Display apparatus and method for recommending contents of the display apparatus
WO2017043857A1 (ko) * 2015-09-07 2017-03-16 삼성전자 주식회사 어플리케이션 제공 방법 및 이를 위한 전자 기기
US10552004B2 (en) 2015-09-07 2020-02-04 Samsung Electronics Co., Ltd Method for providing application, and electronic device therefor
KR20200092207A (ko) * 2019-01-24 2020-08-03 삼성전자주식회사 전자 장치 및 이를 이용한 감정 정보에 대응하는 그래픽 오브젝트를 제공하는 방법

Also Published As

Publication number Publication date
US20130185648A1 (en) 2013-07-18

Similar Documents

Publication Publication Date Title
KR20130084543A (ko) 사용자 인터페이스 제공 장치 및 방법
US20210243493A1 (en) Video processing method, video processing device, and storage medium
Norouzi et al. A systematic review of the convergence of augmented reality, intelligent virtual agents, and the internet of things
CN104423803B (zh) 用于基于内容提供信息的方法及其电子设备
JP6013642B2 (ja) 体験コンテンツデータセットに関するキャンペーン最適化
US20230081605A1 (en) Digital assistant for moving and copying graphical elements
KR20120127716A (ko) 신호가 풍부한 예술품에 관한 방법들 및 구성들
JP2016512363A (ja) コンテンツ作成ツール
US20230273674A1 (en) Displaying physical input devices as virtual objects
KR20170125618A (ko) 증강현실 플랫폼을 통해 가상 영역에 표시할 컨텐츠를 생성하는 방법 및 이를 지원하는 전자 장치
US11297165B2 (en) Internet of things designer for an authoring tool in virtual and augmented reality environments
WO2012063561A1 (ja) 情報報知システム、情報報知方法、情報処理装置及びその制御方法と制御プログラム
CN112817790A (zh) 模拟用户行为的方法
CN107895006A (zh) 音频播放方法、装置、存储介质及电子设备
Ruminski et al. Interactions with recognized objects
US9880723B2 (en) Graphical user interface using color spectrum to map sentiments
CN102520960A (zh) 一种界面自动生成系统以及方法
KR20150123429A (ko) 전자장치 및 컨텐츠 제공 방법
Noh et al. Virtual companion based mobile user interface: an intelligent and simplified mobile user interface for the elderly users
CN114564101B (zh) 一种三维界面的控制方法和终端
CN106250425B (zh) 用于搜索结果的交互方法和装置
US20160342291A1 (en) Electronic apparatus and controlling method thereof
CN108292193A (zh) 动画数字墨水
Blumendorf et al. Multimodal user interaction in smart environments: Delivering distributed user interfaces
CN104571515B (zh) 一种信息处理方法及电子设备

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application