KR20170002051A - 한 손 조작 사용자 인터페이스 구현 방법 및 이를 수행하는 전자 장치 - Google Patents
한 손 조작 사용자 인터페이스 구현 방법 및 이를 수행하는 전자 장치 Download PDFInfo
- Publication number
- KR20170002051A KR20170002051A KR1020150091938A KR20150091938A KR20170002051A KR 20170002051 A KR20170002051 A KR 20170002051A KR 1020150091938 A KR1020150091938 A KR 1020150091938A KR 20150091938 A KR20150091938 A KR 20150091938A KR 20170002051 A KR20170002051 A KR 20170002051A
- Authority
- KR
- South Korea
- Prior art keywords
- electronic device
- user input
- hand
- output
- display
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04817—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04803—Split screen, i.e. subdividing the display area or the window area into separate subareas
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
본 발명의 일 실시예에 따른 전자 장치는, 지정된 영역에 사용자 입력을 수신하는 터치 패널, 복수의 행(row) 및 복수의 열(column)로 구분된 복수의 격자 영역 중 적어도 하나에, 적어도 하나의 오브젝트를 출력하는 디스플레이, 및 상기 사용자 입력이 수신됨에 따라, 상기 적어도 하나의 격자 영역에 출력된 상기 적어도 하나의 오브젝트의 출력 위치를 재배열하도록 설정된 프로세서를 포함할 수 있다. 이외에도, 명세서를 통해 파악될 수 있는 다양한 실시예들이 가능하다.
Description
본 발명은 어플리케이션의 오브젝트를 재배열하여 한 손 조작 사용자 인터페이스를 구현하기 위한 방법 및 이를 수행하는 전자 장치에 관한 것이다.
퍼스널 컴퓨터(Personal Computer)의 보급에 뒤이어, 최근에는 스마트폰(smartphone), 웨어러블(wearable) 기기 등 디스플레이를 구비한 휴대용 전자 장치가 광범위하게 보급되고 있다.
상기 휴대용 전자 장치의 디스플레이는 감압식 또는 정전식 터치 패널을 추가로 구비하는 것에 의해, 이른바 터치 스크린(touch screen)으로 구현될 수 있다. 디스플레이는 터치 스크린으로 구현됨으로써 시각적 표시 수단으로의 역할에 더하여 사용자로부터의 조작을 받아들일 수 있는 입력 수단으로서의 역할도 수행할 수 있다.
상기 휴대용 전자 장치(예: 스마트폰)에 탑재된 디스플레이의 크기는 보다 커진 화면에서 다양한 기능을 제공받기 원하는 사용자들의 요구에 따라 3인치대에서 5인치 이상으로 대형화되는 경향이 있다.
사용자는 상기 휴대용 전자 장치를 사용하기 위한 일 방편으로, 한 손으로 상기 휴대용 전자 장치를 파지(把持)하고 다른 한 손으로는 다양한 터치 동작을 수행할 수 있다(이른바 양손 조작). 또는 대체적으로, 사용자는 상기 휴대용 전자 장치를 사용하기 위해, 한 손으로 상기 휴대용 전자 장치를 파지함과 아울러, 동일한 손으로 다양한 터치 동작을 수행할 수 있다(이른바 한 손 조작).
그러나, 상기 휴대용 전자 장치에 탑재되는 디스플레이 크기가 대형화되는 추세에 따라, 어린이, 여성 등과 같이 상대적으로 작은 손을 가진 사람은 물론, 건장한 성인 남성이라 하더라도 상기 한 손 조작은 용이한 일이 아닐 수 있다.
본 발명의 다양한 실시예는 전술한 과제 및 이에 파생되는 다양한 과제를 해결하기 위한 것으로, 지정된 위치에서의 지정된 터치 동작을 통해 어플리케이션의 오브젝트들을 재배열하여 제공할 수 있는 한 손 조작 사용자 인터페이스 방법 이를 수행하는 전자 장치를 제공할 수 있다.
본 발명의 일 실시예에 따른 전자 장치는, 지정된 영역에 사용자 입력을 수신하는 터치 패널, 복수의 행(row) 및 복수의 열(column)로 구분된 복수의 격자 영역 중 적어도 하나에, 적어도 하나의 오브젝트를 출력하는 디스플레이, 및 상기 사용자 입력이 수신됨에 따라, 상기 적어도 하나의 격자 영역에 출력된 상기 적어도 하나의 오브젝트의 출력 위치를 재배열하도록 설정된 프로세서를 포함할 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치는 사용자 입력 및/또는 상기 전자 장치를 파지한 손의 방향에 따라서 오브젝트들을 적합하게 재배열할 수 있다. 이를 통해, 사용자는 전자 장치를 파지한 손으로 매우 손쉽게 반대편(즉, 전자 장치를 파지하고 있는 반대편 손 측)에 배치된 오브젝트들에 접근할 수 있다.
본 발명의 다양한 실시예로부터 얻을 수 있는 효과는 상기 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 이하의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 도출되고 이해될 수 있다.
도 1은 본 발명의 일 실시예에 따른 전자 장치를 나타낸다.
도 2는 본 발명의 일 실시예에 따른 한 손 조작 사용자 인터페이스 구현 방법을 나타낸다.
도 3은 본 발명의 다양한 실시예에 따른 한 손 조작 사용자 인터페이스 구현 방법을 나타낸다.
도 4a 내지 도 4f는 본 발명의 일 실시예에 따른 한 손 조작 사용자 인터페이스가 구현된 전자 장치를 나타낸다.
도 5a 내지 도 5d는 본 발명의 다른 실시예에 따른 한 손 조작 사용자 인터페이스가 구현된 전자 장치를 나타낸다.
도 6a 및 도 6b는 본 발명의 다양한 실시예에 따른 한 손 조작 사용자 인터페이스가 구현된 전자 장치를 나타낸다.
도 7은 본 발명의 다양한 실시예에 따른 전자 장치의 블록도를 나타낸다.
도 2는 본 발명의 일 실시예에 따른 한 손 조작 사용자 인터페이스 구현 방법을 나타낸다.
도 3은 본 발명의 다양한 실시예에 따른 한 손 조작 사용자 인터페이스 구현 방법을 나타낸다.
도 4a 내지 도 4f는 본 발명의 일 실시예에 따른 한 손 조작 사용자 인터페이스가 구현된 전자 장치를 나타낸다.
도 5a 내지 도 5d는 본 발명의 다른 실시예에 따른 한 손 조작 사용자 인터페이스가 구현된 전자 장치를 나타낸다.
도 6a 및 도 6b는 본 발명의 다양한 실시예에 따른 한 손 조작 사용자 인터페이스가 구현된 전자 장치를 나타낸다.
도 7은 본 발명의 다양한 실시예에 따른 전자 장치의 블록도를 나타낸다.
이하, 본 발명의 다양한 실시예가 첨부된 도면과 연관되어 기재된다. 본 발명의 다양한 실시예는 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들이 도면에 예시되고 관련된 상세한 설명이 기재되어 있다. 그러나, 이는 본 발명의 다양한 실시예를 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 다양한 실시예의 사상 및 기술 범위에 포함되는 모든 변경 및/또는 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용되었다.
본 발명의 다양한 실시예에서 사용될 수 있는 "포함한다" 또는 "포함할 수 있다" 등의 표현은 개시(disclosure)된 해당 기능, 동작 또는 구성요소 등의 존재를 가리키며, 추가적인 하나 이상의 기능, 동작 또는 구성요소 등을 제한하지 않는다. 또한, 본 발명의 다양한 실시예에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
본 발명의 다양한 실시예에서 "또는" 또는 "A 또는/및 B 중 적어도 하나" 등의 표현은 함께 나열된 단어들의 어떠한, 그리고 모든 조합을 포함한다. 예를 들어, "A 또는 B" 또는 "A 또는/및 B 중 적어도 하나" 각각은, A를 포함할 수도, B를 포함할 수도, 또는 A 와 B 모두를 포함할 수도 있다.
본 발명의 다양한 실시예에서 사용된 "제1", "제2", "첫째", 또는 "둘째" 등의 표현들은 다양한 실시예들의 다양한 구성요소들을 수식할 수 있지만, 해당 구성요소들을 한정하지 않는다. 예를 들어, 상기 표현들은 해당 구성요소들의 순서 및/또는 중요도 등을 한정하지 않는다. 상기 표현들은 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 수 있다. 예를 들어, 제1 사용자 기기와 제2 사용자 기기는 모두 사용자 기기이며, 서로 다른 사용자 기기를 나타낸다. 예를 들어, 본 발명의 다양한 실시예의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 새로운 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 새로운 다른 구성요소가 존재하지 않는 것으로 이해될 수 있어야 할 것이다.
본 발명의 다양한 실시예에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명의 다양한 실시예를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명의 다양한 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 발명의 다양한 실시예에서 명백하게 정의되지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
본 발명의 다양한 실시예에 따른 전자 장치는, 통신 기능이 포함된 장치일 수 있다. 예를 들면, 전자 장치는 스마트 폰(smartphone), 태블릿 PC(tablet personal computer), 이동 전화기(mobile phone), 화상전화기, 전자북 리더기(e-book reader), 데스크탑 PC(desktop personal computer), 랩탑 PC(laptop personal computer), 넷북 컴퓨터(netbook computer), PDA(personal digital assistant), PMP(portable multimedia player), MP3 플레이어, 모바일 의료기기, 카메라(camera), 또는 웨어러블 장치(wearable device)(예: 전자 안경과 같은 head-mounted-device(HMD), 전자 의복, 전자 팔찌, 전자 목걸이, 전자 앱세서리(appcessory), 전자 문신, 또는 스마트 와치(smart watch))중 적어도 하나를 포함할 수 있다.
어떤 실시예들에 따르면, 전자 장치는 통신 기능을 갖춘 스마트 가전 제품(smart home appliance)일 수 있다. 스마트 가전 제품은, 예를 들자면, 전자 장치는 텔레비전, DVD(digital video disk) 플레이어, 오디오, 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기 청정기, 셋톱 박스(set-top box), TV 박스(예를 들면, 삼성 HomeSync™, 애플TV™, 또는 구글 TV™), 게임 콘솔(game consoles), 전자 사전, 전자 키, 캠코더(camcorder), 또는 전자 액자 중 적어도 하나를 포함할 수 있다.
어떤 실시예들에 따르면, 전자 장치는 각종 의료기기(예: MRA(magnetic resonance angiography), MRI(magnetic resonance imaging), CT(computed tomography), 촬영기, 초음파기 등), 네비게이션(navigation) 장치, GPS 수신기(global positioning system receiver), EDR(event data recorder), FDR(flight data recorder), 자동차 인포테인먼트(infotainment) 장치, 선박용 전자 장비(예: 선박용 항법 장치 및 자이로 콤파스 등), 항공 전자기기(avionics), 보안 기기, 차량용 헤드 유닛, 산업용 또는 가정용 로봇, 금융 기관의 ATM(automatic teller's machine) 또는 상점의 POS(point of sales) 중 적어도 하나를 포함할 수 있다.
어떤 실시예들에 따르면, 전자 장치는 통신 기능을 포함한 가구(furniture) 또는 건물/구조물의 일부, 전자 보드(electronic board), 전자 사인 입력장치(electronic signature receiving device), 프로젝터(projector), 또는 각종 계측기기(예: 수도, 전기, 가스, 또는 전파 계측 기기 등) 중 적어도 하나를 포함할 수 있다. 본 발명의 다양한 실시예에 따른 전자 장치는 전술한 다양한 장치들 중 하나 또는 그 이상의 조합일 수 있다. 또한, 본 발명의 다양한 실시예에 따른 전자 장치는 플렉서블 장치일 수 있다. 또한, 본 발명의 다양한 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않음은 당업자에게 자명하다.
이하, 첨부된 도면을 참조하여 다양한 실시예에 따른 전자 장치에 대해서 살펴본다. 다양한 실시예에서 이용되는 사용자라는 용어는 전자 장치를 사용하는 사람 또는 전자 장치를 사용하는 장치(예: 인공지능 전자 장치)를 지칭할 수 있다.
도 1은 본 발명의 일 실시예에 따른 전자 장치를 나타낸다.
도 1을 참조하면, 네트워크 환경 100에 포함된 전자 장치 101는 버스 110, 프로세서 120, 메모리 130, 입출력 인터페이스 140, 터치 디스플레이 150, 통신 인터페이스 160 및 손 검출 모듈 170을 포함할 수 있다.
버스 110은 전술한 구성요소들을 서로 연결하고, 전술한 구성요소들 간의 통신(예: 제어 메시지)을 전달하는 회로일 수 있다.
프로세서 120은, 예를 들면, 상기 버스 110을 통해 전술한 다른 구성요소들(예: 상기 메모리 130, 상기 입출력 인터페이스 140, 상기 디스플레이 150, 상기 통신 인터페이스 160, 또는 상기 손 검출 모듈 170 등)로부터 명령을 수신하여, 수신된 명령을 해독하고, 해독된 명령에 따른 연산이나 데이터 처리를 실행할 수 있다.
일 실시예에 따르면, 프로세서 120은 터치 패널 152로부터 사용자 입력이 수신됨에 따라서, 디스플레이 151에 출력된 적어도 하나의 오브젝트의 출력 위치를 다양한 방식으로 재배열하여, 상기 디스플레이 151에 출력하도록 설정될 수 있다.
또한, 일 실시예에 따르면, 프로세서 120은 사용자 입력의 수신 여부, 및 손 검출 센서 170의 검출 결과를 기반으로, 적어도 하나의 격자 영역에 출력된 적어도 하나의 오브젝트의 출력 위치를 다양한 방식으로 재배열할 수 있다.
상기 사용자 입력의 수신 여부 및/또는 손 검출 센서 170의 검출 결과를 고려한 다양한 재배열 방식은 도 4 내지 도 5를 참조하여 자세하게 설명하기로 한다.
또한, 일 실시예에 따르면, 프로세서 120은, 터치 패널 152로부터 제1 사용자 입력이 수신됨에 따라, 디스플레이 151에 출력된 상기 적어도 하나의 오브젝트 중 적어도 일부를, 새로운 레이어(layer) 상에, 지정된 도형의 둘레를 따라 배열할 수 있다. 상기 새로운 레이어는 기존의 레이어(즉, 상기 적어도 하나의 오브젝트가 출력된 레이어) 위에 출력될 수 있다. 일부 실시예에 따르면, 상기 새로운 레이어의 배경은 투명 또는 반투명하게 처리되거나 일정 투명도를 가지도록 처리될 수 있고, 상기 기존의 레이어는 블러링(blurring) 처리되어 출력될 수 있다.
상기 새로운 레이어가 출력된 후 터치 패널 152로부터 제2 사용자 입력이 수신됨에 따라, 프로세서 120은 상기 지정된 도형의 둘레에 따라서 배열된 오브젝트를 지정된 순서로 전환하도록 설정될 수 있다. 상기 새로운 레이어와 관련하여는, 도 6을 참조하여 자세히 설명한다.
메모리 130은, 상기 프로세서 120 또는 다른 구성요소들(예: 상기 입출력 인터페이스 140, 상기 디스플레이 150, 상기 통신 인터페이스 160, 또는 상기 손 검출 모듈 170 등)로부터 수신되거나 상기 프로세서 120 또는 다른 구성요소들에 의해 생성된 명령 또는 데이터를 저장할 수 있다. 상기 메모리 130은, 예를 들면, 커널 131, 미들웨어 132, 어플리케이션 프로그래밍 인터페이스(API: application programming interface) 133 또는 어플리케이션 134 등의 프로그래밍 모듈들을 포함할 수 있다. 전술한 각각의 프로그래밍 모듈들은 소프트웨어, 펌웨어, 하드웨어 또는 이들 중 적어도 둘 이상의 조합으로 구성될 수 있다.
상기 커널 131은 나머지 다른 프로그래밍 모듈들, 예를 들면, 상기 미들웨어 132, 상기 API 133 또는 상기 어플리케이션 134에 구현된 동작 또는 기능을 실행하는 데 사용되는 시스템 리소스들(예: 상기 버스 110, 상기 프로세서 120 또는 상기 메모리 130 등)을 제어 또는 관리할 수 있다. 또한, 상기 커널 131은 상기 미들웨어 132, 상기 API 133 또는 상기 어플리케이션 134에서 상기 전자 장치 101의 개별 구성요소에 접근하여 제어 또는 관리할 수 있는 인터페이스를 제공할 수 있다.
상기 미들웨어 132는 상기 API 133 또는 상기 어플리케이션 134이 상기 커널 131과 통신하여 데이터를 주고받을 수 있도록 중개 역할을 수행할 수 있다. 또한, 상기 미들웨어 132는 상기 어플리케이션 134로부터 수신된 작업 요청들과 관련하여, 예를 들면, 상기 어플리케이션 134 중 적어도 하나의 어플리케이션에 상기 전자 장치 101의 시스템 리소스(예: 상기 버스 110, 상기 프로세서 120 또는 상기 메모리 130 등)를 사용할 수 있는 우선 순위를 배정하는 등의 방법을 이용하여 작업 요청에 대한 제어(예: 스케쥴링 또는 로드 밸런싱)을 수행할 수 있다.
상기 API 133는 상기 어플리케이션 134이 상기 커널 131 또는 상기 미들웨어 132에서 제공되는 기능을 제어하기 위한 인터페이스로, 예를 들면, 파일 제어, 창 제어, 화상 처리 또는 문자 제어 등을 위한 적어도 하나의 인터페이스 또는 함수(예: 명령어)를 포함할 수 있다.
다양한 실시예에 따르면, 상기 어플리케이션 134는 SMS/MMS 어플리케이션, 이메일 어플리케이션, 달력 어플리케이션, 알람 어플리케이션, 건강 관리(health care) 어플리케이션(예: 운동량 또는 혈당 등을 측정하는 어플리케이션) 또는 환경 정보 어플리케이션(예: 기압, 습도 또는 온도 정보 등을 제공하는 어플리케이션) 등을 포함할 수 있다. 추가적으로 또는 대체적으로, 상기 어플리케이션 134는 상기 전자 장치 101과 외부 전자 장치(예: 전자 장치 104) 사이의 정보 교환과 관련된 어플리케이션일 수 있다. 상기 정보 교환과 관련된 어플리케이션은, 예를 들어, 상기 외부 전자 장치에 특정 정보를 전달하기 위한 알림 전달(notification relay) 어플리케이션, 또는 상기 외부 전자 장치를 관리하기 위한 장치 관리(device management) 어플리케이션을 포함할 수 있다.
예를 들면, 상기 알림 전달 어플리케이션은 상기 전자 장치 101 의 다른 어플리케이션(예: SMS/MMS 어플리케이션, 이메일 어플리케이션, 건강 관리 어플리케이션 또는 환경 정보 어플리케이션 등)에서 발생한 알림 정보를 외부 전자 장치(예: 전자 장치 104)로 전달하는 기능을 포함할 수 있다. 추가적으로 또는 대체적으로, 상기 알림 전달 어플리케이션은, 예를 들면, 외부 전자 장치(예: 전자 장치 104)로부터 알림 정보를 수신하여 사용자에게 제공할 수 있다. 상기 장치 관리 어플리케이션은, 예를 들면, 상기 전자 장치 101과 통신하는 외부 전자 장치(예: 전자 장치 104)의 적어도 일부에 대한 기능(예: 외부 전자 장치 자체(또는, 일부 구성 부품)의 턴온/턴오프 또는 디스플레이의 밝기(또는, 해상도) 조절), 상기 외부 전자 장치에서 동작하는 어플리케이션 또는 상기 외부 전자 장치에서 제공되는 서비스(예: 통화 서비스 또는 메시지 서비스)를 관리(예: 설치, 삭제 또는 업데이트)할 수 있다.
다양한 실시예에 따르면, 상기 어플리케이션 134는 상기 외부 전자 장치(예: 전자 장치 104)의 속성(예: 전자 장치의 종류)에 따라 지정된 어플리케이션을 포함할 수 있다. 예를 들어, 외부 전자 장치가 MP3 플레이어인 경우, 상기 어플리케이션 134는 음악 재생과 관련된 어플리케이션을 포함할 수 있다. 유사하게, 외부 전자 장치가 모바일 의료기기인 경우, 상기 어플리케이션 134는 건강 관리와 관련된 어플리케이션을 포함할 수 있다. 한 실시예에 따르면, 상기 어플리케이션 134는 전자 장치 101에 지정된 어플리케이션 또는 외부 전자 장치(예: 서버 106 또는 전자 장치 104)로부터 수신된 어플리케이션 중 적어도 하나를 포함할 수 있다.
입출력 인터페이스 140은, 입출력 장치(예: 센서, 키보드 또는 터치 스크린)를 통하여 사용자로부터 입력된 명령 또는 데이터를, 예를 들면, 상기 버스 110을 통해 상기 프로세서 120, 상기 메모리 130, 상기 통신 인터페이스 160, 또는 상기 손 검출 모듈 170에 전달할 수 있다. 예를 들면, 상기 입출력 인터페이스 140은 터치 스크린을 통하여 입력된 사용자의 터치에 대한 데이터를 상기 프로세서 120로 제공할 수 있다. 또한, 상기 입출력 인터페이스 140은, 예를 들면, 상기 버스 110을 통해 상기 프로세서 120, 상기 메모리 130, 상기 통신 인터페이스 160, 또는 상기 손 검출 모듈 170으로부터 수신된 명령 또는 데이터를 상기 입출력 장치(예: 스피커 또는 디스플레이)를 통하여 출력할 수 있다. 예를 들면, 상기 입출력 인터페이스 140은 상기 프로세서 120을 통하여 처리된 음성 데이터를 스피커를 통하여 사용자에게 출력할 수 있다.
터치 디스플레이 150은 사용자에게 각종 정보(예: 멀티미디어 데이터 또는 텍스트 데이터 등)을 표시하거나, 사용자로부터 터치 입력을 수신할 수 있다. 이를 위해, 일 실시예에 따른 터치 디스플레이 150은 디스플레이 151 및 터치 패널 152를 포함할 수 있다.
디스플레이 151은, 예를 들면, 액정 디스플레이(liquid crystal display(LCD)), 발광 다이오드(light-emitting diode(LED)) 디스플레이, 유기 발광 다이오드(organic light-emitting diode(OLED)) 디스플레이, 또는 마이크로 전자기계 시스템(microelectromechanical systems(MEMS)) 디스플레이, 또는 전자종이(electronic paper) 디스플레이를 포함할 수 있다. 디스플레이 960은, 예를 들면, 사용자에게 각종 콘텐츠(예: 텍스트, 이미지, 비디오, 아이콘, 또는 심볼 등)을 표시할 수 있다.
일 실시예에 따르면, 디스플레이 151은, 복수의 행(row) 및 복수의 열(column)로 구분된 복수의 격자 영역 중 적어도 하나에, 적어도 하나의 오브젝트를 출력할 수 있다. 또한, 상기 디스플레이 151은 본 발명의 다양한 실시예에 따라서 재배열된 오브젝트를 출력할 수 있다. 일부 실시예에 따르면, 상기 복수의 행 및 복수의 열로 구분된 복수의 격자 영역 (의 구분선)은 시각적으로 인식되지 않도록 디스플레이 151에 출력되지 않을 수 있다.
상기 오브젝트는, 메모리 130에 저장된 어플리케이션 134의 아이콘(icon), 위젯(widget) 등을 포함할 수 있다. 일 실시예에 따르면, 상기 출력되는 오브젝트들의 개수는, 당해 오브젝트들이 출력되는 격자 영역의 개수와 일치 또는 불일치 할 수 있다. 예를 들어, 상기 출력되는 오브젝트 각각이 아이콘에 해당하는 경우, 상기 출력되는 오브젝트들의 개수는 당해 오브젝트들이 출력되는 격자 영역의 개수와 일치할 수 있다. 반면, 상기 출력되는 오브젝트에 2이상의 격자 영역을 차지하는 위젯이 포함된 경우, 상기 출력되는 오브젝트들의 개수는 당해 오브젝트들이 출력되는 격자 영역의 개수와 불일치할 수 있다.
일 실시예에 따른 디스플레이 151은, 메인 디스플레이 영역과 적어도 하나의 서브 디스플레이 영역을 포함할 수 있다. 상기 메인 디스플레이 영역은 전자 장치 101의 전면의 대부분을 구성할 수 있으며, 상기 적어도 하나의 오브젝트를 출력할 수 있다. 상기 적어도 하나의 서브 디스플레이 영역은 상기 메인 디스플레이 영역에서 전자 장치 101의 측면으로 확장되어 형성될 수 있다. 예컨대, 적어도 하나의 서브 디스플레이 영역은 전자 장치 101의 전면에서 측면으로 휘어진 커브드(curved) 디스플레이로 구현될 수 있다.
터치 패널 152는 상기 디스플레이 151에 대응되는 크기로 구현되어 상기 디스플레이 151의 상부에 결합될 수 있다. 예를 들면, 터치 패널 152는 전자 펜 또는 사용자의 신체의 일부를 이용한 터치, 제스처, 근접, 또는 호버링 입력을 수신할 수 있다. 터치 패널 152는, 예를 들면, 정전식, 감압식, 적외선 방식 또는 초음파 방식 중 적어도 하나의 방식으로 사용자 입력을 인식할 수 있다.
일 실시예에 따르면, 터치 패널 152는 그 지정된 영역에 사용자 입력을 수신할 수 있다. 예를 들면, 상기 사용자 입력은, 단순한 터치 제스처, 더블터치 제스처, 또는 터치 무브(touch move) 제스처를 포함할 수 있다.
예를 들면, 단순한 터치 제스처는, 사용자가 자신의 신체 일부(예: 손가락 등)를 터치 패널 152의 일정한 위치에 접촉시켰다가 짧은 시간 안에 떼는(release) 동작에 해당할 수 있다. 더블터치 제스처는, 상기 단순한 터치 제스처를 2회 빠르게 수행하는 동작에 해당할 수 있다. 또한, 터치 무브 제스처는 사용자가 자신의 신체 일부를 터치 패널 152의 제1 위치에 접촉하고, 제1 위치와는 다른 제2 위치로 지정된 거리만큼 당해 터치를 이동시킨 다음, 상기 제2 위치에서 당해 터치를 떼는 동작에 해당할 수 있다.
한편, 상기 사용자 입력이 수신되는 지정된 영역은, 디스플레이 151의 출력 영역(혹은 표시 영역) 중에서 오브젝트들이 출력된 영역을 제외한 영역에 포함될 수 있다.
예를 들면, 상기 지정된 영역은, 디스플레이 151과 대응되어 결합된 터치 패널에 있어서, 오브젝트가 출력된 영역 사이의 빈 영역, 복수의 격자 영역 중 오브젝트가 출력되지 않은 영역, 디스플레이 151의 전체 출력 영역 중 모서리 영역, 디스플레이 151의 전체 출력 영역 (혹은, 메인 디스플레이 영역) 중 제1 모서리 영역과 제2 모서리 영역이 교차하여 형성하는 끼인 영역(코너 영역) 등을 포함할 수 있다. 다양한 실시예에 따라서, 디스플레이 151이 메인 디스플레이 영역 및 적어도 하나의 서브 디스플레이 영역을 포함하는 경우, 상기 지정된 영역은, 상기 적어도 하나의 서브 디스플레이 영역에 포함될 수 있다.
상기 지정된 영역은 예시일 수 있다. 상기 지정된 영역은 오브젝트들이 출력된 영역을 제외한 영역으로서, 전자 장치 101을 파지하고 있는 사용자의 손이 쉽게 도달할 수 있는 소정의 영역을 포함할 수 있다. 아울러, 다양한 실시예에 의하면, 상기 지정된 영역에 대한 사용자 입력은, 특정 물리적 버튼을 통한 입력, 소프트 키를 통한 입력, 음성 입력 등을 두루 포함할 수 있다.
통신 인터페이스 160은 상기 전자 장치 101과 외부 장치(예: 전자 장치 104 또는 서버 106) 간의 통신을 연결할 수 있다. 예를 들면, 상기 통신 인터페이스 160은 무선 통신 또는 유선 통신을 통해서 네트워크 162에 연결되어 상기 외부 장치와 통신할 수 있다. 상기 무선 통신은, 예를 들어, Wi-Fi(wireless fidelity), BT(Bluetooth), NFC(near field communication), GPS(global positioning system) 또는 cellular 통신(예: LTE, LTE-A, CDMA, WCDMA, UMTS, WiBro 또는 GSM 등) 중 적어도 하나를 포함할 수 있다. 상기 유선 통신은, 예를 들어, USB(universal serial bus), HDMI(high definition multimedia interface), RS-232(recommended standard 232) 또는 POTS(plain old telephone service) 중 적어도 하나를 포함할 수 있다.
한 실시예에 따르면, 상기 네트워크 162는 통신 네트워크(telecommunications network)일 수 있다. 상기 통신 네트워크 는 컴퓨터 네트워크(computer network), 인터넷(internet), 사물 인터넷(internet of things) 또는 전화망(telephone network) 중 적어도 하나를 포함할 수 있다. 한 실시예에 따르면, 상기 전자 장치 101과 외부 장치 간의 통신을 위한 프로토콜(예: transport layer protocol, data link layer protocol 또는 physical layer protocol))은 어플리케이션 134, 어플리케이션 프로그래밍 인터페이스 133, 상기 미들웨어 132, 커널 131 또는 통신 인터페이스 160 중 적어도 하나에서 지원될 수 있다.
서버 106은 상기 전자 장치 101에서 구현되는 동작(또는, 기능)들 중 적어도 하나의 동작을 수행함으로써, 상기 전자 장치 101의 구동을 지원할 수 있다.
손 검출 모듈 170은 전자 장치 101을 파지한 사용자의 손이 오른손인지 혹은 왼손인지 여부를 검출할 수 있다. 상기 손 검출 모듈 170은, 용량성 소자(capacitive element)를 이용하여 전자 장치 101을 파지한 사용자의 손을 검출할 수 있다. 일부 실시예에 의하면, 서브 디스플레이 영역 151c1, 151c2에 접촉된 사용자의 손 및 손가락을 인식하여, 전자 장치 101을 파지한 사용자의 손의 방향을 검출할 수도 있다.
도 2는 본 발명의 일 실시예에 따른 한 손 조작 사용자 인터페이스 구현 방법을 나타낸다.
도 2를 참조하면, 본 발명의 일 실시예에 따른 전자 장치 101의 한 손 조작 사용자 인터페이스 구현 방법은, 동작 201 내지 동작 205를 포함할 수 있다.
동작 201에서, 디스플레이 151은, 출력 영역의 복수의 행 및 복수의 열로 구분된 복수의 격자 영역 중 적어도 하나에, 적어도 하나의 오브젝트를 출력할 수 있다.
동작 203에서 터치 패널 152는 지정된 영역에, 사용자 입력을 수신할 수 있다. 상기 지정된 영역은, 예를 들어, 터치 패널 152와 대응되어 결합된 디스플레이 151의 출력 영역 중, 오브젝트들이 출력된 영역을 제외한 영역에 포함될 수 있다. 또한, 상기 사용자 입력은, 단순한 터치 제스처, 더블터치 제스처, 또는 터치 무브 제스처를 포함할 수 있다.
동작 205에서 프로세서 120은 동작 203에서의 사용자 입력에 따라서, 상기 적어도 하나의 격자 영역에 출력된 상기 적어도 하나의 오브젝트를 다양한 방식으로 재배열할 수 있다.
일 실시예에 따르면, 프로세서 120은 복수의 행 및 복수의 열로 구분된 복수의 격자 영역 중 적어도 하나의 행(또는 열)의 배열 순서를 변경하여, 디스플레이 151에 출력된 적어도 하나의 오브젝트의 출력 위치를 재배열할 수 있다.
또한, 일 실시예에 따르면, 프로세서 120은 지정된 격자 영역들을 서로 대칭적으로 교환함으로써 적어도 하나의 오브젝트의 출력 위치를 재배열할 수 있다. 예를 들어, 프로세서 120은 복수의 행 및 복수의 열로 구분된 복수의 격자 영역 중 좌상단(upper-left) 격자 영역과 우하단(lower-right) 격자 영역을 서로 교환하거나, 우상단(upper-right) 격자 영역과 좌하단(lower-left) 격자 영역을 서로 교환하여, 디스플레이 151에 출력된 적어도 하나의 오브젝트의 출력 위치를 재배열할 수 있다.
이때, 좌상단 격자 영역, 좌하단 격자 영역, 우상단 격자 영역, 및 우하단 격자 영역의 구분은, 복수의 격자 영역들 각각의 배열 위치로 보아 판단될 수 있다. 예를 들어, 상기 i 행 및 j 열로 구분된 i×j개의 격자 영역에 있어서, 상기 i×j개의 격자 영역을 i×j 행렬로 보면, 상기 좌하단 격자 영역들은 i > j인 행렬 성분에 대응하는 격자 영역의 집합에 해당할 수 있다. 또한, 우상단 격자 영역들은 i < j인 행렬 성분에 대응하는 격자 영역의 집합에 해당할 수 있다.
또한, 일 실시예에 따르면, 프로세서 120은, 터치 패널 152로부터 제1 사용자 입력이 수신됨에 따라, 디스플레이 151에 출력된 상기 적어도 하나의 오브젝트 중 적어도 일부를, 새로운 레이어 상에, 지정된 도형의 둘레를 따라 배열할 수 있다. 상기 새로운 레이어가 출력된 후 터치 패널 152로부터 제2 사용자 입력이 수신됨에 따라, 프로세서 120은 상기 지정된 도형의 둘레에 따라서 배열된 오브젝트를 지정된 순서로 전환하도록 설정될 수 있다(도 6 참조).
도 3은 본 발명의 다양한 실시예에 따른 한 손 조작 사용자 인터페이스 구현 방법을 나타낸다.
도 3을 참조하면, 본 발명의 다양한 실시예에 따른 전자 장치 101의 한 손 조작 사용자 인터페이스 구현 방법은, 동작 301 내지 동작 307을 포함할 수 있다. 도 2와 관련하여 중복된 설명은 생략될 수 있다.
동작 301에서, 디스플레이 151은, 출력 영역의 복수의 행 및 복수의 열로 구분된 복수의 격자 영역 중 적어도 하나에, 적어도 하나의 오브젝트를 출력할 수 있다.
동작 303에서 손 검출 센서 170은 전자 장치 101을 파지한 사용자의 손이 오른손인지 혹은 왼손인지 여부를 검출할 수 있다. 상기 손 검출 센서 170은 용량성 소자를 이용한 그립 센서 또는 터치 패널 152를 이용할 수 있다.
동작 305에서 상기 디스플레이의 지정된 영역에, 사용자 입력을 수신할 수 있다.
동작 307에서 상기 사용자 입력이 수신됨에 따라서, 프로세서 120은 상기 사용자 입력 및 상기 손 검출 결과에 기초하여, 상기 적어도 하나의 격자 영역에 출력된 상기 적어도 하나의 오브젝트의 출력 위치를 재배열할 수 있다.
일 실시예에 따르면, 프로세서 120은 상기 사용자 입력 및 손 검출 센서 170에 의한 검출 결과를 이용하여, 복수의 행 및 복수의 열로 구분된 복수의 격자 영역 중, 적어도 하나의 행 또는 열을 지정된 순서로 이동시킬 수 있다.
예를 들어, 전자 장치 101을 파지한 손이 오른손인 것으로 검출되고 상기 사용자 입력이 수신되면, 프로세서 120은 상기 복수의 격자 영역 중 오른손에서 가장 멀리 배치된 열을, 오른손에서 가장 가까운 열로 시프트(shift)할 수 있다. 반대로 전자 장치 101을 파지한 손이 왼손인 것으로 검출되고 상기 사용자 입력이 수신되면, 프로세서 120은 상기 복수의 격자 영역 중 왼손에서 가장 멀리 배치된 열을, 왼손에서 가장 가까운 열로 시프트할 수 있다. 이로써, 프로세서 120은 디스플레이 151에 출력된 오브젝트들을 전자 장치 101을 파지한 손에 적합하게 재배열할 수 있다.
또한, 일 실시예에 따르면, 프로세서 120은 상기 사용자 입력 및 손 검출 센서 170에 의한 검출 결과를 이용하여, 지정된 격자 영역들을 서로 대칭적으로 교환할 수 있다.
예를 들어, 전자 장치 101을 파지한 손이 오른손인 것으로 검출되고 상기 사용자 입력이 수신되면, 프로세서 120은, 복수의 행 및 복수의 열로 구분된 복수의 격자 영역 중 좌상단 격자 영역과 우하단 격자 영역을 서로 교환할 수 있다. 반대로, 전자 장치 101을 파지한 손이 왼손인 것으로 검출되고 상기 사용자 입력이 수신되면, 프로세서 120은, 상기 복수의 격자 영역 중 우상단 격자 영역과 좌하단 격자 영역을 서로 교환할 수 있다. 이로써, 프로세서 120은 디스플레이 151에 출력된 오브젝트들을 전자 장치 101을 파지한 손에 적합하게 재배열할 수 있다
또한, 일 실시예에 따르면, 프로세서 120은 상기 사용자 입력 및 손 검출 센서 170에 의한 검출 결과를 이용하여, 디스플레이 151에 출력된 상기 적어도 하나의 오브젝트 중 적어도 일부를, 새로운 레이어 상에 지정된 도형의 둘레를 따라 배열할 수 있다.
예를 들어, 전자 장치 101을 파지한 손이 오른손인 것으로 검출되고 상기 사용자 입력이 수신되면, 프로세서 120은, 상기 오른손이 쉽게 도달할 수 있도록, 상기 도형을, 장축(長軸)이 좌상-우하 방향으로 형성된 길쭉한 타원으로 결정할 수 있다. 반대로, 전자 장치 101을 파지한 손이 왼손인 것으로 검출되고 상기 사용자 입력이 수신되면, 프로세서 120은, 상기 왼손이 쉽게 도달할 수 있도록, 상기 도형의 형상을, 장축이 우상-좌하 방향으로 형성된 길쭉한 타원으로 결정할 수 있다. 이로써 디스플레이 151에 출력된 적어도 하나의 오브젝트를 전자 장치 101을 파지한 손에 적합하게 배열할 수 있다
도 4a 내지 도 4f는 본 발명의 일 실시예에 따른 한 손 조작 사용자 인터페이스가 구현된 전자 장치를 나타낸다.
도 4a를 참조하면, 본 발명의 일 실시예에 따른 한 손 조작 사용자 인터페이스가 구현된 전자 장치 101이 도시되어 있다. 전자 장치 101의 터치 디스플레이 150은, 5행 5열로 구분된 25개의 격자 영역을 포함할 수 있다. 상기 25개의 격자 영역 중 21개의 격자 영역에는 21개의 오브젝트(오브젝트 A 내지 오브젝트 U)가 출력될 수 있다. 이와 같은, 사용자 입력 전 오브젝트의 배치는 도 4b 내지 4f, 도 5a 내지 도 5d, 도 6a 및 도 6b에서 공통되므로 해당 도면에 있어서는 중복된 설명을 생략한다.
사용자는, 자신의 오른손 5R의 엄지 손가락을 제1 위치 410에서 제2 위치 420으로 지정된 거리만큼 우측으로 터치 무브하는 제스처를 수행할 수 있다. 상기 제1 위치 410 및 제2 위치 420은 미리 지정된 영역 A1에 포함될 수 있다. 상기 전자 장치 101은, 터치 무브하는 제스처에 따라서, 25개 격자 영역의 5개 열 중 제1열 411(오브젝트 A, 오브젝트 F, 오브젝트 K, 오브젝트 P, 및 오브젝트 U를 포함한 열)을 지정된 순서로 이동시킬 수 있다. 예를 들어, 전자 장치 101은 제1열 411을 제2열 412(오브젝트 B, 오브젝트 G, 오브젝트 L, 오브젝트 Q, 및 공백 격자를 포함한 열)과 스위칭할 수 있다.
다양한 실시예에 따르면, 상기 터치 무브 제스처가 복수 회 수행되면, 전자 장치 101은 제1열 411(오브젝트 A, 오브젝트 F, 오브젝트 K, 오브젝트 P, 및 오브젝트 U를 포함한 열)을 상기 복수 회만큼 스위칭을 반복하여 제1열 411을 우측으로 스위칭할 수 있다. 예컨대, 상기 터치 무브 제스처가 3회 수행되었다면, 상기 제1열 411은 제4열 414의 위치에 배치될 수 있다.
한편 다양한 실시예에 따르면, 제2 위치 420 에서 제1 위치 410으로 터치 무브하는 제스처가 수행되면 상기 제1열 411은 좌측 방향으로 스위칭될 수 있다. 예를 들어, 제1 위치 410 에서 제2 위치 420으로 터치 무브하는 제스처가 3회 수행되고, 제2 위치 420 에서 제1 위치 410으로 터치 무브하는 제스처가 1회 수행되었다면, 상기 제1열 411은 제3열 413의 위치에 배치될 수 있다.
도 4b를 참조하면, 사용자는 자신의 오른손 10R의 엄지 손가락을 제1 위치 430에서 제2 위치 440으로 지정된 거리만큼 아래측으로 터치 무브하는 제스처를 수행할 수 있다. 상기 제1 위치 430 및 제2 위치 440은, 서브 디스플레이 영역 150c2의 일부를 구성하는 미리 지정된 영역 A2에 포함될 수 있다. 상기 전자 장치 101은, 상기 터치 무브하는 제스처에 따라서, 25개 격자 영역의 5개 행 중 제1행 421(오브젝트 A, 오브젝트 B, 오브젝트 C, 오브젝트 D, 및 오브젝트 E를 포함한 행)을 지정된 순서로 이동시킬 수 있다. 예를 들어, 전자 장치 101은 제1행 421을 제2행 422(오브젝트 F, 오브젝트 G, 오브젝트 H, 오브젝트 I, 및 오브젝트 J)과 스위칭할 수 있다.
도 4a와 마찬가지로, 다양한 실시예에 따르면, 상기 터치 무브 제스처가 복수 회 수행되면, 전자 장치 101은 제1행 421을 상기 복수 회만큼 스위칭을 반복하여 제1행 421을 아래 측으로 이동시킬 수 있다. 예컨대, 상기 터치 무브 제스처가 2회 수행되었다면, 상기 제1행 421은 제3행 423의 위치에 배치될 수 있다. 또한, 다양한 실시예에 따르면, 제2 위치 440 에서 제1 위치 430으로 터치 무브하는 제스처가 수행되면 상기 제1행 421은 위 측 방향으로 이동할 수 있다.
상기 행 또는 열의 배열 순서, 예를 들어, 상기 행 또는 열이 이동하는 순서는 다양하게 설정될 수 있다. 예를 들어, 도 4c를 참조하면, 사용자는 자신의 오른손 15R의 엄지 손가락을 제1 위치 450에서 제2 위치 460으로 지정된 거리만큼 우측으로 터치 무브하는 제스처를 수행할 수 있다. 상기 제1 위치 450 및 제2 위치 460은 미리 지정된 영역 A3에 포함될 수 있다. 상기 전자 장치 101은, 터치 무브하는 제스처에 따라서, 25개 격자 영역의 5개 열의 배열 순서를 변경할 수 있다. 예를 들어, 전자 장치 101은 제1열 431(오브젝트 A, 오브젝트 F, 오브젝트 K, 오브젝트 P, 및 오브젝트 U를 포함한 열)을 제5열의 위치로 이동시킬 수 있다. 아울러 전자 장치 101은, 제2열 432 내지 제5열 435을 제1열 내지 제4열의 위치로 각각 이동시킬 수 있다(제2열 432 내지 제5열 435은 좌로 밀릴 수 있다).
다양한 실시예에 따르면, 상기 터치 무브 제스처가 복수 회 수행되면, 전자 장치 101은 제1열의 위치에 있는 열을 제5열의 위치로 반복적으로 이동시킬 수 있고, 이에 수반하여, 제2열 내지 제5열의 위치에 있는 열을 제1열 내지 제4열의 위치로 각각 이동시킬 수 있다. 예컨대, 상기 터치 무브 제스처가 2회 수행되었다면, 제1열 431은 제4열의 위치에, 제2열 432는 제5열의 위치에, 제3열 433은 제1열의 위치에, 제4열 434는 제2열의 위치에 제5열 435은 제3열의 위치에 배치될 수 있다.
또한, 다양한 실시예에 따르면, 제2 위치 460 에서 제1 위치 450으로 터치 무브하는 제스처가 수행되면, 전자 장치 101은 제5열 435를 제1열의 위치로 이동시킬 수 있다. 이에 따라, 제1열 431 내지 제4열 434는 제2열 내지 제5열의 위치로 각각 이동할 수 있다(우로 밀릴 수 있다).
도 4d를 참조하면, 사용자는 자신의 왼손 20L의 엄지 손가락을 제1 위치 470에서 제2 위치 480으로 지정된 거리만큼 하측으로 터치 무브하는 제스처를 수행할 수 있다. 상기 제1 위치 470 및 제2 위치 480은 미리 지정된 영역 A4에 포함될 수 있다. 상기 미리 지정된 영역 A4는 서브 디스플레이 영역 150c2에 포함될 수 있다. 상기 전자 장치 101은, 상기 터치 무브하는 제스처에 따라서, 25개 격자 영역의 5개 행의 배열 순서를 변경할 수 있다. 예를 들어, 전자 장치 101은 제1행 441을 제5행의 위치로 이동시킬 수 있다. 아울러, 전자 장치 101은 제2행 442 내지 제5행 445를 제1행 내지 제4행의 위치로 각각 이동시킬 수 있다. (제2행 442 내지 제5행 445은 위로 밀릴 수 있다).
다양한 실시예에 따르면, 상기 터치 무브 제스처가 복수 회 수행되면, 전자 장치 101은 제1행의 위치에 있는 열을 제5행의 위치로 반복적으로 이동시킬 수 있고, 이에 수반하여, 제2행 내지 제5행의 위치에 있는 행을 제1행 내지 제4행의 위치로 각각 이동시킬 수 있다. 예컨대, 상기 터치 무브 제스처가 2회 수행되었다면, 제1행 441은 제4행의 위치에, 제2행 442는 제5행의 위치에, 제3행 443은 제1행의 위치에, 제4행 444는 제2행의 위치에 제5행 445은 제3행의 위치에 배치될 수 있다.
또한, 다양한 실시예에 따르면, 제2 위치 480 에서 제1 위치 470으로 터치 무브하는 제스처가 수행되면, 전자 장치 101은 제5행 435를 제1행의 위치로 이동시킬 수 있다. 이에 따라, 제1행 441 내지 제4행 444는 제2행 내지 제5행의 위치로 각각 이동할 수 있다(아래로 밀릴 수 있다).
일 실시예에 따르면, 전자 장치 101의 프로세서 120은 사용자 입력 및 손 검출 센서 170에 의한 검출 결과를 이용하여, 복수의 행 및 복수의 열로 구분된 복수의 격자 영역 중, 적어도 하나의 행 또는 열의 배열 순서를 변경할 수 있다.
도 4e를 참조하면, 사용자는 자신의 오른손 25R로 전자 장치 101을 파지하고, 상기 오른손 25R의 엄지 손가락으로 지정된 영역 A5에 더블 터치 제스처 490을 수행할 수 있다. 전자 장치 101의 손 검출 센서 170은 상기 사용자의 오른손 25R을 검출할 수 있고, 터치 패널 152는 상기 지정된 영역 A5에서의 더블 터치 제스처 490을 수신할 수 있다.
상기 전자 장치 101은, 상기 검출된 손의 방향(오른손 25R) 및 상기 더블 터치 제스처 490에 따라서, 25개 격자 영역의 5개 열의 배열 순서를 변경할 수 있다. 예를 들어, 전자 장치 101은 제1열 451(오브젝트 A, 오브젝트 F, 오브젝트 K, 오브젝트 P, 및 오브젝트 U를 포함한 열)을 제5열의 위치로 이동시킬 수 있다. 아울러 전자 장치 101은, 제2열 452 내지 제5열 455을 제1열 내지 제4열의 위치로 각각 이동시킬 수 있다(제2열 452 내지 제5열 455은 좌로 밀릴 수 있다). 도 4e에 있어서의 열 이동(shifting) 동작은 도 4c에서 설명한 열 이동 동작에 대응될 수 있으므로 중복될 수 있는 설명은 생략한다.
도 4f를 참조하면, 사용자는 자신의 왼손 30L로 전자 장치 101을 파지하고, 상기 왼손 30L의 엄지 손가락으로 지정된 영역 A6에 더블 터치 제스처 495를 수행할 수 있다. 상기 미리 지정된 영역 A6는 서브 디스플레이 영역 150c1에 포함될 수 있다. 전자 장치 101의 손 검출 센서 170은 상기 사용자의 왼손 30L을 검출할 수 있고, 터치 패널 152는 상기 지정된 영역 A6에서의 더블 터치 제스처 495를 수신할 수 있다.
상기 전자 장치 101은, 상기 검출된 손의 방향(왼손 30L) 및 상기 더블 터치 제스처 495에 따라서, 25개 격자 영역의 5개 열의 배열 순서를 변경할 수 있다. 예를 들어, 전자 장치 101은 제5열 465(오브젝트 E, 오브젝트 J, 오브젝트 O, 오브젝트 T, 및 공백 격자 영역을 포함한 열)을 제1열의 위치로 이동시킬 수 있다. 아울러 전자 장치 101은, 제1열 461 내지 제4열 464를 제2열 내지 제5열의 위치로 각각 이동시킬 수 있다(제1열 461 내지 제4열 464는 우로 밀릴 수 있다). 도 4f에 있어서의 열 이동 동작은 도 4c 및 도 4e에서 설명한 열 이동 동작의 반대 동작에 대응될 수 있으므로 대응될 수 있는 설명은 생략한다.
도 4a 내지 도 4f에서는 하나의 열 또는 행을 이동시키는 것으로 설명하였으나, 1회의 사용자 입력에 따라서 이동되는 열 또는 행의 개수는 2 이상일 수 있다. 또한, 상기 사용자 입력이 수신되는 지정된 영역은, 메인 디스플레이 영역 150m의 일측 코너 영역 A1, A3, A5, 및 서브 디스플레이 영역 150c1 또는 150c2에 포함된 영역 A2, A4, A6으로 설명하였으나, 이에 제한되지 않는다.
도 5a 내지 도 5d는 본 발명의 일 실시예에 따른 한 손 조작 사용자 인터페이스가 구현된 전자 장치를 나타낸다.
일 실시예에 따르면, 전자 장치 101의 프로세서 120은 터치 패널 152로부터의 사용자 입력 및 손 검출 센서 170에 의한 검출 결과를 이용하여, 지정된 격자 영역들을 서로 대칭적으로 교환할 수 있다.
도 5a를 참조하면, 사용자는 자신의 오른손 35R로 전자 장치 101을 파지하고, 상기 오른손 35R의 엄지 손가락으로 지정된 영역 A7에 더블 터치 제스처 510을 수행할 수 있다. 상기 미리 지정된 영역 A7은 메인 디스플레이 영역 150m의 일측 코너 영역에 포함될 수 있다. 전자 장치 101의 손 검출 센서 170은 상기 사용자의 오른손 35R을 검출할 수 있고, 터치 패널 152는 상기 지정된 영역 A7에서의 더블 터치 제스처 510을 수신할 수 있다.
상기 전자 장치 101은, 상기 검출된 손의 방향(오른손 35R) 및 상기 더블 터치 제스처 510에 기초하여, 25개 격자 영역 중 좌상단 격자 영역들 511ul과 우하단 격자 영역들 512lr을 서로 교환하여, 디스플레이 150에 출력된 21개의 오브젝트의 출력 위치를 재배열할 수 있다. 도 5a의 실시예에 있어서, 상기 좌상단 격자 영역들 511ul과 상기 우하단 격자 영역들 512lr은 상기 25개 격자 영역의 중앙에 배치된 오브젝트 M을 중심으로 점대칭적으로 서로 교환될 수 있다. 상기 좌상단 격자 영역들 511ul이 점대칭되면 우하단 격자 영역들 522lr에 대응할 수 있고, 상기 우하단 격자 영역들 512lr이 점대칭되면 좌상단 격자 영역들 521ul에 대응할 수 있다.
도 5b를 참조하면, 사용자는 자신의 왼손 40L로 전자 장치 101을 파지하고, 상기 왼손 40L의 엄지 손가락으로 지정된 영역 A8에 더블 터치 제스처 520을 수행할 수 있다. 상기 미리 지정된 영역 A8은 서브 디스플레이 영역 150c1 에 포함될 수 있다. 전자 장치 101의 손 검출 센서 170은 상기 사용자의 왼손 40L을 검출할 수 있고, 터치 패널 152는 상기 지정된 영역 A8에서의 더블 터치 제스처 520을 수신할 수 있다.
상기 전자 장치 101은, 상기 검출된 손의 방향(왼손 40L) 및 상기 더블 터치 제스처 520에 기초하여, 25개 격자 영역 중 좌하단 격자 영역들 531ll과 우상단 격자 영역들 532ur을 서로 교환하여, 디스플레이 150에 출력된 21개의 오브젝트의 출력 위치를 재배열할 수 있다. 상기 좌하단 격자 영역들 531ll과 우상단 격자 영역들 532ur은 상기 25개 격자 영역의 중앙에 배치된 오브젝트 M을 중심으로 점대칭적으로 서로 교환될 수 있다. 상기 좌하단 격자 영역들 531ll이 점대칭되면 우상단 격자 영역들 542ur에 대응할 수 있고, 상기 우상단 격자 영역들 532ur이 점대칭되면 좌하단 격자 영역들 541ll에 대응할 수 있다.
상기 격자 영역들이 교환되는 방식은 다양하게 설정될 수 있다. 예를 들어, 오브젝트가 출력될 수 있는, 복수의 격자 영역이 m행 m열로 구분되는 경우, 상기 격자 영역들은 선대칭적으로 서로 교환될 수도 있다.
도 5c를 참조하면, 사용자는 자신의 오른손 45R로 전자 장치 101을 파지하고, 상기 오른손 45R의 엄지 손가락으로 지정된 영역 A9에 더블 터치 제스처 530을 수행할 수 있다. 상기 미리 지정된 영역 A9는 메인 디스플레이 영역 150m의 일측 코너 영역에 포함될 수 있다. 전자 장치 101의 손 검출 센서 170은 상기 사용자의 오른손 45R을 검출할 수 있고, 터치 패널 152는 지정된 영역 A9에서의 더블 터치 제스처 530을 수신할 수 있다.
상기 전자 장치 101은, 상기 검출된 손의 방향(오른손 45R) 및 상기 더블 터치 제스처 530에 기초하여, 5행 5열로 구분되는 25개 격자 영역 중 좌상단 격자 영역들 551ul과 우하단 격자 영역들 552lr을 서로 교환하여, 디스플레이 150에 출력된 21개의 오브젝트의 출력 위치를 재배열할 수 있다. 상기 좌상단 격자 영역들 551ul과 상기 우하단 격자 영역들 552lr은 오브젝트 E, I, N, Q, 및 U가 형성하는 부대각선(secondary diagonal)을 기준으로 선대칭적으로 서로 교환될 수 있다. 상기 좌상단 격자 영역들 551ul이 선대칭되면 우하단 격자 영역들 562lr에 대응할 수 있고, 상기 우하단 격자 영역들 552lr이 선대칭되면 좌상단 격자 영역들 561ur에 대응할 수 있다.
도 5d를 참조하면, 사용자는 자신의 왼손 50L로 전자 장치 101을 파지하고, 상기 왼손 50L의 엄지 손가락으로 지정된 영역 A10에 더블 터치 제스처 540을 수행할 수 있다. 상기 미리 지정된 영역 A10은 서브 디스플레이 영역 150c1에 포함될 수 있다. 전자 장치 101의 손 검출 센서 170은 상기 사용자의 왼손 50L을 검출할 수 있고, 터치 패널 152는 지정된 영역 A10에서의 더블 터치 제스처 540을 수신할 수 있다.
상기 전자 장치 101은, 상기 검출된 손의 방향(왼손 50L) 및 상기 더블 터치 제스처 540에 기초하여, 5행 5열로 구분되는 25개 격자 영역 중 좌하단 격자 영역들 571ll과 우상단 격자 영역들 572ur을 서로 교환하여, 디스플레이 150에 출력된 21개의 오브젝트의 출력 위치를 재배열할 수 있다. 상기 좌하단 격자 영역들 571ll과 상기 우상단 격자 영역들 572ur은 오브젝트 A, G, M, 및 S가 형성하는 주대각선(main diagonal)을 기준으로 선대칭적으로 서로 교환될 수 있다. 상기 좌하단 격자 영역들 571ll이 선대칭되면 우상단 격자 영역들 582ur에 대응할 수 있고, 상기 우상단 격자 영역들 572ur이 선대칭되면 좌하단 격자 영역들 581ll에 대응할 수 있다.
도 6a 및 도 6b는 본 발명의 일 실시예에 따른 한 손 조작 사용자 인터페이스가 구현된 전자 장치를 나타낸다.
일 실시예에 따르면, 전자 장치 101의 프로세서 120은 터치 센서 152에서 수신된 사용자 입력, 및 손 검출 센서 170에 의한 검출 결과를 이용하여, 디스플레이 151에 출력된 상기 적어도 하나의 오브젝트 중 적어도 일부를, 지정된 도형의 둘레를 따라 배열할 수 있다.
도 6a를 참조하면, 사용자는 자신의 오른손 55R로 전자 장치 101을 파지하고, 상기 오른손 55R의 엄지 손가락으로 지정된 영역 A11에 단순 터치 제스처 610(제1 사용자 입력)을 수행할 수 있다. 상기 지정된 영역 A11는 메인 디스플레이 영역 150m의 일측 코너 영역에 포함될 수 있다. 전자 장치 101의 손 검출 센서 170은 상기 사용자의 오른손 55R을 검출할 수 있고, 터치 패널 152는 지정된 영역 A11에서의 터치 제스처 610을 수신할 수 있다.
상기 전자 장치 101은, 상기 검출된 손의 방향(오른손 55R) 및 상기 터치 제스처 610(제1 사용자 입력)에 기초하여, 터치 디스플레이 150에 출력된 21개의 오브젝트(오브젝트 A 내지 오브젝트 U) 중 적어도 일부(오브젝트 A 내지 I)를 지정된 도형의 둘레에 따라 배열하여 새로운 레이어로 상기 터치 디스플레이 150에 출력할 수 있다.
일 실시예에 따르면, 도 6a에 도시한 바와 같이, 상기 도형은, 검출한 오른손 55R이 오브젝트 A에 쉽게 도달할 수 있도록 설정된 도형(장축이 좌상-우하 방향으로 형성된 길쭉한 타원)일 수 있다.
사용자는 터치 디스플레이 150에 대하여, 자신의 오른손 55R의 엄지 손가락을 제1 위치 620에서 제2 위치 630으로 지정된 거리만큼 우측으로 터치 무브하는 제스처(제2 사용자 입력)를 수행할 수 있다. 상기 터치 무브 제스처(제2 사용자 입력)가 수신됨에 따라, 전자 장치 101는 상기 타원의 둘레를 따라 배열된 오브젝트 A 내지 I를 반시계 방향으로 전환할 수 있다. 일 실시예에 따르면, 상기 제2 사용자 입력은 상기 타원의 둘레를 따라서 시계 방향 또는 반시계 방향으로 터치 무브하는 동작에 해당할 수 있다.
일 실시예에 따르면 상기 타원의 둘레를 따라 배열된 오브젝트 A 내지 I에는 애니메이션 효과가 가미될 수 있다. 전자 장치 101 (의 프로세서 120)은, 예를 들어 상기 터치 무브 제스처(제2 사용자 입력)가 수신됨에 따라서, 사용자의 오른손 55R으로부터 가장 가까이에 배치된 오브젝트 A가 사라지고, 가장 마지막 순서의 오브젝트 I의 뒤에 후차의 오브젝트 J가 생성되도록 하는 애니매이션 효과를 부가할 수 있다.
도 6b를 참조하면, 사용자는 자신의 왼손 60L로 전자 장치 101을 파지하고, 상기 왼손 60L의 엄지 손가락으로 지정된 영역 A12에 단순 터치 제스처 610(제1 사용자 입력)을 수행할 수 있다. 상기 지정된 영역 A12는 서브 디스플레이 영역 150c1에 포함될 수 있다. 전자 장치 101의 손 검출 센서 170은 상기 사용자의 왼손 60L을 검출할 수 있고, 터치 디스플레이 150은 지정된 영역 A12에서의 터치 제스처 640을 수신할 수 있다.
상기 전자 장치 101은, 상기 검출된 손의 방향(왼손 60L) 및 상기 터치 제스처 640(제1 사용자 입력)에 기초하여, 터치 디스플레이 150에 출력된 21개의 오브젝트(오브젝트 A 내지 오브젝트 U) 중 적어도 일부(오브젝트 A 내지 I)를 지정된 도형의 둘레에 따라 배열하여 새로운 레이어로 상기 터치 디스플레이 150에 출력할 수 있다.
일 실시예에 따르면, 도 6a와 마찬가지로, 상기 도형은, 검출한 왼손 60L이 오브젝트 A에 쉽게 도달할 수 있도록 설정된 도형(장축이 좌하-우상 방향으로 형성된 길쭉한 타원)일 수 있다.
사용자는 터치 디스플레이 150에 대하여, 자신의 오른손 60L의 엄지 손가락을 제1 위치 650에서 제2 위치 660으로 지정된 거리만큼 우측으로 터치 무브하는 제스처(제2 사용자 입력)를 수행할 수 있다. 상기 터치 무브 제스처(제2 사용자 입력)가 수신됨에 따라, 전자 장치 101는 상기 타원의 둘레를 따라 배열된 오브젝트 A 내지 I를 반시계 방향으로 이동시킬 수 있다. 일 실시예에 따르면, 상기 제2 사용자 입력은 상기 타원의 둘레를 따라서 시계 방향 또는 반시계 방향으로 터치 무브하는 동작에 해당할 수 있다.
도 6a 및 도 6b에 있어서, 상기 지정된 도형은 타원인 것으로 설명하였으나, 상기 지정된 도형은 다각형, 원, 나선형, 또는 포물선을 포함할 수 있다. 또한, 상기 도 6a 및 도 6b에 있어서, 상기 지정된 도형은 디스플레이에 출력되는 것으로 설명하였으나, 상기 지정된 도형 그 자체은 출력되지 않을 수 있다. 아울러, 상기 제1 사용자 입력에 따라서 기존의 레이어 위에 새로운 레이어가 생성되는 것으로 설명하였으나, 새로운 레이어의 생성없이 기존의 레이어에서도, 지정된 도형의 둘레에 따른 오브젝트의 배열은 이루어질 수 있다.
본 발명의 다양한 실시예에 의하면, 프로세서 120은 사용자 입력 및/또는 검출된 손의 방향에 따라서 오브젝트 들을 적합하게 재배열할 수 있다. 이를 통해, 사용자는 전자 장치 101을 파지한 손으로 매우 손쉽게 반대편(즉, 전자 장치 101를 파지하고 있는 반대편 손 측)에 배치된 오브젝트들을 선택할 수 있다.
도 7은 다양한 실시예들에 따른 전자 장치 701의 블록도 700을 나타낸다.
도 7를 참조하면, 전자 장치 701은, 예를 들면, 도 1에 도시된 전자 장치 101의 전체 또는 일부를 구성할 수 있다. 상기 전자 장치 701은 하나 이상의 어플리케이션 프로세서(AP: application processor) 710, 통신 모듈 720, SIM(subscriber identification module) 카드 724, 메모리 730, 센서 모듈 740, 입력 장치 750, 디스플레이 760, 인터페이스 770, 오디오 모듈 780, 카메라 모듈 791, 전력관리 모듈 795, 배터리 796, 인디케이터 797 및 모터 798을 포함할 수 있다.
상기 AP 710(예: 도 1의 프로세서 120)은 운영체제 또는 응용 프로그램을 구동하여 상기 AP 710에 연결된 다수의 하드웨어 또는 소프트웨어 구성요소들을 제어할 수 있고, 멀티미디어 데이터를 포함한 각종 데이터 처리 및 연산을 수행할 수 있다. 상기 AP 710은, 예를 들면, SoC(system on chip) 로 구현될 수 있다. 한 실시예에 따르면, 상기 AP 710은 GPU(graphic processing unit, 미도시)를 더 포함할 수 있다.
상기 통신 모듈 720(예: 도 1의 통신 인터페이스 160)은 상기 전자 장치 701(예: 도 1의 전자 장치 101)와 네트워크를 통해 연결된 다른 전자 장치들 간의 통신에서 데이터 송수신을 수행할 수 있다. 한 실시예에 따르면, 상기 통신 모듈 720은 셀룰러 모듈 721, Wi-Fi 모듈 723, BT 모듈 725, GPS 모듈 727, NFC 모듈 728 및 RF(radio frequency) 모듈 729를 포함할 수 있다.
상기 셀룰러 모듈 721은 통신망(예: LTE, LTE-A, CDMA, WCDMA, UMTS, Wi-Bro 또는 GSM 등)을 통해서 음성 통화, 영상 통화, 문자 서비스 또는 인터넷 서비스 등을 제공할 수 있다. 또한, 상기 셀룰러 모듈 721은, 예를 들면, 가입자 식별 모듈(예: SIM 카드 724)을 이용하여 통신 네트워크 내에서 전자 장치의 구별 및 인증을 수행할 수 있다. 한 실시예에 따르면, 상기 셀룰러 모듈 721은 상기 AP 710가 제공할 수 있는 기능 중 적어도 일부 기능을 수행할 수 있다. 예를 들면, 상기 셀룰러 모듈 721은 멀티 미디어 제어 기능의 적어도 일부를 수행할 수 있다.
한 실시예에 따르면, 상기 셀룰러 모듈 721은 커뮤니케이션 프로세서(CP: communication processor)를 포함할 수 있다. 또한, 상기 셀룰러 모듈 721은, 예를 들면, SoC로 구현될 수 있다. 도 7에서는 상기 셀룰러 모듈 721(예: 커뮤니케이션 프로세서), 상기 메모리 730 또는 상기 전력관리 모듈 795 등의 구성요소들이 상기 AP 710과 별개의 구성요소로 도시되어 있으나, 한 실시예에 따르면, 상기 AP 710가 전술한 구성요소들의 적어도 일부(예: 셀룰러 모듈 721)를 포함하도록 구현될 수 있다.
한 실시예에 따르면, 상기 AP 710 또는 상기 셀룰러 모듈 721(예: 커뮤니케이션 프로세서)은 각각에 연결된 비휘발성 메모리 또는 다른 구성요소 중 적어도 하나로부터 수신한 명령 또는 데이터를 휘발성 메모리에 로드(load)하여 처리할 수 있다. 또한, 상기 AP 710 또는 상기 셀룰러 모듈 721은 다른 구성요소 중 적어도 하나로부터 수신하거나 다른 구성요소 중 적어도 하나에 의해 생성된 데이터를 비휘발성 메모리에 저장(store)할 수 있다.
상기 Wi-Fi 모듈 723, 상기 BT 모듈 725, 상기 GPS 모듈 727 또는 상기 NFC 모듈 728 각각은, 예를 들면, 해당하는 모듈을 통해서 송수신되는 데이터를 처리하기 위한 프로세서를 포함할 수 있다. 도 7에서는 셀룰러 모듈 721, Wi-Fi 모듈 723, BT 모듈 725, GPS 모듈 727 또는 NFC 모듈 728이 각각 별개의 블록으로 도시되었으나, 한 실시예에 따르면, 셀룰러 모듈 721, Wi-Fi 모듈 723, BT 모듈 725, GPS 모듈 727 또는 NFC 모듈 728 중 적어도 일부(예: 두 개 이상)는 하나의 integrated chip(IC) 또는 IC 패키지 내에 포함될 수 있다. 예를 들면, 셀룰러 모듈 721, Wi-Fi 모듈 723, BT 모듈 725, GPS 모듈 727 또는 NFC 모듈 728 각각에 대응하는 프로세서들 중 적어도 일부(예: 셀룰러 모듈 721에 대응하는 커뮤니케이션 프로세서 및 Wi-Fi 모듈 723에 대응하는 Wi-Fi 프로세서)는 하나의 SoC로 구현될 수 있다.
상기 RF 모듈 729는 데이터의 송수신, 예를 들면, RF 신호의 송수신을 할 수 있다. 상기 RF 모듈 729는, 도시되지는 않았으나, 예를 들면, 트랜시버(transceiver), PAM(power amp module), 주파수 필터(frequency filter) 또는 LNA(low noise amplifier) 등을 포함할 수 있다. 또한, 상기 RF 모듈 729는 무선 통신에서 자유 공간상의 전자파를 송수신하기 위한 부품, 예를 들면, 도체 또는 도선 등을 더 포함할 수 있다. 도 7에서는 셀룰러 모듈 721, Wi-Fi 모듈 723, BT 모듈 725, GPS 모듈 727 및 NFC 모듈 728이 하나의 RF 모듈 729을 서로 공유하는 것으로 도시되어 있으나, 한 실시예에 따르면, 셀룰러 모듈 721, Wi-Fi 모듈 723, BT 모듈 725, GPS 모듈 727 또는 NFC 모듈 728 중 적어도 하나는 별개의 RF 모듈을 통하여 RF 신호의 송수신을 수행할 수 있다.
상기 SIM 카드 724는 가입자 식별 모듈을 포함하는 카드일 수 있으며, 전자 장치의 특정 위치에 형성된 슬롯에 삽입될 수 있다. 상기 SIM 카드 724는 고유한 식별 정보(예: ICCID(integrated circuit card identifier)) 또는 가입자 정보(예: IMSI(international mobile subscriber identity))를 포함할 수 있다.
상기 메모리 730(예: 도 1의 메모리 130)는 내장 메모리 732 또는 외장 메모리 734를 포함할 수 있다. 상기 내장 메모리 732는, 예를 들면, 휘발성 메모리(예를 들면, DRAM(dynamic RAM), SRAM(static RAM), SDRAM(synchronous dynamic RAM) 등) 또는 비휘발성 메모리(non-volatile Memory, 예를 들면, OTPROM(one time programmable ROM), PROM(programmable ROM), EPROM(erasable and programmable ROM), EEPROM(electrically erasable and programmable ROM), mask ROM, flash ROM, NAND flash memory, NOR flash memory 등) 중 적어도 하나를 포함할 수 있다.
한 실시예에 따르면, 상기 내장 메모리 732는 Solid State Drive (SSD)일 수 있다. 상기 외장 메모리 734는 flash drive, 예를 들면, CF(compact flash), SD(secure digital), Micro-SD(micro secure digital), Mini-SD(mini secure digital), xD(extreme digital) 또는 Memory Stick 등을 더 포함할 수 있다. 상기 외장 메모리 734는 다양한 인터페이스를 통하여 상기 전자 장치 701과 기능적으로 연결될 수 있다. 한 실시예에 따르면, 상기 전자 장치 701은 하드 드라이브와 같은 저장 장치(또는 저장 매체)를 더 포함할 수 있다.
상기 센서 모듈 740(예: 도 1의 손 검출 모듈 170)은 물리량을 계측하거나 전자 장치 701의 작동 상태를 감지하여, 계측 또는 감지된 정보를 전기 신호로 변환할 수 있다. 상기 센서 모듈 740은, 예를 들면, 제스처 센서 740A, 자이로 센서 740B, 기압 센서 740C, 마그네틱 센서 740D, 가속도 센서 740E, 그립 센서 740F, 근접 센서 740G, color 센서 740H(예: RGB(red, green, blue) 센서), 생체 센서 740I, 온/습도 센서 740J, 조도 센서 740K 또는 UV(ultra violet) 센서 740M 중의 적어도 하나를 포함할 수 있다. 추가적으로 또는 대체적으로, 상기 센서 모듈 740은, 예를 들면, 후각 센서(E-nose sensor, 미도시), EMG 센서(electromyography sensor, 미도시), EEG 센서(electroencephalogram sensor, 미도시), ECG 센서(electrocardiogram sensor, 미도시), IR(infra-red) 센서(미도시), 홍채 센서(미도시) 또는 지문 센서(미도시) 등을 포함할 수 있다. 상기 센서 모듈 740은 그 안에 속한 적어도 하나 이상의 센서들을 제어하기 위한 제어 회로를 더 포함할 수 있다.
상기 입력 장치 750은 터치 패널(touch panel) 752(예: 도 1의 터치 패널 121), (디지털) 펜 센서(pen sensor) 754, 키(key) 756 또는 초음파(ultrasonic) 입력 장치 758를 포함할 수 있다. 상기 터치 패널 752는, 예를 들면, 정전식, 감압식, 적외선 방식 또는 초음파 방식 중 적어도 하나의 방식으로 터치 입력을 인식할 수 있다. 또한, 상기 터치 패널 752는 제어 회로를 더 포함할 수도 있다. 정전식의 경우, 물리적 접촉 또는 근접 인식이 가능하다. 상기 터치 패널 752는 택타일 레이어(tactile layer)를 더 포함할 수도 있다. 이 경우, 상기 터치 패널 752는 사용자에게 촉각 반응을 제공할 수 있다.
상기 (디지털) 펜 센서 754는, 예를 들면, 사용자의 터치 입력을 받는 것과 동일 또는 유사한 방법 또는 별도의 인식용 쉬트(sheet)를 이용하여 구현될 수 있다. 상기 키 756은, 예를 들면, 물리적인 버튼, 광학식 키 또는 키패드를 포함할 수 있다. 상기 초음파(ultrasonic) 입력 장치 758은 초음파 신호를 발생하는 입력 도구를 통해, 전자 장치 701에서 마이크(예: 마이크 788)로 음파를 감지하여 데이터를 확인할 수 있는 장치로서, 무선 인식이 가능하다. 한 실시예에 따르면, 상기 전자 장치 701은 상기 통신 모듈 720을 이용하여 이와 연결된 외부 장치(예: 컴퓨터 또는 서버)로부터 사용자 입력을 수신할 수도 있다.
상기 디스플레이 760(예: 도 1의 디스플레이 152)은 패널 762, 홀로그램 장치 764 또는 프로젝터 766을 포함할 수 있다. 상기 패널 762는, 예를 들면, LCD(liquid-crystal display) 또는 AM-OLED(active-matrix organic light-emitting diode) 등일 수 있다. 상기 패널 762는, 예를 들면, 유연하게(flexible), 투명하게(transparent) 또는 착용할 수 있게(wearable) 구현될 수 있다. 상기 패널 762는 상기 터치 패널 752과 하나의 모듈로 구성될 수도 있다. 상기 홀로그램 장치 764는 빛의 간섭을 이용하여 입체 영상을 허공에 보여줄 수 있다. 상기 프로젝터 766은 스크린에 빛을 투사하여 영상을 표시할 수 있다. 상기 스크린은, 예를 들면, 상기 전자 장치 701의 내부 또는 외부에 위치할 수 있다. 한 실시예에 따르면, 상기 디스플레이 760은 상기 패널 762, 상기 홀로그램 장치 764, 또는 프로젝터 766을 제어하기 위한 제어 회로를 더 포함할 수 있다.
상기 인터페이스 770(예: 도 1의 입출력 인터페이스 140)은, 예를 들면, HDMI(high-definition multimedia interface) 772, USB(universal serial bus) 774, 광 인터페이스(optical interface) 776 또는 D-sub(D-subminiature) 778을 포함할 수 있다. 상기 인터페이스 770은, 예를 들면, 도 1에 도시된 PCB 70s에 포함될 수 있다. 추가적으로 또는 대체적으로, 상기 인터페이스 770은, 예를 들면, MHL(mobile high-definition link) 인터페이스, SD(secure Digital) 카드/MMC(multi-media card) 인터페이스 또는 IrDA(infrared data association) 규격 인터페이스를 포함할 수 있다.
상기 오디오 모듈 780은 소리(sound)와 전기신호를 쌍방향으로 변환시킬 수 있다. 상기 오디오 모듈 780은, 예를 들면, 스피커 782, 리시버 784, 이어폰 786 또는 마이크 788 등을 통해 입력 또는 출력되는 소리 정보를 처리할 수 있다.
상기 카메라 모듈 791은 정지 영상 및 동영상을 촬영할 수 있는 장치로서, 한 실시예에 따르면, 하나 이상의 이미지 센서(예: 도 1의 전면 카메라 74, 후면 카메라 75), 렌즈(미도시), ISP(image signal processor, 미도시) 또는 플래쉬 (flash, 미도시)(예: LED 또는 xenon lamp)를 포함할 수 있다.
상기 전력 관리 모듈 795는 상기 전자 장치 701의 전력을 관리할 수 있다. 도시하지는 않았으나, 상기 전력 관리 모듈 795는, 예를 들면, PMIC(power management integrated circuit), 충전 IC(charger integrated circuit) 또는 배터리 또는 연료 게이지(battery or fuel gauge)를 포함할 수 있다.
상기 PMIC는, 예를 들면, 집적회로 또는 SoC 반도체 내에 탑재될 수 있다. 충전 방식은 유선과 무선으로 구분될 수 있다. 상기 충전 IC는 배터리를 충전시킬 수 있으며, 충전기로부터의 과전압 또는 과전류 유입을 방지할 수 있다. 한 실시예에 따르면, 상기 충전 IC는 유선 충전 방식 또는 무선 충전 방식 중 적어도 하나를 위한 충전 IC를 포함할 수 있다. 무선 충전 방식으로는, 예를 들면, 자기공명 방식, 자기유도 방식 또는 전자기파 방식 등이 있으며, 무선 충전을 위한 부가적인 회로, 예를 들면, 코일 루프, 공진 회로 또는 정류기 등의 회로가 추가될 수 있다.
상기 배터리 게이지는, 예를 들면, 상기 배터리 796의 잔량, 충전 중 전압, 전류 또는 온도를 측정할 수 있다. 상기 배터리 796은 전기를 저장 또는 생성할 수 있고, 그 저장 또는 생성된 전기를 이용하여 상기 전자 장치 701에 전원을 공급할 수 있다. 상기 배터리 796은, 예를 들면, 충전식 전지(rechargeable battery) 또는 태양 전지(solar battery)를 포함할 수 있다.
상기 인디케이터 797은 상기 전자 장치 701 혹은 그 일부(예: 상기 AP 710)의 특정 상태, 예를 들면, 부팅 상태, 메시지 상태 또는 충전 상태 등을 표시할 수 있다. 상기 모터 798은 전기적 신호를 기계적 진동으로 변환할 수 있다. 도시되지는 않았으나, 상기 전자 장치 701은 모바일 TV 지원을 위한 처리 장치(예: GPU)를 포함할 수 있다. 상기 모바일 TV지원을 위한 처리 장치는, 예를 들면, DMB(digital multimedia broadcasting), DVB(digital video broadcasting) 또는 미디어플로우(mediaflow) 등의 규격에 따른 미디어 데이터를 처리할 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치의 전술한 구성요소들 각각은 하나 또는 그 이상의 부품(component)으로 구성될 수 있으며, 해당 구성 요소의 명칭은 전자 장치의 종류에 따라서 달라질 수 있다. 본 발명의 다양한 실시예에 따른 전자 장치는 전술한 구성요소 중 적어도 하나를 포함하여 구성될 수 있으며, 일부 구성요소가 생략되거나 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 또한, 본 발명의 다양한 실시예에 따른 전자 장치의 구성 요소들 중 일부가 결합되어 하나의 개체(entity)로 구성됨으로써, 결합되기 이전의 해당 구성 요소들의 기능을 동일하게 수행할 수 있다.
본 발명의 다양한 실시예에 사용된 용어 “모듈”은, 예를 들어, 하드웨어, 소프트웨어 또는 펌웨어(firmware) 중 하나 또는 둘 이상의 조합을 포함하는 단위(unit)를 의미할 수 있다. “모듈”은 예를 들어, 유닛(unit), 로직(logic), 논리 블록(logical block), 부품(component) 또는 회로(circuit) 등의 용어와 바꾸어 사용(interchangeably use)될 수 있다. “모듈”은, 일체로 구성된 부품의 최소 단위 또는 그 일부가 될 수 있다. “모듈”은 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수도 있다. “모듈”은 기계적으로 또는 전자적으로 구현될 수 있다. 예를 들면, 본 발명의 다양한 실시예에 따른 “모듈”은, 알려졌거나 앞으로 개발될, 어떤 동작들을 수행하는 ASIC(application-specific integrated circuit) 칩, FPGAs(field-programmable gate arrays) 또는 프로그램 가능 논리 장치(programmable-logic device) 중 적어도 하나를 포함할 수 있다.
다양한 실시예에 따르면, 본 발명의 다양한 실시예에 따른 장치(예: 모듈들 또는 그 기능들) 또는 방법(예: 동작들)의 적어도 일부는, 예컨대, 프로그래밍 모듈의 형태로 컴퓨터로 읽을 수 있는 저장매체(computer-readable storage media)에 저장된 명령어로 구현될 수 있다. 상기 명령어는, 하나 이상의 프로세서 (예: 도 1의 프로세서 120)에 의해 실행될 경우, 상기 하나 이상의 프로세서가 상기 명령어에 해당하는 기능을 수행할 수 있다. 컴퓨터로 읽을 수 있는 저장매체는, 예를 들면, 상기 메모리 130가 될 수 있다. 상기 프로그래밍 모듈의 적어도 일부는, 예를 들면, 상기 프로세서 120에 의해 구현(implement)(예: 실행)될 수 있다. 상기 프로그래밍 모듈 의 적어도 일부는 하나 이상의 기능을 수행하기 위한, 예를 들면, 모듈, 프로그램, 루틴, 명령어 세트 (sets of instructions) 또는 프로세스 등을 포함할 수 있다.
상기 컴퓨터로 판독 가능한 기록 매체에는 하드디스크, 플로피디스크 및 자기 테이프와 같은 마그네틱 매체(Magnetic Media)와, CD-ROM, DVD와 같은 광기록 매체(Optical Media)와, 플롭티컬 디스크(Floptical Disk)와 같은 자기-광 매체(Magneto-Optical Media)와, 그리고 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령(예: 프로그래밍 모듈)을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함될 수 있다. 또한, 프로그램 명령에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 상술한 하드웨어 장치는 본 발명의 다양한 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지다.
본 발명의 다양한 실시예에 따른 모듈 또는 프로그래밍 모듈은 전술한 구성요소들 중 적어도 하나 이상을 포함하거나, 일부가 생략되거나, 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 본 발명의 다양한 실시예에 따른 모듈, 프로그래밍 모듈 또는 다른 구성요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱(heuristic)한 방법으로 실행될 수 있다. 또한, 일부 동작은 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.
다양한 실시예에 따르면, 명령들을 저장하고 있는 저장 매체에 있어서, 상기 명령들은 적어도 하나의 프로세서에 의하여 실행될 때에 상기 적어도 하나의 프로세서로 하여금 적어도 하나의 동작을 수행하도록 설정된 것으로서, 상기 적어도 하나의 동작은, 디스플레이 150의, 복수의 행 및 복수의 열로 구분된 복수의 격자 영역 중 적어도 하나에, 적어도 하나의 오브젝트를 출력하는 동작, 디스플레이 150의 지정된 영역에, 사용자 입력을 수신하는 동작, 및 상기 사용자 입력이 수신됨에 따라, 상기 적어도 하나의 격자 영역에 출력된 상기 적어도 하나의 오브젝트를 재배열하는 동작을 포함할 수 있다.
그리고 본 명세서와 도면에 개시된 본 발명의 실시예들은 본 발명의 실시예에 따른 기술 내용을 쉽게 설명하고 본 발명의 실시예의 이해를 돕기 위해 특정 예를 제시한 것일 뿐이며, 본 발명의 실시예의 범위를 한정하고자 하는 것은 아니다. 따라서 본 발명의 다양한 실시예의 범위는 여기에 개시된 실시예들 이외에도 본 발명의 다양한 실시예의 기술적 사상을 바탕으로 도출되는 모든 변경 또는 변형된 형태가 본 발명의 다양한 실시예의 범위에 포함되는 것으로 해석되어야 한다.
Claims (20)
- 전자 장치에 있어서,
지정된 영역에 사용자 입력을 수신하는 터치 패널;
복수의 행(row) 및 복수의 열(column)로 구분된 복수의 격자 영역 중 적어도 하나에, 적어도 하나의 오브젝트를 출력하는 디스플레이; 및
상기 사용자 입력이 수신됨에 따라, 상기 적어도 하나의 격자 영역에 출력된 상기 적어도 하나의 오브젝트의 출력 위치를 재배열하도록 설정된 프로세서를 포함하는, 전자 장치. - 청구항 1에 있어서,
상기 프로세서는, 상기 사용자 입력이 수신됨에 따라, 상기 복수의 행 중 적어도 하나의 배열 순서를 변경하여, 상기 적어도 하나의 오브젝트의 출력 위치를 재배열하도록 설정된, 전자 장치. - 청구항 1에 있어서,
상기 프로세서는, 상기 사용자 입력이 수신됨에 따라, 상기 복수의 열 중 적어도 하나의 배열 순서를 변경하여, 상기 적어도 하나의 오브젝트의 출력 위치를 재배열하도록 설정된, 전자 장치. - 청구항 1에 있어서,
상기 전자 장치를 파지한 사용자의 손이 오른손인지 혹은 왼손인지 여부를 검출하는 손 검출 센서를 더 포함하고,
상기 프로세서는, 상기 사용자 입력 및 상기 손 검출 센서의 검출 결과에 기초하여, 상기 적어도 하나의 오브젝트의 출력 위치를 재배열하도록 설정된, 전자 장치. - 청구항 4에 있어서,
상기 전자 장치를 파지한 손이 오른손인 것으로 검출되고 상기 사용자 입력이 수신되면, 상기 프로세서는, 상기 복수의 격자 영역 중 좌상단 격자 영역과 우하단 격자 영역을 서로 교환하여, 상기 적어도 하나의 오브젝트의 출력 위치를 재배열하도록 설정된, 전자 장치. - 청구항 4에 있어서,
상기 전자 장치를 파지한 손이 왼손인 것으로 검출되고 상기 사용자 입력이 수신되면, 상기 프로세서는, 상기 복수의 격자 영역 중 우상단 격자 영역과 좌하단 격자 영역을 서로 교환하여, 상기 적어도 하나의 오브젝트의 출력 위치를 재배열하도록 설정된, 전자 장치. - 청구항 1에 있어서,
상기 프로세서는,
제1 사용자 입력이 수신됨에 따라, 상기 적어도 하나의 오브젝트 중 적어도 일부를 지정된 도형의 둘레에 따라 배열하여 상기 디스플레이에 출력하고,
제2 사용자 입력이 수신됨에 따라, 상기 지정된 도형의 둘레에 따라 배열된 오브젝트를 지정된 순서로 전환하도록 설정된, 전자 장치. - 청구항 7에 있어서,
상기 지정된 도형은 다각형, 원형, 타원형, 나선형, 또는 포물선을 포함하는, 전자 장치. - 청구항 1에 있어서,
상기 사용자 입력은, 상기 지정된 영역에서, 제1 위치에서 제2 위치로 지정된 거리만큼 터치 무브(touch move)하는 제스처를 포함하는, 전자 장치. - 청구항 1에 있어서,
상기 사용자 입력은, 상기 지정된 영역에서, 터치 또는 더블터치 제스처를 포함하는, 전자 장치. - 청구항 1에 있어서,
상기 지정된 영역은, 상기 디스플레이의 출력 영역 중 상기 적어도 하나의 오브젝트가 출력된 영역을 제외한 영역에 포함되는, 전자 장치. - 청구항 1에 있어서,
상기 디스플레이는,
상기 적어도 하나의 오브젝트가 출력되는 메인 디스플레이 영역; 및
상기 메인 디스플레이 영역에서 상기 전자 장치의 측면으로 확장되는 적어도 하나의 서브 디스플레이 영역을 포함하고,
상기 사용자 입력이 수신되는 상기 지정된 영역은, 상기 적어도 하나의 서브 디스플레이 영역에 포함되는, 전자 장치. - 전자 장치의 한 손 조작 사용자 인터페이스 구현 방법에 있어서,
디스플레이의, 복수의 행(row) 및 복수의 열(column)로 구분된 복수의 격자 영역 중 적어도 하나에, 적어도 하나의 오브젝트를 출력하는 동작;
상기 디스플레이의 지정된 영역에, 사용자 입력을 수신하는 동작; 및
상기 사용자 입력이 수신됨에 따라, 상기 적어도 하나의 격자 영역에 출력된 상기 적어도 하나의 오브젝트의 출력 위치를 재배열하는 동작을 포함하는 한 손 조작 사용자 인터페이스 구현 방법. - 청구항 13에 있어서,
상기 재배열하는 동작은, 상기 사용자 입력이 수신됨에 따라, 상기 복수의 행 중 적어도 하나의 배열 순서를 변경하여, 상기 적어도 하나의 오브젝트의 출력 위치를 재배열하는 동작을 포함하는, 한 손 조작 사용자 인터페이스 구현 방법. - 청구항 13에 있어서,
상기 재배열 하는 동작은, 상기 사용자 입력이 수신됨에 따라, 상기 복수의 열 중 적어도 하나의 배열 순서를 변경하여, 상기 적어도 하나의 오브젝트의 출력 위치를 재배열하는 동작을 포함하는, 한 손 조작 사용자 인터페이스 구현 방법. - 청구항 13에 있어서,
상기 전자 장치를 파지한 사용자의 손이 오른손인지 혹은 왼손인지 여부를 검출하는 동작을 더 포함하고,
상기 재배열하는 동작은, 상기 사용자 입력 및 상기 손 검출 결과에 기초하여 상기 적어도 하나의 오브젝트의 출력 위치를 재배열하는 동작을 포함하는, 한 손 조작 사용자 인터페이스 구현 방법. - 청구항 16에 있어서,
상기 전자 장치를 파지한 손이 오른손인 것으로 검출되고 상기 사용자 입력이 수신되면, 상기 재배열하는 동작은, 상기 복수의 격자 영역 중 좌상단 격자 영역과 우하단 격자 영역을 서로 교환함으로써, 상기 적어도 하나의 오브젝트의 출력 위치를 재배열하는 동작에 해당하는, 한 손 조작 사용자 인터페이스 구현 방법. - 청구항 16에 있어서,
상기 전자 장치를 파지한 손이 왼손인 것으로 검출되고 상기 사용자 입력이 수신되면, 상기 재배열하는 동작은, 상기 복수의 격자 영역 중 우상단 격자 영역과 좌하단 격자 영역을 서로 교환함으로써, 상기 적어도 하나의 오브젝트의 출력 위치를 재배열하는 동작에 해당하는, 한 손 조작 사용자 인터페이스 구현 방법. - 청구항 13에 있어서, 상기 재배열하는 동작은,
제1 사용자 입력이 수신됨에 따라, 상기 적어도 하나의 오브젝트 중 적어도 일부를 지정된 도형의 둘레에 따라 배열하여 상기 디스플레이에 출력하는 동작; 및
제2 사용자 입력이 수신됨에 따라, 상기 지정된 도형의 둘레에 따라 배열된 오브젝트를 지정된 순서로 전환하는 동작을 포함하는, 한 손 조작 사용자 인터페이스 구현 방법. - 청구항 19에 있어서,
상기 지정된 도형은 다각형, 원형, 나선형, 또는 포물선을 포함하는, 한 손 조작 사용자 인터페이스 구현 방법.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020150091938A KR20170002051A (ko) | 2015-06-29 | 2015-06-29 | 한 손 조작 사용자 인터페이스 구현 방법 및 이를 수행하는 전자 장치 |
EP16176075.6A EP3113008A1 (en) | 2015-06-29 | 2016-06-23 | A method and an electronic device for one-hand user interface |
CN201610487508.8A CN106293454A (zh) | 2015-06-29 | 2016-06-28 | 针对单手用户界面的方法和电子装置 |
US15/197,602 US10452232B2 (en) | 2015-06-29 | 2016-06-29 | Method and an electronic device for one-hand user interface |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020150091938A KR20170002051A (ko) | 2015-06-29 | 2015-06-29 | 한 손 조작 사용자 인터페이스 구현 방법 및 이를 수행하는 전자 장치 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20170002051A true KR20170002051A (ko) | 2017-01-06 |
Family
ID=56263553
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020150091938A KR20170002051A (ko) | 2015-06-29 | 2015-06-29 | 한 손 조작 사용자 인터페이스 구현 방법 및 이를 수행하는 전자 장치 |
Country Status (4)
Country | Link |
---|---|
US (1) | US10452232B2 (ko) |
EP (1) | EP3113008A1 (ko) |
KR (1) | KR20170002051A (ko) |
CN (1) | CN106293454A (ko) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170131872A1 (en) * | 2015-11-06 | 2017-05-11 | Google Inc. | Mobile User Interface |
TWI680401B (zh) * | 2017-01-25 | 2019-12-21 | 華碩電腦股份有限公司 | 電子裝置與其操作方法 |
US11054988B2 (en) | 2017-06-30 | 2021-07-06 | Huawei Technologies Co., Ltd. | Graphical user interface display method and electronic device |
CN108829552B (zh) * | 2017-09-21 | 2021-12-10 | 莆田市宏铭贸易有限公司 | 一种键盘测试装置 |
CN108076222A (zh) * | 2017-11-30 | 2018-05-25 | 努比亚技术有限公司 | 一种针对屏幕的操作方法、终端及计算机可读存储介质 |
CN108549391B (zh) * | 2018-05-25 | 2021-11-19 | 汇专科技集团股份有限公司 | Agv小车控制系统及方法 |
CN109662728A (zh) * | 2018-12-19 | 2019-04-23 | 深圳开立生物医疗科技股份有限公司 | 一种超声界面展示方法、装置、设备及存储介质 |
US11487425B2 (en) * | 2019-01-17 | 2022-11-01 | International Business Machines Corporation | Single-hand wide-screen smart device management |
USD930014S1 (en) * | 2020-02-05 | 2021-09-07 | Samsung Electronics Co., Ltd. | Display screen or portion thereof with transitional graphical user interface |
JP7447886B2 (ja) * | 2021-12-10 | 2024-03-12 | カシオ計算機株式会社 | 行列操作方法、電子機器及びプログラム |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4699955B2 (ja) * | 2006-07-21 | 2011-06-15 | シャープ株式会社 | 情報処理装置 |
EP3654141A1 (en) * | 2008-10-06 | 2020-05-20 | Samsung Electronics Co., Ltd. | Method and apparatus for displaying graphical user interface depending on a user's contact pattern |
US8279185B2 (en) * | 2009-05-08 | 2012-10-02 | Sony Ericsson Mobile Communications Ab | Methods, devices and computer program products for positioning icons on a touch sensitive screen |
US8154529B2 (en) * | 2009-05-14 | 2012-04-10 | Atmel Corporation | Two-dimensional touch sensors |
BRPI0924540A2 (pt) | 2009-06-16 | 2015-06-23 | Intel Corp | Aplicações de câmera em um dispositivo portátil |
KR101364881B1 (ko) * | 2009-06-16 | 2014-02-19 | 인텔 코오퍼레이션 | 핸드헬드 디바이스를 위한 적응형 버츄얼 키보드 |
JP5790203B2 (ja) * | 2011-06-29 | 2015-10-07 | ソニー株式会社 | 情報処理装置、情報処理方法、プログラム、および遠隔操作システム |
US9250768B2 (en) * | 2012-02-13 | 2016-02-02 | Samsung Electronics Co., Ltd. | Tablet having user interface |
JP2013218428A (ja) | 2012-04-05 | 2013-10-24 | Sharp Corp | 携帯型電子機器 |
KR101979666B1 (ko) * | 2012-05-15 | 2019-05-17 | 삼성전자 주식회사 | 표시부에 출력되는 입력 영역 운용 방법 및 이를 지원하는 단말기 |
EP2852882B1 (en) * | 2012-05-21 | 2021-08-18 | Samsung Electronics Co., Ltd. | Method and apparatus of controlling user interface using touch screen |
US9959038B2 (en) * | 2012-08-30 | 2018-05-01 | Google Llc | Displaying a graphic keyboard |
WO2014056129A1 (zh) * | 2012-10-08 | 2014-04-17 | 华为终端有限公司 | 一种触屏装置用户界面的处理方法及触屏装置 |
KR101995278B1 (ko) * | 2012-10-23 | 2019-07-02 | 삼성전자 주식회사 | 터치 디바이스의 ui 표시방법 및 장치 |
KR102161450B1 (ko) * | 2013-04-09 | 2020-10-05 | 삼성전자 주식회사 | 휴대형 전자장치의 객체 표시 방법 및 그에 관한 장치 |
JP6073467B2 (ja) * | 2013-04-25 | 2017-02-01 | シャープ株式会社 | タッチパネルシステムおよび電子機器 |
KR102138505B1 (ko) * | 2013-07-10 | 2020-07-28 | 엘지전자 주식회사 | 이동단말기 및 그 제어방법 |
US20150089386A1 (en) * | 2013-09-25 | 2015-03-26 | At&T Mobility Ii Llc | Intelligent Adaptation of Home Screens According to Handedness |
US9841944B2 (en) * | 2013-10-28 | 2017-12-12 | Lenovo (Beijing) Co., Ltd. | Method for processing information and electronic apparatus |
US10831318B2 (en) * | 2013-12-24 | 2020-11-10 | Intel Corporation | Adaptive enclosure for a mobile computing device |
CN103744582B (zh) * | 2014-01-21 | 2017-06-20 | 宇龙计算机通信科技(深圳)有限公司 | 终端操控装置和终端操控方法 |
CN204362145U (zh) * | 2014-03-31 | 2015-05-27 | 广州视源电子科技股份有限公司 | 自动识别左右手的移动终端 |
CN104615332A (zh) * | 2015-01-24 | 2015-05-13 | 陆俊 | 一种移动终端及应用图标排列的方法 |
-
2015
- 2015-06-29 KR KR1020150091938A patent/KR20170002051A/ko unknown
-
2016
- 2016-06-23 EP EP16176075.6A patent/EP3113008A1/en not_active Ceased
- 2016-06-28 CN CN201610487508.8A patent/CN106293454A/zh active Pending
- 2016-06-29 US US15/197,602 patent/US10452232B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US10452232B2 (en) | 2019-10-22 |
EP3113008A1 (en) | 2017-01-04 |
CN106293454A (zh) | 2017-01-04 |
US20160378282A1 (en) | 2016-12-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102383103B1 (ko) | 전자 장치 및 이의 화면 표시 방법 | |
KR102505478B1 (ko) | 플렉서블 디바이스 및 그 동작 방법 | |
KR102391772B1 (ko) | 터치 감응 디스플레이를 포함하는 전자 장치 및 이 전자 장치를 동작하는 방법 | |
US9817475B2 (en) | Method for tracking a user's eye to control an indicator on a touch screen and electronic device thereof | |
US9910539B2 (en) | Method and apparatus for controlling flexible display and electronic device adapted to the method | |
KR102414356B1 (ko) | 전자 장치 및 그의 햅틱 피드백 제공 방법 | |
EP3506047A1 (en) | Electronic device, method of providing interface of the same, and accessory for the same | |
KR20170002051A (ko) | 한 손 조작 사용자 인터페이스 구현 방법 및 이를 수행하는 전자 장치 | |
KR102265244B1 (ko) | 디스플레이를 제어하는 전자 장치 및 방법 | |
KR102266882B1 (ko) | 전자장치의 화면 표시 방법 | |
KR20160011915A (ko) | 화면 제어 방법 및 이를 사용하는 전자 장치 | |
KR20150127989A (ko) | 사용자 인터페이스 제공 방법 및 장치 | |
KR20150085650A (ko) | 터치 스크린을 이용한 입력 처리 방법 및 장치 | |
KR20160062414A (ko) | 전자장치 및 전자장치의 객체 제어 방법 | |
KR20150135893A (ko) | 홈스크린 구성 방법 및 이를 이용한 전자 장치 | |
KR20180098080A (ko) | 멀티태스킹을 위한 인터페이스 제공 방법 및 이를 구현하는 전자 장치 | |
KR20160046099A (ko) | 전자장치에서 표시 제어 방법 및 장치 | |
KR20160124536A (ko) | 사용자 인터페이스를 제공하는 방법 및 전자장치 | |
KR20150132963A (ko) | 디스플레이를 이용한 입력 처리 방법 및 장치 | |
US10438525B2 (en) | Method of controlling display of electronic device and electronic device thereof | |
KR20150096956A (ko) | 전자 장치에서 정보를 표시하는 방법 및 장치 | |
KR102353498B1 (ko) | 기능 제공 방법 및 그 전자 장치 | |
KR102332468B1 (ko) | 기능 제어 방법 및 그 전자 장치 | |
KR102305114B1 (ko) | 데이터 처리 방법 및 그 전자 장치 | |
EP2990929B1 (en) | Electronic device and method for setting block |