KR20150078715A - 텍스트 편집 위치를 가이드 하는 방법, 장치 및 기록매체 - Google Patents
텍스트 편집 위치를 가이드 하는 방법, 장치 및 기록매체 Download PDFInfo
- Publication number
- KR20150078715A KR20150078715A KR1020130168349A KR20130168349A KR20150078715A KR 20150078715 A KR20150078715 A KR 20150078715A KR 1020130168349 A KR1020130168349 A KR 1020130168349A KR 20130168349 A KR20130168349 A KR 20130168349A KR 20150078715 A KR20150078715 A KR 20150078715A
- Authority
- KR
- South Korea
- Prior art keywords
- touch event
- event
- touch
- text editing
- word
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 60
- 230000000007 visual effect Effects 0.000 claims description 19
- 238000010079 rubber tapping Methods 0.000 claims description 6
- 238000003860 storage Methods 0.000 description 13
- 238000004891 communication Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 238000010295 mobile communication Methods 0.000 description 6
- 230000001771 impaired effect Effects 0.000 description 4
- 238000004519 manufacturing process Methods 0.000 description 3
- 230000004044 response Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 230000005674 electromagnetic induction Effects 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0483—Interaction with page-structured environments, e.g. book metaphor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/166—Editing, e.g. inserting or deleting
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B21/00—Teaching, or communicating with, the blind, deaf or mute
- G09B21/001—Teaching or communicating with blind persons
- G09B21/002—Writing aids for blind persons
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B21/00—Teaching, or communicating with, the blind, deaf or mute
- G09B21/001—Teaching or communicating with blind persons
- G09B21/008—Teaching or communicating with blind persons using visual presentation of the information for the partially sighted
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Business, Economics & Management (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
텍스트 편집 위치를 가이드 하는 방법에 있어서, 텍스트 편집 창에서 터치 이벤트 발생을 감지하면 상기 터치 이벤트의 종류를 판단하는 과정과, 상기 판단된 터치 이벤트의 종류에 따라, 상기 감지된 터치 이벤트 발생 지점에 위치하는 문자를 포함하는 어절에 관한 미리 설정된 기능을 실행하는 과정을 포함함을 특징으로 한다.
Description
본 발명은 터치스크린에서의 터치 입력에 따른 텍스트 편집 위치를 가이드 하는 방법, 장치 및 기록매체에 관한 것이다.
최근 스마트폰, 태블릿(Tablet) PC 등과 같은 전자기기에는 시각 장애인을 위한 음성 피드백을 제공하는 일명 톡백(Tackback) 환경을 제공하는 기능이 구비되어 있다. 상기 톡백 환경으로 설정된 전자기기는 터치하여 탐색(Explore by touch)하는 기술과 문자 음성 자동 변환(TTS; Text to Speech) 기술을 이용하여 터치스크린상의 텍스트를 읽어 준다. 예를 들어, 입력창의 텍스트 위를 사용자가 손가락으로 터치하여 손가락을 이동시킬 때, 전자기기는 손가락이 위치한 지점의 문자가 무엇인지 음성으로 출력함으로써 사용자가 해당 문자를 확인할 수 있도록 한다.
상기 톡백 환경으로 설정된 전자기기를 사용하는 시각 장애인들은 문자를 입력하거나 삭제하는 등의 텍스트 편집 시, 텍스트 편집 위치를 파악하는데 어려움을 겪는다.
도 1을 참조하면, 종래의 톡백 환경으로 설정된 전자기기에서 문자를 입력 또는 삭제하는 텍스트 편집 창(10)에서 작성된 텍스트 편집을 위해 텍스트 편집 위치를 선택하는 전자기기의 동작은 다음과 같다. 먼저, 도 1의 (a)와 같이 텍스트 편집 창(10)에 터치 종류 중 하나인 후술하는 탭(Tap; 11)이 입력되면, 전자기기가 탭(11) 입력 지점에 포커스를 생성시켜, 텍스트 편집 창(10)이라는 정보와 텍스트 편집 창(10)에 입력되어 있는 모든 문자들을 음성으로 출력한다. 이후 도 1의 (b)와 같이 텍스트 편집 창(10)에 터치 종류 중 다른 하나인 후술하는 더블 탭(Double Tap; 12)이 입력되면, 편집 모드로 들어간다. 이때 커서(14)는 도 1의 (c)와 같이 더블 탭(12) 입력 지점에 생성되며, 커서(14)가 위치한 지점을 나타내는 핸들러(15)가 표시 된다. 또한 더블 탭(12) 입력 및 터치 종류 중 또 다른 하나인 후술하는 홀드 앤 무브(Hold And Move; 13)가 입력되면, 도 1의 (d)와 같이 홀드 앤 무브(13) 입력이 종료된 지점으로 커서(14)와 핸들러(15)를 위치시킨다.
상기 터치 종류 중 탭(11)은 터치스크린을 하나의 손가락으로 짧고 가볍게 한 번 두드리는 제스처를 말하고, 상기 더블 탭(12)은 터치스크린을 하나의 손가락으로 짧고 가볍게 두 번 두드리는 제스처를 말한다. 또한, 상기 홀드 앤 무브(13)는 터치스크린에 위에 손가락을 올려두는 터치 입력 이후 화면을 터치한 상태에서 미리 설정된 방향으로 일정 거리를 움직이는 제스처를 말한다.
상기 도 1과 같은 동작은 탭(11)을 입력하여 편집할 텍스트를 포함하는 창을 선택하고, 편집을 위해 더블 탭(12)을 입력하면 더블 탭(12)이 입력된 지점에 바로 커서(14)와 핸들러(15)가 표시되어, 사용자가 편집을 원하는 위치인지를 확인하기 위해서는 커서(14) 또는 핸들러(15)를 움직이면서 한 문자마다 어떤 문자인지 음성을 들으며 맥락을 파악해야 하는 문제점이 있다. 톡백의 주 사용자인 시각장애인들은 커서(14) 또는 핸들러(15)를 정확히 터치하여 움직이도록 하는 것에 어려움이 있으며, 커서(14)의 뒤에 있는 문자를 읽어주는 톡백 특성에 따라 한 문자씩 읽어주는 내용으로 문장을 파악하기에는 다소 무리가 있다. 즉, 사용자가 편집을 하기 원하는 텍스트 내 어느 한 지점을 알기에는 어려움이 있다.
따라서, 본 발명의 일 목적은 텍스트의 띄어쓰기에 따라 문자들을 구분하고, 발생된 터치 이벤트에 따라 선택된 어절을 음성으로 출력하기 위한 텍스트 편집 위치를 가이드 하는 방법, 장치 및 저장매체를 제공할 수 있도록 한다. 즉, 시각 장애인이 점자책을 읽어 나가듯이 전자기기가 어절별로 음성 출력을 제공하여 사용자가 직관적으로 문맥을 파악할 수 있도록 한다.
본 발명의 다른 목적은 발생된 터치 이벤트에 따라 선택된 어절의 뒤에 커서를 위치시키고 상기 어절의 마지막에 위치하는 하나의 문자를 음성으로 출력하기 위한 텍스트 편집 위치를 가이드 하는 방법, 장치 및 저장매체를 제공할 수 있도록 한다. 이에 따라, 사용자가 직관적으로 커서의 위치를 파악할 수 있으며, 편집을 원하는 부분에 대한 빠른 접근을 제공하여 시각 장애인들도 긴 문장을 읽고, 편집하기에 편리하도록 한다.
본 발명의 일 견지에 따르면, 텍스트 편집 위치를 가이드 하는 방법에 있어서, 텍스트 편집 창에서 터치 이벤트 발생을 감지하면 상기 터치 이벤트의 종류를 판단하는 과정과, 상기 판단된 터치 이벤트의 종류에 따라, 상기 감지된 터치 이벤트 발생 지점에 위치하는 문자를 포함하는 어절에 관한 미리 설정된 기능을 실행하는 과정을 포함함을 특징으로 한다.
상기 감지된 터치 이벤트 발생 지점에 위치하는 문자를 포함하는 어절에 관한 미리 설정된 기능을 실행하는 과정은, 상기 판단된 터치 이벤트의 종류가 제1 터치 이벤트이면, 상기 어절을 음성으로 출력하는 단계를 포함함을 특징으로 한다.
또한, 상기 감지된 터치 이벤트 발생 지점에 위치하는 문자를 포함하는 어절에 관한 미리 설정된 기능을 실행하는 과정은, 상기 판단된 터치 이벤트의 종류가 제2 터치 이벤트이면, 상기 어절의 미리 설정된 위치에 커서를 표시하는 단계를 포함함을 특징으로 한다.
또한, 상기 감지된 터치 이벤트 발생 지점에 위치하는 문자를 포함하는 어절에 관한 미리 설정된 기능을 실행하는 과정은, 상기 판단된 터치 이벤트의 종류가 제3 터치 이벤트이면, 상기 텍스트 편집 창의 크기를 확인하여, 미리 설정된 확대 상태의 크기가 아닐 경우에는 상기 텍스트 편집 창의 크기를 확대하여 표시하는 단계를 포함함을 특징으로 한다.
본 발명의 다른 견지에 따르면, 텍스트 편집 위치를 가이드 하는 장치에 있어서, 터치스크린과, 상기 터치스크린에 표시된 텍스트 편집 창에서 터치 이벤트 발생을 감지하면 상기 터치 이벤트의 종류를 판단하며, 상기 판단된 터치 이벤트의 종류에 따라, 상기 감지된 터치 이벤트 발생 지점에 위치하는 문자들을 포함하는 어절에 관한 미리 설정된 기능을 실행하는 제어부를 포함함을 특징으로 한다.
본 발명의 또다른 견지에 따르면, 텍스트 편집 위치를 가이드 하는 기록매체에 있어서, 텍스트 편집 창에서 터치 이벤트 발생을 감지하면 상기 터치 이벤트의 종류를 판단하는 과정과, 상기 판단된 터치 이벤트의 종류에 따라, 상기 감지된 터치 이벤트 발생 지점에 위치하는 문자를 포함하는 어절에 관한 미리 설정된 기능을 실행하는 과정을 동작시키기 위한 프로그램이 기록된 것임을 특징으로 한다.
상기한 바와 같이, 본 발명의 텍스트 편집 위치를 가이드 하는 방법, 장치 및 기록매체를 사용함으로서, 일반적으로 사람들이 텍스트를 어절별로 읽어가는 방법과 유사하게 톡백 환경으로 설정된 전자기기의 주 사용자인 시각장애인들이 긴 장문의 텍스트를 읽거나 편집할 때, 손가락으로 터치하여 어절별로 인식할 수 있도록 한다. 보다 상세하게는, 시각 장애인이 점자책을 읽어 나가듯이 전자기기가 어절별로 음성 출력을 제공하여 사용자가 직관적으로 문맥을 파악할 수 있도록 한다. 또한, 전자기기의 사용자가 직관적으로 커서의 위치를 파악할 수 있도록 하며, 편집을 원하는 부분에 대한 빠른 접근을 제공하여 시각 장애인들도 긴 문장을 읽고, 편집하기에 편리하도록 한다.
도 1은 종래 기술의 실시예에 따른 텍스트 편집 위치를 가이드 하는 동작을 나타내는 예시도
도 2는 본 발명의 일 실시예에 따른 텍스트 편집 위치를 가이드 하는 전자기기의 블록 구성도
도 3은 본 발명의 일 실시예에 따른 텍스트 편집 위치를 가이드 하는 동작을 나타내는 흐름도
도 4의 (a) 내지 도 4의 (d)는 본 발명의 일 실시예에 따른 텍스트 편집 위치를 가이드 하는 동작을 나타내는 예시도
도 5a 내지 도 5c는 본 발명의 다른 실시예에 따른 텍스트 편집 위치를 가이드 하는 동작을 나타내는 흐름도
도 6 내지 도 8은 본 발명의 다른 실시예에 따른 텍스트 편집 위치를 가이드 하는 동작을 나타내는 예시도
도 2는 본 발명의 일 실시예에 따른 텍스트 편집 위치를 가이드 하는 전자기기의 블록 구성도
도 3은 본 발명의 일 실시예에 따른 텍스트 편집 위치를 가이드 하는 동작을 나타내는 흐름도
도 4의 (a) 내지 도 4의 (d)는 본 발명의 일 실시예에 따른 텍스트 편집 위치를 가이드 하는 동작을 나타내는 예시도
도 5a 내지 도 5c는 본 발명의 다른 실시예에 따른 텍스트 편집 위치를 가이드 하는 동작을 나타내는 흐름도
도 6 내지 도 8은 본 발명의 다른 실시예에 따른 텍스트 편집 위치를 가이드 하는 동작을 나타내는 예시도
이하 본 발명에 따른 바람직한 실시예를 첨부한 도면을 참조하여 상세히 설명한다. 하기 설명에서는 구체적인 텍스트 편집 창, 핸들러, 탭, 더블 탭 등의 특정 사항들이 나타나고 있는데 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐 이러한 특정 사항들이 본 발명의 범위 내에서 소정의 변형이나 혹은 변경이 이루어질 수 있음은 이 기술 분야에서 통상의 지식을 가진 자에게는 자명하다 할 것이다.
도 2는 본 발명의 일 실시예에 따른 텍스트 편집 위치를 가이드 하는 전자기기의 블록 구성도이다. 도 2를 참조하면, 전자기기(100)는 조작부(120), 출력부(130), 터치스크린(140), 터치스크린 컨트롤러(150), 통신 모듈(160), 저장부(170), 제어부(110)를 포함할 수 있다.
조작부(130)는 사용자의 조작을 입력 받으며, 버튼(도시되지 아니함) 및 키패드(도시되지 아니함) 중 적어도 하나를 포함할 수 있다.
버튼(도시되지 아니함)은 상기 전자기기(100)의 하우징의 전면, 측면 또는 후면에 형성될 수 있으며, 전원/잠금 버튼, 메뉴 버튼 중 적어도 하나일 수 있다.
키패드(도시되지 아니함)는 전자기기(100)의 제어를 위해 사용자로부터 키 입력을 수신할 수 있다. 키패드(도시되지 아니함)는 전자기기(100)에 형성되는 물리적인 키패드 또는 터치스크린(140)에 표시되는 가상의 키패드를 포함할 수 있다. 전자기기(100)에 형성되는 물리적인 키패드는 전자기기(100)의 성능 또는 구조에 따라 제외될 수 있다.
출력부(150)는 스피커(도시되지 아니함)를 포함할 수 있으며, 추가로 진동 모터(도시되지 아니함)를 포함할 수도 있다.
스피커(도시되지 아니함)는 제어부(110)의 제어에 따라 전자기기(100)가 수행하는 기능에 대응되는 사운드를 출력할 수 있다. 스피커(도시되지 아니함)는 상기 전자기기(100)의 하우징의 적절한 위치 또는 위치들에 하나 또는 복수로 형성될 수 있다.
진동모터(도시되지 아니함)는 제어부(110)의 제어에 따라 전기적 신호를 기계적 진동으로 변환할 수 있다. 예를 들어, 진동 모드에 있는 휴대 전자기기(100)는 다른 전자기기(도시되지 아니함)로부터 음성통화가 수신되는 경우, 진동모터(도시되지 아니함)가 동작한다. 또한 진동모터(도시되지 아니함)는 상기 전자기기(100)의 하우징 내에 하나 또는 복수로 형성될 수 있다. 진동모터(도시되지 아니함)는 터치스크린(140) 상을 터치하는 사용자의 터치 동작 및 터치스크린(140) 상에서의 터치의 연속적인 움직임에 응답하여 동작할 수 있다.
터치스크린(140)은 사용자의 조작을 입력 받으며, 응용 프로그램의 실행 영상과 동작 상태 및 메뉴 상태를 디스플레이 할 수 있다. 즉, 터치스크린(140)은 사용자에게 다양한 서비스(예, 통화, 데이터 전송, 방송, 사진촬영)에 대응되는 유저 인터페이스를 제공할 수 있다. 터치스크린(140)은 유저 인터페이스에 입력되는 적어도 하나의 터치에 대응되는 아날로그 신호를 터치스크린 컨트롤러(150)로 전송할 수 있다. 터치스크린(140)은 손 터치 또는 전자펜과 같은 터치가능한 입력 수단(예, 스타일러스 펜, 이하에서는 전자펜이라 함)을 통해 적어도 하나의 터치를 입력받을 수 있다. 또한, 터치스크린(140)은 적어도 하나의 터치 중에서, 하나의 터치의 연속적인 움직임을 입력받을 수 있다. 터치스크린(140)은 입력되는 터치의 연속적인 움직임에 대응되는 아날로그 신호를 터치스크린 컨트롤러(150)로 전송할 수 있다.
또한, 터치스크린(140)은 예를 들어, 저항막(resistive) 방식, 정전용량(capacitive) 방식, 전자 유도(EMR) 방식, 적외선(infrared) 방식 또는 초음파(acoustic wave) 방식으로 구현될 수 있다.
또한, 본 발명의 터치는 터치스크린(140)과 손 터치 또는 전자펜과의 직접적인 접촉에 한정되지 않고, 비접촉을 포함할 수 있다. 터치스크린(140)에서 검출 가능한 간격은 전자기기(100)의 성능 또는 구조에 따라 변경될 수 있으며, 특히 터치스크린(140)은 손 터치 또는 전자펜과의 접촉에 의한 터치 이벤트와, 비접촉 상태로의 입력(예컨대, 호버링(Hovering)) 이벤트를 구분하여 인식 가능하도록, 상기 터치 이벤트와 호버링 이벤트에 의해 인식되는 값(예컨대, 전류값 등)이 다르게 출력될 수 있도록 구성된다. 또한, 터치스크린(140)은 호버링 이벤트가 발생되는 공간과 터치스크린(140) 사이의 거리에 따라, 인식되는 값(예컨대, 전류값 등)을 다르게 출력하는 것이 바람직하다.
한편, 터치스크린 컨트롤러(150)는 터치스크린(140)에서부터 수신된 아날로그 신호를 디지털 신호(예, X와 Y좌표)로 변환하여 제어부(110)로 전송한다. 제어부(110)는 터치스크린 컨트롤러(150)로부터 수신된 디지털 신호를 이용하여 터치스크린(140)을 제어할 수 있다. 예를 들어, 제어부(110)는 터치 이벤트 또는 호버링 이벤트에 응답하여 터치스크린(140)에 표시된 단축 아이콘(도시되지 아니함)이 선택되게 하거나 또는 단축 아이콘(도시되지 아니함)을 실행할 수 있다. 또한, 터치스크린 컨트롤러(150)는 제어부(110)에 포함될 수도 있다.
또한, 터치스크린 컨트롤러(150)는 터치스크린(140)을 통해 출력되는 값(예컨대, 전류값 등)을 인식하여 호버링 이벤트가 발생되는 공간과 터치스크린(140) 사이의 거리를 확인할 수 있고, 확인된 거리 값을 디지털 신호(예컨대, Z좌표)로 변환하여 제어부(110)로 제공할 수 있다.
또한, 터치스크린(140)은 손 터치 및 전자펜에 의한 입력을 동시에 입력 받을 수 있도록, 손 터치 및 전자펜의 터치나 근접을 각각 인식할 수 있는 적어도 두 개의 터치스크린 패널을 포함할 수 있다. 상기 적어도 두 개의 터치스크린 패널은 서로 다른 출력값을 터치스크린 컨트롤러(150)에 제공하고, 터치스크린 컨트롤러(150)는 상기 적어도 두 개의 터치스크린 패널에서 입력되는 값을 서로 다르게 인식하여, 터치스크린으로부터의 입력이 손 터치에 의한 입력인지, 전자펜에 의한 입력인지를 구분할 수 있다.
통신 모듈(160)은 이동통신 모듈(도시되지 아니함)과 무선랜 모듈(도시되지 아니함)과 근거리통신 모듈(도시되지 아니함)을 포함할 수 있다.
이동통신 모듈(도시되지 아니함)은 제어부(110)의 제어에 따라 적어도 하나 또는 복수의 안테나(도시되지 아니함)를 이용하여 이동 통신을 통해 전자기기(100)가 외부 전자기기와 연결되도록 한다. 이동통신 모듈(도시되지 아니함)은 전자기기(100)에 입력되는 전화번호를 가지는 휴대폰(도시되지 아니함), 스마트폰(도시되지 아니함), 태블릿PC 또는 다른 장치(도시되지 아니함)와 음성 통화, 화상 통화, 문자메시지(SMS) 또는 멀티미디어 메시지(MMS)를 위한 무선 신호를 송/수신한다.
무선랜 모듈(도시되지 아니함)은 제어부(110)의 제어에 따라 무선 액세스 포인트(AP, access point)(도시되지 아니함)가 설치된 장소에서 인터넷에 연결될 수 있다. 무선랜 모듈(도시되지 아니함)은 미국전기전자학회(IEEE)의 무선랜 규격(IEEE802.11x)을 지원한다. 근거리통신 모듈(도시되지 아니함)은 블루투스 등일 수 있으며, 제어부(110)의 제어에 따라 전자기기들 간에 무선으로 근거리 통신을 할 수 있다.
전자기기(100)의 통신 모듈(160)은 성능에 따라 이동통신 모듈(도시되지 아니함), 무선랜 모듈(도시되지 아니함), 및 근거리통신 모듈(도시되지 아니함) 중 적어도 하나를 포함할 수 있다. 예를 들어, 통신 모듈(160)은 성능에 따라 이동통신 모듈(도시되지 아니함), 무선랜 모듈(도시되지 아니함), 및 근거리통신 모듈(도시되지 아니함)들의 조합을 포함할 수 있다.
저장부(170)는 제어부(110)의 제어에 따라 조작부(120), 출력부(130), 터치스크린(140), 터치스크린 컨트롤러(150), 통신 모듈(160)의 동작에 대응되게 입/출력되는 신호 또는 데이터를 저장할 수 있다. 저장부(170)는 전자기기(100) 또는 제어부(110)의 제어를 위한 제어 프로그램 및 어플리케이션들을 저장할 수 있다.
"저장부"라는 용어는 저장부(170), 제어부(110)내 롬(도시되지 아니함), 램(도시되지 아니함) 또는 전자기기(100)에 장착되는 메모리 카드(도시되지 아니함)(예, SD 카드, 메모리 스틱)를 포함한다. 저장부(170)는 비휘발성메모리, 휘발성메모리, 하드 디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD)를 포함할 수 있다.
제어부(110)는 CPU(도시되지 아니함), 전자기기(100)의 제어를 위한 제어프로그램이 저장된 롬(ROM, 도시되지 아니함) 및 전자기기(100)의 외부로부터 입력되는 신호 또는 데이터를 기억하거나, 전자기기(100)에서 수행되는 작업을 위한 기억영역으로 사용되는 램(RAM, 도시되지 아니함)을 포함할 수 있다. CPU(도시되지 아니함)는 싱글 코어, 듀얼 코어, 트리플 코어, 또는 쿼드 코어를 포함할 수 있다. CPU(도시되지 아니함), 롬(도시되지 아니함) 및 램(도시되지 아니함)은 내부버스(bus)를 통해 상호 연결될 수 있다.
제어부(110)는 조작부(120), 출력부(130), 터치스크린(140), 터치스크린 컨트롤러(150), 통신 모듈(160), 저장부(170)를 제어할 수 있다.
또한 제어부(110)는 본 발명의 일 실시예에 따라, 터치스크린(140)에 표시된 미리 설정된 텍스트 편집 창에서 터치 이벤트 발생을 감지하면 감지된 터치 이벤트 발생 지점에 위치하는 문자를 포함하는 어절을 확인하며, 감지된 터치 이벤트가 제1 터치 이벤트이면 스피커(도시되지 아니함)를 통해 확인된 어절을 음성으로 출력하며, 감지된 터치 이벤트가 제2 터치 이벤트이면 확인된 어절의 미리 설정된 위치에 커서를 표시하도록 제어할 수 있다. 본 발명의 일 실시예에 따른 텍스트 편집 위치를 가이드 하는 동작의 상세한 설명은 아래에 후술하였다.
본 발명의 실시예들에 따른 동작을 설명하기 전에 어절에 관해 미리 설명하면 다음과 같다. 어절은 문장을 이루고 있는 도막도막의 성분으로, 띄어쓰기 단위와 일치한다. 예를 들어, 한글의 경우, 어절은 한 단어로 이루어지기도 하고 단어에 조사가 붙어서 이루어지기도 한다. 그리고 영어의 경우에는 하나의 단어를 어절이라고 한다.
도 3은 본 발명의 일 실시예에 따른 텍스트 편집 위치를 가이드 하는 동작을 나타내는 흐름도이고, 도 4의 (a) 내지 도 4의 (d)는 본 발명의 일 실시예에 따른 텍스트 편집 위치를 가이드 하는 동작을 나타내는 예시도이다.
도 3을 참조하면, 텍스트 편집 모드의 실행 시, 200 단계에서는 사용자로부터의 터치 입력에 따라, 텍스트 편집 창에서의 터치 이벤트의 발생 유무를 판단한다. 이때의 텍스트 편집 모드는 음성 입력, 터치 입력, 버튼 누름 등과 같은 사용자 조작에 따라 실행될 수 있으며, 텍스트 편집 모드가 실행되면 문자를 입력하거나 삭제할 수 있도록 미리 설정된 텍스트 편집 창이 화면에 표시된다. 200 단계에서 텍스트 편집 창에 터치 이벤트가 발생된 것으로 판단되면 210 단계로 진행하고, 200 단계에서 텍스트 편집 창에 터치 이벤트가 발생되지 않은 것으로 판단되면 270 단계로 진행한다.
200 단계 이후 210 단계에서는 텍스트 편집 창에서의 터치 이벤트 발생을 감지한다.
210 단계 이후 220 단계에서는 감지된 터치 이벤트 발생 지점에 문자가 표시되어 있는지를 판단한다. 220 단계에서 감지된 터치 이벤트 발생 지점에 문자가 표시되어 있는 것으로 판단되면 230 단계로 진행하고, 감지된 터치 이벤트 발생 지점에 문자가 표시되어 있지 않은 것으로 판단되면 270 단계로 진행한다.
220 단계 이후 230 단계에서는 터치 이벤트 발생 지점에 위치하는 문자를 포함하는 어절을 확인한다.
230 단계 이후 240 단계에서는 발생된 터치 이벤트가 탭(Tap) 이벤트인지를 판단한다. 이때의 탭 이벤트는 다양한 터치 종류 중 화면을 한 손가락으로 짧고 가볍게 한 번 두드리는 제스처에 의해 발생된 이벤트를 말한다. 240 단계에서 발생된 터치 이벤트가 탭 이벤트인 것으로 판단되면 250 단계로 진행하고, 240 단계에서 발생된 터치 이벤트가 탭 이벤트가 아닌 것으로 판단되면 280 단계로 진행한다.
240 단계 이후 250 단계에서는 상기 230 단계에서 확인된 어절이 선택되었음을 나타내는 미리 설정된 시각 효과를 표시한다.
250 단계 이후 260 단계에서는 상기 230 단계에서 확인된 어절을 음성으로 출력한다.
260 단계 이후 270 단계에서는 텍스트 편집 모드의 종료를 위한 이벤트의 발생 유무를 판단한다. 이때의 텍스트 편집 모드 종료를 위한 이벤트는 음성 명령, 터치 입력, 버튼 누름 등 다양한 사용자 조작에 따라, 미리 설정된 텍스트 편집 모드의 종료를 위한 명령이 실행되어 이루어진다. 270 단계에서 텍스트 편집 모드의 종료를 위한 이벤트가 발생된 것으로 판단되면 텍스트 편집 모드를 종료하고, 270 단계에서 텍스트 편집 모드 종료를 위한 이벤트가 발생되지 않은 것으로 판단되면 200 단계로 되돌아 간다.
상기 240 단계 이후 280 단계에서는 발생된 터치 이벤트가 더블 탭(Double Tap) 이벤트인지를 판단한다. 이때의 더블 탭 이벤트는 다양한 터치 종류 중 화면을 한 손가락으로 짧고 가볍게 두 번 두드리는 제스처에 의해 발생된 이벤트를 말한다. 280 단계에서 발생된 터치 이벤트가 더블 탭 이벤트인 것으로 판단되면290 단계로 진행하고 280 단계에서 발생된 터치 이벤트가 더블 탭 이벤트가 아닌 것으로 판단되면 270 단계로 진행한다.
280 단계 이후 290 단계에서는 230 단계에서 확인된 어절의 끝부분에 위치하는 문자 뒤에 커서를 표시한다. 290 단계 이후 295 단계에서는 커서 바로 앞의 하나의 문자를 음성으로 출력하고, 295 단계 이후에는 상술한 270 단계의 동작을 실행한다.
도 3은 텍스트 편집 모드의 실행에 따라 도 4의 (a)와 같이 표시된 화면(5)에서 사용자가 도 4의 (a)와 같이 텍스트 편집 창(10)에 표시되어 있는 어느 한 문자가 위치한 부분에 탭(11)을 입력하면, 전자기기가 탭 입력 지점의 문자를 포함하는 어절을 확인하고, 도 4의 (b)와 같이 해당 어절에 미리 설정된 시각 효과(16)를 표시하며 해당 어절을 음성으로 출력한다. 또한, 사용자가 도 4의 (c)와 같이 텍스트 편집 창(10)에 표시되어 있는 어느 한 문자가 위치한 부분에 더블 탭(12)을 입력하면, 전자기기가 더블 탭 입력 지점의 문자를 포함하는 어절을 확인하고, 도 4의 (d)와 같이 해당 어절의 끝 부분에 위치하는 문자 뒤에 커서(14)를 표시하고 커서 바로 앞의 하나의 문자를 음성으로 출력한다.
도 5a 내지 도 5c는 본 발명의 다른 실시예에 따른 텍스트 편집 위치를 가이드 하는 동작을 나타내는 흐름도이고, 도6 내지 도 8은 본 발명의 다른 실시예에 따른 텍스트 편집 위치를 가이드 하는 동작을 나타내는 예시도이다.
도 5a 내지 도 5c를 참조하면, 텍스트 편집 모드의 실행 시, 300 단계에서는 텍스트 편집 창에 더블 탭 이벤트의 발생 유무를 판단한다. 300 단계에서 텍스트 편집 창에 더블 탭 이벤트가 발생된 것으로 판단되면 310 단계로 진행하고 300 단계에서 텍스트 편집 창에 더블 탭 이벤트가 발생되지 않은 것으로 판단되면 400 단계로 진행한다.
300 단계 이후 310 단계에서는 텍스트 편집 창을 미리 설정된 크기로 확대하여 표시한다. 이때, 텍스트 편집 창에 미리 입력된 텍스트가 있으면, 텍스트 편집 창의 확대 비율에 따라 미리 입력된 텍스트의 크기도 확대될 수 있다.
310 단계 이후 320 단계에서는 텍스트 편집 창에 문자 입력 이벤트 발생 유무를 판단한다. 이때의 문자 입력은 음성 입력, 터치 입력 등 다양한 사용자 조작에 따라 이루어질 수 있다. 320 단계에서 문자 입력 이벤트가 발생된 것으로 판단되면 330 단계로 진행하고, 320 단계에서 문자 입력 이벤트가 발생되지 않은 것으로 판단되면 340 단계로 진행한다.
320 단계 이후 330 단계에서는 발생된 문자 입력 이벤트에 따라, 확대 표시된 텍스트 편집 창에 문자를 표시한다.
320 단계 또는 330 단계 이후 340 단계에서는 확대 표시된 텍스트 편집 창에서의 탭 이벤트의 발생 유무를 판단한다. 340 단계에서 확대 표시된 텍스트 편집 창에 탭 이벤트가 발생된 것으로 판단되면 350 단계로 진행하고, 340 단계에서 확대 표시된 텍스트 편집 창에 탭 이벤트가 발생되지 않은 것으로 판단되면 420 단계로 진행한다.
340 단계 이후 350 단계에서는 탭 이벤트가 발생된 지점을 확인한다.
350 단계 이후 360 단계에서는 확인된 탭 이벤트 발생 지점에 적어도 하나의 문자가 있는지를 판단한다. 360 단계에서 확인된 탭 이벤트 발생 지점에 적어도 하나의 문자가 있는 것으로 판단되면 370 단계로 진행하고, 360 단계에서 확인된 탭 이벤트 발생 지점에 적어도 하나의 문자가 없는 것으로 판단되면 480 단계로 진행한다.
360 단계 이후 370 단계에서는 상기 확인된 탭 이벤트 발생 지점의 문자를 포함하는 어절을 확인한다.
370 단계 이후 380 단계에서는 상기 확인된 어절이 선택되었음을 나타내는 미리 설정된 시각 효과를 표시한다.
380 단계 이후 390 단계에서는 상기 확인된 어절을 음성으로 출력한다.
390 단계 이후 400 단계에서는 확대 표시된 텍스트 편집 창을 이전 크기로 축소하기 위한 이벤트 발생 유무를 판단한다. 이때의 확대 표시된 텍스트 편집 창을 이전 크기로 축소하기 위한 이벤트는 음성 명령, 터치 입력, 버튼 누름 등 다양한 사용자 조작에 따라, 미리 설정된 텍스트 편집 창의 축소를 위한 명령이 실행되어 이루어진다. 400 단계에서 확대 표시된 텍스트 편집 창을 이전 크기로 축소하기 위한 이벤트가 발생된 것으로 판단되면410 단계로 진행하고, 400 단계에서 확대 표시된 텍스트 편집 창을 이전 크기로 축소하기 위한 이벤트가 발생되지 않은 것으로 판단되면 320 단계로 되돌아간다.
400 단계 이후 410 단계에서는 텍스트 편집 모드의 종료를 위한 이벤트의 발생 유무를 판단한다. 410 단계에서 텍스트 편집 모드의 종료를 위한 이벤트가 발생된 것으로 판단되면 텍스트 편집 모드를 종료하고, 410 단계에서 텍스트 편집 모드의 종료를 위한 이벤트가 발생되지 않은 것으로 판단되면 300 단계로 되돌아 간다.
상기 420 단계에서는 확대 표시된 텍스트 편집 창에 더블 탭 이벤트의 발생 유무를 판단한다. 420 단계에서 확대 표시된 텍스트 편집 창에 더블 탭 이벤트가 발생된 것으로 판단되면 430 단계로 진행하고, 420 단계에서 확대 표시된 텍스트 편집 창에 더블 탭 이벤트가 발생되지 않은 것으로 판단되면 400 단계로 진행한다.
420 단계 이후 430 단계에서는 더블 탭 이벤트가 발생된 지점을 확인한다.
430 단계 이후 440 단계에서는 확인된 더블 탭 이벤트 발생 지점에 적어도 하나의 문자가 있는지를 판단한다. 440 단계에서 확인된 더블 탭 이벤트 발생 지점에 적어도 하나의 문자가 있는 것으로 판단되면 450 단계로 진행하고, 440 단계에서 확인된 더블 탭 이벤트 발생 지점에 적어도 하나의 문자가 없는 것으로 판단되면 480 단계로 진행한다.
440 단계 이후 450 단계에서는 확인된 더블 탭 이벤트 발생 지점의 문자를 포함하는 어절을 확인한다.
450 단계 이후 460 단계에서는 확인된 어절의 끝부분에 위치하는 문자 뒤에 커서를 표시한다.
460 단계 이후 470 단계에서는 커서 바로 앞의 하나의 문자를 음성으로 출력하고, 470 단계 이후에는 상술한 400 단계의 동작을 실행한다.
상기 480 단계에서는 확인된 탭 이벤트 발생 지점 또는 확인된 더블 탭 이벤트 발생 지점이 스페이스 영역인지를 판단한다. 480 단계에서 확인된 탭 이벤트 발생 지점 또는 확인된 더블 탭 이벤트 발생 지점이 스페이스 영역인 것으로 판단되면 490 단계로 진행하고, 480 단계에서 확인된 탭 이벤트 발생 지점 또는 더블 탭 이벤트 발생 지점이 스페이스 영역이 아닌 것으로 판단되면 400 단계로 진행한다.
480 단계 이후 490 단계에서는 확인된 탭 이벤트 발생 지점 또는 확인된 더블 탭 이벤트 발생 지점에 커서를 표시한다. 490 단계 이후 495 단계에서는 스페이스 영역을 알리는 미리 설정된 음성을 출력한다. 495 단계 이후에는 상술한 400 단계의 동작을 실행한다.
상기 도 5a 내지 도 5c의 동작에서 상기 텍스트 편집 창의 크기를 확대하여 표시하는 동작은 텍스트 편집 창에 더블 탭 이벤트가 발생된 것이 감지되면, 전자기기가 텍스트 편집 창의 크기를 확인하여, 미리 설정된 확대 상태의 크기가 아닐 경우에 텍스트 편집 창의 크기를 확대하여 표시할 수 있다. 이때의 미리 설정된 확대 상태의 크기는 전자기기의 제조 시 또는 사용자 설정에 따라 설정된 것일 수 있다.
또한, 상기 도 5a 내지 도 5c의 동작에 따르면, 더블 탭 이벤트가 텍스트 편집 창의 크기를 확대하여 표시하도록 하는 동작(이하에서는 제1 동작이라고 함)과, 더블 탭 이벤트가 발생된 지점에 문자가 있으면 해당 문자를 포함하는 어절을 확인하며 확인된 어절의 끝부분에 위치하는 문자 뒤에 커서를 표시하며, 커서 바로 앞의 하나의 문자를 음성으로 출력하는 동작(이하에서는 제2 동작이라고 함)을 수행하도록 설정되어 있다. 이와 같이 더블 탭 이벤트 발생에 따른 각각의 동작은 텍스트 편집 창의 크기에 따라 미리 설정되어 있을 수 있다. 보다 상세하게는, 텍스트 편집 창의 크기가 미리 설정된 확대 상태의 크기가 아닐 경우에는 상기 제1 동작이 수행되도록 미리 설정되어 있어서, 텍스트 편집 창의 크기가 미리 설정된 확대 상태의 크기가 아닐 경우, 더블 탭 이벤트 발생을 감지하면 상기 제1 동작이 수행되도록 할 수 있다. 또한, 텍스트 편집 창의 크기가 미리 설정된 확대 상태의 크기일 경우에는 상기 제2 동작이 수행되도록 미리 설정되어 있어서, 텍스트 편집 창의 크기가 미리 설정된 확대 상태의 크기일 경우, 더블 탭 이벤트 발생을 감지하면 상기 제2 동작이 수행되도록 할 수 있다.
도 5a 내지 도 5c는 텍스트 편집 모드의 실행에 따라 도 6의 (a)와 같은 텍스트 편집 창(10)이 표시된 화면에서 사용자가 도 6의 (b)와 같이 텍스트 편집 창(10)의 어느 한 부분에 더블 탭(12)을 입력하면, 전자기기가 도6의 (c)와 같이 텍스트 편집 창(10)을 확대 표시한다.
또한, 사용자가 도 7의 (a)와 같이 확대 표시된 텍스트 편집 창(10)에 표시되어 있는 어느 한 문자가 위치한 부분에 탭(11)을 입력하면, 전자기기가 탭 입력 지점의 문자를 포함하는 어절을 확인하고, 도 7의 (b)와 같이 해당 어절에 미리 설정된 시각 효과(16)를 표시하며 해당 어절을 음성으로 출력한다. 즉, 'have'의 일부 문자들이 위치한 부분에 탭(11)이 입력되면, 'have'가 선택되었음을 나타내는 시각 효과(16)를 'have'가 위치된 부분에 표시하고, 'have'를 음성으로 출력한다.
도 5a 내지 도 5c의 동작에서는 기재하지 않았지만, 추가로, 사용자가 도 7의 (b)와 같이 어느 특정 방향으로 홀드 앤 무브(Hold And Move; 13)를 입력하면, 전자기기가 화면 위에 손가락을 올려두는 터치 입력 시작 지점의 문자를 포함하는 어절을 확인해서 도 7의 (b)와 같이 화면 위에 손가락을 올려두는 터치 입력된 지점에 시각 효과(16)를 표시한 후, 터치의 이동 위치에 따라, 새로운 어절이 확인되면 해당 어절에 상기 표시된 시각 효과(16)를 이동시켜 표시한다. 상기 홀드 앤 무브(13)는 터치 종류 중 하나이며, 화면 위에 손가락을 올려두는 터치 입력 이후 화면을 터치한 상태에서 미리 설정된 방향으로 일정 거리를 움직이는 제스처를 말한다. 또한, 시각 효과(16)의 표시와 동시에 시각 효과가 표시되는 어절을 음성으로 출력한다. 다시 말해서 사용자가 'have'의 일부 문자들이 위치한 부분에 손가락을 올려두는 터치를 입력하고'homework'가 위치한 방향으로 화면을 터치한 상태로 손가락을 이동시켜 'homework' 부분에서 터치한 손을 떼면, 홀드 앤 무브 동작에 따라 순차적으로'have'에 시각 효과(16)를 표시한 후, 'homework'에 시각 효과(16)를 이동시켜 표시한다. 또한 시각 효과(16)를 표시하는 동시에 해당 어절을 음성으로 출력한다.
또한 사용자가 도 8의 (a)와 같이 어느 하나의 어절에 포함된 적어도 하나의 문자가 위치한 부분에 더블 탭(12)을 입력하면, 전자기기가 더블 탭 입력 지점의 문자를 포함하는 어절을 확인하고, 도 8의 (b)와 같이 해당 어절의 끝부분에 위치하는 문자 뒤에 커서를 표시한다. 이때, 커서 바로 앞의 하나의 문자를 음성으로 출력한다. 즉, 사용자가 'homework'를 편집하기를 원할 경우, 도 8의 (a)와 같이 'homework'의 일부 문자들이 위치한 부분에 더블 탭(12)을 입력하면, 전자기기가 도 8의 (b)와 같이 'homework' 바로 뒤에 커서를 표시한 후, K를 음성으로 출력한다.
상기와 같이 일 실시예에 따른 본 발명의 텍스트 편집 위치를 가이드 하는 동작이 이루어질 수 있으며, 한편 상기한 본 발명의 설명에서는 구체적인 실시예에 관해 설명하였으나 이외에도 본 발명의 다양한 실시예들이나, 여러 가지 변형 및 변경이 있을 수 있다. 본 명세서에서 기재된 각각의 동작들은 그 전체 또는 일부가 병렬적으로 동시에 수행되거나, 일부가 생략되거나, 다른 추가적인 동작들을 포함할 수 있다.
예를 들어, 상기 실시예들에서는 탭, 더블 탭, 및 홀드 앤 무브 이벤트가 발생할 때, 각각 특정 동작이 수행되는 것으로 기재하였지만, 전자기기를 제조할 때의 설정 또는 사용자의 설정에 따라, 수행되는 특정 동작에 대응하는 터치 이벤트가 변경될 수도 있다. 또한, 상기 실시예들에서는 터치 종류 중 탭, 더블 탭, 및 홀드 앤 무브를 적용하였지만, 전자기기를 제조할 때의 설정 또는 사용자의 설정에 따라, 다양한 터치 종류가 적용될 수 있다.
또한 상기 실시예에서는 하나의 터치 종류의 이벤트가 발생할 때, 해당 터치 종류의 이벤트에 대응되는 화면 표시 동작과 음성 출력 동작을 순차적으로 수행하는 것으로 기재하였지만, 해당 터치 종류의 이벤트에 대응되는 화면 표시 동작과 음성 출력 동작을 동시에 수행할 수도 있다. 또한, 해당 터치 종류의 이벤트에 대응되는 화면 표시 동작과 음성 출력 동작 중 어느 하나의 동작만을 수행할 수도 있다.
또한, 상기 실시예에서는 커서를 어절의 끝부분에 위치하는 문자 뒤에 표시하는 것으로 기재하였지만, 전자기기를 제조할 때의 설정 또는 사용자의 설정에 따라, 어절의 앞부분에 위치하는 문자 앞에 커서를 표시하는 등 커서의 표시 위치는 다양한 위치로 설정 가능하다.
또한, 상기 텍스트 편집 모드는 문자 메시지 작성 모드, 메모 입력 모드 등 다양할 수 있다.
또한 본 발명의 실시 예들은 하드웨어, 소프트웨어 또는 하드웨어 및 소프트웨어의 조합의 형태로 실현 가능하다는 것을 알 수 있을 것이다. 이러한 임의의 소프트웨어는 예를 들어, 삭제 가능 또는 재기록 가능 여부와 상관없이, ROM 등의 저장 장치와 같은 비휘발성 저장 장치, 또는 예를 들어, RAM, 메모리 칩, 장치 또는 집적 회로와 같은 메모리, 또는 예를 들어 CD, DVD, 자기 디스크 또는 자기 테이프 등과 같은 광학 또는 자기적으로 기록 가능함과 동시에 기계(예를 들어, 컴퓨터)로 읽을 수 있는 저장 매체에 저장될 수 있다. 전자기기 내에 포함될 수 있는 메모리는 본 발명의 실시 예들을 구현하는 지시들을 포함하는 프로그램 또는 프로그램들을 저장하기에 적합한 기계로 읽을 수 있는 저장 매체의 한 예임을 알 수 있을 것이다. 따라서, 본 발명은 본 명세서의 임의의 청구항에 기재된 장치 또는 방법을 구현하기 위한 코드를 포함하는 프로그램 및 이러한 프로그램을 저장하는 기계로 읽을 수 있는 기록 매체를 포함한다. 또한, 이러한 프로그램은 유선 또는 무선 연결을 통해 전달되는 통신 신호와 같은 임의의 매체를 통해 전자적으로 이송될 수 있고, 본 발명은 이와 균등한 것을 적절하게 포함한다.
Claims (25)
- 텍스트 편집 위치를 가이드 하는 방법에 있어서,
텍스트 편집 창에서 터치 이벤트 발생을 감지하면 상기 터치 이벤트의 종류를 판단하는 과정과,
상기 판단된 터치 이벤트의 종류에 따라, 상기 감지된 터치 이벤트 발생 지점에 위치하는 문자를 포함하는 어절에 관한 미리 설정된 기능을 실행하는 과정을 포함함을 특징으로 하는 텍스트 편집 위치를 가이드 하는 방법. - 제 1항에 있어서, 상기 감지된 터치 이벤트 발생 지점에 위치하는 문자를 포함하는 어절에 관한 미리 설정된 기능을 실행하는 과정은,
상기 판단된 터치 이벤트의 종류가 제1 터치 이벤트이면, 상기 어절을 음성으로 출력하는 단계를 포함함을 특징으로 하는 텍스트 편집 위치를 가이드 하는 방법. - 제 2항에 있어서,
상기 판단된 터치 이벤트의 종류가 제1 터치 이벤트이면, 상기 어절에 미리 설정된 시각 효과를 표시하는 단계를 더 포함함을 특징으로 하는 텍스트 편집 위치를 가이드 하는 방법. - 제 3항에 있어서, 상기 시각 효과가 표시된 영역의 일부에서 터치 이벤트의 발생을 감지한 후 어느 한 방향으로 터치가 이동되는 이벤트 발생을 감지하면,
상기 터치가 이동되는 이벤트 발생 지점에 상기 어절 이외의 다른 어절이 있으면, 상기 다른 어절에 상기 미리 설정된 시각 효과를 이동시켜 표시하는 단계를 더 포함함을 특징으로 하는 텍스트 편집 위치를 가이드 하는 방법. - 제 2항에 있어서, 상기 제1 터치 이벤트는,
하나의 손가락으로 짧고 가볍게 한 번 두드리는 제스처가 입력되어 발생되는 탭(Tap) 이벤트임을 특징으로 하는 텍스트 편집 위치를 가이드 하는 방법. - 제 1항에 있어서, 상기 감지된 터치 이벤트 발생 지점에 위치하는 문자를 포함하는 어절에 관한 미리 설정된 기능을 실행하는 과정은,
상기 판단된 터치 이벤트의 종류가 제2 터치 이벤트이면, 상기 어절의 미리 설정된 위치에 커서를 표시하는 단계를 포함함을 특징으로 하는 텍스트 편집 위치를 가이드 하는 방법. - 제 6항에 있어서,
상기 판단된 터치 이벤트의 종류가 제2 터치 이벤트이면, 상기 표시된 커서의 위치에 따라, 상기 어절에 포함된 하나의 문자를 음성으로 출력하는 단계를 더 포함함을 특징으로 하는 텍스트 편집 위치를 가이드 하는 방법. - 제 6항에 있어서, 상기 제2 터치 이벤트는,
하나의 손가락으로 짧고 가볍게 두 번 두드리는 제스처가 입력되어 발생되는 더블 탭(Double Tap) 이벤트임을 특징으로 텍스트 편집 위치를 가이드 하는 방법. - 제 6항에 있어서, 상기 어절의 미리 설정된 위치는,
상기 어절의 끝부분에 위치하는 문자 뒤임을 특징으로 하는 텍스트 편집 위치를 가이드 하는 방법. - 제 9항에 있어서,
상기 감지된 터치 이벤트가 제2 터치 이벤트이면, 상기 어절의 끝부분에 위치하는 문자를 음성으로 출력하는 단계를 더 포함함을 특징으로 하는 텍스트 편집 위치를 가이드 하는 방법. - 제 1항에 있어서, 상기 감지된 터치 이벤트 발생 지점에 위치하는 문자를 포함하는 어절에 관한 미리 설정된 기능을 실행하는 과정은,
상기 판단된 터치 이벤트의 종류가 제3 터치 이벤트이면, 상기 텍스트 편집 창의 크기를 확인하여, 미리 설정된 확대 상태의 크기가 아닐 경우에는 상기 텍스트 편집 창의 크기를 확대하여 표시하는 단계를 포함함을 특징으로 하는 텍스트 편집 위치를 가이드 하는 방법. - 제 6항 또는 제 11항에 있어서, 상기 제2 터치 이벤트가 상기 제3 터치 이벤트와 동일한 종류로 설정되며 상기 제2 터치 이벤트 및 상기 제3 터치 이벤트의 상기 동일한 종류의 터치 이벤트가 발생될 때,
상기 텍스트 편집 창의 크기가 상기 미리 설정된 확대 상태의 크기가 아닐 경우에는 상기 제3 터치 이벤트가 발생된 것으로 간주하며,
상기 텍스트 편집 창의 크기가 상기 미리 설정된 확대 상태의 크기일 경우에는 상기 제2 터치 이벤트가 발생된 것으로 간주하는 것을 특징으로 하는 텍스트 편집 위치를 가이드 하는 방법. - 텍스트 편집 위치를 가이드 하는 장치에 있어서,
터치스크린과,
상기 터치스크린에 표시된 텍스트 편집 창에서 터치 이벤트 발생을 감지하면 상기 터치 이벤트의 종류를 판단하며, 상기 판단된 터치 이벤트의 종류에 따라, 상기 감지된 터치 이벤트 발생 지점에 위치하는 문자들을 포함하는 어절에 관한 미리 설정된 기능을 실행하는 제어부를 포함함을 특징으로 하는 텍스트 편집 위치를 가이드 하는 장치. - 제 13항에 있어서,
스피커를 포함하며,
상기 판단된 터치 이벤트의 종류가 제1 터치 이벤트일 때, 상기 제어부는,
상기 스피커를 통해 상기 어절을 음성으로 출력하는 것을 특징으로 하는 텍스트 편집 위치를 가이드 하는 장치. - 제 13항에 있어서, 상기 판단된 터치 이벤트가 제1 터치 이벤트일 때, 상기 제어부는,
상기 어절에 미리 설정된 시각 효과를 표시하는 것을 특징으로 하는 텍스트 편집 위치를 가이드 하는 장치. - 제 15항에 있어서, 상기 시각 효과가 표시된 영역의 일부에서 터치 이벤트의 발생을 감지한 후 어느 한 방향으로 터치가 이동되는 이벤트 발생이 감지될 때, 상기 제어부는,
상기 터치가 이동되는 이벤트 발생 지점에 상기 어절 이외의 다른 어절이 있으면, 상기 다른 어절에 상기 미리 설정된 시각 효과를 이동시켜 표시하는 것을 특징으로 하는 텍스트 편집 위치를 가이드 하는 장치. - 제 14항에 있어서, 상기 제1 터치 이벤트는,
하나의 손가락으로 짧고 가볍게 한 번 두드리는 제스처가 입력되어 발생되는 탭(Tap) 이벤트임을 특징으로 하는 텍스트 편집 위치를 가이드 하는 장치. - 제 13항에 있어서, 상기 판단된 터치 이벤트의 종류가 제2 터치 이벤트일 때, 상기 제어부는,
상기 어절의 미리 설정된 위치에 커서를 표시하는 것을 특징으로 하는 텍스트 편집 위치를 가이드 하는 장치. - 제 18항에 있어서,
스피커를 포함하며,
상기 판단된 터치 이벤트의 종류가 제2 터치 이벤트일 때, 상기 제어부는,
상기 표시된 커서의 위치에 따라, 상기 어절에 포함된 하나의 문자를 상기 스피커를 통해 음성으로 출력하는 것을 특징으로 하는 텍스트 편집 위치를 가이드 하는 장치. - 제 18항에 있어서, 상기 제2 터치 이벤트는,
하나의 손가락으로 짧고 가볍게 두 번 두드리는 제스처가 입력되어 발생되는 더블 탭(Double Tap) 이벤트임을 특징으로 텍스트 편집 위치를 가이드 하는 장치. - 제 18항에 있어서, 상기 어절의 미리 설정된 위치는,
상기 어절의 끝부분에 위치하는 문자 뒤임을 특징으로 하는 텍스트 편집 위치를 가이드 하는 장치. - 제 21항에 있어서,
스피커를 포함하며,
상기 감지된 터치 이벤트가 제2 터치 이벤트일 때, 상기 제어부는,
상기 어절의 끝부분에 위치하는 문자를 상기 스피커를 통해 음성으로 출력하는 것을 특징으로 하는 텍스트 편집 위치를 가이드 하는 장치. - 제 13항에 있어서, 상기 판단된 터치 이벤트의 종류가 제3 터치 이벤트일 때, 상기 제어부는,
상기 텍스트 편집 창의 크기를 확인하여, 미리 설정된 확대 상태의 크기가 아닐 경우에는 상기 텍스트 편집 창의 크기를 확대하여 표시하는 것을 특징으로 하는 텍스트 편집 위치를 가이드 하는 장치. - 제 23항에 있어서, 상기 제2 터치 이벤트가 상기 제3 터치 이벤트와 동일한 종류로 설정되며 상기 제2 터치 이벤트 및 상기 제3 터치 이벤트의 상기 동일한 종류의 터치 이벤트의 발생을 감지할 때, 상기 제어부는,
상기 텍스트 편집 창의 크기가 상기 미리 설정된 확대 상태의 크기가 아닐 경우에는 상기 제3 터치 이벤트가 발생된 것으로 간주하며,
상기 텍스트 편집 창의 크기가 상기 미리 설정된 확대 상태의 크기일 경우에는 상기 제2 터치 이벤트가 발생된 것으로 간주하는 것을 특징으로 하는 텍스트 편집 위치를 가이드 하는 장치. - 텍스트 편집 위치를 가이드 하는 기록매체에 있어서,
텍스트 편집 창에서 터치 이벤트 발생을 감지하면 상기 터치 이벤트의 종류를 판단하는 과정과,
상기 판단된 터치 이벤트의 종류에 따라, 상기 감지된 터치 이벤트 발생 지점에 위치하는 문자를 포함하는 어절에 관한 미리 설정된 기능을 실행하는 과정을 동작시키기 위한 프로그램이 기록된 텍스트 편집 위치를 가이드 하는 기록매체.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130168349A KR102283360B1 (ko) | 2013-12-31 | 2013-12-31 | 텍스트 편집 위치를 가이드 하는 방법, 장치 및 기록매체 |
US14/587,363 US20150185988A1 (en) | 2013-12-31 | 2014-12-31 | Method, apparatus and recording medium for guiding text editing position |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130168349A KR102283360B1 (ko) | 2013-12-31 | 2013-12-31 | 텍스트 편집 위치를 가이드 하는 방법, 장치 및 기록매체 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20150078715A true KR20150078715A (ko) | 2015-07-08 |
KR102283360B1 KR102283360B1 (ko) | 2021-07-30 |
Family
ID=53481765
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020130168349A KR102283360B1 (ko) | 2013-12-31 | 2013-12-31 | 텍스트 편집 위치를 가이드 하는 방법, 장치 및 기록매체 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20150185988A1 (ko) |
KR (1) | KR102283360B1 (ko) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9596319B2 (en) * | 2013-11-13 | 2017-03-14 | T1V, Inc. | Simultaneous input system for web browsers and other applications |
US11481069B2 (en) | 2020-09-15 | 2022-10-25 | International Business Machines Corporation | Physical cursor control in microfluidic display devices |
US20230367470A1 (en) | 2022-05-10 | 2023-11-16 | Apple Inc. | Devices, Methods, and Graphical User Interfaces for Providing Notifications and Application Information |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20050038653A (ko) * | 2002-09-16 | 2005-04-27 | 텔레폰악티에볼라겟엘엠에릭슨(펍) | 가입 모듈로의 안전 접근 |
KR20090121582A (ko) * | 2008-05-22 | 2009-11-26 | 주식회사 이노칩테크놀로지 | 전자 장치 및 이의 프로그램 제어 방법 |
KR20100070281A (ko) * | 2008-12-17 | 2010-06-25 | 미쓰비시덴키 가부시키가이샤 | 절연 게이트 바이폴라 트랜지스터를 내장하는 반도체장치 |
KR20120019493A (ko) * | 2012-01-18 | 2012-03-06 | 유니챌(주) | 외국어 학습 기능을 제공하는 단말기 및 그 제어방법 |
JP2012161686A (ja) * | 2012-06-04 | 2012-08-30 | Daiichi Shokai Co Ltd | 遊技機 |
KR20120103075A (ko) * | 2011-03-09 | 2012-09-19 | 엘지전자 주식회사 | 이동 단말기 및 그의 텍스트 커서 운용방법 |
KR20120131520A (ko) * | 2011-05-25 | 2012-12-05 | 주식회사 파워이십일 | 배전선로의 최적 연계 해석 방법 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7634403B2 (en) * | 2001-09-05 | 2009-12-15 | Voice Signal Technologies, Inc. | Word recognition using word transformation commands |
US20090164493A1 (en) * | 2007-12-24 | 2009-06-25 | Johnsgard Todd J | Apparatus and methods for editing content on a wireless device |
US8266524B2 (en) * | 2008-02-25 | 2012-09-11 | Microsoft Corporation | Editing a document using a transitory editing surface |
US8239201B2 (en) * | 2008-09-13 | 2012-08-07 | At&T Intellectual Property I, L.P. | System and method for audibly presenting selected text |
US20120131520A1 (en) * | 2009-05-14 | 2012-05-24 | Tang ding-yuan | Gesture-based Text Identification and Selection in Images |
US8930192B1 (en) * | 2010-07-27 | 2015-01-06 | Colvard Learning Systems, Llc | Computer-based grapheme-to-speech conversion using a pointing device |
WO2012161686A2 (en) * | 2011-05-23 | 2012-11-29 | Nuance Communications Inc. | Text browsing, editing and correction methods for automotive applications |
-
2013
- 2013-12-31 KR KR1020130168349A patent/KR102283360B1/ko active IP Right Grant
-
2014
- 2014-12-31 US US14/587,363 patent/US20150185988A1/en not_active Abandoned
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20050038653A (ko) * | 2002-09-16 | 2005-04-27 | 텔레폰악티에볼라겟엘엠에릭슨(펍) | 가입 모듈로의 안전 접근 |
KR20090121582A (ko) * | 2008-05-22 | 2009-11-26 | 주식회사 이노칩테크놀로지 | 전자 장치 및 이의 프로그램 제어 방법 |
KR20100070281A (ko) * | 2008-12-17 | 2010-06-25 | 미쓰비시덴키 가부시키가이샤 | 절연 게이트 바이폴라 트랜지스터를 내장하는 반도체장치 |
KR20120103075A (ko) * | 2011-03-09 | 2012-09-19 | 엘지전자 주식회사 | 이동 단말기 및 그의 텍스트 커서 운용방법 |
KR20120131520A (ko) * | 2011-05-25 | 2012-12-05 | 주식회사 파워이십일 | 배전선로의 최적 연계 해석 방법 |
KR20120019493A (ko) * | 2012-01-18 | 2012-03-06 | 유니챌(주) | 외국어 학습 기능을 제공하는 단말기 및 그 제어방법 |
JP2012161686A (ja) * | 2012-06-04 | 2012-08-30 | Daiichi Shokai Co Ltd | 遊技機 |
Also Published As
Publication number | Publication date |
---|---|
US20150185988A1 (en) | 2015-07-02 |
KR102283360B1 (ko) | 2021-07-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102009423B1 (ko) | 음성 인식을 이용한 미리 설정된 동작 모드의 수행 방법 및 장치 | |
CN114564113B (zh) | 电子设备上的手写输入 | |
JP6999513B2 (ja) | イメージ表示方法及び携帯端末 | |
KR102203885B1 (ko) | 사용자 단말 장치 및 그 제어 방법 | |
US8214768B2 (en) | Method, system, and graphical user interface for viewing multiple application windows | |
US8751971B2 (en) | Devices, methods, and graphical user interfaces for providing accessibility using a touch-sensitive surface | |
CN201491068U (zh) | 便携式电子装置及具有触摸敏感显示器的电子装置 | |
AU2013276998B2 (en) | Mouse function provision method and terminal implementing the same | |
JP6655275B2 (ja) | モバイル装置及びその制御方法 | |
KR20140122404A (ko) | 휴대 단말기에서 메시지를 편집하는 장치 및 방법 | |
KR102145577B1 (ko) | 사용자 인터페이스 표시 방법 및 장치 | |
EP3447626A2 (en) | Display apparatus and control method thereof | |
US20140240262A1 (en) | Apparatus and method for supporting voice service in a portable terminal for visually disabled people | |
EP2863619A1 (en) | Electronic device and method for controlling object display | |
KR102186815B1 (ko) | 컨텐츠 스크랩 방법, 장치 및 기록매체 | |
KR20140055880A (ko) | 가상 화면 제어 방법 및 장치 | |
KR20140027838A (ko) | 멀티 터치를 이용한 핸드 라이팅 기능을 가지는 모바일 장치 및 제어 방법 | |
KR102283360B1 (ko) | 텍스트 편집 위치를 가이드 하는 방법, 장치 및 기록매체 | |
KR102073024B1 (ko) | 사용자 단말에서 메모 편집장치 및 방법 | |
KR20140131051A (ko) | 압력 센서를 포함하는 전자 장치 및 그 제어 방법 | |
US10306047B2 (en) | Mechanism for providing user-programmable button | |
US9886167B2 (en) | Display apparatus and control method thereof | |
KR102187856B1 (ko) | 사용자 인터페이스 표시 방법 및 장치 | |
KR102239019B1 (ko) | 사용자 인터페이스 표시 방법 및 장치 | |
KR102278676B1 (ko) | 사용자 인터페이스 표시 방법 및 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E90F | Notification of reason for final refusal | ||
E701 | Decision to grant or registration of patent right |