Nothing Special   »   [go: up one dir, main page]

KR101949046B1 - Handwriting input device - Google Patents

Handwriting input device Download PDF

Info

Publication number
KR101949046B1
KR101949046B1 KR1020170164037A KR20170164037A KR101949046B1 KR 101949046 B1 KR101949046 B1 KR 101949046B1 KR 1020170164037 A KR1020170164037 A KR 1020170164037A KR 20170164037 A KR20170164037 A KR 20170164037A KR 101949046 B1 KR101949046 B1 KR 101949046B1
Authority
KR
South Korea
Prior art keywords
image
camera
reference point
subject
coordinate
Prior art date
Application number
KR1020170164037A
Other languages
Korean (ko)
Other versions
KR20180077017A (en
Inventor
이승희
Original Assignee
이승희
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이승희 filed Critical 이승희
Publication of KR20180077017A publication Critical patent/KR20180077017A/en
Application granted granted Critical
Publication of KR101949046B1 publication Critical patent/KR101949046B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/18Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for optical projection, e.g. combination of mirror and condenser and objective
    • G02B27/20Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for optical projection, e.g. combination of mirror and condenser and objective for imaging minute objects, e.g. light-pointer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • G06F3/0386Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry for light pen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Optics & Photonics (AREA)
  • Position Input By Displaying (AREA)

Abstract

본 발명은 입력장치에 관한 것으로서, 더욱 상세하게는 손, 전자펜 등을 이용한 필기를 입력할 수 있는 장치에 관한 것이다. 본 발명은 다양한 고정 피사체의 입력 면 위에서의 이동 피사체에 의한 필기가 입력되는 필기 입력 장치에 있어서, 상기 이동 피사체와 입력 면을 동시에 촬영하여 기준점을 갖는 촬영 이미지를 획득하는 카메라를 포함하며, 상기 고정 피사체에 분리 가능하도록 설치되는 위치인식장치와, 상기 카메라의 시야 범위(Field of view, FOV)에 물품의 입력 면 전체가 들어올 경우에 상기 촬영 이미지의 기준점이 배치될 수 있는 영역인 제1기준 영역과 상기 기준 이미지에는 이상적인 기준점의 위치를 중심으로 하는 제2기준 영역이 표시된 기준 이미지가 저장된 기준 이미지 저장부와, 상기 기준 이미지와 상기 촬영 이미지를 비교하여 상기 제1기준 영역 내부에 상기 기준점이 위치하는지를 판단하는 제1판단부와 상기 제2기준 영역 내부에 상기 기준점이 위치하는지를 판단하는 제2판단부를 구비하며, 상기 촬영 이미지를 이용하여 이동 피사체의 위치 좌표를 계산하는 제어기를 포함하며, 상기 제어기는 상기 촬영 이미지에서 고정 피사체의 모서리가 인식되지 않을 경우 상기 제2판단부에서 상기 촬영 이미지의 기준점이 상기 제2기준 영역 내부에 위치하는 것으로 판단될 경우에만 이동피사체의 위치 좌표를 계산하는 것을 특징으로 하는 필기 입력 장치를 제공한다.BACKGROUND OF THE INVENTION 1. Field of the Invention [0001] The present invention relates to an input device, and more particularly, to a device capable of inputting a handwriting using a hand or an electronic pen. The present invention relates to a handwriting input device for inputting handwriting by a moving subject on an input surface of various fixed subjects, the handwriting input device comprising a camera for photographing the moving subject and the input surface at the same time to acquire a photographing image having a reference point, A first reference area which is a region in which a reference point of the photographed image can be arranged when the entire input surface of the article enters a field of view (FOV) of the camera, And a reference image storage unit for storing a reference image having a second reference area centered at a position of an ideal reference point, wherein the reference image is compared with the reference image, And a second determination unit for determining whether the reference point is located within the second reference area And a controller for calculating a position coordinate of a moving subject using the photographed image, wherein when the edge of the fixed subject is not recognized in the photographed image, And calculates the position coordinates of the moving subject only when it is determined that the reference point of the captured image is located within the second reference area.

Description

필기 입력 장치{Handwriting input device}[Technical Field] The present invention relates to a handwriting input device,

본 발명은 입력장치에 관한 것으로서, 더욱 상세하게는 손, 전자펜 등을 이용한 필기를 입력할 수 있는 장치에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention [0001] The present invention relates to an input device, and more particularly, to a device capable of inputting a handwriting using a hand or an electronic pen.

컴퓨터, 휴대용 단말기 등의 전자장치에 정보를 입력하는 방법으로서, 종래에는 마우스, 키보드 등의 입력 방식이 사용되었으며, 최근에는 터치스크린을 이용한 입력방식이 많이 사용되고 있다.2. Description of the Related Art As a method of inputting information into an electronic device such as a computer or a portable terminal, an input method such as a mouse and a keyboard has been used. Recently, an input method using a touch screen has been widely used.

터치스크린(Touch Screen)을 이용한 입력방식은 마우스나 키보드 등의 입력 방식을 대체할 수 있는 새로운 입력 방식으로, 손이나 펜을 이용하여 스크린에 직접 정보를 입력할 수 있는 입력 방식이다. 터치스크린을 이용한 입력 방식은 사용자가 화면을 보면서 원하는 작업을 직접 수행할 수 있고, 누구나 쉽게 조작할 수 있기 때문에 GUI(Graphical User Interface) 환경하에서 가장 이상적인 입력 방식으로 평가받고 있으며, 휴대폰, PDA, 은행이나 관공서의 단말기, 각종 의료장비, 관광기관의 안내 표시 장치 등 여러 분야에서 널리 사용되고 있다.The input method using the touch screen is a new input method which can replace the input method of a mouse or a keyboard, and is an input method in which information can be inputted directly to the screen by using a hand or a pen. The input method using the touch screen is evaluated as the most ideal input method in GUI (Graphical User Interface) environment because the user can directly perform the desired operation while viewing the screen and anyone can easily operate it. It is widely used in various fields such as terminal of public office, medical equipment, guide display device of tourist agency.

또한, 다른 방식으로 전자펜을 이용하여 사용자의 필기를 인식하고, 인식된 내용을 디지털화하여 저장할 수 있는 기술 및 제품이 상용화되고 있다. 종래의 펜형(Pen-type) 문자 입력 시스템은 문자 입력을 위한 종이에 좌표를 나타내는 마이크로 코드를 미리 삽입하고 광학적 위치 인식 기술을 통하여 펜의 움직임 궤적을 추정한다. In addition, technologies and products capable of recognizing the handwriting of a user by using an electronic pen in another manner and digitizing and storing the recognized contents are being commercialized. In a conventional pen-type character input system, a microcode representing a coordinate on a paper for character input is inserted in advance, and a motion locus of the pen is estimated through an optical position recognition technique.

예를 들어, 공개특허공보 제2010-52526호에는 절대 좌표 정보를 포함하는 도트 패턴이 표시된 투명한 시트를 전자장치의 표시 화면 등에 부착한 후 광학 독취 장치를 이용해서 도트 패턴을 읽어들임으로써, 터치 패널과 유사한 형태의 입력이 가능한 정보 처리 시스템이 개시되어 있다.For example, in Japanese Laid-Open Patent Publication No. 2010-52526, a transparent sheet having a dot pattern including absolute coordinate information is attached to a display screen of an electronic device, and then the dot pattern is read using an optical reading device, An information processing system capable of inputting a form similar to that of FIG.

상술한 종래의 도트 패턴을 이용한 입력 시스템은 광학 독취 장치가 읽어들이는 좌표 패턴에 포함된 절대 좌표 정보를 직접 이용해서 광학 독취 장치의 위치를 인식한다.The conventional input system using the dot pattern recognizes the position of the optical reading device by directly using the absolute coordinate information included in the coordinate pattern read by the optical reading device.

따라서 정확하고 섬세한 입력을 위해서는 좌표 패턴이 매우 촘촘히 배치하여야 한다는 문제가 있었다. 예를 들어 좌표 패턴을 300dpi로 인쇄한다면 약 84㎛ 간격으로 좌표 패턴이 배치되어야 한다. 이와 같이 촘촘히 배치된 좌표 패턴은 표시화면의 투명도를 저하할 수 있다는 문제가 있다. 또한, 좌표 패턴의 형태가 복잡해지고, 크기가 매우 작으며, 수가 많기 때문에 좌표 패턴을 형성하기도 어렵다. 또한, 좌표 패턴을 형성하여도, 좌표 패턴 인쇄, 보호층 코팅 등 제작과정에서 좌표 패턴이 형성된 필름이 변형될 수 있고, 필름을 부착하는 과정에서도 수십㎛ 정도의 오차가 발생할 수 있으므로 적용이 어렵다.Therefore, there has been a problem that the coordinate pattern must be arranged very closely for accurate and delicate input. For example, if the coordinate pattern is printed at 300 dpi, the coordinate pattern should be arranged at intervals of about 84 탆. Such a tightly arranged coordinate pattern has a problem that the transparency of the display screen can be lowered. In addition, since the shape of the coordinate pattern is complicated, and the size is very small and the number is large, it is also difficult to form a coordinate pattern. In addition, even if a coordinate pattern is formed, a film having a coordinate pattern formed therein can be deformed during the course of production such as coordinate pattern printing, protective layer coating, and the like, and an error of several tens of micrometers may occur in the process of attaching the film.

또한, 촘촘히 배치된 좌표 패턴을 이용하더라도, 전자펜을 잡는 자세에 따라서 카메라로 촬영된 이미지의 왜곡이 발생하여, 정확한 좌표 측정이 어렵다는 문제도 있었다.In addition, there is a problem that even if the closely-arranged coordinate pattern is used, distortion of the image photographed by the camera occurs in accordance with the attitude of holding the electronic pen, thereby making it difficult to accurately measure coordinates.

또한, 등록특허 제10-1312018호에는 별도의 좌표 패턴을 사용하지 않고, 적외선 카메라를 이용해서 투명 패널 위에서 움직이는 전자펜의 위치를 확인한 후 투명 패널 아래에 위치하는 평판표시 장치에 전자펜의 궤적을 표시하는 전자칠판 시스템이 개시되어 있다. 이러한 시스템은 측정 정밀도가 너무 낮으며, 반응속도도 느리다는 문제가 있었다.In addition, Japanese Patent Application No. 10-1312018 discloses a technique of confirming the position of an electronic pen moving on a transparent panel using an infrared camera without using a separate coordinate pattern, and then locating the trajectory of the electronic pen on a flat panel display device positioned below the transparent panel And a display unit for displaying the image data. Such a system has a problem that the measurement accuracy is too low and the reaction rate is slow.

다른 절대 좌표 방식의 전자펜은 좌표 인식이 가능한 태블릿(Tablet) 혹은 전자 패드(Pad)에 전자펜으로 필기를 하고, 전자펜의 이동에 의한 좌표를 인식하여 궤적을 복원함으로써 문자 입력을 수행하였다. 이러한 절대 좌표 기반의 방식은 펜 궤적 복원이 비교적 잘 수행되지만 절대 좌표를 제공하기 위한 추가적인 레퍼런스 시스템(즉, 타블렛 혹은 전자 패드)이 반드시 요구된다는 문제가 있다.In other absolute coordinate type electronic pens, letters were written on a tablet or electronic pad capable of recognizing coordinates using an electronic pen, and characters were input by recognizing coordinates by movement of the electronic pen and restoring the locus. This absolute coordinate-based approach has the problem that an additional reference system (i.e., a tablet or electronic pad) is required to provide absolute coordinates, although the pen trajectory reconstruction is relatively well performed.

이러한 문제를 극복하기 위해 관성 센서나 광학 센서를 활용하여 절대 좌표 방식이 아닌 상대 좌표 기반의 문자 입력 방식을 위한 시도가 수행되어 오고 있다. 일 예로서, 관성 센서만을 활용하여 펜 팁(Pen-tip)의 움직임을 계산하여 궤적을 복원하는 시스템, 펜 형태의 광마우스를 이용하는 시스템이 제안되었다. 그러나 이러한 기술은 시간이 흐름에 따라 누적 오차가 커진다는 문제가 있으며, 절대 좌표를 알 수 없다는 문제가 있었다.In order to overcome this problem, an attempt has been made for a coordinate input based character input method instead of an absolute coordinate method by utilizing an inertial sensor or an optical sensor. As an example, a system using a pen-shaped optical mouse is proposed, in which a trajectory is restored by calculating the movement of a pen-tip using only an inertial sensor. However, this technique has a problem that cumulative error increases with time, and there is a problem that the absolute coordinates can not be known.

공개특허공보 제2010-52526호Japanese Patent Application Laid-Open No. 2010-52526 등록특허 제10-1312018호Patent No. 10-1312018

본 발명은 상술한 문제점을 개선하기 위한 것으로서, 좌표 패턴을 사용하지 않으면서, 정확하고 섬세한 입력이 가능한 입력 시스템을 제공하는 것을 목적으로 한다.SUMMARY OF THE INVENTION It is an object of the present invention to provide an input system capable of precise and delicate input without using a coordinate pattern.

상술한 목적을 달성하기 위해 본 발명은 다양한 고정 피사체의 입력 면 위에서의 이동 피사체에 의한 필기가 입력되는 필기 입력 장치에 있어서, 상기 이동 피사체와 입력 면을 동시에 촬영하여 기준점을 갖는 촬영 이미지를 획득하는 카메라를 포함하며, 상기 고정 피사체에 분리 가능하도록 설치되는 위치인식장치와, 상기 카메라의 시야 범위(Field of view, FOV)에 물품의 입력 면 전체가 들어올 경우에 상기 촬영 이미지의 기준점이 배치될 수 있는 영역인 제1기준 영역과 상기 기준 이미지에는 이상적인 기준점의 위치를 중심으로 하는 제2기준 영역이 표시된 기준 이미지가 저장된 기준 이미지 저장부와, 상기 기준 이미지와 상기 촬영 이미지를 비교하여 상기 제1기준 영역 내부에 상기 기준점이 위치하는지를 판단하는 제1판단부와 상기 제2기준 영역 내부에 상기 기준점이 위치하는지를 판단하는 제2판단부를 구비하며, 상기 촬영 이미지를 이용하여 이동 피사체의 위치 좌표를 계산하는 제어기를 포함하며, 상기 제어기는 상기 촬영 이미지에서 고정 피사체의 모서리가 인식되지 않을 경우 상기 제2판단부에서 상기 촬영 이미지의 기준점이 상기 제2기준 영역 내부에 위치하는 것으로 판단될 경우에만 이동피사체의 위치 좌표를 계산하는 것을 특징으로 하는 필기 입력 장치를 제공한다.According to another aspect of the present invention, there is provided a handwriting input device for inputting handwriting by a moving subject on an input surface of various fixed subjects, the handwriting input device comprising: A reference point of the photographed image may be arranged when the entire entry surface of the article enters a field of view (FOV) of the camera, the position recognition device being detachably installed in the fixed subject, And a reference image storing unit that stores a reference image in which a second reference area around the position of an ideal reference point is displayed, the reference image storing unit including a reference image storing unit storing the reference image, A first judging unit for judging whether the reference point is located inside the region, And a second determination unit for determining whether the reference point is located in a portion of the captured image, wherein the controller calculates a position coordinate of the moving subject using the captured image, wherein the controller determines that the edge of the fixed subject is not recognized When the second determining unit determines that the reference point of the photographed image is located within the second reference area, the position coordinate of the moving subject is calculated.

본 발명에 따른 필기 입력 장치는 좌표 패턴을 사용하지 않으면서, 정확하고 섬세한 입력이 가능하다는 장점이 있다.The handwriting input device according to the present invention has an advantage that accurate and delicate input can be performed without using a coordinate pattern.

도 1은 본 발명에 따른 입력 시스템의 일실시예를 고정 피사체에 장착하여 사용하는 방법을 나타낸 도면이다.
도 2는 도 1에 도시된 이동 피사체의 일 예인 전자펜의 개념도이다.
도 3은 도 1에 도시된 위치인식장치의 개념도이다.
도 4a와 도 4b는 도 3에 도시된 클립부의 개념도이다.
도 5는 도 1에 도시된 제어기의 블록도이다.
도 6은 기준 이미지를 나타낸 도면이다.
도 7은 촬영 이미지를 나타낸 도면이다.
도 8은 피사체 템플릿을 나타낸 도면이다.
도 9는 정합 이미지를 나타낸 도면이다.
도 10은 보정 이미지를 나타낸 도면이다.
도 11은 위치인식장치의 다른 예들의 개념도이다.
도 12는 대형 디스플레이에 위치인식장치를 적용한 예의 도면이다.
도 13은 도 12에 도시된 위치인식장치의 개념도이다.
1 is a view illustrating a method of mounting an input system according to an embodiment of the present invention on a fixed subject.
2 is a conceptual diagram of an electronic pen as an example of the moving subject shown in FIG.
3 is a conceptual diagram of the position recognition apparatus shown in Fig.
4A and 4B are conceptual diagrams of the clip portion shown in FIG.
5 is a block diagram of the controller shown in FIG.
6 is a view showing a reference image.
7 is a view showing a photographed image.
8 is a view showing a subject template.
9 is a view showing a matching image.
10 is a diagram showing a correction image.
11 is a conceptual diagram of other examples of the position recognition apparatus.
12 is an exemplary diagram showing a position recognition apparatus applied to a large display.
13 is a conceptual diagram of the position recognition apparatus shown in Fig.

이하, 첨부된 도면들을 참조하여 본 발명의 실시예를 상세히 설명하기로 한다. 그러나 본 발명은 이하에서 개시되는 실시예에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이다. 도면상의 동일 부호는 동일한 요소를 지칭한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. It will be apparent to those skilled in the art that the present invention may be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, It is provided to let you know. Like reference numerals refer to like elements throughout.

도 1은 본 발명에 따른 입력 시스템의 일실시예를 고정 피사체에 장착하여 사용하는 방법을 나타낸 도면이다. 도 1을 참고하면, 본 발명에 따른 입력 시스템의 일실시예는 전자펜(10), 위치인식장치(20), 제어기(30)를 포함한다.1 is a view illustrating a method of mounting an input system according to an embodiment of the present invention on a fixed subject. Referring to Fig. 1, an embodiment of an input system according to the present invention includes an electronic pen 10, a position recognition device 20, and a controller 30. Fig.

공책(1)은 위치인식장치(20)가 장착되고, 이동 피사체인 전자펜(10)의 펜 팁(11)이 접촉하면서 이동하는 입력 면을 제공하는 고정 피사체의 일 예이다. 고정 피사체로는 공책뿐 아니라 A4 용지 등의 종이류, 책, 태블릿, 스마트폰, 대형 디스플레이 등 평평한 면은 구비한 다양한 물품이 사용될 수 있다.The booklet 1 is an example of a fixed object to which the position recognition device 20 is attached and provides an input surface on which the pen tip 11 of the electronic pen 10 as a moving subject moves while being in contact. As the fixed subject, not only the notebook but also a variety of items including flat paper such as A4 paper, book, tablet, smart phone, large display and the like can be used.

도 2는 도 1에 도시된 전자펜의 개념도이다. 도 2에 도시된 바와 같이, 전자펜(10)는 펜 팁(11), 하우징(12), 마우스 모듈(13). 적외선 포인터(14)를 포함한다.2 is a conceptual view of the electronic pen shown in Fig. As shown in Fig. 2, the electronic pen 10 includes a pen tip 11, a housing 12, and a mouse module 13. And an infrared pointer 14.

전자펜(10)은 현재 펜 팁(11)의 위치 좌표에 대한 정보는 제공하지 않지만, 현재 위치를 기준으로 펜 팁(11)의 상대 좌표에 대한 정보는 제공할 수 있다.The electronic pen 10 does not provide information on the current coordinates of the pen tip 11 but can provide information on the relative coordinates of the pen tip 11 on the basis of the current position.

펜 팁(11)은 압력센서(미도시)와 연결되어 전자펜(10)의 온/오프 스위치로서 작용할 수 있다. 전자펜(10)의 하우징(12)에는 마우스 모듈(13)과 펜 팁(11)을 조사하는 적외선 포인터(14)가 설치될 수 있다.The pen tip 11 is connected to a pressure sensor (not shown) and can act as an on / off switch of the electronic pen 10. The housing 12 of the electronic pen 10 may be provided with a mouse module 13 and an infrared pointer 14 for irradiating the pen tip 11. [

마우스 모듈(13)은 예를 들어, 레이저 다이오드와 레이저 센서를 포함하는 레이저 마우스 모듈, 적외선 발광다이오드, 광 이미지 센서 및 렌즈들을 포함하는 광마우스 모듈, 관성 센서를 이용하는 관성 마우스 모듈 등이 있다. 마우스 모듈(13)은 펜 팁(11)의 이동 궤적의 상대 좌표 정보를 획득하는 역할을 한다. 또한, 마우스 모듈(13)에는 레이저 다이오드나 적외선 발광다이오드와 같은 광원을 제어하고 통신하기 위한 마이크로프로세서, 메모리, 통신모듈 등이 설치된다. 통신모듈은 제어기(30)에 접속하여 펜 팁(11)의 상대 좌표 정보를 전달하기 위한 것으로서, USB 포트와 같은 I/O 인터페이스와 유선으로 연결되거나, 블루투스, 지그비 방식 등을 통해 무선으로 연결될 수 있다. 무선으로 연결된 경우에는 전원을 공급하기 위한 배터리가 하우징 내에 설치된다.The mouse module 13 may be, for example, a laser mouse module including a laser diode and a laser sensor, an infrared light emitting diode, an optical mouse module including an optical image sensor and lenses, and an inertial mouse module using an inertial sensor. The mouse module 13 serves to obtain relative coordinate information of the movement trajectory of the pen tip 11. The mouse module 13 is provided with a microprocessor, a memory, and a communication module for controlling and communicating a light source such as a laser diode or an infrared light emitting diode. The communication module is connected to the controller 30 to transmit relative coordinate information of the pen tip 11 and can be connected to an I / O interface such as a USB port by wire or wirelessly via Bluetooth or Zigbee have. When connected wirelessly, a battery for supplying power is installed in the housing.

적외선 포인터(14)는 펜 팁(11)에 적외선을 조사한다. 적외선 포인터(14)는 적외선 발광다이오드와 집광렌즈를 포함할 수 있다. 적외선 포인터(14)는 마우스 모듈(13)로 광마우스 모듈을 사용하는 경우에는 마우스 모듈(13)의 발광다이오드에서 조사되는 빛을 일부를 집광하여 펜 팁(11)에 조사할 수도 있다. 적외선 포인터(14)는 후술하는 위치인식장치(20)의 적외선 카메라(22)를 이용하여 펜 팁(11)의 영상을 쉽게 획득하기 위해 설치된다. 또한, 제어기(30)가 외부의 적외선과 적외선 포인터(14)에 의한 적외선을 구분할 수 있도록, 적외선 포인터(14)는 펄스 형태로 적외선을 조사할 수도 있다.The infrared pointer 14 irradiates the pen tip 11 with infrared rays. The infrared pointer 14 may include an infrared light emitting diode and a condenser lens. When the optical mouse module is used as the mouse module 13, the infrared pointer 14 may collect a part of the light emitted from the light emitting diode of the mouse module 13 and irradiate the light onto the pen tip 11. [ The infrared pointer 14 is installed to easily acquire the image of the pen tip 11 using the infrared camera 22 of the position recognition device 20 described later. In addition, the infrared pointer 14 may irradiate infrared rays in the form of a pulse so that the controller 30 can distinguish the infrared rays from the external infrared ray and the infrared ray from the infrared ray pointer 14.

또한, 전자펜(10)에는 전자펜(10)의 기능을 마우스 기능에서 필기 기능으로 또는 역으로 전환할 수 있는 버튼(15)이 설치될 수 있다. 마우스 기능이 선택될 때에는 펜 팁(11)의 위치를 알 필요가 없으므로, 적외선 포인터(13)가 꺼질 수 있다.The electronic pen 10 may be provided with a button 15 for switching the function of the electronic pen 10 from a mouse function to a writing function or vice versa. When the mouse function is selected, it is not necessary to know the position of the pen tip 11, so that the infrared pointer 13 can be turned off.

또한, 전자펜(10)에는 펜 팁(11)과 교대로 선택할 수 있는 볼펜 심이 설치될 수 있으며, 마이크 모듈이 설치될 수도 있다.In addition, the electronic pen 10 may be provided with a ballpoint pen which can be alternately selected from the pen tip 11, and a microphone module may be provided.

도 3은 도 1에 도시된 위치인식장치의 개념도이다.3 is a conceptual diagram of the position recognition apparatus shown in Fig.

도 3에 도시된 위치인식장치(20)는 도 2에 도시된 전자펜(10)의 후단에 결합될 수 있다.The position recognition device 20 shown in Fig. 3 can be coupled to the rear end of the electronic pen 10 shown in Fig.

위치인식장치(20)는 이동 피사체인 전자펜(10)의 펜 팁(11)의 고정 피사체의 입력 면 위에서의 위치를 알기 위한 촬영 이미지를 획득하는 기능을 한다. 위치인식장치(20)는 몸체(21), 카메라(22) 및 레이저 포인터(23)를 포함한다. 도 1에 도시된 바와 같이, 위치인식장치(20)는 공책(1)의 일 측에 장착된다. 위치인식장치(20)는 공책(1)의 모서리에 장착될 수도 있다.The position recognizing device 20 acquires a photographing image for recognizing the position of the pen tip 11 of the electronic pen 10, which is a moving subject, on the input surface of the fixed subject. The position recognition apparatus 20 includes a body 21, a camera 22, and a laser pointer 23. [ As shown in Fig. 1, the position recognition device 20 is mounted on one side of the notebook 1. The position recognition device 20 may be mounted on the edge of the notebook 1.

몸체(21)에는 위치인식장치(20)를 공책(1)에 고정하기 위한 클립부(25)가 형성되어 있으며, 도시하지 않았으나, 카메라(22) 및 레이저 포인터(23)를 제어하기 위한 마이크로프로세서, 메모리, 통신모듈 등도 설치된다. 또한, 위치인식장치(20)가 정 위치에 장착되었는지를 사용자가 식별하기 위한 발광다이오드(26)도 설치될 수 있다.The body 21 is provided with a clip portion 25 for fixing the position recognition device 20 to the notebook 1 and includes a microprocessor 22 for controlling the camera 22 and the laser pointer 23, , A memory, and a communication module. Further, a light emitting diode 26 for identifying the user whether the position recognizing apparatus 20 is mounted in the correct position may also be provided.

클립부(25)는 공책(1)의 두께에 상관없이, 위치인식장치(20)가 수평을 이룬 상태로 고정되도록 하는 구조를 가진다. 클립부(25)는 클립 몸체(251)와, 클립 몸체(251)에서 연장되며 공책의 하면에 접촉하는 지지바(252)와, 클립 몸체(251)에서 연장되며 위치인식장치(20)에 형성된 수직 홈(27)에 끼워져 클립 몸체(251)의 상하 이동을 안내하는 수직 바(253)와, 위치인식장치(20)에 길게 형성된 가이드 홈(28)에 끼워진 롤러(254)와, 롤러(254)와 연결되어 롤러(254)가 클립 몸체(251)로부터 멀어지는 방향으로 롤러(254)에 탄성력을 제공하는 탄성 제공 수단(255), 일단은 클립 몸체(251)에 힌지 결합하고, 타단은 롤러(254)에 힌지 결합하는 연결바(256)를 포함한다.The clip portion 25 has a structure for fixing the position recognition device 20 in a horizontal state regardless of the thickness of the book 1. The clip portion 25 includes a clip body 251, a support bar 252 extending from the clip body 251 and contacting the lower surface of the notebook, A vertical bar 253 inserted in the vertical groove 27 for guiding vertical movement of the clip body 251, a roller 254 fitted in a guide groove 28 elongated in the position recognizing device 20, Elastic supporting means 255 connected to the roller body 251 to provide elastic force to the roller 254 in a direction in which the roller 254 is away from the clip body 251. The other end is hinged to the clip body 251, 254, respectively.

도 4b에 도시된 바와 같이, 위치인식장치(20)를 얇은 공책(2)에 장착하는 경우에는 탄성 제공 수단(255)의 탄성력에 의해서 롤러(254)가 많이 후퇴하고, 클립 몸체(251)가 위치인식장치(20)의 하면에 가까워지며, 두꺼운 공책(1)에 장착하는 경우에는 도 4a에 도시된 바와 같이, 롤러(254)가 덜 후퇴하고, 클립 몸체(251)가 위치인식장치(20)의 하면에서 멀어진다. 클립 몸체(251)는 수직 홈(27)에 끼워진 수직 바(253)에 의해서 상하 이동만 할 수 있으므로, 클립부(25)의 지지바(256)와 위치인식장치(20)의 하면은 항상 수평을 유지한다. 따라서 클립부(25)를 이용하여 위치인식장치(20)를 공책에 고정하는 과정에서 위치인식장치(20)가 틀어질 가능성이 작다. 클립부(25)에는 클립부(25)가 공책의 일 측면과 수평을 유지하면서 제대로 끼워졌는지를 확인할 수 있는 센서(미도시)가 설치될 수도 있다.4B, when the position recognizing apparatus 20 is mounted on the thin notebook 2, the roller 254 is retracted a lot due to the elastic force of the elastic providing means 255, and the clip body 251 The roller 254 is less retracted as shown in FIG. 4A, and when the clip body 251 is mounted on the position recognition device 20 ). The support bar 256 of the clip portion 25 and the lower surface of the position recognizing device 20 are always horizontally moved by the vertical bar 253 inserted in the vertical groove 27, Lt; / RTI > Therefore, there is little possibility that the position recognition apparatus 20 is tripped in the process of fixing the position recognition apparatus 20 to the notebook using the clip unit 25. [ A sensor (not shown) may be provided on the clip portion 25 to confirm whether the clip portion 25 is properly fitted to the other side of the notebook.

본 실시예에서 카메라(22)는 몸체(21)에 힌지 결합된 지지 포스트(24)에 설치된다. 위치인식장치(20)가 공책에 장착된 후 지지 포스트(24)를 펼치면 카메라(22)는 공책(1)의 상면인 입력 면을 향한다. 카메라(22)는 반사광을 전기 신호로 변환하는 전하결합소자(Charge Coupled Device, CCD)와 입력 면에서 반사된 빛 및 펜 팁(11)에서 반사된 적외선을 CCD에 전달하는 렌즈 등의 광학 기구들을 포함한다. CCD는 수만 내지 수십만 개의 감광소자를 포함하며, 감광소자의 수에 의해서 해상도가 결정된다. 본 발명에서 카메라의 해상도가 높을수록 입력시스템의 정밀도가 향상되지만 해상도가 640×520 정도로 낮은 카메라를 사용할 수 있다. 또한, 카메라의 이미지 센서는 CMOS일 수 있다. 카메라(22)의 렌즈로는 시야 각이 일정한 점대칭형 렌즈를 사용할 수 있다.In this embodiment, the camera 22 is mounted on a support post hinged to the body 21. When the position recognition device 20 is mounted on the notebook, the support post 24 is unfolded so that the camera 22 faces the input face which is the upper face of the notebook 1. [ The camera 22 includes optical components such as a charge coupled device (CCD) for converting the reflected light into an electric signal, a light reflected from the input surface, and a lens for transmitting the infrared rays reflected from the pen tip 11 to the CCD . The CCD includes tens to hundreds of thousands of photosensitive elements, and the resolution is determined by the number of photosensitive elements. In the present invention, the higher the resolution of the camera, the better the accuracy of the input system, but a camera having a resolution as low as 640 x 520 can be used. Also, the image sensor of the camera may be CMOS. As the lens of the camera 22, a point symmetrical lens having a constant viewing angle can be used.

또한, 카메라(22)의 자세 각을 알기 위해서 카메라(22) 주위에 틸트 센서를 설치할 수도 있다.In addition, a tilt sensor may be provided around the camera 22 to determine the attitude angle of the camera 22. [

레이저 포인터(23)는 카메라(22)에서 획득되는 영상에 기준점을 표시하는 역할을 한다. 본 실시예에서 레이저 포인터(23)는 지지 포스트(24)에 설치된다. 레이저 포인터(23)는 카메라의 진동이 같이 전달되고, 카메라의 주점 위치에 레이저를 조사할 수 있는 기하학적 위치에 설치될 수 있다. 기준점은 영상의 중심점이나 주점(Principal Point)일 수 있다. 주점은 카메라 렌즈의 중심점의 핀 홀의 빛이 CCD의 중심에 이미지가 맺히도록 설정하는 것이 가장 이상적이지만, 설치 과정의 난이도를 고려하여 이미지센서(CCD) 중심 부근에 레이저 포인터(23)에 의한 마크가 올 수도 있을 것이다. 만약 카메라(22)가 떨리면 레이저 포인터(23)의 마크도 떨려서 마크가 흐릿할 것이다. 또한, 카메라(22)의 렌즈에 따라서 제1, 2 기준영역 위치에 설치될 수 있을 것이다.The laser pointer 23 serves to display a reference point on an image obtained by the camera 22. [ In this embodiment, the laser pointer 23 is installed in the support post 24. The laser pointer 23 can be installed at a geometric position where the vibration of the camera is transmitted and the laser can be irradiated to the principal point position of the camera. The reference point may be a center point or a principal point of the image. It is ideal to set the image of the pinhole of the center point of the camera lens so that the image is formed at the center of the CCD. However, considering the difficulty of the installation process, the mark by the laser pointer 23 in the center of the image sensor You might come. If the camera 22 is shaken, the mark of the laser pointer 23 will also be shaken and the mark will be blurred. Further, it may be installed at the first and second reference area positions along the lens of the camera 22. [

따라서, 제어기(30)는 레이저 포인터(23) 마크의 형체 및 크기의 변화로 카메라(22)가 떨리는 것을 쉽게 확인하여 촬영이미지를 선별할 수 있을 것이다.Therefore, the controller 30 can easily confirm that the camera 22 is shaken by the shape and size of the mark of the laser pointer 23, so that the captured image can be selected.

또한, 위치인식장치가 동일 고정피사체에 클립 될 때마다 레이저 포인터의 기준점의 위치가 변경됨을 알 수 있고, 이상적으로 설치된 레이저 포인터의 기준점과 동일 고정피사체에 반복 클립되는 실제 레이저 포인터의 기준점의 위치좌표 차이를 알 수 있다. 이것을 이용하여 고정피사체의 위치좌표를 보정할 수 있다.Further, it can be seen that the position of the reference point of the laser pointer is changed each time the position recognition apparatus is clipped to the same fixed object, and the position coordinates of the reference point of the actual laser pointer repeatedly clipped to the same fixed object as the reference point of the laser pointer, The difference can be seen. This makes it possible to correct the position coordinates of the fixed object.

도 5는 도 1에 도시된 제어기의 블록도이다. 도 5에 도시된 바와 같이, 제어기(30)는 기준 이미지 저장부(31), 카메라 이미지 수신부(38), 제1판단부(32), 이미지 확인부(33), 제2판단부(40), 템플릿 생성부(41), 정합부(42), 이미지 보정부(34), 위치 좌표 추출부(35), 상대 좌표 수신부(39), 절대 좌표 계산부(36) 및 절대 좌표 송신부(37)를 포함한다.5 is a block diagram of the controller shown in FIG. 5, the controller 30 includes a reference image storage unit 31, a camera image receiving unit 38, a first determination unit 32, an image verification unit 33, a second determination unit 40, A template generating unit 41, a matching unit 42, an image correcting unit 34, a position coordinate extracting unit 35, a relative coordinate receiving unit 39, an absolute coordinate calculating unit 36 and an absolute coordinate transmitting unit 37, .

기준 이미지 저장부(31)에는 위치인식장치(20)에 설치된 카메라(22)를 이용하여 고정 피사체를 촬영하였을 때 얻을 수 있는 이미지와 비교할 수 있는 기준 이미지가 저장되어 있다. 기준 이미지는 위치인식장치(20)에 설치된 카메라를 이용하여 고정 피사체를 촬영하였을 때 얻어질 수 있는 이상적인 고정 피사체의 이미지이다. 즉, 위치인식장치(20)가 고정 피사체의 정 위치에 완벽하게 설치되었을 때의 이미지이다. 기준 이미지는 이상적인 환경에서 실제로 카메라로 촬영하여 만들 수도 있으나, 이미지 프로그램에 데이터를 입력하여 만들 수도 있다. 카메라(22)의 설치위치에 따라서, 도 6에 도시된 바와 같이, 고정 피사체의 기준 이미지(5)에는 원근 및 방사 왜곡이 일어날 수 있다.The reference image storage unit 31 stores a reference image that can be compared with an image obtained when a fixed object is photographed using the camera 22 installed in the position recognition apparatus 20. [ The reference image is an ideal fixed subject image that can be obtained when a fixed subject is photographed using a camera installed in the position recognition device 20. [ That is, the image is obtained when the position recognition apparatus 20 is perfectly installed in a fixed position of the fixed subject. The reference image can be created by actually shooting the camera in an ideal environment, but it can also be created by inputting data into the image program. Depending on the installation position of the camera 22, perspective and radial distortion may occur in the reference image 5 of the fixed object, as shown in Fig.

기준 이미지(5)에는 제1기준 영역(6)과 제2기준 영역(7)이 표시되어 있다. 도 6의 기준 이미지는 하나의 예시이며, 기준 이미지는 위치인식장치에서의 카메라의 위치, 자세 및 시야각에 따라 다를 수 있으며, 제1기준 영역과 제2기준영역의 형태와 크기도 다를 수 있다. 제1기준 영역(6)은 고정 피사체의 입력 면 전체가 카메라(22)의 시야 범위(Field of view, FOV)에 속하는지를 확인하기 위한 사다리꼴 형태의 영역일 수 있다. 위치인식장치(20)가 좌우 한쪽으로 치우치게 설치되거나 완전히 끼워지지 않으면, 고정 피사체의 입력 면 일부가 FOV를 벗어나서 촬영될 수 없는 것을 방지하기 위함이다.In the reference image 5, a first reference area 6 and a second reference area 7 are displayed. The reference image of FIG. 6 is an example, and the reference image may be different according to the position, the posture, and the viewing angle of the camera in the position recognition apparatus, and the shapes and sizes of the first reference region and the second reference region may be different. The first reference area 6 may be a trapezoidal area for confirming whether the entire input surface of the fixed object belongs to the field of view (FOV) of the camera 22. [ This is to prevent a part of the input surface of the fixed object from being out of the FOV and being unable to be photographed unless the position recognizing device 20 is biased to the right or left or fully inserted.

제2기준 영역(7)은 원 또는 사각형 등의 영역일 수 있다. 도 3에 도시된 실시예에서 제2기준 영역(7)은 고정 피사체가 위치한 공간의 환경 및 조도 등에 의해서 이미지 처리 알고리즘을 통해서 고정 피사체와 배경을 정확히 구분할 수 없어서, 고정 피사체의 모서리들이 카메라(22)에서 촬영된 이미지에서 인식되지 않는 경우에 모서리들의 좌표 값을 계산할 때 사용된다. 제2기준 영역(7)은 이러한 방식으로 모서리들의 좌표 값을 계산하는 것이 허용될 수 있는 최대 영역을 표시한다. 레이저 포인터(23)에 의한 기준점이 제2기준 영역(7)을 벗어날 경우에는 계산에 의한 모서리 좌표 값과 실제 모서리 좌표 값 사이의 오차가 허용범위를 벗어난다.The second reference region 7 may be a region such as a circle or a rectangle. In the embodiment shown in FIG. 3, the second reference area 7 can not accurately distinguish the fixed object from the background through the image processing algorithm due to the environment and illumination of the space in which the fixed object is located, Is used to calculate the coordinate values of the corners when it is not recognized in the photographed image. The second reference area 7 indicates the maximum area in which it is possible to calculate the coordinate values of the corners in this way. When the reference point by the laser pointer 23 deviates from the second reference area 7, the error between the calculated corner coordinate value and the actual corner coordinate value is out of the allowable range.

카메라 이미지 수신부(38)는 카메라(22)에서 촬영된 이미지를 수신한다. 촬영 이미지(8)는 레이저 포인터가 조사된 고정 피사체의 실제 이미지이다. 이상적일 경우에는 촬영 이미지(8)와 기준 이미지(5)가 일치하지만 위치인식장치(20)를 설치하는 과정에서 오차가 생길 경우에는 도 7에 도시된 바와 같이, 촬영 이미지(8)와 기준 이미지(5)가 일치하지 않는다. 도 7의 촬영 이미지(8)는 설명을 위한 도면이여, 위치인식장치(8)의 카메라(22) 위치와 설치 각에 따라 촬영 이미지(8)의 형상이 변할 수 있다.The camera image receiving unit 38 receives the image photographed by the camera 22. [ The photographed image 8 is the actual image of the fixed subject irradiated with the laser pointer. In the ideal case, if the photographed image 8 and the reference image 5 coincide with each other but an error occurs in the process of installing the position recognizing apparatus 20, as shown in Fig. 7, (5) do not match. 7 is an explanatory diagram. The shape of the photographed image 8 can be changed according to the position and the installation angle of the camera 22 of the position recognizing device 8. As shown in Fig.

제1판단부(32)는 카메라 이미지 수신부(38)에서 수신된 촬영 이미지(8)와 기준 이미지(5)를 비교하여, 촬영 이미지(8)의 기준점(9)이 제1기준 영역(6) 안에 속하는지 판단한다. 제1판단부(32)는 기준 이미지(5)의 원점과 기준점(9)이 표시된 투명 촬영 이미지(8)의 원점이 일치하도록 두 이미지를 중첩한 후 촬영 이미지(8)의 기준점(9)이 제1기준 영역(6) 안에 속하는지 판단한다. 만약, 기준점(9)이 제1기준 영역(6)을 벗어날 경우에는 고정 피사체의 입력 면 중 일부가 카메라(22)의 FOV를 벗어나는 것이므로, 제1판단부(32)는 위치인식장치(20)에 설치된 표시용 발광다이오드(26) 등을 통해서 사용자에게 이를 알린다. 사용자가 위치인식장치(20)의 위치를 적절히 조절하여 기준점(9)이 제1기준 영역(6) 내부에 들어오도록 하면 표시용 발광다이오드(26)가 꺼진다.The first judging unit 32 compares the photographed image 8 received by the camera image receiving unit 38 with the reference image 5 so that the reference point 9 of the photographed image 8 becomes the first reference region 6, . The first judging unit 32 judges whether the reference point 9 of the photographed image 8 after the two images are superimposed so that the origin of the reference image 5 and the reference point 9 coincide with the origin of the displayed transparent photographed image 8 It is judged whether it belongs to the first reference region 6 or not. If the reference point 9 is out of the first reference area 6, a part of the input surface of the fixed object deviates from the FOV of the camera 22, And the display light emitting diode 26 provided in the display device. The display light emitting diode 26 is turned off when the user appropriately adjusts the position of the position recognition device 20 so that the reference point 9 comes into the first reference area 6. [

이미지 확인부(33)는 촬영 이미지(8)에서 고정 피사체와 배경이 구별되는지 이미지처리 알고리즘 중의 한 방법인 영상 이진화를 통한 히스토그램 방법으로 영상의 임계치를 계산하는 것으로 확인할 수 있을 것이다. 고정 피사체와 배경이 구별된다면, 촬영 이미지를 바로 이미지 보정부(34)에 전달할 수 있다.The image verification unit 33 may determine whether the fixed object and background are distinguished in the photographed image 8 by calculating a threshold value of the image by a histogram method through image binarization as one of image processing algorithms. If the fixed subject and the background are distinguished, the photographed image can be directly transmitted to the image correction unit 34. [

고정 피사체와 배경이 이미지 처리 알고리즘으로 구별되지 않는다면, 제2판단부(40)에서 촬영 이미지(8)의 기준점(9)이 제2기준 영역(7) 안에 포함되는지를 판단한다. 만약, 기준점(9)이 제2기준 영역(7)을 벗어날 경우에는 제2판단부(40)가 위치인식장치(20)에 설치된 표시용 발광다이오드(26) 등을 통해서 사용자에게 알려서 조절하도록 한다. 즉, 고정 피사체와 배경이 이미지 처리 알고리즘으로 구별되지 않는 경우에는 촬영 이미지(8)의 기준점(9)이 제1기준 영역(6) 안에 들어와 있더라도, 제2기준 영역(7) 밖에 있으면, 도 3에 도시된 실시예에서는 고정 피사체의 꼭지점들의 좌표를 획득할 수 없으므로, 사용자에게 위치인식장치(20)의 발광다이오드를 통해서 알려서 조절하도록 할 수 있다.If the fixed object and the background are not distinguished by the image processing algorithm, the second determination unit 40 determines whether the reference point 9 of the captured image 8 is included in the second reference region 7. If the reference point 9 deviates from the second reference region 7, the second determination unit 40 informs the user through the display light emitting diode 26 and the like provided in the position recognition apparatus 20 . That is, if the fixed object and the background are not distinguished by the image processing algorithm, even if the reference point 9 of the captured image 8 is within the first reference area 6, if it is outside the second reference area 7, The coordinates of the vertexes of the fixed object can not be obtained in the embodiment shown in FIG. 6, so that the user can be notified via the light emitting diode of the position recognizing apparatus 20 to adjust the coordinates.

템플릿 생성부(41)는 제2기준 영역(7)의 중심과 촬영 이미지(8)의 기준점(9) 사이의 오프셋을 기준으로 카메라의 픽셀 좌표와 고정 피사체의 사변형의 길이 및 카메라 촬영 각을 통해서 핀 홀의 영상 기하학적인 방법을 활용하여 도 8에 도시된 바와 같은 고정 피사체 템플릿(T)을 생성할 수 있다. 고정 피사체 템플릿은 영상 기하학적인 방법에 의해 계산된 고정 피사체의 4개의 꼭지점의 데이터를 이용하여 작성된 이미지이다. 또한, 미리 제2기준 영역(7)을 영상 감소비의 요소가 적용된 가상 격자 선에 의한 여러 소영역으로 구획하고, 각각의 소영역에 대응하는 고정 피사체 템플릿을 미리 저장하고 저장된 고정 피사체 템플릿을 바로 불러오는 방법을 사용할 수도 있다.The template generating unit 41 generates a template based on the pixel coordinates of the camera, the length of the quadrangle of the fixed object and the camera capturing angle based on the offset between the center of the second reference area 7 and the reference point 9 of the captured image 8 It is possible to generate the fixed subject template T as shown in FIG. 8 by utilizing the image geometric method of the pin hole. A fixed subject template is an image created using data of four vertices of a fixed subject calculated by an image geometric method. In addition, the second reference area 7 is previously divided into a plurality of small areas based on the virtual lattice lines to which the elements of the image reduction ratio are applied, the fixed subject templates corresponding to the respective small areas are stored in advance, You can also use the loading method.

정합부(42)는 템플릿 생성부(41)에서 생성된 고정 피사체 템플릿(T) 이미지의 중심좌표와 촬영 이미지(8)의 중심좌표(9)를 기준으로 템플릿(T) 이미지와 촬영 이미지(8)를 중첩하여, 도 9에 도시된 바와 같이, 정합 이미지를 생성할 수 있다. 또한, 정합 이미지는 템플릿 이미지(T)에 펜 팁(11) 이미지를 정합한 것일 수 있다.The matching unit 42 compares the center coordinates of the image of the fixed subject template T generated by the template generating unit 41 and the center coordinates 9 of the shot image 8 with the template T image and the shot image 8 ) Can be superimposed to generate a matched image, as shown in Fig. In addition, the registration image may be a registration of the image of the pen tip 11 on the template image T.

이미지 보정부(34)는 이미지 필터부를 구비하여 촬영 이미지를 필터링하여 정확하고 섬세한 위치 좌표를 계산하도록 할 수 있다. 이미지 필터부는 카메라(22)의 진동에 의한 레이저 포인터(23)에 의한 기준점 마크의 변화를 확인할 수 있다. 이미지 필터부는 촬영 이미지가 촬영될 때마다 레이저 포인터(23)에 의한 마크를 확인하여 마크의 이미지가 흐릿하고, 크기가 변하는 경우에 촬영 이미지를 제외함으로써 이미지의 간섭 및 노이즈를 차단할 수 있을 것이다.The image correcting unit 34 may include an image filter unit to filter the shot image to calculate precise and fine positional coordinates. The image filter unit can confirm the change of the reference point mark by the laser pointer 23 due to the vibration of the camera 22. [ The image filter unit can check the mark by the laser pointer 23 every time the photographed image is photographed so that the image of the mark is blurred and the interference and noise of the image can be blocked by excluding the photographed image when the size is changed.

도 3에 도시된 실시예에서, 이미지 보정부(34)는 촬영 이미지 또는 정합 이미지를 호모그래피 변환하여, 도 10에 도시된 바와 같이, 원근 왜곡이 사라진 보정 이미지(A)를 획득한다. 호모그래피 행렬의 파라미터 값들을 알기 위해서는 최소 네 개의 매칭쌍이 필요하다. 촬영 이미지를 활용하는 경우에는 FAST(Features from Accelerated Segment Test) 특징점 추출 방법으로 고정 피사체의 4개의 꼭짓점의 픽셀 좌표 (x0, y0), (x1, y1), (x2, y2), (x3, y3)를 계산할 수 있다. 보정 이미지의 4개의 꼭짓점의 좌표 값 (u0, v0), (u1, v1), (u2, v2), (u3, v3)은 고정 피사체의 크기로부터 이미 알고 있으므로, 호모그래피 변환을 통해서 보정 이미지를 획득할 수 있다. 정합 이미지를 활용하는 경우에는 템플릿 생성부(41)에서 템플릿을 생성하는 과정에서 계산된 4개의 꼭짓점의 픽셀 좌표를 활용한다.In the embodiment shown in Fig. 3, the image correcting unit 34 performs a homography transform of the photographed image or the matched image to obtain the corrected image A in which the perspective distortion disappears, as shown in Fig. At least four matching pairs are required to know the parameter values of the homography matrix. (X 0 , y 0 ), (x 1 , y 1 ), (x 2 , y 2 ) of the four corners of the fixed object are extracted by the feature extraction method of Accelerated Segment Test (FAST) ), (x 3 , y 3 ). Since the coordinate values (u 0 , v 0 ), (u 1 , v 1 ), (u 2 , v 2 ), and (u 3 , v 3 ) of the four corners of the corrected image are already known from the fixed object size, The correction image can be obtained through homography transformation. In the case of using the matching image, the template generating unit 41 utilizes the pixel coordinates of the four vertexes calculated in the process of generating the template.

위치 좌표 추출부(35)는 이미지 보정부(34)에서 획득된 이미지를 이용하여 이동 피사체인 펜 팁(11)의 위치 좌표(ut, vt)를 추출할 수도 있고, 또한, 이미지 보정부(34)에서 보정 좌표값을 펜팁(11)의 위치 좌표에 적산할 수도 있다.The position coordinate extraction unit 35 may extract the position coordinates u t and v t of the pen tip 11 as a moving subject using the image obtained by the image correction unit 34, The correction coordinate value may be accumulated in the position coordinates of the pen tip 11 in the coordinate correction unit 34. [

상대 좌표 수신부(39)는 이동 피사체의 상대 좌표 정보를 수신한다. 도 1에 도시된 실시예에서는 전자펜(10)의 이동궤적 정보가 상대 좌표 정보에 해당된다.The relative coordinate receiving unit 39 receives the relative coordinate information of the moving subject. In the embodiment shown in FIG. 1, the movement trajectory information of the electronic pen 10 corresponds to the relative coordinate information.

절대 좌표 계산부(36)는 위치 좌표 추출부(35)에서 추출된 위치 좌표와 상대 좌표 수신부(39)에서 수신된 상대 좌표를 합하여 현재 펜 팁의 절대 좌표를 계산한다. 위치 좌표 추출부(35)는 단속적으로 이미지를 이용하여 위치 좌표를 추출하고, 절대 좌표 계산부(36)는 추출된 위치 좌표에 상대 좌표를 합하여 절대 좌표를 계산한다. 그리고 새로운 절대 좌표가 추출되면 이 새롭게 추출된 절대 좌표를 기준으로 다시 절대 좌표를 계산한다. 예를 들어, 전자펜(10)가 오프 상태에서 온 상태로 전환될 경우 위치 좌표 추출부(35)가 위치 좌표를 추출하고, 전자펜(10)이 온 상태로 유지될 때에는 계속 절대 좌표 계산부에서 절대 좌표를 계산하고, 다시 전자펜이 오프된 후 다시 온될 때 위치 좌표 추출부(35)가 위치 좌표를 추출할 수 있다. 아니면, 주기적으로 위치 좌표를 추출하여 펜팁(11)의 절대 좌표와 비교할 수도 있다.The absolute coordinate calculation unit 36 calculates the absolute coordinates of the current pen tip by summing the position coordinates extracted by the position coordinate extraction unit 35 and the relative coordinates received from the relative coordinate reception unit 39. The position coordinate extraction unit 35 intermittently extracts position coordinates using an image, and the absolute coordinate calculation unit 36 calculates absolute coordinates by adding relative coordinates to the extracted position coordinates. When the new absolute coordinates are extracted, the absolute coordinates are again calculated based on the newly extracted absolute coordinates. For example, when the electronic pen 10 is switched from the off state to the on state, the position coordinate extraction section 35 extracts the position coordinates. When the electronic pen 10 is kept in the on state, And the position coordinate extraction unit 35 can extract the position coordinates when the electronic pen is turned on again after the electronic pen is turned off again. Alternatively, the position coordinates may be periodically extracted and compared with the absolute coordinates of the pen tip 11.

절대 좌표 송신부(37)는 절대 좌표를 스마트폰, 컴퓨터 등의 단말기에 송신한다. 단말기는 디스플레이를 통해서 이동 피사체의 궤적을 표시한다.The absolute coordinate transmitter 37 transmits absolute coordinates to a terminal such as a smart phone or a computer. The terminal displays the trajectory of the moving subject through the display.

정밀한 입력이 필요없는 경우에는 위치 좌표 추출부(35)가 짧은 주기로 위치 좌표를 추출하고, 추출된 위치 좌표를 바로 절대 좌표 송신부(37)를 통해서 송신할 수도 있다. 이런 경우에는 상태좌표 수신부(39)와 절대 좌표 계산부(36)가 필요하지 않다. 예를 들어, 이동 피사체로 전자펜(10)가 아닌 손가락을 사용하는 경우에는 상대 좌표를 측정할 수 없으며, 정밀한 입력도 어려운 상황이므로, 도 5에 점선으로 표시된 바와 같이, 위치 좌표 추출부(35)에서 바로 절대 좌표 송신부(37)로 절대 좌표를 송신할 수 있다.If precise input is not required, the position coordinate extraction section 35 may extract the position coordinates in a short cycle, and transmit the extracted position coordinates directly through the absolute coordinate transmission section 37. [ In this case, the state coordinate receiver 39 and the absolute coordinate calculator 36 are not necessary. For example, when a finger other than the electronic pen 10 is used as a moving subject, relative coordinates can not be measured and precise input is difficult. Therefore, as indicated by a dotted line in FIG. 5, The absolute coordinates can be transmitted to the absolute coordinate transmitter 37 directly.

제어기(30)를 구성하는 하드웨어로는 위치인식장치(20)의 마이크로프로세서, 메모리를 사용할 수 있다.As the hardware constituting the controller 30, a microprocessor and a memory of the position recognition apparatus 20 can be used.

도 11은 위치인식장치의 다른 예의 개념도이다.11 is a conceptual diagram of another example of the position recognition device.

도 11에 도시된 바와 같이, 위치인식장치(120)는 본체(121)에 일정 간격으로 설치된 제1카메라(122a)와 제2카메라(122b)를 포함할 수 있다. 제1카메라(122a)와 제2카메라(122b)를 분리설치할 수도 있다. 또한, 본체(121)에 고정 피사체의 크기 및 종류를 표시하고, 시스템 알람을 표시하는 표시기(129)가 설치될 수도 있다. 본 실시예의 경우에는, 도 3에 도시된 실시예와 달리 두 대의 카메라(122a, 122b)를 사용하므로, 제어기(30)의 위치 좌표 추출부(35)에서 영상 기하학적 방법으로 이동 피사체의 위치 좌표를 계산할 수 있다. 따라서 도 3에 도시된 실시예와 달리 본 실시예는 고정피사체의 모서리들의 좌표를 계산할 필요가 없다. 또한, 본 실시예의 경우에는 고정피사체의 꼭짓점 좌표를 계산할 필요가 없기 때문에 촬영 이미지를 바로 이미지 보정부(34)에 전달한다는 점에서 도 3에 도시된 실시예와 차이가 있다.As shown in FIG. 11, the position recognition apparatus 120 may include a first camera 122a and a second camera 122b installed at regular intervals in the main body 121. The first camera 122a and the second camera 122b may be separately installed. The main body 121 may also be provided with a display 129 for displaying the size and type of the fixed object and displaying the system alarm. In the present embodiment, since two cameras 122a and 122b are used unlike the embodiment shown in FIG. 3, the position coordinates of the moving object are obtained by the position coordinate extracting unit 35 of the controller 30 in an image geometric manner Can be calculated. Therefore, unlike the embodiment shown in Fig. 3, this embodiment does not need to calculate the coordinates of the corners of the fixed object. The present embodiment differs from the embodiment shown in FIG. 3 in that it does not need to calculate the coordinates of the vertex of the fixed object, and therefore transfers the photographed image directly to the image corrector 34. FIG.

본 실시예에서는, 도 3에 도시된 실시예와 달리, 위치인식장치(120)의 레이저 포인트(123)가 고정피사체 면을 조사하여 생긴 마크인 기준점이 제2기준영역(7) 내의 영역에 있으면 두 대의 카메라(122a, 122b)를 이용해서 고정피사체 입력 면 전체의 위치좌표를 계산할 수 있는 것으로 판단할 수 있고, 레이저 포인터(123)에 의한 기준점이 제2기준영역(7)을 벗어날 경우에는 고정피사체의 입력 면의 위치좌표의 일부는 정확하게 계산할 수 없는 것으로 간주할 수 있다.In the present embodiment, unlike the embodiment shown in Fig. 3, when the laser point 123 of the position recognition apparatus 120 is in the region within the second reference region 7, which is a mark formed by irradiating the fixed object surface, It is possible to determine that the position coordinates of the entire fixed object input surface can be calculated using the cameras 122a and 122b of the fixed object 120. When the reference point by the laser pointer 123 is out of the second reference area 7, It can be regarded that a part of the position coordinates of the input surface of the input surface can not be calculated accurately.

또한, 본 실시예에 있어서, 이동 피사체의 위치 좌표 보정은 고정 피사체의 꼭짓점에 인접해 있는 제1카메라(122a)에 의해서 결정될 수 있다. 촬영이미지(8)를 이용한 영상 기하학적 방법의 계산으로 제1카메라(122a)의 영점 좌표 또는 위치 각을 계산할 수 있을 것이다. 그리고 계산된 영점 좌표와 기준이미지(5)의 영점 좌표의 편차를 구할 수 있다. 그리고 이 편차를 이용해서 이동 피사체의 위치 좌표를 보정할 수 있다. Further, in the present embodiment, the position coordinate correction of the moving subject can be determined by the first camera 122a adjacent to the vertex of the fixed subject. The zero point coordinates or the position angle of the first camera 122a may be calculated by calculation of the image geometric method using the captured image 8. [ Then, the deviation of the calculated zero point coordinate and the zero point coordinate of the reference image (5) can be obtained. The positional coordinates of the moving subject can be corrected using this deviation.

또한, 위치인식장치(120)가 가장 이상적으로 고정 피사체체에 설치된 상태에서의 기준점인 기준이미지(5)에서의 기준점과 레이저 포인터에 의해서 고정 피사체에 표시된 점의 편차를 구하고 이 값을 기준으로 보정할 수도 있다. 이 편차는 위치인식장치(120)가 이상적인 위치에서 이동한 정도를 나타내는 값이므로, 이 값을 이용해서 이동 피사체의 위치 좌표를 보정할 수 있다.In addition, the deviation of the point indicated on the fixed subject is determined by the reference point in the reference image 5, which is the reference point in a state where the position recognizing apparatus 120 is ideally provided on the fixed object, and the laser pointer, You may. Since this deviation is a value indicating the degree of movement of the position recognition apparatus 120 from the ideal position, the positional coordinates of the moving subject can be corrected using this value.

고정 피사체에 위치인식장치(120)의 설치를 반복하면, 위치인식장치(120)의 위치변경으로 이동 피사체의 위치 좌표 값이 변하게 될 것이다. 따라서 이동 피사체의 위치 좌표에 상기 편차를 적용함으로써 보정된 이동 피사체의 위치 좌표를 구할 수 있을 것이다. 따라서 위치인식장치(120)의 위치가 변경되어도, 이동 피사체의 위치 좌표를 정확하게 계산할 수 있다.By repeating the installation of the position recognizing apparatus 120 on the fixed subject, the position coordinate value of the moving subject will be changed by changing the position of the position recognizing apparatus 120. [ Accordingly, by applying the deviation to the position coordinates of the moving subject, the position coordinates of the corrected moving subject may be obtained. Therefore, even if the position of the position recognition apparatus 120 is changed, the positional coordinates of the moving subject can be accurately calculated.

이러한 위치인식장치(120)는 미리 인쇄된 영역과 수기 영역이 있는 기존의 종이 문서를 전자 문서화하는 용도로도 활용할 수 있다. 이러한 문서들은 사용자가 필요한 내용을 수기 영역에 직접 기재하여 완성한다. 이러한 문서로는, 예를 들어, 각종 계약서, 설문지, 병원 입원/검사 기록지, 이력서, 학습지 등이 있다.The position recognition apparatus 120 can also be used for electronic documenting an existing paper document having a preprinted area and a handwritten area. These documents are completed by writing the necessary contents directly in the manual area. Such documents include, for example, various contracts, questionnaires, hospital admission / inspection records, resumes, and study materials.

위치인식장치(120)에 이러한 문서의 기준 이미지가 저장되어 있다면, 위치인식장치(120)를 고정피사체(종이 문서)에 고정한 후, 전자펜(10)으로 종이 문서의 수기 영역에 자필로 필기하면, 앞에서 상술한 방법에 의해서, 글씨 및 싸인, 그림 등이 수기 영역에 삽입된 전자문서를 얻을 수 있다.If the reference image of the document is stored in the position recognition apparatus 120, the position recognition apparatus 120 is fixed to the fixed subject (paper document), and then handwritten in the handwriting area of the paper document with the electronic pen 10 , It is possible to obtain an electronic document in which characters, signs, pictures, etc. are inserted in the handwriting area by the above-described method.

저장된 기준 이미지가 없다면, 위치인식장치(120) 또는 위치인식장치(120)와 연결된 정보 장치를 통해서 문서를 다운로드 하거나, 정보 장치의 카메라로 문서를 캡처한 후 기준 이미지를 생성하여, 위치인식장치(120)에 전송할 수 있다. 정보 장치는 스마트폰과 태블릿 등의 모바일 장치, 노트북 등을 포함한다. 다운 또는 캡처한 문서 이미지를 모바일 화면에 표시하고, 전자펜(10) 또는 이미지 프로그램 등으로 화면에 표시된 문서의 4개의 꼭짓점의 화면의 픽셀 좌표를 알아낼 수 있다. 그리고 그 꼭짓점 좌표 값과 다운로드 받거나 캡처한 문서 이미지 파일을 이용하여 기준 이미지를 생성한 후 위치인식장치(120)에 전송한다. 전송된 기준 이미지는 기준 이미지 저장부(31)에 저장된다. 기준 이미지에는 문서의 미리 인쇄된 영역의 이미지와 제1기준 영역 및 제2기준 영역이 표시될 수 있다.If there is no stored reference image, a document is downloaded through the information device connected to the position recognition device 120 or the position recognition device 120, or a document is captured by the camera of the information device, 120). The information device includes a mobile device such as a smart phone and a tablet, and a notebook computer. Down or captured document image on the mobile screen and find the pixel coordinates of the four vertexes of the document displayed on the screen using the electronic pen 10 or an image program. Then, the reference image is generated by using the coordinate value of the vertex and the document image file downloaded or captured, and then transmitted to the position recognition apparatus 120. The transmitted reference image is stored in the reference image storage unit 31. [ In the reference image, an image of a preprinted area of the document and a first reference area and a second reference area may be displayed.

또한, 저장된 동일 사이즈의 기준 이미지의 표시된 제1기준영역 및 제2기준영역과 다운로드 받거나 캡처한 문서 이미지를 중첩하여 사용할 수 있다.In addition, the first reference area and the second reference area of the stored reference image of the same size can be overlapped with the downloaded or captured document image.

생성된 기준 이미지가 저장된 후 위치인식장치(120)에 종이 문서 즉 고정피사체를 고정하고, 종이 문서에 필기를 하면, 글씨 및 싸인, 그림 등이 수기 영역에 삽입된 전자문서를 얻을 수 있다.After the generated reference image is stored, a paper document, that is, a fixed subject is fixed to the position recognition apparatus 120, and a paper document is handwritten, an electronic document in which texts, signs, and pictures are inserted in the handwriting area can be obtained.

정보 장치는 카메라로 캡처한 영상을 컴퓨터에 전송하여 이미지 파일을 만들 수 있다. The information device can create an image file by transferring the image captured by the camera to a computer.

도 12는 대형 디스플레이에 위치인식장치를 적용한 예의 도면이며, 도 13은 도 12에 도시된 위치인식장치의 개념도이다.Fig. 12 is an example of application of a position recognition device to a large display, and Fig. 13 is a conceptual diagram of the position recognition device shown in Fig.

도 12에 도시된 바와 같이, 위치인식장치(220)의 제1카메라(222a)와 제2카메라(222b)는 분리 설치될 수 있다. 제1카메라(222a)와 제2카메라(222b)는 각각 본체인 브래킷(221)에 설치되며, 브래킷(221)의 회전 다이얼(229)에 의해서 제1카메라(222a)와 제2카메라(222b)의 영점(자세)을 각각 제어할 수 있다. 또한, 제1카메라(222a)와 제2카메라(222b)가 고정 피사체의 일측 면과 수평으로 설치되도록 브래킷(221) 밑 부분에 잔공의 구조를 형성할 수 있다.As shown in FIG. 12, the first camera 222a and the second camera 222b of the position recognition device 220 may be separately installed. The first camera 222a and the second camera 222b are installed on a bracket 221 which is a main body and the first camera 222a and the second camera 222b are rotated by the rotation dial 229 of the bracket 221, And the zero point (posture) In addition, a cavity structure may be formed in the lower part of the bracket 221 such that the first camera 222a and the second camera 222b are installed horizontally with one side of the fixed subject.

본 실시예의 경우에도 제어기(30)의 위치 좌표 추출부(35)에서 영상 기하학적 방법으로 이동 피사체의 위치 좌표를 계산할 수 있다. 즉, 제1카메라(122a)와 제2카메라(122b) 사이의 길이(L)와, 제1카메라(122a)의 중심과 이동 피사체를 연결한 직선이 제1카메라(122a)와 제2카메라(122b)의 중심을 연결한 직선과 이루는 각도(α)와, 제2카메라(122b)의 중심과 이동 피사체를 연결한 직선이 제1카메라(122a)와 제2카메라(122b)의 중심을 연결한 직선과 이루는 각도(β)를 이용하여 고정 피사체 입력 면에 있는 이동 피사체의 위치 좌표를 계산할 수 있다.The position coordinates of the moving object can be calculated by the position coordinate extracting unit 35 of the controller 30 in the image geometry method. That is, a length L between the first camera 122a and the second camera 122b and a straight line connecting the center of the first camera 122a and the moving subject are detected by the first camera 122a and the second camera 122b, And the straight line connecting the center of the second camera 122b with the moving subject connects the center of the first camera 122a and the center of the second camera 122b The positional coordinates of the moving object on the fixed object input surface can be calculated using the angle? With the straight line.

제1카메라(222a)와 제2카메라(222b)의 렌즈로 점대칭형 렌즈를 사용할 수 있다.A point-symmetric lens can be used as the lenses of the first camera 222a and the second camera 222b.

또한, 복수의 사람이 필기를 할 경우에는 다수의 전자펜(210)이 사용될 수 있다. 따라서 본 실시예에서는 전자펜(210)의 고유코드번호를 메모리에 저장하고, 전자펜(210)은 적외선 포인터를 이용하여 고유코드번호에 대응하는 이미지를 생성함으로써 개별 전자펜(210)의 위치 좌표를 계산할 수 있다.In addition, when a plurality of people write, a plurality of electronic pens 210 can be used. Therefore, in this embodiment, the unique code number of the electronic pen 210 is stored in the memory, and the electronic pen 210 generates an image corresponding to the unique code number using the infrared pointer, Can be calculated.

다수의 전자펜(210)은 위치인식장치(220)에서 개별 고유코드 번호와 위치 좌표를 한 프레임 자료 구조로 전송함으로써 제어기에서 궤적 좌표와 개별 고유코드와 함께 관리하여 표시장치에 표시된 판서를 그룹별 또는 개별로 고유코드번호를 부여하여 처리할 수 있다.The plurality of electronic pens 210 are managed together with the trajectory coordinates and the individual unique codes in the controller by transmitting the individual unique code number and the position coordinates in one frame data structure in the position recognition device 220, Alternatively, a unique code number can be assigned to each process.

또한, 도 12와 같은 대형 디스플레이 또는 전자 칠판에 위치인식장치(120)를 통해서 전자펜(10)에 의한 필기정보를 표시할 수 있다. 이때에 위치인식장치(120)에 개별 고유코드 번호를 부여함으로써 개별 고유코드에 의해서 판서의 색상과 함께 관리하여 표시장치에 표시된 판서를 그룹별 또는 개별로 처리할 수 있다.In addition, the handwriting information by the electronic pen 10 can be displayed on the large display or the electronic whiteboard as shown in FIG. 12 through the position recognition device 120. FIG. At this time, by assigning individual unique code numbers to the position recognition apparatus 120, the signboards displayed on the display device can be processed separately or individually by managing the signboards together with the colors of the signboards by the respective unique codes.

또한, 위치인식장치(220) 또는 스마트폰 등의 장치의 프로그램은 이동 피사체의 고유코드번호를 받거나 고유코드번호를 생성할 수 있다. 그리고 위치인식장치(220)와 이동 피사체에 의해 입력된 내용을 그룹별 및/또는 개별로 고유코드번호를 사용하여 확인할 수 있어서 입력된 내용을 부분적으로 삭제하거나 색상을 변경 또는 수정할 수도 있다.In addition, a program of a device such as the position recognition device 220 or a smart phone may receive a unique code number of a moving subject or may generate a unique code number. The contents inputted by the position recognizing apparatus 220 and the moving subject can be confirmed by group and / or individually by using a unique code number, so that the inputted contents can be partially deleted or the color can be changed or modified.

이상에서는 도면 및 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허청구범위에 기재된 본 발명의 기술적 사상으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit and scope of the invention as defined in the appended claims. You will understand.

예를 들어, 제어기(30)가 위치인식장치(20)에 설치되는 것으로 설명하였으나, 전자펜(10) 내부의 마우스 모듈(13)의 마이크로프로세서, 메모리를 제어기(30)의 하드웨어로 사용할 수도 있다. 또한, 제어기(30)는 컴퓨터, 스마트폰, 스마트 패드 등의 휴대용 단말기 등의 제어기를 사용할 수도 있다.The microprocessor and the memory of the mouse module 13 in the electronic pen 10 may be used as the hardware of the controller 30 . Also, the controller 30 may use a controller such as a portable terminal such as a computer, a smart phone, or a smart pad.

또한, 별도의 위치인식장치를 사용하지 않고, 스마트폰과 태블릿, 노트북과 같이 카메라가 내장되어 있는 장치의 카메라에 렌즈가 포함된 프리즘과 레이저 포인터를 설치하여 사용할 수도 있다.Also, a prism and a laser pointer may be installed in a camera of a device having a camera, such as a smart phone, a tablet, or a notebook, without using a separate position recognition device.

또한, 레이저 포인터가 없어도 카메라가 촬영 이미지의 중심 즉 주점에 가상 포인터를 만들어서 기준점으로 정할 수 있다. 가상 포인터는 카메라의 떨림으로 인한 촬영이미지를 제거할 수는 없지만, 레이저포인터(23)에 의한 기준점과 같은 역할을 할 것이다.In addition, even if there is no laser pointer, the camera can create a virtual pointer at the center of the captured image, that is, the main point, and set the reference point. The virtual pointer can not remove the captured image due to camera shake, but it will serve as a reference point by the laser pointer 23.

또한, 고정 피사체로 디스플레이를 사용하는 경우에는 기준 이미지의 기준점을 디스플레이에 바로 표시할 수도 있다.Further, when the display is used as a fixed subject, the reference point of the reference image may be displayed directly on the display.

또한, 사용자가 고정 피사체 입력 면 모서리에 전자펜의 적외선 포인터(13)를 이용해서 마크함으로써, 제1판단부(32)가 모서리들이 촬영이미지에 들어오는지를 확인할 수도 있다.In addition, the user can use the infrared pointer 13 of the electronic pen to mark the edges of the fixed object input surface by using the first determination unit 32 to check whether or not the edges come in the shot image.

또한, 위치인식장치(20)에 제어기(30)가 내장될 수도 있다.In addition, the controller 30 may be incorporated in the position recognition apparatus 20. [

또한, 기준이미지에 표시된 제1기준 영역과 제2기준 영역은 가상 선으로 표시할 수도 있다.In addition, the first reference area and the second reference area displayed in the reference image may be represented by imaginary lines.

10: 전자펜 11: 펜 팁
13: 마우스 모듈 14: 적외선 포인터
20: 위치인식장치 22: 카메라
23: 레이저 포인터 25: 클립부
26: 발광다이오드 30: 제어기
10: electronic pen 11: pen tip
13: Mouse module 14: Infrared pointer
20: position recognition device 22: camera
23: laser pointer 25: clip portion
26: light emitting diode 30: controller

Claims (13)

다양한 고정 피사체의 입력 면 위에서의 이동 피사체에 의한 필기가 입력되는 필기 입력 장치에 있어서,
상기 이동 피사체와 입력 면을 동시에 촬영하여 기준점을 갖는 촬영 이미지를 획득하는 카메라를 포함하며, 상기 고정 피사체에 분리 가능하도록 설치되는 위치인식장치와,
상기 카메라의 시야 범위(Field of view, FOV)에 물품의 입력 면 전체가 들어올 경우에 상기 촬영 이미지의 기준점이 배치될 수 있는 영역인 제1기준 영역과 기준 이미지에는 이상적인 기준점의 위치를 중심으로 하는 제2기준 영역이 표시된 상기 기준 이미지가 저장된 기준 이미지 저장부와 상기 기준 이미지와 상기 촬영 이미지를 비교하여 상기 제1기준 영역 내부에 상기 기준점이 위치하는지를 판단하는 제1판단부와 상기 제2기준 영역 내부에 상기 기준점이 위치하는지를 판단하는 제2판단부를 구비하며, 상기 촬영 이미지를 이용하여 이동 피사체의 위치 좌표를 계산하는 제어기를 포함하며,
상기 제어기는 상기 촬영 이미지에서 고정 피사체의 모서리가 인식되지 않을 경우 상기 제2판단부에서 상기 촬영 이미지의 기준점이 상기 제2기준 영역 내부에 위치하는 것으로 판단될 경우에만 이동피사체의 위치 좌표를 계산하는 것을 특징으로 하는 필기 입력 장치.
A handwriting input device for inputting handwriting by a moving subject on an input surface of various fixed objects,
And a camera for photographing the moving object and the input surface at the same time to obtain a photographing image having a reference point, the position recognizing device being detachably installed in the stationary subject,
When the entire input surface of the article enters the field of view (FOV) of the camera, the first reference area, which is the area where the reference point of the captured image can be placed, and the second reference area, A first determination unit for comparing the reference image and the captured image to determine whether the reference point is located within the first reference region, And a second determiner for determining whether the reference point is located within the first image pickup unit, and calculating a position coordinate of the moving object using the image pickup image,
The controller calculates the positional coordinates of the moving subject only when the second determination unit determines that the reference point of the captured image is located within the second reference area when the edge of the fixed subject is not recognized in the captured image And a second input device.
제1항에 있어서,
상기 입력 면을 향해서 빛을 조사하는 포인터를 더 포함하며,
상기 기준점은 포인터에 의해 상기 입력 면에 형성된 마크인 것을 특징으로 하는 필기 입력 장치.
The method according to claim 1,
And a pointer for irradiating light toward the input surface,
Wherein the reference point is a mark formed on the input surface by a pointer.
제1항에 있어서,
상기 기준점은 상기 촬영 이미지의 주점인 것을 특징으로 하는 필기 입력 장치.
The method according to claim 1,
Wherein the reference point is a principal point of the photographed image.
제1항에 있어서,
상기 이상적인 기준점과 상기 촬영 이미지의 기준점의 편차를 이용하여, 상기 고정 피사체의 입력 면의 네 개의 꼭짓점의 좌표 값을 획득하여 고정 피사체 템플릿을 형성하는 템플릿 생성부를 포함하는 것을 특징으로 하는 필기 입력 장치.
The method according to claim 1,
And a template generator for obtaining a coordinate value of four vertexes of the input surface of the fixed object using the deviation between the ideal reference point and a reference point of the captured image to form a fixed subject template.
제1항에 있어서,
상기 이동 피사체는 상기 고정 피사체의 입력 면 위에서 이동하는 펜 팁을 구비하며, 그 펜 팁의 이동 궤적의 상대 좌표 정보를 획득하는 마우스 모듈을 포함하는 전자펜인 것을 특징으로 하는 필기 입력 장치.
The method according to claim 1,
Wherein the moving subject is an electronic pen having a pen tip that moves on an input surface of the fixed subject and acquires relative coordinate information of a movement trajectory of the pen tip.
제5항에 있어서,
상기 전자펜은 상기 펜 팁에 빛을 조사하는 적외선 포인터를 더 포함하는 것을 특징으로 하는 필기 입력 장치.
6. The method of claim 5,
Wherein the electronic pen further comprises an infrared pointer for illuminating the pen tip with light.
제1항에 있어서,
상기 제어기는,
상기 촬영 이미지에서 상기 고정 피사체의 네 개의 꼭짓점이 인식되는지를 확인하는 이미지 확인부와,
상기 촬영 이미지의 원근 왜곡을 보정하여 보정 이미지를 생성하는 이미지 보정부와,
상기 보정 이미지에서 상기 이동 피사체의 위치 좌표를 추출하는 위치 좌표 추출부를 포함하는 것을 특징으로 하는 필기 입력 장치.
The method according to claim 1,
The controller comprising:
An image checking unit for checking whether four corners of the fixed object are recognized in the captured image;
An image corrector for correcting the perspective distortion of the photographed image to generate a corrected image;
And a position coordinate extracting unit for extracting a position coordinate of the moving subject in the corrected image.
제5항에 있어서,
상기 제어기는,
상기 촬영 이미지에서 상기 고정 피사체의 네 개의 꼭짓점이 인식되는지를 확인하는 이미지 확인부와,
상기 촬영 이미지의 원근 왜곡을 보정하여 보정 이미지를 생성하는 이미지 보정부와,
상기 보정 이미지에서 상기 이동 피사체의 위치 좌표를 추출하는 위치 좌표 추출부와,
상기 위치 좌표 추출부에서 획득된 위치 좌표와 상기 이동 피사체의 상대 좌표 정보를 이용하여 상기 펜 팁의 절대 좌표를 계산하는 절대 좌표 계산부를 포함하는 것을 특징으로 하는 필기 입력 장치.
6. The method of claim 5,
The controller comprising:
An image checking unit for checking whether four corners of the fixed object are recognized in the captured image;
An image corrector for correcting the perspective distortion of the photographed image to generate a corrected image;
A position coordinate extracting unit for extracting a position coordinate of the moving subject in the corrected image;
And an absolute coordinate calculation unit for calculating absolute coordinates of the pen tip using the position coordinates obtained by the position coordinate extraction unit and the relative coordinate information of the moving subject.
제1항에 있어서,
상기 위치인식장치는,
클립 몸체와,
상기 클립 몸체에서 연장되며 상기 고정 피사체의 하면에 접촉하는 지지바와,
상기 클립 몸체에서 연장되며 상기 위치인식장치에 형성된 수직 홈에 끼워져 상기 클립 몸체의 상하 이동을 안내하는 수직 바와,
상기 위치인식장치에 길게 형성된 가이드 홈에 끼워진 롤러와,
상기 롤러와 연결되어 상기 롤러가 상기 클립 몸체로부터 멀어지는 방향으로 상기 롤러에 탄성력을 제공하는 탄성 제공 수단과,
일단은 상기 클립 몸체에 힌지 결합하고, 타단은 상기 롤러에 힌지 결합하는 연결바를 포함하는 클립부를 더 포함하는 것을 특징으로 하는 필기 입력 장치.
The method according to claim 1,
The position recognition device includes:
A clip body,
A support bar extending from the clip body and contacting the lower surface of the fixed object,
A vertical bar extending from the clip body and inserted in a vertical groove formed in the position recognizing device to guide the vertical movement of the clip body,
A roller inserted in a guide groove elongated in the position recognizing device,
Elasticity providing means connected to the roller to provide an elastic force to the roller in a direction in which the roller is away from the clip body,
Further comprising a clip portion including a connecting bar, one end of which is hinged to the clip body, and the other end of which is hinged to the roller.
제1항에 있어서,
상기 위치인식장치는 제1카메라와 제2카메라를 포함하며,
상기 제1카메라와 제2카메라의 렌즈는 점대칭형 렌즈인 것을 특징으로 하는 필기 입력 장치.
The method according to claim 1,
Wherein the position recognition device includes a first camera and a second camera,
And the lenses of the first camera and the second camera are point-symmetrical lenses.
제2항에 있어서,
상기 위치인식장치는 제1카메라와 제2카메라를 포함하며,
상기 제어기는 기준이미지에서의 기준점과 레이저 포인터에 의해서 고정 피사체에 표시된 마크의 편차를 구하고, 이 값을 기준으로 고정피사체의 위치좌표를 보정하는 것을 특징으로 하는 필기 입력 장치.
3. The method of claim 2,
Wherein the position recognition device includes a first camera and a second camera,
Wherein the controller corrects the positional coordinates of the fixed subject based on the deviation of the mark displayed on the fixed subject by the reference point and the laser pointer in the reference image.
제1항에 있어서,
복수의 위치인식장치를 포함하며,
상기 위치인식장치 또는 상기 위치인식장치와 연결된 장치에는 복수의 위치인식장치의 각각의 고유코드번호에 따라서 입력된 정보를 구별할 수 있는 프로그램이 설치된 것을 특징으로 하는 필기 입력 장치.
The method according to claim 1,
A plurality of position recognition devices,
Wherein a program is provided in the device connected to the position recognition device or the position recognition device to distinguish input information according to each unique code number of the plurality of position recognition devices.
제1항에 있어서,
상기 위치인식장치는 상기 위치인식장치와 연결된 정보 장치를 이용하여 다운로드 받거나 또는 캡처한 고정 피사체의 이미지를 처리하여 생성한 기준 이미지를 이용하는 것을 특징으로 하는 필기 입력 장치.
The method according to claim 1,
Wherein the position recognition device uses a reference image generated by processing an image of a fixed subject that is downloaded or captured using an information device connected to the position recognition device.
KR1020170164037A 2016-12-28 2017-12-01 Handwriting input device KR101949046B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20160180890 2016-12-28
KR1020160180890 2016-12-28

Publications (2)

Publication Number Publication Date
KR20180077017A KR20180077017A (en) 2018-07-06
KR101949046B1 true KR101949046B1 (en) 2019-05-20

Family

ID=62920827

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170164037A KR101949046B1 (en) 2016-12-28 2017-12-01 Handwriting input device

Country Status (1)

Country Link
KR (1) KR101949046B1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102094962B1 (en) * 2018-11-29 2020-03-30 주식회사 엠에스텍 Method for High Accuracy Aligning Substrates and Substrate Attaching Apparatus Using the Same Method
WO2020183518A1 (en) * 2019-03-08 2020-09-17 Necディスプレイソリューションズ株式会社 Information processing device for identifying user who has written object
CN113971807A (en) * 2021-10-12 2022-01-25 科大讯飞股份有限公司 Method and device for acquiring handwriting information
CN114567731B (en) * 2022-03-28 2024-04-05 广东小天才科技有限公司 Target shooting method, device, terminal equipment and storage medium

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100962511B1 (en) 2009-08-24 2010-06-14 김철우 Electronic pen mouse and operating method thereof
JP2011530706A (en) 2008-08-12 2011-12-22 アイイーイー インターナショナル エレクトロニクス アンド エンジニアリング エス.エイ. 3D-TOF camera device and position / orientation calibration method therefor

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070095179A (en) * 2006-03-20 2007-09-28 삼성전자주식회사 Pointing input device, method, and system using the image pattern
JP4129841B1 (en) 2007-08-09 2008-08-06 健治 吉田 Information input auxiliary sheet, information processing system using information input auxiliary sheet, and printing related information output system using information input auxiliary sheet
KR101312018B1 (en) 2011-03-22 2013-09-26 주식회사 아하정보통신 Electronic Board System and Drive Method of the Same
KR101381525B1 (en) * 2012-09-03 2014-04-17 한양대학교 산학협력단 Sulcal depth measuring method and system which reflect structural characteristics of the sulcus

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011530706A (en) 2008-08-12 2011-12-22 アイイーイー インターナショナル エレクトロニクス アンド エンジニアリング エス.エイ. 3D-TOF camera device and position / orientation calibration method therefor
KR100962511B1 (en) 2009-08-24 2010-06-14 김철우 Electronic pen mouse and operating method thereof

Also Published As

Publication number Publication date
KR20180077017A (en) 2018-07-06

Similar Documents

Publication Publication Date Title
KR101949046B1 (en) Handwriting input device
KR100953606B1 (en) Image displaying apparatus, image displaying method, and command inputting method
EP1866735B1 (en) Combined detection of position-coding pattern and bar codes
US10225428B2 (en) Image processing for handheld scanner
US8582182B2 (en) Automatic sizing of images acquired by a handheld scanner
CN101730876B (en) Pointing device using camera and outputting mark
CN1897644B (en) Method and system for catching pictures
JP2012145559A (en) Marker
US20100296137A1 (en) Continuous scanning with a handheld scanner
US9880634B2 (en) Gesture input apparatus, gesture input method, and program for wearable terminal
JP5482522B2 (en) Display control apparatus, display control method, and program
JP2005267257A (en) Handwritten information input system
JP6915611B2 (en) Information processing equipment, information processing methods and programs
JP5413315B2 (en) Information processing system and display processing program
JP2014132478A (en) Display control device, display control method, and program
US9268415B2 (en) Touch positioning method utilizing optical identification (OID) technology, OID positioning system and OID reader
KR102261530B1 (en) Handwriting input device
JP2011034548A (en) System and method for acquiring handwritten pattern
KR20140030853A (en) Input system with electronic pen
JP6358069B2 (en) Information output control device and program
JP5104904B2 (en) Information processing system and display processing program
KR20160000754A (en) Input system with electronic pen and case having coordinate patten sheet
JP2014081681A (en) Information processor, program and information processing system
JP2011060115A (en) Information processing system and display processing program
WO2023194616A1 (en) Calibration method for an electronic display screen for touchless gesture control

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant