Nothing Special   »   [go: up one dir, main page]

KR100934389B1 - Display device having virtual interaction interface and its operation method - Google Patents

Display device having virtual interaction interface and its operation method Download PDF

Info

Publication number
KR100934389B1
KR100934389B1 KR1020070097861A KR20070097861A KR100934389B1 KR 100934389 B1 KR100934389 B1 KR 100934389B1 KR 1020070097861 A KR1020070097861 A KR 1020070097861A KR 20070097861 A KR20070097861 A KR 20070097861A KR 100934389 B1 KR100934389 B1 KR 100934389B1
Authority
KR
South Korea
Prior art keywords
image
virtual
user specific
unit
virtual screen
Prior art date
Application number
KR1020070097861A
Other languages
Korean (ko)
Other versions
KR20090032536A (en
Inventor
고은진
원종호
배창석
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020070097861A priority Critical patent/KR100934389B1/en
Publication of KR20090032536A publication Critical patent/KR20090032536A/en
Application granted granted Critical
Publication of KR100934389B1 publication Critical patent/KR100934389B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • G06F3/0426Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected tracking fingers with respect to a virtual keyboard projected or printed on the surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 가상 상호작용 인터페이스를 갖는 디스플레이 장치 및 그 동작 방법에 관한 것으로, 이를 위한 본 발명은 위치 인식을 위한 마크 이미지가 부착된 영상 수단 및 디스플레이 수단을 이용하여 공간상에 가상 스크린을 디스플레이하고 손을 이용해 스크린을 가상 터치하여 사용자의 입력에 따라 자연스럽게 객체를 조작하도록 인터페이스한다. 따라서, 사용자의 일상생활 중에서도 일반적인 모바일 기기들을 추가의 장비나 복잡한 절차를 이용하지 않고서도 바로 제어할 수 있다. The present invention relates to a display apparatus having a virtual interaction interface and a method of operating the same. To this end, the present invention relates to a display apparatus for displaying a virtual screen in a space by using an image means and a display means with a mark image for position recognition. Use the virtual touch on the screen to interface with the object to operate naturally according to the user's input. Therefore, in the daily life of the user, general mobile devices can be directly controlled without using additional equipment or complicated procedures.

가상, 상호작용, 인터페이스, 디스플레이, 마크 이미지 Virtual, interactive, interface, display, mark image

Description

가상 상호작용 인터페이스를 갖는 디스플레이 장치 및 그 동작 방법{A DISPLAY APPARATUS THAT HAS A VIRTUAL INTERACTION INTERFACE AND A METHOD FOR IMPLEMENTING THE INTERFACE}DISPLAY APPARATUS THAT HAS A VIRTUAL INTERACTION INTERFACE AND A METHOD FOR IMPLEMENTING THE INTERFACE

본 발명은 가상 상호작용 인터페이스를 갖는 디스플레이 장치 및 그 동작 방법에 관한 것으로, 보다 상세하게는 증강 현실의 환경을 동적으로 소지할 수 있도록 사용자의 특정 부위(예컨대, 손이나 발 등)를 이용하여 모바일 장치와 상호작용 할 수 있는 디스플레이 장치 및 그 동작 방법에 관한 것이다.The present invention relates to a display device having a virtual interaction interface and a method of operating the mobile device. More particularly, the present invention relates to a mobile device using a specific portion (eg, hand or foot) of a user so as to dynamically possess an environment of augmented reality. A display device capable of interacting with the device and a method of operating the same.

본 발명은 정보통신부 및 정보통신연구진흥원의 IT신성장동력핵심기술개발사업의 일환으로 수행한 연구로부터 도출된 것이다[과제관리번호: 2006-S-032-02, 과제명: 퍼스널 Life Log기반 지능형 서비스 기술].The present invention is derived from the research conducted as part of the IT new growth engine core technology development project of the Ministry of Information and Communication and the Ministry of Information and Communication Research and Development. [Task Management Number: 2006-S-032-02, Title: Personal Life Log-based Intelligent Service] Technology].

가상 객체라는 것을 우리 실생활에 추가함으로써 증강된 현실, 즉 우리의 생활을 더 풍부하게 해 준다. Adding virtual objects to our real life enriches our augmented reality, our lives.

이중 가상현실 시스템이 증강된 현실의 일 예이며, 이 가상현실 시스템을 도 입하게 됨으로써 사용자에게 현실 상황과 일치도가 높게 가상을 경험할 수 있다. 통상의 가상현실 시스템은 컴퓨터로 시뮬레이션 되는 가상 공간과, 현실 세계의 사용자, 그리고 둘 사이의 상호작용을 원활하게 지원하는 인터페이스 시스템으로 구성된다.The dual virtual reality system is an example of augmented reality, and by introducing the virtual reality system, the user can experience virtuality with high consistency with the real situation. A typical virtual reality system is composed of a virtual space simulated by a computer, an interface system that smoothly supports the user in the real world and the interaction between the two.

현재 산업계의 생산 시스템은 갈수록 짧아지는 제품의 수명 주기와 다양한 사용자의 요구를 충족시키기 위하여 다품종 소량 생산 체제를 도입하고 있다. 제품의 기획, 디자인, 설계, 생산, 마케팅, 그리고 사후 관리로 구성된 제품의 수명 주기(product lifecycle) 시스템에서의 효율을 높이기 위해, 생산 기업은 CAD(Computer Aided Design, 이하, CAD라 함) 등의 컴퓨터 시스템을 이용하여 설계작업 디지털화, 통합 동시 설계 및 공장 자동화 제어부를 연동하는 방법으로, 제품의 기획에서 시장까지 이르는 시간을 단축시키고 있다. Currently, industrial production systems are adopting small quantity batch production systems in order to meet the shorter product life cycles and diverse user needs. In order to increase efficiency in the product lifecycle system, which consists of planning, design, design, production, marketing, and after-care of a product, a production company may use computer aided design (CAD). By using computer systems to digitize design work, integrate concurrent design and factory automation controls, the company reduces time from product planning to market.

이와 같이, 현재 생산 과정에 도입된 컴퓨터 시스템은 문서와 수작업으로 관리되던 기존의 데이터를 디지털화시켜서 컴퓨터상의 시뮬레이션을 수행하는 방법으로 효율성을 높이고 있다.As such, computer systems introduced in the current production process are increasing efficiency by performing computer simulations by digitizing existing data managed by documents and manual processes.

상기한 바와 같이 증강된 현실이 적용되는 종래의 배경 기술은 특정 환경이 구축된 상황하에서만 사용할 수 있는 고유의 한계를 갖으며, 보통 증강현실을 사용하기 위해서는 상당히 많은 위치 인식을 위한 마크 이미지를 필요로 하거나 특정 테이블들, 또는 사용자의 몸에 불편하게 부착해야 하는 패치들을 필요로 하기 때문에 모바일 기기에 적용하기에는 여러 가지 제약이 따른다.As described above, the conventional background technology to which augmented reality is applied has inherent limitations that can be used only when a specific environment is established, and in order to use augmented reality, a large number of mark images for location recognition are required. In order to apply to mobile devices, there are various limitations because it requires patches that need to be attached to a specific table or a user's body.

또한, 사용자와 모바일 기기간의 상호작용에 있어서 정확성, 편리함, 자연스러움 등이 필요한데 반해 사용자의 손 제스처 인식에는 다른 기기들과 직접 선이 연결되어 거추장스러운 장갑과 같은 구동장비들이 많이 사용되어 왔으며, 이러한 장비들은 정확도 향상에는 도움이 되었지만 편리하거나 자연스러운 상호작용을 방해하는 큰 요인으로 작용하게 되는 문제점이 있다. In addition, while the interaction between the user and the mobile device requires accuracy, convenience, and naturalness, the hand gesture recognition of the user has a lot of driving devices such as cumbersome gloves because the direct lines are directly connected to other devices. Equipment has helped to improve accuracy, but has the problem of being a big factor in preventing convenient or natural interaction.

이에, 본 발명의 기술적 과제는 상술한 문제점들을 해결하기 위해 안출한 것으로서, 위치 인식을 위한 마크 이미지가 부착된 영상 수단 및 디스플레이 수단을 이용하여 공간상에 가상 스크린을 디스플레이하고 손을 이용해 스크린을 가상 터치하여 사용자의 입력에 따라 자연스럽게 객체를 조작하도록 인터페이스할 수 있는 가상 상호작용 인터페이스를 갖는 디스플레이 장치 및 그 동작 방법을 제공한다.Accordingly, the technical problem of the present invention is to solve the above-mentioned problems, and to display a virtual screen in space using an image means and a display means attached with a mark image for position recognition, and virtualize the screen using a hand. A display device and a method of operating the same have a virtual interaction interface that can be interfaced so as to be naturally manipulated according to a user input by touching.

본 발명의 일 관점에 따른 가상 상호작용 인터페이스를 갖는 디스플레이 장치는 위치 인식을 위한 마크 이미지가 부착되어 있는 영상 수단과, 마크 이미지를 인식하여 공간상에 가상 스크린을 출력하도록 인터페이스하는 디스플레이 처리부와, 사용자 특정 부위가 가상 스크린을 터치하는 움직임을 영상 수단을 통해 검출하는 영상 인터페이스 처리부와, 검출된 움직임에 따라 가상 스크린에 출력된 객체를 조작하도록 인터페이스하는 명령 인식부를 포함하는 것을 특징으로 한다.According to an aspect of the present invention, there is provided a display apparatus having a virtual interaction interface including an image means having a mark image for position recognition attached thereto, a display processor for recognizing a mark image and outputting a virtual screen in a space, and a user. And a command interface for detecting a motion of touching a virtual screen through an image means, and a command recognizer for manipulating an object output on the virtual screen according to the detected motion.

본 발명의 다른 관점에 따른 가상 상호작용 인터페이스를 갖는 디스플레이 장치의 동작 방법은 마크 이미지를 인식하여 공간상에 가상 스크린을 출력하도록 인터페이스하는 단계와, 영상 수단을 통해 사용자 특정 부위가 가상 스크린을 터치하여 발생되는 움직임을 검출하는 단계와, 검출된 움직임에 따라 가상 스크린에 출력된 객체를 조작하도록 인터페이스하는 단계를 포함하는 것을 특징으로 한다.According to another aspect of the present invention, there is provided a method of operating a display device having a virtual interaction interface, including: recognizing a mark image and outputting a virtual screen on a space; Detecting the generated movement, and interfacing to manipulate the object output to the virtual screen according to the detected movement.

본 발명은 위치 인식을 위한 마크 이미지가 부착된 영상 수단(105) 및 디스플레이 장치를 이용하여 공간상에 가상 스크린을 디스플레이하고 손을 이용해 스크린을 가상 터치하여 사용자의 입력에 따라 자연스럽게 객체를 조작하도록 인터페이스함으로써, 사용자의 일상생활 중에서도 일반적인 모바일 기기들을 추가의 장비나 복잡한 절차를 이용하지 않고서도 바로 제어할 수 있다. According to the present invention, a virtual screen is displayed on a space by using an image means 105 and a display device to which a mark image for position recognition is attached and a virtual touch on the screen using a hand to operate an object naturally according to a user's input. By doing so, it is possible to control general mobile devices in a user's daily life without using additional equipment or complicated procedures.

또한, 본 발명은 일반 모바일 기기를 사용자에게 친숙한 환경으로 구성하면 사용자는 일상생활을 하면서도 자신의 컴퓨터의 환경을 그대로 제어할 수 있는 효과가 있다. In addition, the present invention has the effect that if the user configures the general mobile device in an environment familiar to the user, the user can control the environment of his computer as it is while doing everyday life.

이하, 첨부된 도면을 참조하여 본 발명의 동작 원리를 상세히 설명한다. 하기에서 본 발명을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. Hereinafter, with reference to the accompanying drawings will be described in detail the operating principle of the present invention. In the following description of the present invention, when it is determined that a detailed description of a known function or configuration may unnecessarily obscure the subject matter of the present invention, the detailed description thereof will be omitted. Terms to be described later are terms defined in consideration of functions in the present invention, and may be changed according to intentions or customs of users or operators. Therefore, the definition should be made based on the contents throughout the specification.

도 1은 본 발명의 바람직한 일 실시예에 따른 가상 상호작용 인터페이스를 갖는 디스플레이 장치의 블록 구성도로서, 디스플레이 수단(101)과 가상 상호작용 인터페이스 수단(103)과 영상 수단(105)을 포함한다. 1 is a block diagram of a display apparatus having a virtual interaction interface according to an exemplary embodiment of the present invention, which includes a display means 101, a virtual interaction interface means 103, and an imaging means 105.

디스플레이 수단(101)은 공간상에 가상 스크린(1011)을 출력한다. The display means 101 outputs the virtual screen 1011 on the space.

가상 상호작용 인터페이스 수단(103)은 마크 이미지(S1)를 인식하여 공간상에 가상 스크린(1011)을 출력하도록 인터페이스하고, 사용자 특정 부위(예컨대, 손이나 발 등)이 가상 스크린(1011)을 터치하여 발생되는 움직임을 영상 수단(105)을 통해 검출하며, 검출된 손의 움직임에 따라 객체를 조작하도록 인터페이스하는 블록으로서, 디스플레이 처리부(1031)와 영상 인터페이스 처리부(1033)와 명령 인식부(1035)를 구비한다.The virtual interaction interface means 103 recognizes the mark image S1 and interfaces to output the virtual screen 1011 in the space, and a user specific portion (for example, a hand or a foot) touches the virtual screen 1011. Is a block that detects a motion generated by the image means 105 and interfaces the object to be manipulated according to the detected hand movement. The display processor 1031, the image interface processor 1033, and the command recognizer 1035 are provided. It is provided.

디스플레이 처리부(1031)는 위치 인식을 위한 마크 이미지(S1)를 인식하여 가상 스크린(1011)을 출력하기 위한 블록으로서, 도 2a에 도시된 바와 같이 마크 인식부(1031a)와 행렬 계산부(1031b)와 객체 가시화부(1031c)를 갖는다.The display processor 1031 is a block for outputting the virtual screen 1011 by recognizing the mark image S1 for position recognition. As shown in FIG. 2A, the display processor 1031 and the matrix calculator 1031b may be used. And an object visualization unit 1031c.

마크 인식부(1031a)는 영상 수단(105)에 부착된 마크 이미지(S1)의 위치를 인식하여 행렬 계산부(1031b)에 제공한다.The mark recognition unit 1031a recognizes the position of the mark image S1 attached to the imaging means 105 and provides it to the matrix calculation unit 1031b.

행렬 계산부(1031b)는 마크 인식부(1031a)로부터 입력되는 마크 이미지(S1)의 위치를 기준으로 가상 스크린(1011)의 위치를 행렬 방식으로 계산(표현)하여 객체 가시화부(1031c)에 제공한다.The matrix calculation unit 1031b calculates (expresses) the position of the virtual screen 1011 in a matrix manner based on the position of the mark image S1 input from the mark recognition unit 1031a and provides it to the object visualization unit 1031c. do.

즉, 행렬 계산부(1031b)의 행렬 방식 계산(표현)은, 일 예로, 마크 이미지(S1)의 실세계 위치를 x,y,z라 하고, 가상 스크린(1011)의 위치를 x',y'z'라 할 경우, 두 좌표계간의 행렬 변환은 수학식 1That is, in the matrix method calculation (expression) of the matrix calculation unit 1031b, for example, the real world position of the mark image S1 is called x, y, z, and the position of the virtual screen 1011 is x ', y'. z ', matrix transformation between two coordinate systems

Figure 112007069985930-pat00001
Figure 112007069985930-pat00001

(여기서, Ms는 스케일(scale) 변환 행렬이고, Mr은 로테이트(rotate) 변환 행렬이며, Mt는 트랜스레이트(translate) 변환행렬이다.)(Where M s is a scale transformation matrix, M r is a rotate transformation matrix, and M t is a translate transformation matrix.)

다시 말하여, 스케일(scale) 변환 행렬은 아래와 같이 표현되고,In other words, the scale transformation matrix is expressed as

Figure 112007069985930-pat00002
Figure 112007069985930-pat00002

그리고, 로테이트(rotate) 변환 행렬은 오일러(Euler)변환에 의하여 아래와 같이 표현되며, The rotate transform matrix is represented by the Euler transform as follows.

Figure 112007069985930-pat00003
축 회전
Figure 112007069985930-pat00004
Figure 112007069985930-pat00003
Shaft rotation
Figure 112007069985930-pat00004

Figure 112007069985930-pat00005
축 회전
Figure 112007069985930-pat00006
Figure 112007069985930-pat00005
Shaft rotation
Figure 112007069985930-pat00006

Figure 112007069985930-pat00007
축 회전
Figure 112007069985930-pat00008
Figure 112007069985930-pat00007
Shaft rotation
Figure 112007069985930-pat00008

Figure 112007069985930-pat00009
행렬
Figure 112007069985930-pat00010
Figure 112007069985930-pat00009
procession
Figure 112007069985930-pat00010

Figure 112007069985930-pat00011
Figure 112007069985930-pat00011

다음으로, 트랜스레이트(translate) 변환행렬은 아래와 같이 표현된다.Next, the translate transformation matrix is expressed as follows.

Figure 112007069985930-pat00012
Figure 112007069985930-pat00012

객체 가시화부(1031c)는 행렬 계산부(1031b)로부터 입력된 계산 위치에 가상 스크린을 출력하도록 인터페이스한다.The object visualization unit 1031c interfaces to output a virtual screen to the calculation position input from the matrix calculation unit 1031b.

영상 인터페이스 처리부(1033)는 영상 수단(105)을 이용하여 사용자 손의 움직임을 검출하는 블록으로서, 도 2b에 도시된 바와 같이 영상 입력부(1033a)와 디스패리티 계산부(1033b)와 거리 측정부(1033c)를 갖는다. The image interface processor 1033 is a block for detecting the movement of the user's hand using the imaging means 105. As shown in FIG. 2B, the image interface processor 1033a, the disparity calculator 1033b, and the distance measurer ( 1033c).

영상 입력부(1033a)는 영상 수단(105)에 의해 촬상되는 사용자의 손 움직임을 영상으로 입력받아 디스패리티 계산부(1033b)에 제공한다. The image input unit 1033a receives a user's hand movement captured by the imaging unit 105 as an image and provides the image to the disparity calculator 1033b.

디스패리티 계산부(1033b)는 영상 입력부(1033a)로부터 입력되는 사용자의 손 움직임 영상에서 각 불일치 상위를 계산하여 거리 측정부(1033c)에 제공한다.The disparity calculation unit 1033b calculates a difference between the inconsistencies in the user's hand movement image input from the image input unit 1033a and provides the difference to the distance measuring unit 1033c.

즉, 디스패리티 계산부(1033b)의 각 불일치 상위 계산은 아래와 같다.That is, the calculation of the inconsistency of each disparity of the disparity calculator 1033b is as follows.

도 5를 참조하면, 영상 수단(105) 두 대를 이용 할 때 Ol과 Or은 왼쪽과 오른쪽 영상 수단이고, f는 초점 길이(focal length)이며, P는 피사체이며, Cl과 Cr은 각각의 영상 수단으로 들어온 영상의 중점이며, Pl과 Pr은 각 영상에 나타난 피사체의 위치로서, 이 피사체 위치를 검출하여 수학식 2Referring to FIG. 5, when two imaging means 105 are used, O l and O r are left and right imaging means, f is focal length, P is a subject, and C l and C r. Is the center of the image introduced into each image means, and P l and P r are the positions of the subjects shown in each image.

Figure 112007069985930-pat00013
Figure 112007069985930-pat00013

를 통해 각 불일치 상위를 계산한다. Calculate the top of each mismatch through.

거리 측정부(1033c)는 디스패리티 계산부(1033b)로부터 입력되는 상위 불일치를 이용하여 영상 수단(105)과 사용자 손의 거리를 측정한다. The distance measuring unit 1033c measures the distance between the image means 105 and the user's hand using the disagreement mismatched from the disparity calculator 1033b.

즉, 거리 측정부(1033c)의 거리 측정은 아래와 같다.That is, the distance measurement of the distance measuring unit 1033c is as follows.

P의 위치를 복원하기 위하여 P의 사상값인 Pl과 Pr을 이용하면, 수학식 3In order to restore the position of P, using the mapping values of P l and P r , Equation 3

Figure 112007069985930-pat00014
Figure 112007069985930-pat00015
Figure 112007069985930-pat00016
Figure 112007069985930-pat00017
(여기서, 과 은 도 5의 와 동일한 값이다.)
Figure 112007069985930-pat00014
Figure 112007069985930-pat00015
Figure 112007069985930-pat00016
Figure 112007069985930-pat00017
(Where, and are the same values as in FIG. 5)

이 된다.Becomes

또한 두 대의 영상 수단(105)은 수학식 4In addition, the two imaging means 105 is represented by Equation 4

Figure 112007069985930-pat00018
Figure 112007069985930-pat00018

와 같은 상관관계를 갖으며, 이에 따라 거리값인 Z는 수학식 5Has a correlation such that the distance value Z is represented by Equation 5

Figure 112007069985930-pat00019
Figure 112007069985930-pat00019

와 같이 되므로, 영상 수단(105)과 피사체 P와의 거리를 측정할 수 있다.In this way, the distance between the imaging means 105 and the subject P can be measured.

명령 인식부(1035)는 사용자 손의 움직임을 인식하여 여러 가지 명령을 인식하는 블록으로서, 도 2c에 도시된 바와 같이 선택 인식부(1035a) 및 실행 인식부(1035b)와 드래그 인식부(1035c)를 갖는다. The command recognizer 1035 is a block for recognizing movements of a user's hand to recognize various commands. As shown in FIG. 2C, the selection recognizer 1035a, the execution recognizer 1035b, and the drag recognizer 1035c are illustrated. Has

선택 인식부(1035a)는 단시간 동안 사용자 손에 의해 입력되는 선택된 영역을 인식하여 실행 인식부(1035b)에 제공한다.The selection recognizing unit 1035a recognizes the selected area input by the user's hand for a short time and provides it to the execution recognizing unit 1035b.

실행 인식부(1035b)는 선택 인식부(1035a)로부터 입력되는 선택된 영역에 대하여 특정 객체를 실행한다. The execution recognizer 1035b executes a specific object on the selected area input from the selection recognizer 1035a.

드레그 인식부(1035c)는 장시간 동안 사용자 손에 의해 입력되는 선택된 객체를 인식하여 가상 스크린 상에서 움직이도록 명령한다. The drag recognizing unit 1035c recognizes the selected object input by the user's hand for a long time and instructs to move on the virtual screen.

영상 수단(105)은 위치 인식을 위한 마크 이미지(S1)가 부착되어 있으며, 사용자의 손 움직임을 촬상한 영상을 영상 인터페이스 처리부(1033)내 영상 입력부(1033a)에 제공한다. The image means 105 is attached with a mark image S1 for position recognition, and provides an image captured by a user's hand movement to an image input unit 1033a in the image interface processor 1033.

따라서, 본 발명은 위치 인식을 위한 마크 이미지가 부착된 영상 수단(105) 및 디스플레이 장치를 이용하여 공간상에 가상 스크린을 디스플레이하고 손을 이용해 스크린을 가상 터치하여 사용자의 입력에 따라 자연스럽게 객체를 조작하도록 인터페이스함으로써, 사용자의 일상생활 중에서도 일반적인 모바일 기기들을 추가의 장비나 복잡한 절차를 이용하지 않고서도 바로 제어할 수 있다. Therefore, the present invention displays the virtual screen in the space using the image means 105 and the display device attached to the mark image for position recognition, and virtually touches the screen using the hand to manipulate the object naturally according to the user's input. By interfacing, users can control general mobile devices in the user's daily life without using additional equipment or complicated procedures.

도 4는 본 발명의 바람직한 일 실시예에 따른 가상 상호작용 인터페이스를 갖는 디스플레이 장치의 동작 방법에 대하여 상세하게 설명한 흐름도이다. 4 is a flowchart illustrating in detail a method of operating a display apparatus having a virtual interaction interface according to an exemplary embodiment of the present invention.

먼저, 영상 수단(105)에 위치 인식을 위한 마크 이미지(S1)가 도 1에 도시된 바와 같이 부착되어 있다고 가정한다. First, it is assumed that the mark image S1 for position recognition is attached to the imaging means 105 as shown in FIG.

상술한 바와 같이 가정된 상태에서, 디스플레이 처리부(1031)내 마크 인식부(1031a)는 영상 수단(105)에 부착된 마크 이미지(S1)의 위치를 인식(S401)하여 행렬 계산부(1031b)에 제공한다.In the assumed state as described above, the mark recognition unit 1031a in the display processing unit 1031 recognizes the position of the mark image S1 attached to the imaging means 105 (S401) to the matrix calculation unit 1031b. to provide.

그러면, 행렬 계산부(1031b)는 마크 인식부(1031a)로부터 입력되는 마크 이미지(S1)의 위치를 기준으로 가상 스크린(1011)의 위치를 상술한 행렬 방식으로 계산(S403)하여 객체 가시화부(1031c)에 제공한다.Then, the matrix calculation unit 1031b calculates (S403) the position of the virtual screen 1011 based on the position of the mark image S1 input from the mark recognition unit 1031a in the above-described matrix method, and performs the object visualization unit ( 1031c).

객체 가시화부(1031c)는 행렬 계산부(1031b)로부터 입력된 계산 위치에 가상 스크린을 공간상인 디스플레이 수단(101)내에 출력(S405)하도록 인터페이스한다.The object visualization unit 1031c interfaces to output (S405) the virtual screen into the display means 101 in space at the calculation position input from the matrix calculation unit 1031b.

이때, 디스플레이 수단(101)내에 가상 스크린이 출력된 상태에서 사용자는 자신의 손을 이용하여 여러 가지 명령을 수행(S407)하고, 영상 수단(105)은 가상 스크린(1011)을 터치하는 사용자의 손 움직임을 촬상(S409)한 영상을 영상 인터페이스 처리부(1033)내 영상 입력부(1033a)에 제공한다. At this time, in the state in which the virtual screen is output in the display means 101, the user performs various commands using his or her hands (S407), and the image means 105 touches the virtual screen 1011. An image obtained by capturing the motion (S409) is provided to the image input unit 1033a in the image interface processor 1033.

그러면, 영상 인터페이스 처리부(1033)내 영상 입력부(1033a)는 영상 수단(105)에 의해 촬상되는 사용자의 손 움직임을 영상으로 입력(S411)받아 디스패리티 계산부(1033b)에 제공한다. Then, the image input unit 1033a in the image interface processing unit 1033 receives a user's hand motion captured by the imaging unit 105 as an image (S411) and provides it to the disparity calculation unit 1033b.

디스패리티 계산부(1033b)는 영상 입력부(1033a)로부터 입력되는 사용자의 손 움직임 영상에서 각 불일치 상위를 상술한 방식으로 계산(S413)하여 거리 측정부(1033c)에 제공한다. 거리 측정부(1033c)는 디스패리티 계산부(1033b)로부터 입 력되는 상위 불일치를 이용하여 상술한 거리 측정방식으로 영상 수단(105)과 사용자 손의 거리를 측정(S415)한다. The disparity calculation unit 1033b calculates the difference between the inconsistencies in the user's hand movement image input from the image input unit 1033a in the above-described manner (S413) and provides it to the distance measuring unit 1033c. The distance measuring unit 1033c measures the distance between the imaging means 105 and the user's hand by using the above-described disparity calculation unit 1033b and the above-described distance measuring method (S415).

명령 인식부(1035)내 선택 인식부(1035a)는 단시간 동안 사용자 손에 의해 입력되는 선택된 영역을 인식(S417)하여 실행 인식부(1035b)에 제공하며, 실행 인식부(1035b)는 선택 인식부(1035a)로부터 입력되는 선택된 영역에 대하여 특정 객체를 실행(S419)한다. The selection recognizing unit 1035a in the command recognizing unit 1035 recognizes the selected area input by the user's hand for a short time (S417) and provides the received recognition unit 1035b to the execution recognizing unit 1035b. A specific object is executed on the selected area input from 1035a (S419).

그리고, 드레그 인식부(1035c)는 장시간 동안 사용자 손에 의해 입력되는 선택된 객체를 인식(S421)하여 가상 스크린 상에서 움직이도록 명령한다. Then, the drag recognition unit 1035c recognizes the selected object input by the user's hand for a long time (S421) and instructs to move on the virtual screen.

한편, 도 3은 특정 디스플레이 다바이스인 헤드 마운티드 디스플레이(Head Mounted Display, 이하, HMD라 함)(S2)에 본 발명을 적용시킨 구성도로서, 도 4에 도시된 디스플레이 장치의 동작 절차와 동일하게 수행된다. Meanwhile, FIG. 3 is a configuration diagram in which the present invention is applied to a head mounted display (HMD) S2 which is a specific display device, and is performed in the same manner as the operation procedure of the display apparatus shown in FIG. 4. do.

따라서, 본 발명은 위치 인식을 위한 마크 이미지가 부착된 영상 수단(105) 및 디스플레이 장치를 이용하여 공간상에 가상 스크린을 디스플레이하고 손을 이용해 스크린을 가상 터치하여 사용자의 입력에 따라 자연스럽게 객체를 조작하도록 인터페이스함으로써, 일반 모바일 기기를 사용자에게 친숙한 환경으로 구성하면 사용자는 일상생활을 하면서도 자신의 컴퓨터의 환경을 그대로 제어할 수 있다.Therefore, the present invention displays the virtual screen in the space using the image means 105 and the display device attached to the mark image for position recognition, and virtually touches the screen using the hand to manipulate the object naturally according to the user's input. By configuring the general mobile device into a user-friendly environment, the user can control the environment of his computer without losing his / her daily life.

한편, 본 발명의 상세한 설명에서는 구체적인 실시예에 관해 설명하였으나, 본 발명의 범위에서 벗어나지 않는 한도 내에서 여러 가지 변형이 가능함은 물론이다. 그러므로 본 발명의 범위는 설명된 실시예에 국한되지 않으며, 후술되는 특허청구의 범위뿐만 아니라 이 특허청구의 범위와 균등한 것들에 의해 정해져야 한다. Meanwhile, in the detailed description of the present invention, specific embodiments have been described, but various modifications are possible without departing from the scope of the present invention. Therefore, the scope of the present invention should not be limited to the described embodiments, but should be defined not only by the scope of the following claims, but also by those equivalent to the scope of the claims.

도 1은 본 발명의 바람직한 실시예에 따른 가상 상호작용 인터페이스를 갖는 디스플레이 장치의 블록 구성도,1 is a block diagram of a display device having a virtual interaction interface according to a preferred embodiment of the present invention;

도 2a는 도 1에 도시된 디스플레이 처리부를 상세하게 도시한 블록 구성도,FIG. 2A is a block diagram illustrating in detail the display processor illustrated in FIG. 1;

도 2b는 도 1에 도시된 영상 인터페이스 처리부를 상세하게 도시한 블록 구성도,FIG. 2B is a block diagram illustrating in detail the image interface processor shown in FIG. 1; FIG.

도 2c는 도 1에 도시된 명령 인식부를 상세하게 도시한 블록 구성도,FIG. 2C is a block diagram illustrating in detail the command recognition unit shown in FIG. 1; FIG.

도 3은 본 발명의 일 실시예에 따른 특정 디스플레이 다바이스인 HMD에 적용시킨 구성도,3 is a configuration diagram applied to a specific display device HMD according to an embodiment of the present invention,

도 4는 본 발명의 바람직한 일 실시예에 따른 가상 상호작용 인터페이스를 갖는 디스플레이 장치의 동작 방법에 대하여 상세하게 설명한 흐름도,4 is a flowchart illustrating in detail a method of operating a display apparatus having a virtual interaction interface according to an embodiment of the present invention;

도 5는 본 발명에 따른 도 2b에 도시된 디스패리티 계산부의 각 불일치 상위 계산을 위한 예시도.5 is an exemplary diagram for calculating a disparity difference of each disparity calculation unit shown in FIG. 2B according to the present invention.

<도면의 주요부분에 대한 부호의 설명><Description of the symbols for the main parts of the drawings>

101 : 디스플레이 수단 1011 : 가상 스크린101: display means 1011: virtual screen

103 : 가상 상호작용 인터페이스 수단 1031 : 디스플레이 처리부103: virtual interaction interface means 1031: display processing unit

1031a : 마크 인식부 1031b : 행렬 계산부1031a: mark recognition unit 1031b: matrix calculation unit

1031c : 객체 가시화부 1033 : 영상 인터페이스 처리부1031c: object visualization unit 1033: image interface processing unit

1033a : 영상 입력부 1033b : 디스패리티 계산부1033a: Image input unit 1033b: Disparity calculator

1033c : 거리 측정부 1035 : 명령 인식부1033c: distance measuring unit 1035: command recognition unit

1035a : 선택 인식부 1035b : 실행 인식부1035a: selection recognition unit 1035b: execution recognition unit

1035c : 드래그 인식부 105 : 영상 수단1035c: drag recognition unit 105: video means

S1 : 마크 이미지S1: mark image

S2 : HMDS2: HMD

Claims (9)

위치 인식을 위한 마크 이미지가 부착되어 있는 영상 수단과, An imaging means to which a mark image for position recognition is attached, 상기 마크 이미지의 위치를 인식하는 마크 인식부와 상기 인식된 마크 이미지의 위치를 기준으로 가상 스크린의 위치를 행렬 방식으로 계산하는 행렬 계산부와 상기 계산된 위치에 가상 스크린을 출력하도록 인터페이스하는 객체 가시화부를 구비하는 디스플레이 처리부와,A mark recognition unit that recognizes the position of the mark image, a matrix calculator that calculates the position of the virtual screen in a matrix manner based on the position of the recognized mark image, and an object visualization interface for outputting the virtual screen to the calculated position A display processing unit having a unit, 사용자 특정 부위가 가상 스크린을 터치하는 움직임을 상기 영상 수단을 통해 검출하는 영상 인터페이스 처리부와,An image interface processor configured to detect a movement of a user specific region touching the virtual screen through the image means; 상기 검출된 움직임에 따라 상기 가상 스크린에 출력된 객체를 조작하도록 인터페이스하는 명령 인식부A command recognition unit for interfacing the object output on the virtual screen according to the detected movement 를 포함하는 가상 상호작용 인터페이스를 갖는 디스플레이 장치.Display device having a virtual interaction interface comprising a. 삭제delete 제 1 항에 있어서,The method of claim 1, 상기 영상 인터페이스 처리부는, The video interface processor, 상기 영상 수단에 의해 촬상되는 사용자 특정 부위의 움직임 영상을 입력하는 영상 입력부와,An image input unit which inputs a motion image of a user specific portion captured by the imaging means; 상기 움직임 영상에서 각 불일치 상위를 계산하는 디스패리티 계산부와,A disparity calculator configured to calculate an upper difference of each mismatch in the motion image; 상기 계산된 상위 불일치를 이용하여 상기 영상 수단과 사용자 특정 부위간의 거리를 측정하는 거리 측정부Distance measuring unit for measuring the distance between the image means and the user specific portion using the calculated upper mismatch 를 포함하는 가상 상호작용 인터페이스를 갖는 디스플레이 장치.Display device having a virtual interaction interface comprising a. 제 1 항에 있어서,The method of claim 1, 상기 명령 인식부는, The command recognition unit, 상기 사용자 특정 부위의 입력을 인식하는 선택 인식부와,A selection recognizing unit recognizing an input of the user specific portion; 상기 인식된 사용자 특정 부위의 입력에 따라 객체를 실행하는 실행 인식부와,An execution recognition unit executing an object according to the input of the recognized user specific part; 상기 실행된 객체를 움직일 수 있도록 인식하는 드레그 인식부Drag recognition unit for recognizing the movement of the executed object 를 포함하는 가상 상호작용 인터페이스를 갖는 디스플레이 장치.Display device having a virtual interaction interface comprising a. 제 4 항에 있어서, The method of claim 4, wherein 상기 사용자 특정 부위는, 사람의 손이나 발인 것을 특징으로 하는 가상 상호작용 인터페이스를 갖는 디스플레이 장치.And the user specific part is a hand or a foot of a human. 위치 인식을 위한 마크 이미지가 부착되어 있는 영상 수단을 구비하는 디스플레이 방법으로서, A display method comprising an image means to which a mark image for position recognition is attached, the display method comprising: (a)상기 마크 이미지의 위치를 인식하고, 상기 인식된 마크 이미지의 위치를 기준으로 가상 스크린의 위치를 행렬 방식으로 계산하며, 상기 계산된 위치에 가상 스크린을 출력하도록 인터페이스하는 단계와, (a) recognizing the position of the mark image, calculating the position of the virtual screen based on the position of the recognized mark image in a matrix manner, and interfacing to output the virtual screen to the calculated position; (b)상기 영상 수단을 통해 사용자 특정 부위가 상기 가상 스크린을 터치하여 발생되는 움직임을 검출하는 단계와,(b) detecting a movement generated by the user specific region touching the virtual screen through the imaging means; (c)상기 검출된 움직임에 따라 상기 가상 스크린에 출력된 객체를 조작하도록 인터페이스하는 단계(c) interface to manipulate an object output on the virtual screen according to the detected movement 를 포함하는 가상 상호작용 인터페이스를 갖는 디스플레이 방법.Display method having a virtual interaction interface comprising a. 삭제delete 제 6 항에 있어서,The method of claim 6, 상기 (b)단계는, In step (b), (b1)상기 영상 수단에 의해 촬상되는 사용자 특정 부위의 움직임 영상을 입력하는 단계와, (b1) inputting a moving image of a user specific portion captured by the imaging means; (b2)상기 움직임 영상에서 각 불일치 상위를 계산하는 단계와,(b2) calculating an upper difference of each mismatch in the motion image; (b3)상기 계산된 상위 불일치를 이용하여 상기 영상 수단과 사용자 특정 부위간의 거리를 측정하는 단계(b3) measuring the distance between the imaging means and the user specific part using the calculated upper mismatch; 를 포함하는 가상 상호작용 인터페이스를 갖는 디스플레이 방법.Display method having a virtual interaction interface comprising a. 제 6 항에 있어서,The method of claim 6, 상기 (c)단계는, Step (c) is, (c1)상기 사용자 특정 부위의 입력을 인식하는 단계와, (c1) recognizing an input of the user specific portion; (c2)상기 인식된 사용자 특정 부위의 입력에 따라 객체를 실행하는 단계와, (c2) executing the object according to the input of the recognized user specific part; (c3)상기 실행된 객체를 움직일 수 있도록 인식하는 단계(c3) recognizing to move the executed object 를 포함하는 가상 상호작용 인터페이스를 갖는 디스플레이 방법.Display method having a virtual interaction interface comprising a.
KR1020070097861A 2007-09-28 2007-09-28 Display device having virtual interaction interface and its operation method KR100934389B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020070097861A KR100934389B1 (en) 2007-09-28 2007-09-28 Display device having virtual interaction interface and its operation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070097861A KR100934389B1 (en) 2007-09-28 2007-09-28 Display device having virtual interaction interface and its operation method

Publications (2)

Publication Number Publication Date
KR20090032536A KR20090032536A (en) 2009-04-01
KR100934389B1 true KR100934389B1 (en) 2009-12-30

Family

ID=40759338

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070097861A KR100934389B1 (en) 2007-09-28 2007-09-28 Display device having virtual interaction interface and its operation method

Country Status (1)

Country Link
KR (1) KR100934389B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100959516B1 (en) * 2008-06-04 2010-05-27 텔코웨어 주식회사 Space perception user interface method using image recognition and device thereof

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020041327A1 (en) * 2000-07-24 2002-04-11 Evan Hildreth Video-based image control system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020041327A1 (en) * 2000-07-24 2002-04-11 Evan Hildreth Video-based image control system

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
WO2006130243 A3R*

Also Published As

Publication number Publication date
KR20090032536A (en) 2009-04-01

Similar Documents

Publication Publication Date Title
JP6288372B2 (en) Interface control system, interface control device, interface control method, and program
JP5167523B2 (en) Operation input device, operation determination method, and program
CN105765490B (en) Systems and techniques for user interface control
JP5515067B2 (en) Operation input device, operation determination method, and program
Lu et al. Immersive manipulation of virtual objects through glove-based hand gesture interaction
WO2012039140A1 (en) Operation input apparatus, operation input method, and program
US20110148755A1 (en) User interface apparatus and user interfacing method based on wearable computing environment
WO2012071429A1 (en) User interface for medical image review workstation
US11009949B1 (en) Segmented force sensors for wearable devices
JP2013037675A5 (en)
KR20140068855A (en) Adaptive tracking system for spatial input devices
Matlani et al. Virtual mouse using hand gestures
WO2016026365A1 (en) Man-machine interaction method and system for achieving contactless mouse control
CN111639531A (en) Medical model interaction visualization method and system based on gesture recognition
Bai et al. Free-hand interaction for handheld augmented reality using an RGB-depth camera
WO2021225044A1 (en) Information processing device, information processing method based on user input operation, and computer program for executing said method
KR100934389B1 (en) Display device having virtual interaction interface and its operation method
Lu et al. Dynamic hand gesture tracking and recognition for real-time immersive virtual object manipulation
US20130187890A1 (en) User interface apparatus and method for 3d space-touch using multiple imaging sensors
JP2015122124A (en) Information apparatus with data input function by virtual mouse
KR20100081383A (en) Multi-touch screen system, touch screen apparatus and method for dividing touch screen
KR20110033318A (en) Virtual mouse system using image recognition
Hartmann et al. A virtual touchscreen with depth recognition
Grange et al. Tlib: A real-time computer vision library for hci applications
US20230196725A1 (en) Image annotation system and method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20121129

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20131128

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20151216

Year of fee payment: 7

LAPS Lapse due to unpaid annual fee