KR100934389B1 - Display device having virtual interaction interface and its operation method - Google Patents
Display device having virtual interaction interface and its operation method Download PDFInfo
- Publication number
- KR100934389B1 KR100934389B1 KR1020070097861A KR20070097861A KR100934389B1 KR 100934389 B1 KR100934389 B1 KR 100934389B1 KR 1020070097861 A KR1020070097861 A KR 1020070097861A KR 20070097861 A KR20070097861 A KR 20070097861A KR 100934389 B1 KR100934389 B1 KR 100934389B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- virtual
- user specific
- unit
- virtual screen
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
- G06F3/0426—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected tracking fingers with respect to a virtual keyboard projected or printed on the surface
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
본 발명은 가상 상호작용 인터페이스를 갖는 디스플레이 장치 및 그 동작 방법에 관한 것으로, 이를 위한 본 발명은 위치 인식을 위한 마크 이미지가 부착된 영상 수단 및 디스플레이 수단을 이용하여 공간상에 가상 스크린을 디스플레이하고 손을 이용해 스크린을 가상 터치하여 사용자의 입력에 따라 자연스럽게 객체를 조작하도록 인터페이스한다. 따라서, 사용자의 일상생활 중에서도 일반적인 모바일 기기들을 추가의 장비나 복잡한 절차를 이용하지 않고서도 바로 제어할 수 있다. The present invention relates to a display apparatus having a virtual interaction interface and a method of operating the same. To this end, the present invention relates to a display apparatus for displaying a virtual screen in a space by using an image means and a display means with a mark image for position recognition. Use the virtual touch on the screen to interface with the object to operate naturally according to the user's input. Therefore, in the daily life of the user, general mobile devices can be directly controlled without using additional equipment or complicated procedures.
가상, 상호작용, 인터페이스, 디스플레이, 마크 이미지 Virtual, interactive, interface, display, mark image
Description
본 발명은 가상 상호작용 인터페이스를 갖는 디스플레이 장치 및 그 동작 방법에 관한 것으로, 보다 상세하게는 증강 현실의 환경을 동적으로 소지할 수 있도록 사용자의 특정 부위(예컨대, 손이나 발 등)를 이용하여 모바일 장치와 상호작용 할 수 있는 디스플레이 장치 및 그 동작 방법에 관한 것이다.The present invention relates to a display device having a virtual interaction interface and a method of operating the mobile device. More particularly, the present invention relates to a mobile device using a specific portion (eg, hand or foot) of a user so as to dynamically possess an environment of augmented reality. A display device capable of interacting with the device and a method of operating the same.
본 발명은 정보통신부 및 정보통신연구진흥원의 IT신성장동력핵심기술개발사업의 일환으로 수행한 연구로부터 도출된 것이다[과제관리번호: 2006-S-032-02, 과제명: 퍼스널 Life Log기반 지능형 서비스 기술].The present invention is derived from the research conducted as part of the IT new growth engine core technology development project of the Ministry of Information and Communication and the Ministry of Information and Communication Research and Development. [Task Management Number: 2006-S-032-02, Title: Personal Life Log-based Intelligent Service] Technology].
가상 객체라는 것을 우리 실생활에 추가함으로써 증강된 현실, 즉 우리의 생활을 더 풍부하게 해 준다. Adding virtual objects to our real life enriches our augmented reality, our lives.
이중 가상현실 시스템이 증강된 현실의 일 예이며, 이 가상현실 시스템을 도 입하게 됨으로써 사용자에게 현실 상황과 일치도가 높게 가상을 경험할 수 있다. 통상의 가상현실 시스템은 컴퓨터로 시뮬레이션 되는 가상 공간과, 현실 세계의 사용자, 그리고 둘 사이의 상호작용을 원활하게 지원하는 인터페이스 시스템으로 구성된다.The dual virtual reality system is an example of augmented reality, and by introducing the virtual reality system, the user can experience virtuality with high consistency with the real situation. A typical virtual reality system is composed of a virtual space simulated by a computer, an interface system that smoothly supports the user in the real world and the interaction between the two.
현재 산업계의 생산 시스템은 갈수록 짧아지는 제품의 수명 주기와 다양한 사용자의 요구를 충족시키기 위하여 다품종 소량 생산 체제를 도입하고 있다. 제품의 기획, 디자인, 설계, 생산, 마케팅, 그리고 사후 관리로 구성된 제품의 수명 주기(product lifecycle) 시스템에서의 효율을 높이기 위해, 생산 기업은 CAD(Computer Aided Design, 이하, CAD라 함) 등의 컴퓨터 시스템을 이용하여 설계작업 디지털화, 통합 동시 설계 및 공장 자동화 제어부를 연동하는 방법으로, 제품의 기획에서 시장까지 이르는 시간을 단축시키고 있다. Currently, industrial production systems are adopting small quantity batch production systems in order to meet the shorter product life cycles and diverse user needs. In order to increase efficiency in the product lifecycle system, which consists of planning, design, design, production, marketing, and after-care of a product, a production company may use computer aided design (CAD). By using computer systems to digitize design work, integrate concurrent design and factory automation controls, the company reduces time from product planning to market.
이와 같이, 현재 생산 과정에 도입된 컴퓨터 시스템은 문서와 수작업으로 관리되던 기존의 데이터를 디지털화시켜서 컴퓨터상의 시뮬레이션을 수행하는 방법으로 효율성을 높이고 있다.As such, computer systems introduced in the current production process are increasing efficiency by performing computer simulations by digitizing existing data managed by documents and manual processes.
상기한 바와 같이 증강된 현실이 적용되는 종래의 배경 기술은 특정 환경이 구축된 상황하에서만 사용할 수 있는 고유의 한계를 갖으며, 보통 증강현실을 사용하기 위해서는 상당히 많은 위치 인식을 위한 마크 이미지를 필요로 하거나 특정 테이블들, 또는 사용자의 몸에 불편하게 부착해야 하는 패치들을 필요로 하기 때문에 모바일 기기에 적용하기에는 여러 가지 제약이 따른다.As described above, the conventional background technology to which augmented reality is applied has inherent limitations that can be used only when a specific environment is established, and in order to use augmented reality, a large number of mark images for location recognition are required. In order to apply to mobile devices, there are various limitations because it requires patches that need to be attached to a specific table or a user's body.
또한, 사용자와 모바일 기기간의 상호작용에 있어서 정확성, 편리함, 자연스러움 등이 필요한데 반해 사용자의 손 제스처 인식에는 다른 기기들과 직접 선이 연결되어 거추장스러운 장갑과 같은 구동장비들이 많이 사용되어 왔으며, 이러한 장비들은 정확도 향상에는 도움이 되었지만 편리하거나 자연스러운 상호작용을 방해하는 큰 요인으로 작용하게 되는 문제점이 있다. In addition, while the interaction between the user and the mobile device requires accuracy, convenience, and naturalness, the hand gesture recognition of the user has a lot of driving devices such as cumbersome gloves because the direct lines are directly connected to other devices. Equipment has helped to improve accuracy, but has the problem of being a big factor in preventing convenient or natural interaction.
이에, 본 발명의 기술적 과제는 상술한 문제점들을 해결하기 위해 안출한 것으로서, 위치 인식을 위한 마크 이미지가 부착된 영상 수단 및 디스플레이 수단을 이용하여 공간상에 가상 스크린을 디스플레이하고 손을 이용해 스크린을 가상 터치하여 사용자의 입력에 따라 자연스럽게 객체를 조작하도록 인터페이스할 수 있는 가상 상호작용 인터페이스를 갖는 디스플레이 장치 및 그 동작 방법을 제공한다.Accordingly, the technical problem of the present invention is to solve the above-mentioned problems, and to display a virtual screen in space using an image means and a display means attached with a mark image for position recognition, and virtualize the screen using a hand. A display device and a method of operating the same have a virtual interaction interface that can be interfaced so as to be naturally manipulated according to a user input by touching.
본 발명의 일 관점에 따른 가상 상호작용 인터페이스를 갖는 디스플레이 장치는 위치 인식을 위한 마크 이미지가 부착되어 있는 영상 수단과, 마크 이미지를 인식하여 공간상에 가상 스크린을 출력하도록 인터페이스하는 디스플레이 처리부와, 사용자 특정 부위가 가상 스크린을 터치하는 움직임을 영상 수단을 통해 검출하는 영상 인터페이스 처리부와, 검출된 움직임에 따라 가상 스크린에 출력된 객체를 조작하도록 인터페이스하는 명령 인식부를 포함하는 것을 특징으로 한다.According to an aspect of the present invention, there is provided a display apparatus having a virtual interaction interface including an image means having a mark image for position recognition attached thereto, a display processor for recognizing a mark image and outputting a virtual screen in a space, and a user. And a command interface for detecting a motion of touching a virtual screen through an image means, and a command recognizer for manipulating an object output on the virtual screen according to the detected motion.
본 발명의 다른 관점에 따른 가상 상호작용 인터페이스를 갖는 디스플레이 장치의 동작 방법은 마크 이미지를 인식하여 공간상에 가상 스크린을 출력하도록 인터페이스하는 단계와, 영상 수단을 통해 사용자 특정 부위가 가상 스크린을 터치하여 발생되는 움직임을 검출하는 단계와, 검출된 움직임에 따라 가상 스크린에 출력된 객체를 조작하도록 인터페이스하는 단계를 포함하는 것을 특징으로 한다.According to another aspect of the present invention, there is provided a method of operating a display device having a virtual interaction interface, including: recognizing a mark image and outputting a virtual screen on a space; Detecting the generated movement, and interfacing to manipulate the object output to the virtual screen according to the detected movement.
본 발명은 위치 인식을 위한 마크 이미지가 부착된 영상 수단(105) 및 디스플레이 장치를 이용하여 공간상에 가상 스크린을 디스플레이하고 손을 이용해 스크린을 가상 터치하여 사용자의 입력에 따라 자연스럽게 객체를 조작하도록 인터페이스함으로써, 사용자의 일상생활 중에서도 일반적인 모바일 기기들을 추가의 장비나 복잡한 절차를 이용하지 않고서도 바로 제어할 수 있다. According to the present invention, a virtual screen is displayed on a space by using an image means 105 and a display device to which a mark image for position recognition is attached and a virtual touch on the screen using a hand to operate an object naturally according to a user's input. By doing so, it is possible to control general mobile devices in a user's daily life without using additional equipment or complicated procedures.
또한, 본 발명은 일반 모바일 기기를 사용자에게 친숙한 환경으로 구성하면 사용자는 일상생활을 하면서도 자신의 컴퓨터의 환경을 그대로 제어할 수 있는 효과가 있다. In addition, the present invention has the effect that if the user configures the general mobile device in an environment familiar to the user, the user can control the environment of his computer as it is while doing everyday life.
이하, 첨부된 도면을 참조하여 본 발명의 동작 원리를 상세히 설명한다. 하기에서 본 발명을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. Hereinafter, with reference to the accompanying drawings will be described in detail the operating principle of the present invention. In the following description of the present invention, when it is determined that a detailed description of a known function or configuration may unnecessarily obscure the subject matter of the present invention, the detailed description thereof will be omitted. Terms to be described later are terms defined in consideration of functions in the present invention, and may be changed according to intentions or customs of users or operators. Therefore, the definition should be made based on the contents throughout the specification.
도 1은 본 발명의 바람직한 일 실시예에 따른 가상 상호작용 인터페이스를 갖는 디스플레이 장치의 블록 구성도로서, 디스플레이 수단(101)과 가상 상호작용 인터페이스 수단(103)과 영상 수단(105)을 포함한다. 1 is a block diagram of a display apparatus having a virtual interaction interface according to an exemplary embodiment of the present invention, which includes a display means 101, a virtual interaction interface means 103, and an imaging means 105.
디스플레이 수단(101)은 공간상에 가상 스크린(1011)을 출력한다. The display means 101 outputs the
가상 상호작용 인터페이스 수단(103)은 마크 이미지(S1)를 인식하여 공간상에 가상 스크린(1011)을 출력하도록 인터페이스하고, 사용자 특정 부위(예컨대, 손이나 발 등)이 가상 스크린(1011)을 터치하여 발생되는 움직임을 영상 수단(105)을 통해 검출하며, 검출된 손의 움직임에 따라 객체를 조작하도록 인터페이스하는 블록으로서, 디스플레이 처리부(1031)와 영상 인터페이스 처리부(1033)와 명령 인식부(1035)를 구비한다.The virtual interaction interface means 103 recognizes the mark image S1 and interfaces to output the
디스플레이 처리부(1031)는 위치 인식을 위한 마크 이미지(S1)를 인식하여 가상 스크린(1011)을 출력하기 위한 블록으로서, 도 2a에 도시된 바와 같이 마크 인식부(1031a)와 행렬 계산부(1031b)와 객체 가시화부(1031c)를 갖는다.The
마크 인식부(1031a)는 영상 수단(105)에 부착된 마크 이미지(S1)의 위치를 인식하여 행렬 계산부(1031b)에 제공한다.The
행렬 계산부(1031b)는 마크 인식부(1031a)로부터 입력되는 마크 이미지(S1)의 위치를 기준으로 가상 스크린(1011)의 위치를 행렬 방식으로 계산(표현)하여 객체 가시화부(1031c)에 제공한다.The
즉, 행렬 계산부(1031b)의 행렬 방식 계산(표현)은, 일 예로, 마크 이미지(S1)의 실세계 위치를 x,y,z라 하고, 가상 스크린(1011)의 위치를 x',y'z'라 할 경우, 두 좌표계간의 행렬 변환은 수학식 1That is, in the matrix method calculation (expression) of the
(여기서, Ms는 스케일(scale) 변환 행렬이고, Mr은 로테이트(rotate) 변환 행렬이며, Mt는 트랜스레이트(translate) 변환행렬이다.)(Where M s is a scale transformation matrix, M r is a rotate transformation matrix, and M t is a translate transformation matrix.)
다시 말하여, 스케일(scale) 변환 행렬은 아래와 같이 표현되고,In other words, the scale transformation matrix is expressed as
그리고, 로테이트(rotate) 변환 행렬은 오일러(Euler)변환에 의하여 아래와 같이 표현되며, The rotate transform matrix is represented by the Euler transform as follows.
축 회전 Shaft rotation
축 회전 Shaft rotation
축 회전 Shaft rotation
행렬 procession
다음으로, 트랜스레이트(translate) 변환행렬은 아래와 같이 표현된다.Next, the translate transformation matrix is expressed as follows.
객체 가시화부(1031c)는 행렬 계산부(1031b)로부터 입력된 계산 위치에 가상 스크린을 출력하도록 인터페이스한다.The
영상 인터페이스 처리부(1033)는 영상 수단(105)을 이용하여 사용자 손의 움직임을 검출하는 블록으로서, 도 2b에 도시된 바와 같이 영상 입력부(1033a)와 디스패리티 계산부(1033b)와 거리 측정부(1033c)를 갖는다. The
영상 입력부(1033a)는 영상 수단(105)에 의해 촬상되는 사용자의 손 움직임을 영상으로 입력받아 디스패리티 계산부(1033b)에 제공한다. The
디스패리티 계산부(1033b)는 영상 입력부(1033a)로부터 입력되는 사용자의 손 움직임 영상에서 각 불일치 상위를 계산하여 거리 측정부(1033c)에 제공한다.The
즉, 디스패리티 계산부(1033b)의 각 불일치 상위 계산은 아래와 같다.That is, the calculation of the inconsistency of each disparity of the
도 5를 참조하면, 영상 수단(105) 두 대를 이용 할 때 Ol과 Or은 왼쪽과 오른쪽 영상 수단이고, f는 초점 길이(focal length)이며, P는 피사체이며, Cl과 Cr은 각각의 영상 수단으로 들어온 영상의 중점이며, Pl과 Pr은 각 영상에 나타난 피사체의 위치로서, 이 피사체 위치를 검출하여 수학식 2Referring to FIG. 5, when two imaging means 105 are used, O l and O r are left and right imaging means, f is focal length, P is a subject, and C l and C r. Is the center of the image introduced into each image means, and P l and P r are the positions of the subjects shown in each image.
를 통해 각 불일치 상위를 계산한다. Calculate the top of each mismatch through.
거리 측정부(1033c)는 디스패리티 계산부(1033b)로부터 입력되는 상위 불일치를 이용하여 영상 수단(105)과 사용자 손의 거리를 측정한다. The
즉, 거리 측정부(1033c)의 거리 측정은 아래와 같다.That is, the distance measurement of the
P의 위치를 복원하기 위하여 P의 사상값인 Pl과 Pr을 이용하면, 수학식 3In order to restore the position of P, using the mapping values of P l and P r , Equation 3
이 된다.Becomes
또한 두 대의 영상 수단(105)은 수학식 4In addition, the two imaging means 105 is represented by Equation 4
와 같은 상관관계를 갖으며, 이에 따라 거리값인 Z는 수학식 5Has a correlation such that the distance value Z is represented by Equation 5
와 같이 되므로, 영상 수단(105)과 피사체 P와의 거리를 측정할 수 있다.In this way, the distance between the imaging means 105 and the subject P can be measured.
명령 인식부(1035)는 사용자 손의 움직임을 인식하여 여러 가지 명령을 인식하는 블록으로서, 도 2c에 도시된 바와 같이 선택 인식부(1035a) 및 실행 인식부(1035b)와 드래그 인식부(1035c)를 갖는다. The
선택 인식부(1035a)는 단시간 동안 사용자 손에 의해 입력되는 선택된 영역을 인식하여 실행 인식부(1035b)에 제공한다.The
실행 인식부(1035b)는 선택 인식부(1035a)로부터 입력되는 선택된 영역에 대하여 특정 객체를 실행한다. The
드레그 인식부(1035c)는 장시간 동안 사용자 손에 의해 입력되는 선택된 객체를 인식하여 가상 스크린 상에서 움직이도록 명령한다. The
영상 수단(105)은 위치 인식을 위한 마크 이미지(S1)가 부착되어 있으며, 사용자의 손 움직임을 촬상한 영상을 영상 인터페이스 처리부(1033)내 영상 입력부(1033a)에 제공한다. The image means 105 is attached with a mark image S1 for position recognition, and provides an image captured by a user's hand movement to an
따라서, 본 발명은 위치 인식을 위한 마크 이미지가 부착된 영상 수단(105) 및 디스플레이 장치를 이용하여 공간상에 가상 스크린을 디스플레이하고 손을 이용해 스크린을 가상 터치하여 사용자의 입력에 따라 자연스럽게 객체를 조작하도록 인터페이스함으로써, 사용자의 일상생활 중에서도 일반적인 모바일 기기들을 추가의 장비나 복잡한 절차를 이용하지 않고서도 바로 제어할 수 있다. Therefore, the present invention displays the virtual screen in the space using the image means 105 and the display device attached to the mark image for position recognition, and virtually touches the screen using the hand to manipulate the object naturally according to the user's input. By interfacing, users can control general mobile devices in the user's daily life without using additional equipment or complicated procedures.
도 4는 본 발명의 바람직한 일 실시예에 따른 가상 상호작용 인터페이스를 갖는 디스플레이 장치의 동작 방법에 대하여 상세하게 설명한 흐름도이다. 4 is a flowchart illustrating in detail a method of operating a display apparatus having a virtual interaction interface according to an exemplary embodiment of the present invention.
먼저, 영상 수단(105)에 위치 인식을 위한 마크 이미지(S1)가 도 1에 도시된 바와 같이 부착되어 있다고 가정한다. First, it is assumed that the mark image S1 for position recognition is attached to the imaging means 105 as shown in FIG.
상술한 바와 같이 가정된 상태에서, 디스플레이 처리부(1031)내 마크 인식부(1031a)는 영상 수단(105)에 부착된 마크 이미지(S1)의 위치를 인식(S401)하여 행렬 계산부(1031b)에 제공한다.In the assumed state as described above, the
그러면, 행렬 계산부(1031b)는 마크 인식부(1031a)로부터 입력되는 마크 이미지(S1)의 위치를 기준으로 가상 스크린(1011)의 위치를 상술한 행렬 방식으로 계산(S403)하여 객체 가시화부(1031c)에 제공한다.Then, the
객체 가시화부(1031c)는 행렬 계산부(1031b)로부터 입력된 계산 위치에 가상 스크린을 공간상인 디스플레이 수단(101)내에 출력(S405)하도록 인터페이스한다.The
이때, 디스플레이 수단(101)내에 가상 스크린이 출력된 상태에서 사용자는 자신의 손을 이용하여 여러 가지 명령을 수행(S407)하고, 영상 수단(105)은 가상 스크린(1011)을 터치하는 사용자의 손 움직임을 촬상(S409)한 영상을 영상 인터페이스 처리부(1033)내 영상 입력부(1033a)에 제공한다. At this time, in the state in which the virtual screen is output in the display means 101, the user performs various commands using his or her hands (S407), and the image means 105 touches the
그러면, 영상 인터페이스 처리부(1033)내 영상 입력부(1033a)는 영상 수단(105)에 의해 촬상되는 사용자의 손 움직임을 영상으로 입력(S411)받아 디스패리티 계산부(1033b)에 제공한다. Then, the
디스패리티 계산부(1033b)는 영상 입력부(1033a)로부터 입력되는 사용자의 손 움직임 영상에서 각 불일치 상위를 상술한 방식으로 계산(S413)하여 거리 측정부(1033c)에 제공한다. 거리 측정부(1033c)는 디스패리티 계산부(1033b)로부터 입 력되는 상위 불일치를 이용하여 상술한 거리 측정방식으로 영상 수단(105)과 사용자 손의 거리를 측정(S415)한다. The
명령 인식부(1035)내 선택 인식부(1035a)는 단시간 동안 사용자 손에 의해 입력되는 선택된 영역을 인식(S417)하여 실행 인식부(1035b)에 제공하며, 실행 인식부(1035b)는 선택 인식부(1035a)로부터 입력되는 선택된 영역에 대하여 특정 객체를 실행(S419)한다. The
그리고, 드레그 인식부(1035c)는 장시간 동안 사용자 손에 의해 입력되는 선택된 객체를 인식(S421)하여 가상 스크린 상에서 움직이도록 명령한다. Then, the
한편, 도 3은 특정 디스플레이 다바이스인 헤드 마운티드 디스플레이(Head Mounted Display, 이하, HMD라 함)(S2)에 본 발명을 적용시킨 구성도로서, 도 4에 도시된 디스플레이 장치의 동작 절차와 동일하게 수행된다. Meanwhile, FIG. 3 is a configuration diagram in which the present invention is applied to a head mounted display (HMD) S2 which is a specific display device, and is performed in the same manner as the operation procedure of the display apparatus shown in FIG. 4. do.
따라서, 본 발명은 위치 인식을 위한 마크 이미지가 부착된 영상 수단(105) 및 디스플레이 장치를 이용하여 공간상에 가상 스크린을 디스플레이하고 손을 이용해 스크린을 가상 터치하여 사용자의 입력에 따라 자연스럽게 객체를 조작하도록 인터페이스함으로써, 일반 모바일 기기를 사용자에게 친숙한 환경으로 구성하면 사용자는 일상생활을 하면서도 자신의 컴퓨터의 환경을 그대로 제어할 수 있다.Therefore, the present invention displays the virtual screen in the space using the image means 105 and the display device attached to the mark image for position recognition, and virtually touches the screen using the hand to manipulate the object naturally according to the user's input. By configuring the general mobile device into a user-friendly environment, the user can control the environment of his computer without losing his / her daily life.
한편, 본 발명의 상세한 설명에서는 구체적인 실시예에 관해 설명하였으나, 본 발명의 범위에서 벗어나지 않는 한도 내에서 여러 가지 변형이 가능함은 물론이다. 그러므로 본 발명의 범위는 설명된 실시예에 국한되지 않으며, 후술되는 특허청구의 범위뿐만 아니라 이 특허청구의 범위와 균등한 것들에 의해 정해져야 한다. Meanwhile, in the detailed description of the present invention, specific embodiments have been described, but various modifications are possible without departing from the scope of the present invention. Therefore, the scope of the present invention should not be limited to the described embodiments, but should be defined not only by the scope of the following claims, but also by those equivalent to the scope of the claims.
도 1은 본 발명의 바람직한 실시예에 따른 가상 상호작용 인터페이스를 갖는 디스플레이 장치의 블록 구성도,1 is a block diagram of a display device having a virtual interaction interface according to a preferred embodiment of the present invention;
도 2a는 도 1에 도시된 디스플레이 처리부를 상세하게 도시한 블록 구성도,FIG. 2A is a block diagram illustrating in detail the display processor illustrated in FIG. 1;
도 2b는 도 1에 도시된 영상 인터페이스 처리부를 상세하게 도시한 블록 구성도,FIG. 2B is a block diagram illustrating in detail the image interface processor shown in FIG. 1; FIG.
도 2c는 도 1에 도시된 명령 인식부를 상세하게 도시한 블록 구성도,FIG. 2C is a block diagram illustrating in detail the command recognition unit shown in FIG. 1; FIG.
도 3은 본 발명의 일 실시예에 따른 특정 디스플레이 다바이스인 HMD에 적용시킨 구성도,3 is a configuration diagram applied to a specific display device HMD according to an embodiment of the present invention,
도 4는 본 발명의 바람직한 일 실시예에 따른 가상 상호작용 인터페이스를 갖는 디스플레이 장치의 동작 방법에 대하여 상세하게 설명한 흐름도,4 is a flowchart illustrating in detail a method of operating a display apparatus having a virtual interaction interface according to an embodiment of the present invention;
도 5는 본 발명에 따른 도 2b에 도시된 디스패리티 계산부의 각 불일치 상위 계산을 위한 예시도.5 is an exemplary diagram for calculating a disparity difference of each disparity calculation unit shown in FIG. 2B according to the present invention.
<도면의 주요부분에 대한 부호의 설명><Description of the symbols for the main parts of the drawings>
101 : 디스플레이 수단 1011 : 가상 스크린101: display means 1011: virtual screen
103 : 가상 상호작용 인터페이스 수단 1031 : 디스플레이 처리부103: virtual interaction interface means 1031: display processing unit
1031a : 마크 인식부 1031b : 행렬 계산부1031a:
1031c : 객체 가시화부 1033 : 영상 인터페이스 처리부1031c: object visualization unit 1033: image interface processing unit
1033a : 영상 입력부 1033b : 디스패리티 계산부1033a:
1033c : 거리 측정부 1035 : 명령 인식부1033c: distance measuring unit 1035: command recognition unit
1035a : 선택 인식부 1035b : 실행 인식부1035a:
1035c : 드래그 인식부 105 : 영상 수단1035c: drag recognition unit 105: video means
S1 : 마크 이미지S1: mark image
S2 : HMDS2: HMD
Claims (9)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020070097861A KR100934389B1 (en) | 2007-09-28 | 2007-09-28 | Display device having virtual interaction interface and its operation method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020070097861A KR100934389B1 (en) | 2007-09-28 | 2007-09-28 | Display device having virtual interaction interface and its operation method |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20090032536A KR20090032536A (en) | 2009-04-01 |
KR100934389B1 true KR100934389B1 (en) | 2009-12-30 |
Family
ID=40759338
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020070097861A KR100934389B1 (en) | 2007-09-28 | 2007-09-28 | Display device having virtual interaction interface and its operation method |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100934389B1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100959516B1 (en) * | 2008-06-04 | 2010-05-27 | 텔코웨어 주식회사 | Space perception user interface method using image recognition and device thereof |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020041327A1 (en) * | 2000-07-24 | 2002-04-11 | Evan Hildreth | Video-based image control system |
-
2007
- 2007-09-28 KR KR1020070097861A patent/KR100934389B1/en not_active IP Right Cessation
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020041327A1 (en) * | 2000-07-24 | 2002-04-11 | Evan Hildreth | Video-based image control system |
Non-Patent Citations (1)
Title |
---|
WO2006130243 A3R* |
Also Published As
Publication number | Publication date |
---|---|
KR20090032536A (en) | 2009-04-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6288372B2 (en) | Interface control system, interface control device, interface control method, and program | |
JP5167523B2 (en) | Operation input device, operation determination method, and program | |
CN105765490B (en) | Systems and techniques for user interface control | |
JP5515067B2 (en) | Operation input device, operation determination method, and program | |
Lu et al. | Immersive manipulation of virtual objects through glove-based hand gesture interaction | |
WO2012039140A1 (en) | Operation input apparatus, operation input method, and program | |
US20110148755A1 (en) | User interface apparatus and user interfacing method based on wearable computing environment | |
WO2012071429A1 (en) | User interface for medical image review workstation | |
US11009949B1 (en) | Segmented force sensors for wearable devices | |
JP2013037675A5 (en) | ||
KR20140068855A (en) | Adaptive tracking system for spatial input devices | |
Matlani et al. | Virtual mouse using hand gestures | |
WO2016026365A1 (en) | Man-machine interaction method and system for achieving contactless mouse control | |
CN111639531A (en) | Medical model interaction visualization method and system based on gesture recognition | |
Bai et al. | Free-hand interaction for handheld augmented reality using an RGB-depth camera | |
WO2021225044A1 (en) | Information processing device, information processing method based on user input operation, and computer program for executing said method | |
KR100934389B1 (en) | Display device having virtual interaction interface and its operation method | |
Lu et al. | Dynamic hand gesture tracking and recognition for real-time immersive virtual object manipulation | |
US20130187890A1 (en) | User interface apparatus and method for 3d space-touch using multiple imaging sensors | |
JP2015122124A (en) | Information apparatus with data input function by virtual mouse | |
KR20100081383A (en) | Multi-touch screen system, touch screen apparatus and method for dividing touch screen | |
KR20110033318A (en) | Virtual mouse system using image recognition | |
Hartmann et al. | A virtual touchscreen with depth recognition | |
Grange et al. | Tlib: A real-time computer vision library for hci applications | |
US20230196725A1 (en) | Image annotation system and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20121129 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20131128 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20151216 Year of fee payment: 7 |
|
LAPS | Lapse due to unpaid annual fee |