Nothing Special   »   [go: up one dir, main page]

KR20180026919A - System for augmented reality or virtual reality - Google Patents

System for augmented reality or virtual reality Download PDF

Info

Publication number
KR20180026919A
KR20180026919A KR1020160113856A KR20160113856A KR20180026919A KR 20180026919 A KR20180026919 A KR 20180026919A KR 1020160113856 A KR1020160113856 A KR 1020160113856A KR 20160113856 A KR20160113856 A KR 20160113856A KR 20180026919 A KR20180026919 A KR 20180026919A
Authority
KR
South Korea
Prior art keywords
user device
information
user
augmented reality
smart device
Prior art date
Application number
KR1020160113856A
Other languages
Korean (ko)
Inventor
류재욱
정회원
Original Assignee
(주)알비케이이엠디
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)알비케이이엠디 filed Critical (주)알비케이이엠디
Priority to KR1020160113856A priority Critical patent/KR20180026919A/en
Priority to PCT/KR2017/008093 priority patent/WO2018043920A1/en
Publication of KR20180026919A publication Critical patent/KR20180026919A/en

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/38Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
    • H04B1/3827Portable transceivers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/38Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
    • H04B1/3827Portable transceivers
    • H04B1/385Transceivers carried on the body, e.g. in helmets

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

The present invention relates to an augmented reality or virtual reality system capable of experiencing an augmented reality or a virtual reality by using a smart device and a user device wherein the smart device can realize an augmented reality or a virtual reality and the user device obtains motion information or command information from a user and transfers the motion information and the command information to the smart device. According to the present invention, the augmented reality or virtual reality system comprises: the smart device capable of an augmented reality or a virtual reality; and the user device configured to obtain motion information or command information of a user, transfer the motion information or the command information to the smart device and receive and represent the information from the smart device.

Description

증강현실 또는 가상현실 시스템{System for augmented reality or virtual reality}Augmented Reality or Virtual Reality System (System for augmented reality or virtual reality)

본 발명은 증강현실 또는 가상현실 시스템에 관한 것으로, 보다 상세하게는 증강현실 또는 가상현실을 구현할 수 있는 스마트 기기와 사용자로부터 동작정보, 명령정보를 취득하여 스마트 기기로 전달할 수 있는 사용자 디바이스를 이용하여 증강현실 또는 가상현실을 체험할 수 있는 증강현실 또는 가상현실 시스템에 관한 것이다.The present invention relates to augmented reality or virtual reality system, and more particularly to a smart device capable of realizing augmented reality or virtual reality and a user device capable of acquiring operation information and command information from a user, An augmented reality or a virtual reality system capable of experiencing an augmented reality or a virtual reality.

증강현실(AR)은 실시간으로 사용자에게 디스플레이하기 위한 증강정보와 현실 세계의 장면을 혼합하여 현실 세계 및 컴퓨터 생성 데이터를 결합한 것에 초점을 맞출 수 있다. 이러한 AR의 범위는 광고, 내비게이션, 오락 등과 같은 광범위한 애플리케이션 영역으로 확장되어 제공되고 있다.The augmented reality AR can focus on combining reality information and computer generated data by mixing the augmented information for displaying to the user in real time with the scene of the real world. The scope of these ARs is being extended to a wide range of applications such as advertising, navigation, and entertainment.

증강현실(AR) 환경에서 사용자는 인공적 또는 가상적 그래픽스를 사용자 주변의 실제 자연환경들과 통합하여 볼 수 있다. 예를 들어 사용자는 증강현실 고글 등을 통해 사용자 주변의 실제 자연환경들 내부에 임의적으로 디스플레이된 그래픽스를 볼 수 있다.In an augmented reality (AR) environment, a user can view artificial or virtual graphics integrated with actual natural environments around the user. For example, the user can view the graphics displayed arbitrarily in the natural environments around the user through the augmented reality goggles and the like.

그러나 일반적으로 제공되고 있는 증강현실(AR)은 고글이나 화면을 구비한 전자기기 등을 통해 사용자의 시각에 의존한 증강현실을 제공하고 있다. 이에 따라 종래의 증강현실은 사용자의 몰입도가 감소하게 되고 다양한 증강현실 콘텐츠를 활용하는데 한계가 있다.However, the augmented reality (AR), which is generally provided, provides an augmented reality depending on the user's view through goggles or an electronic device having a screen. Accordingly, the conventional augmented reality has a limit to the user's immersion degree and utilization of various augmented reality contents.

대한민국 공개특허공보 제10-2016-0068827호(2016.06.15.)Korean Patent Publication No. 10-2016-0068827 (June 15, 2016) 대한민국 공개특허공보 제10-2016-0068837호(2016.06.15.)Korean Patent Publication No. 10-2016-0068837 (June 15, 2016)

본 발명은 전술한 문제점을 해결하기 위한 것으로서, 증강현실 또는 가상현실을 구현할 수 있는 스마트 기기와 사용자로부터 취득한 동작정보, 명령정보를 스마트 기기로 전달하고 스마트 기기로부터 정보를 수신하여 해당 정보를 다양한 방법으로 표현할 수 있는 사용자 디바이스를 통해 증강현실이나 가상현실의 재미와 몰입도를 높일 수 있는 증강현실 또는 가상현실 시스템을 제공하는데 그 목적이 있다.The present invention solves the above-mentioned problems, and it is an object of the present invention to provide a smart device capable of realizing augmented reality or virtual reality, operation information and command information acquired from a user to a smart device, receiving information from the smart device, The present invention provides an augmented reality or a virtual reality system capable of increasing the fun and immersion of an augmented reality or a virtual reality through a user device that can be expressed as a virtual reality.

상기 목적을 달성하기 위한 본 발명의 증강현실 또는 가상현실 시스템은, 증강현실 또는 가상현실을 구현할 수 있는 스마트 기기; 및 사용자의 동작정보 또는 명령정보를 취득하여 상기 스마트 기기로 전달하고, 상기 스마트 기기로부터 정보를 수신하여 표현하는 사용자 디바이스로 이루어진다.According to an aspect of the present invention, there is provided an augmented reality or virtual reality system including: a smart device capable of implementing an augmented reality or a virtual reality; And a user device for acquiring operation information or command information of the user and delivering the information to the smart device, and receiving and expressing information from the smart device.

그리고 상기 스마트 기기는, 가상 이미지를 생성하는 이미지 생성부와, 상기 가상 이미지를 표시하는 디스플레이부와, 상기 사용자 디바이스로부터 상기 동작정보 또는 명령정보를 수신하는 제1 통신부와, 상기 동작정보 또는 명령정보에 따라 상기 증강현실 또는 가상현실 내에서 상기 가상 이미지의 위치 또는 동작을 결정하는 이미지 처리부를 포함한다.The smart device includes: an image generation unit that generates a virtual image; a display unit that displays the virtual image; a first communication unit that receives the operation information or command information from the user device; And an image processing unit for determining the position or operation of the virtual image within the augmented reality or the virtual reality according to the augmented reality or the virtual reality.

그리고 상기 사용자 디바이스는 사용자에 의한 상기 사용자 디바이스의 위치변화 또는 자세변화 또는 동작 중 어느 하나 이상을 감지하는 센서부를 포함하고, 상기 동작정보는 상기 사용자 디바이스의 위치변화 또는 자세변화 또는 동작에 의해 발생한다.Further, the user device includes a sensor unit for detecting at least one of a position change, an attitude change, and an operation of the user device by a user, and the operation information is generated by a position change or an attitude change or an operation of the user device .

또한, 상기 사용자 디바이스는, 상기 스마트 기기로부터 전달되는 상기 정보를 수신하는 제2 통신부와, 상기 제2 통신부를 통해 수신되는 상기 정보에 따라 소리, 빛, 진동 중 어느 하나 이상을 발생시키는 출력부를 포함한다.The user device may include a second communication unit for receiving the information transmitted from the smart device, and an output unit for generating at least one of sound, light, and vibration according to the information received through the second communication unit do.

또한, 상기 사용자 디바이스는 충전 가능한 2차 전지를 포함하고, 상기 스마트 기기를 포함하는 휴대단말기와 연결되어 상기 휴대단말기를 충전시키는 것을 특징으로 하는 증강현실 또는 가상현실 시스템.In addition, the user device includes a rechargeable secondary battery and is connected to a portable terminal including the smart device to charge the portable terminal.

본 발명의 증강현실 또는 가상현실 시스템은, 사용자 디바이스를 통해 사용자의 동작정보, 명령정보를 취득하여 스마트 기기로 전달하고 스마트 기기로부터 정보를 수신하여 빛, 소리, 진동 등을 발생시킴으로써 증강현실 또는 가상현실의 몰입도와 재미를 증가시킬 수 있다.The augmented reality or virtual reality system of the present invention acquires operation information and command information of a user through a user device and transmits it to a smart device and receives information from the smart device to generate light, sound, vibration, It can increase the immersion and fun of reality.

도 1은 본 발명의 실시예에 따른 증강현실 또는 가상현실 시스템을 개략적으로 나타낸 도면.
도 2는 본 발명에 따른 증강현실 또는 가상현실 시스템의 구체적인 일 실시예를 나타낸 도면.
도 3은 본 발명의 실시예에 따른 증강현실 또는 가상현실 시스템의 사용자 디바이스를 통해 구현되는 동작형태를 예시한 도면.
도 4는 본 발명의 다른 실시예에 따른 증강현실 또는 가상현실 시스템의 구체적인 실시예를 나타낸 도면.
1 schematically illustrates an augmented reality or virtual reality system according to an embodiment of the present invention.
BACKGROUND OF THE INVENTION 1. Field of the Invention [0001] The present invention relates to an augmented reality or a virtual reality system.
3 is a diagram illustrating an operational form implemented through a user device of an augmented reality or virtual reality system according to an embodiment of the present invention.
4 is a view showing a concrete embodiment of an augmented reality or virtual reality system according to another embodiment of the present invention.

본 발명의 실시예에 따른 증강현실 또는 가상현실 시스템은 도 1 내지 도 3에 도시된 바와 같이, 스마트 기기(100)와 사용자 디바이스(200)로 이루어진다. 이러한 증강현실 또는 가상현실 시스템은 게임, 관광, 의료, 국방 등 다양한 분야에 활용할 수 있다.The augmented reality system or the virtual reality system according to the embodiment of the present invention comprises a smart device 100 and a user device 200, as shown in Figs. Such augmented reality or virtual reality system can be utilized in various fields such as game, tourism, medical care, and defense.

스마트 기기(100)는 스마트폰, 태블릿PC와 같은 휴대단말기, 증강현실 또는 가상현실 전용 기기, 각종 스마트 웨어러블 기기 등이 될 수 있다.The smart device 100 may be a portable terminal such as a smart phone or a tablet PC, augmented reality or a device dedicated to virtual reality, and various smart wearable devices.

도 1에 도시된 바와 같이 증강현실 또는 가상현실을 구현하기 위한 스마트 기기(100)는 기본적으로, 가상 이미지를 생성하는 이미지 생성부와, 상기 가상 이미지를 표시하는 디스플레이부와, 사용자 디바이스로부터 동작정보 또는 명령정보를 수신하고 사용자 디바이스로 특정 정보를 송신하는 제1 통신부와, 상기 동작정보, 명령정보에 따라 증강현실 또는 가상현실 내에서 상기 가상 이미지의 위치 또는 동작을 결정하는 이미지 처리부를 포함하고 있다.As shown in FIG. 1, a smart device 100 for realizing an augmented reality or a virtual reality basically includes an image generation unit for generating a virtual image, a display unit for displaying the virtual image, Or a first communication unit that receives command information and transmits specific information to a user device, and an image processing unit that determines a position or an operation of the virtual image within the augmented reality or virtual reality according to the operation information and command information .

사용자 디바이스(200)는 스마트 기기(100)와 유선 또는 무선으로 연결되어 증강현실 또는 가상현실 내의 환경변화를 일으킬 수 있으며, 도 2에 도시된 바와 같이 사용자가 한 손으로 파지할 수 있고 휴대할 수 있는 크기 및 형상으로 형성될 수 있다.The user device 200 may be wired or wirelessly connected to the smart device 100 to cause an augmented reality or an environment change in the virtual reality. As shown in FIG. 2, the user device 200 can grasp May be formed in a size and shape.

이러한 사용자 디바이스(200)는 도 1에 도시된 바와 같이 센서부, 제2 통신부, 출력부 및 제어부를 포함한다. 또한, 사용자 디바이스는 센서부, 제2 통신부, 출력부 및 제어부에 전원을 공급하기 위하여 배터리(미도시)를 포함할 수도 있다.The user device 200 includes a sensor unit, a second communication unit, an output unit, and a control unit, as shown in FIG. In addition, the user device may include a battery (not shown) to supply power to the sensor unit, the second communication unit, the output unit, and the control unit.

센서부는 사용자 디바이스(200)의 내부에 설치되어 사용자 디바이스(200)의 위치변화 또는 자세변화 또는 동작을 감지한다. 이러한 사용자 디바이스(200)의 위치변화, 자세변화 및 동작의 구현은 사용자 디바이스(200)를 파지하고 있는 사용자에 의해 이루어진다. 구체적으로 사용자 디바이스(200)의 위치변화는 상하방향 이동, 수평방향 이동 등이 될 수 있고, 사용자 디바이스(200)의 자세변화는 사용자 디바이스(200)의 위치이동 없이 방향, 기울기 등의 변화가 될 수 있다. 그리고 사용자 디바이스(200)를 이용하여 구현할 수 있는 동작은 제어부에 미리 저장되며, 도 3에 도시된 바와 같은 직선 운동, 포물선 운동, 원 운동 중 어느 하나가 될 수 있다. 이러한 사용자 디바이스(200)의 위치변화, 자세변화 또는 동작의 구현을 감지하기 위하여, 센서부는 가속도 센서, 자이로 센서, 지자기 센서 중 어느 하나 이상을 포함한다. 또한, 센서부는 상기의 센서 외에 다양한 다른 종류의 센서를 더 포함할 수도 있다.The sensor unit is installed inside the user device 200 and detects a change in the position of the user device 200 or a change or attitude of the user device 200. The implementation of the position change, attitude change, and movement of the user device 200 is performed by the user holding the user device 200. Specifically, the positional change of the user device 200 may be a vertical movement, a horizontal movement, or the like, and the orientation change of the user device 200 may be a change in orientation, tilt, . The operations that can be implemented using the user device 200 are stored in advance in the control unit, and can be any of linear motion, parabolic motion, and circle motion as shown in FIG. In order to detect such a change in the position of the user device 200, an attitude change, or an implementation of the operation, the sensor unit includes at least one of an acceleration sensor, a gyro sensor, and a geomagnetic sensor. In addition, the sensor unit may further include various other kinds of sensors in addition to the above sensors.

제2 통신부는 사용자 디바이스(200)의 내부에 설치되고 스마트 기기(100)와 통신하기 위한 장치이다. 이러한 제2 통신부는 스마트 기기(100)에 의해 구현되는 증강현실 또는 가상현실 내의 환경변화에 따라 스마트 기기(100)로부터 특정 정보를 수신하거나, 사용자 디바이스(200)의 위치변화, 자세변화 또는 동작의 구현에 따른 동작정보 또는 명령정보를 스마트 기기(100)로 전달한다.The second communication unit is installed in the user device 200 and is a device for communicating with the smart device 100. The second communication unit may receive specific information from the smart device 100 according to the environment change in the augmented reality or the virtual reality realized by the smart device 100, And transmits operation information or command information according to the implementation to the smart device 100.

제1 통신부와 제2 통신부는 블루투스, 와이파이 등 다양한 무선 통신수단을 이용할 수 있다. 또한, 스마트 기기(100)와 사용자 디바이스(200)는 유선으로 연결될 수도 있다.The first communication unit and the second communication unit can use various wireless communication means such as Bluetooth and Wi-Fi. Also, the smart device 100 and the user device 200 may be connected by wire.

증강현실 또는 가상현실 내의 환경변화란 증강현실 또는 가상현실에 맞는 이벤트 발생, 특정 행위 및 임무 수행, 목적/목표 달성의 성패 등이 될 수 있고, 스마트 기기(100)로부터 사용자 디바이스(200)로 전달되는 정보는 증강현실 또는 가상현실 내의 다양한 환경변화에 대응되는 복수의 신호 중 어느 하나의 신호가 될 수 있다. 그리고 동작정보, 명령정보는 센서부에 의해 감지된 사용자 디바이스(200)의 위치변화, 자세변화 또는 특정 동작에 대응되는 신호이며, 제2 통신부를 통해 스마트 기기(100)로 전달되어 증강현실 또는 가상현실 내의 환경변화를 일으킬 수 있다.The environment change in the augmented reality or the virtual reality may be an event generation, a specific action and a mission fulfillment according to an augmented reality or a virtual reality, a success or failure of a goal / goal achievement, May be any one of a plurality of signals corresponding to various environment changes within the augmented reality or virtual reality. The operation information and the command information are signals corresponding to the position change, attitude change, or specific operation of the user device 200 sensed by the sensor unit, are transmitted to the smart device 100 through the second communication unit, It can cause environmental changes within the reality.

출력부는 사용자 디바이스(200)의 내부에 설치되어 소리, 빛, 진동을 발생시킬 수 있다. 이러한 출력부는 스피커, LED램프, 진동모듈 중 어느 하나가 될 수 있다. 구체적으로 출력부는 스마트 기기(100)로부터 특정 정보가 수신되면 소리, 빛, 진동을 발생시키거나 사용자 디바이스(200)의 위치변화, 자세변화 또는 동작의 구현에 따라 소리, 빛, 진동을 발생시킬 수 있다. 또한, 출력부는 전술한 스피커, LED램프, 진동모듈을 모두 구비하거나 이 중 복수의 일부를 구비할 수 있다. 이에 따라 소리, 빛, 진동 중 어느 하나를 발생시키거나 소리, 빛, 진동 중 둘 이상을 동시에 발생시킬 수 있다.The output unit may be installed inside the user device 200 to generate sound, light, and vibration. The output unit may be any one of a speaker, an LED lamp, and a vibration module. Specifically, when the specific information is received from the smart device 100, the output unit may generate sound, light, vibration, or generate sound, light, or vibration according to the change of the position of the user device 200, have. The output unit may include all of the speaker, the LED lamp, and the vibration module, or may have a plurality of portions thereof. Accordingly, any one of sound, light, and vibration can be generated, or two or more of sound, light, and vibration can be generated at the same time.

먼저, 제2 통신부를 통해 스마트 기기(100)로부터 특정 정보가 수신되면 출력부는 소리, 빛 또는 진동을 발생시킴으로써 사용자에게 증강현실 또는 가상현실에서 이벤트가 발생하거나 목적/목표 달성의 성패에 대한 정보를 제공한다. 그리고 출력부는 스마트 기기(100)로부터 전달되는 다양한 정보에 따라 소리, 빛, 진동의 강약, 발생 패턴 등을 달리하여 사용자가 각각의 신호를 구별할 수 있게 함으로써 증강현실 또는 가상현실에서 발생한 환경변화의 종류를 인지할 수 있다.First, when specific information is received from the smart device 100 through the second communication unit, the output unit generates sound, light, or vibration so that the user can receive information on the event in the augmented reality or virtual reality or the success / to provide. In addition, the output unit can distinguish each signal by differentiating sound, light, intensity of vibration, occurrence pattern, etc. according to various information transmitted from the smart device 100, I can recognize the kind.

또한, 출력부는 사용자 디바이스(200)의 동작에 따라 진동의 세기, 주기 등이 다른 진동을 발생시켜 사용자가 의도한 동작이 맞는지 확인할 수도 있다.In addition, the output unit may generate vibration having different intensity and period of vibration according to the operation of the user device 200, thereby confirming whether the user intends the operation.

제어부는 사용자 디바이스(200)의 내부에 설치되어 제2 통신부 및 출력부를 작동시킨다.The control unit is installed inside the user device 200 to operate the second communication unit and the output unit.

한편, 본 발명의 실시예에 따른 사용자 디바이스(200)는 전술한 바와 같이 배터리를 포함하며, 배터리는 충전 가능한 2차 전지이다. 그리고 도 4(a)에 도시된 바와 같이 사용자 디바이스(200)는 사용자의 손목에 찰 수 있는 형태로 이루어질 수 있다. 또한, 사용자 디바이스(200)는 사용자의 신체, 옷 등 다양한 부위에 고정될 수도 있다.Meanwhile, the user device 200 according to the embodiment of the present invention includes a battery as described above, and the battery is a rechargeable secondary battery. As shown in FIG. 4A, the user device 200 may be formed in a shape that can be worn on the wrist of the user. Also, the user device 200 may be fixed to various parts such as the user's body, clothes, and the like.

이러한 사용자 디바이스(200)는 도 4(b)에 도시된 바와 같이 다양한 종류의 스마트 기기(100)와 충전 케이블로 연결되어 스마트 기기(100)를 충전시키기 위한 보조 배터리로 이용될 수 있다. 그리고 사용자 디바이스(200)는 상술한 스마트 기기(100) 외에도 다른 일반적인 휴대단말기와 연결되어 상호 연결된 휴대단말기를 충전시킬 수도 있다.The user device 200 may be used as an auxiliary battery for charging the smart device 100 by being connected to various types of smart devices 100 through a charging cable as shown in FIG. 4 (b). In addition to the smart device 100, the user device 200 may be connected to other general portable terminals to charge the portable terminals connected to each other.

다음은 본 발명의 실시예에 따른 증강현실 또는 가상현실 시스템의 이용방법에 대하여 설명한다.Next, a method of using an augmented reality or a virtual reality system according to an embodiment of the present invention will be described.

상술한 바와 같이 본 발명의 실시예에 따른 사용자 디바이스(200)는 스마트 기기(100)와 연동하는 것으로서, 사용자는 사용자 디바이스(200)를 이동시키거나 특정 동작을 수행함으로써 증강현실 또는 가상현실 내의 환경변화를 일으킬 수 있다. 즉 사용자 디바이스(200)를 상하방향이나 수평방향으로 이동시키거나 사용자 디바이스(200)의 자세를 변경할 수 있고, 직선 운동, 포물선 운동, 원 운동, 회전 운동 등의 동작을 구현할 수 있다. 이러한 사용자 디바이스(200)의 위치변화, 자세변화 또는 동작의 구현에 따라 특정 명령정보 또는 동작정보가 발생하고, 해당 명령정보나 동작정보는 제2 통신부와 제1 통싱부를 통해 스마트 기기(100)로 전달되어 증강현실 또는 가상현실 내에서 임무 수행이나 특정 행위를 위한 명령이 된다.As described above, the user device 200 according to the embodiment of the present invention is interlocked with the smart device 100, and the user can move the user device 200 or perform a specific operation, It can cause change. That is, the user device 200 can be moved up and down or horizontally, or the posture of the user device 200 can be changed, and operations such as linear motion, parabolic motion, circular motion, and rotational motion can be implemented. Specific instruction information or operation information is generated according to the change of the position of the user device 200, the attitude change, or the operation, and the corresponding command information or operation information is transmitted to the smart device 100 through the second communication unit and the first communication unit It becomes a command for performance of a mission or specific action within augmented reality or virtual reality.

사용자 디바이스(200)로부터 명령정보나 동작정보를 수신하여 스마트 기기(100)에서 구현되는 증강현실 또는 가상현실 내에서 임무수행, 목적/목표 달성의 성패가 결정되면 스마트 기기(100)에서 특정 환경변화 상황에 해당하는 정보가 발생하고, 제1 통신부와 제2 통신부를 통해 사용자 디바이스(200)로 상기 정보가 전달되면 제어부는 상기 정보에 따라 출력부를 작동시켜 특정 세기 및 패턴의 소리, 빛 또는 진동을 발생시킨다. 이에 따라 사용자 디바이스(200)를 파지하고 있는 사용자는 증강현실 또는 가상현실 내의 이벤트 발생이나 목적/목표 달성의 성패를 확인할 수 있다.Upon receiving the command information or the operation information from the user device 200 and determining success or failure of accomplishing the mission and achieving the goal / goal in the augmented reality or virtual reality realized in the smart device 100, When information corresponding to the situation is generated and the information is transmitted to the user device 200 through the first communication unit and the second communication unit, the control unit operates the output unit according to the information to generate sound, light or vibration of a specific intensity and pattern . Accordingly, the user who is holding the user device 200 can confirm the occurrence of an event in the augmented reality or the virtual reality or the success or failure of achieving the goal / goal.

또는, 사용자에 의해 구현되는 사용자 디바이스(200)의 직선 운동, 포물선 운동, 원 운동, 회전 운동은 센서부와 제어부에 의해 감지 및 판별되고 출력부는 각 동작에 따라 소리, 빛, 진동 중 어느 하나 이상을 발생시켜 사용자가 구현된 동작을 확인할 수 있다. 또는, 사용자가 구현해야 할 특정 동작이 제대로 구현되었는지 판단하여 해당 동작의 구현 유무를 판별하는 소리 또는 빛 또는 진동을 발생시킬 수도 있다.Alternatively, the linear motion, the parabolic motion, the circular motion, and the rotational motion of the user device 200 implemented by the user may be detected and determined by the sensor unit and the control unit, and the output unit may detect at least one of sound, So that the user can confirm the implemented operation. Alternatively, it may be determined whether the specific operation to be implemented by the user is properly implemented, and sound, light or vibration may be generated to determine whether the operation is implemented.

이와 같이 본 발명의 실시예에 따른 증강현실 또는 가상현실 시스템은, 사용자 디바이스(200)의 위치변화, 자세변화 및 특정 동작에 의해 간편하게 증강현실 또는 가상현실 내의 환경변화를 일으킬 수 있고 사용자에게 특정 정보에 의한 빛, 소리, 진동 등의 신호를 제공하여 증강현실 또는 가상현실의 몰입도와 재미를 증가시킬 수 있다.As described above, the augmented reality or the virtual reality system according to the embodiment of the present invention can easily cause the environment change in the augmented reality or the virtual reality by the position change, the posture change, and the specific operation of the user device 200, It is possible to increase the immersion and fun of the augmented reality or virtual reality.

본 발명에 따른 증강현실 또는 가상현실 시스템은 전술한 실시예에 국한되지 않고 본 발명의 기술사상이 허용되는 범위 내에서 다양하게 변형하여 실시할 수 있다.The augmented reality or virtual reality system according to the present invention is not limited to the above-described embodiments but can be variously modified and embodied within the scope of the technical idea of the present invention.

100 : 스마트 기기,
200 : 사용자 디바이스,
100: smart device,
200: user device,

Claims (5)

증강현실 또는 가상현실을 구현할 수 있는 스마트 기기; 및
사용자의 동작정보 또는 명령정보를 취득하여 상기 스마트 기기로 전달하고, 상기 스마트 기기로부터 정보를 수신하여 표현하는 사용자 디바이스로 이루어지는 것을 특징으로 하는 증강현실 또는 가상현실 시스템.
A smart device capable of realizing augmented reality or virtual reality; And
And a user device for acquiring operation information or command information of a user and delivering the information to the smart device and receiving and expressing information from the smart device.
청구항 1에 있어서,
상기 스마트 기기는,
가상 이미지를 생성하는 이미지 생성부와,
상기 가상 이미지를 표시하는 디스플레이부와,
상기 사용자 디바이스로부터 상기 동작정보 또는 명령정보를 수신하는 제1 통신부와,
상기 동작정보 또는 명령정보에 따라 상기 증강현실 또는 가상현실 내에서 상기 가상 이미지의 위치 또는 동작을 결정하는 이미지 처리부를 포함하는 것을 특징으로 하는 증강현실 또는 가상현실 시스템.
The method according to claim 1,
The smart device comprises:
An image generating unit for generating a virtual image,
A display unit for displaying the virtual image;
A first communication unit for receiving the operation information or command information from the user device;
And an image processing unit for determining a position or an operation of the virtual image in the augmented reality or the virtual reality according to the operation information or the command information.
청구항 1에 있어서,
상기 사용자 디바이스는 사용자에 의한 상기 사용자 디바이스의 위치변화 또는 자세변화 또는 동작 중 어느 하나 이상을 감지하는 센서부를 포함하고,
상기 동작정보는 상기 사용자 디바이스의 위치변화 또는 자세변화 또는 동작에 의해 발생하는 것을 특징으로 하는 증강현실 또는 가상현실 시스템.
The method according to claim 1,
Wherein the user device includes a sensor unit for detecting at least one of a position change, an attitude change, and an operation of the user device by the user,
Wherein the operation information is generated by a change in position of the user device or an attitude change or an operation of the user device.
청구항 1에 있어서,
상기 사용자 디바이스는,
상기 스마트 기기로부터 전달되는 상기 정보를 수신하는 제2 통신부와,
상기 제2 통신부를 통해 수신되는 상기 정보에 따라 소리, 빛, 진동 중 어느 하나 이상을 발생시키는 출력부를 포함하는 것을 특징으로 하는 증강현실 또는 가상현실 시스템.
The method according to claim 1,
The user device comprising:
A second communication unit for receiving the information transmitted from the smart device;
And an output unit for generating at least one of sound, light, and vibration according to the information received through the second communication unit.
청구항 1에 있어서,
상기 사용자 디바이스는 충전 가능한 2차 전지를 포함하고, 상기 스마트 기기를 포함하는 휴대단말기와 연결되어 상기 휴대단말기를 충전시키는 것을 특징으로 하는 증강현실 또는 가상현실 시스템.
The method according to claim 1,
Wherein the user device comprises a rechargeable secondary battery and is connected to a portable terminal including the smart device to charge the portable terminal.
KR1020160113856A 2016-09-05 2016-09-05 System for augmented reality or virtual reality KR20180026919A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020160113856A KR20180026919A (en) 2016-09-05 2016-09-05 System for augmented reality or virtual reality
PCT/KR2017/008093 WO2018043920A1 (en) 2016-09-05 2017-07-27 Augmented reality or virtual reality system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160113856A KR20180026919A (en) 2016-09-05 2016-09-05 System for augmented reality or virtual reality

Publications (1)

Publication Number Publication Date
KR20180026919A true KR20180026919A (en) 2018-03-14

Family

ID=61300995

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160113856A KR20180026919A (en) 2016-09-05 2016-09-05 System for augmented reality or virtual reality

Country Status (2)

Country Link
KR (1) KR20180026919A (en)
WO (1) WO2018043920A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190116654A (en) * 2018-04-05 2019-10-15 전자부품연구원 Augmented Reality Companion Content Service System and Method
KR20190133908A (en) 2018-05-24 2019-12-04 시크릿타운 주식회사 Method for providing augmented reality contents based on image of goods
KR20190133909A (en) 2018-05-24 2019-12-04 시크릿타운 주식회사 Method for providing augmented reality contents based on location

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130034844A (en) * 2011-09-29 2013-04-08 (주)파이네트웍스 Virtual golf simulation device and its simulation method
KR101389894B1 (en) * 2012-07-18 2014-04-29 주식회사 도담시스템스 Virtual reality simulation apparatus and method using motion capture technology and
US9669300B2 (en) * 2013-12-27 2017-06-06 Ballcraft, Llc Motion detection for existing portable devices
EP3116616B1 (en) * 2014-03-14 2019-01-30 Sony Interactive Entertainment Inc. Gaming device with volumetric sensing
WO2016089442A1 (en) * 2014-12-06 2016-06-09 Horsemoon Llc Hand gesture recognition system for controlling electronically controlled devices

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190116654A (en) * 2018-04-05 2019-10-15 전자부품연구원 Augmented Reality Companion Content Service System and Method
KR20190133908A (en) 2018-05-24 2019-12-04 시크릿타운 주식회사 Method for providing augmented reality contents based on image of goods
KR20190133909A (en) 2018-05-24 2019-12-04 시크릿타운 주식회사 Method for providing augmented reality contents based on location

Also Published As

Publication number Publication date
WO2018043920A1 (en) 2018-03-08

Similar Documents

Publication Publication Date Title
US10395116B2 (en) Dynamically created and updated indoor positioning map
CN108671543A (en) Labelled element display methods, computer equipment and storage medium in virtual scene
JP6523233B2 (en) Information processing method, apparatus, and program for causing a computer to execute the information processing method
CN110917616B (en) Orientation prompting method, device, equipment and storage medium in virtual scene
EP2466440B1 (en) Display control program, display control apparatus, display control system, and display control method
CN105388994A (en) Wearable watch and display method thereof
CN109634413B (en) Method, device and storage medium for observing virtual environment
CN111344663B (en) Rendering device and rendering method
CN105264452A (en) Multi-purposed self-propelled device
CN108415675B (en) Information processing apparatus, information processing system, and information processing method
CN111108531A (en) Information processing apparatus, information processing method, and program
CN108786110A (en) Gun sight display methods, equipment and storage medium in virtual environment
JP6409644B2 (en) Display control method, display control program, and information processing apparatus
CN108536295A (en) Object control method, apparatus in virtual scene and computer equipment
KR20180026919A (en) System for augmented reality or virtual reality
US11294452B2 (en) Electronic device and method for providing content based on the motion of the user
CN113289336A (en) Method, apparatus, device and medium for tagging items in a virtual environment
JP6227732B1 (en) Method and apparatus for supporting input in virtual space, and program causing computer to execute the method
CN108744511A (en) Gun sight display methods, equipment and storage medium in virtual environment
JP5797046B2 (en) Pointing system, information processing system, coordinate system setting method, information processing apparatus, and information processing program
US20180314330A1 (en) Haptic device linked with augmented reality or virtual reality implementation device
KR102402457B1 (en) Method for processing contents and electronic device implementing the same
CN112755517A (en) Virtual object control method, device, terminal and storage medium
JP2018049629A (en) Method and device for supporting input in virtual space and program for causing computer to execute the method
KR20170038461A (en) Emotional robot system using a smart device and the method for controlling operation modes