Nothing Special   »   [go: up one dir, main page]

KR20220112095A - Object tracking apparatus, object tracking, recording medium recording program performing the same - Google Patents

Object tracking apparatus, object tracking, recording medium recording program performing the same Download PDF

Info

Publication number
KR20220112095A
KR20220112095A KR1020210015651A KR20210015651A KR20220112095A KR 20220112095 A KR20220112095 A KR 20220112095A KR 1020210015651 A KR1020210015651 A KR 1020210015651A KR 20210015651 A KR20210015651 A KR 20210015651A KR 20220112095 A KR20220112095 A KR 20220112095A
Authority
KR
South Korea
Prior art keywords
tag
group
information
dimensional space
objects
Prior art date
Application number
KR1020210015651A
Other languages
Korean (ko)
Other versions
KR102587926B1 (en
Inventor
이한빈
박재일
홍 민 트루엉
권오란
Original Assignee
(주)서울로보틱스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)서울로보틱스 filed Critical (주)서울로보틱스
Priority to KR1020210015651A priority Critical patent/KR102587926B1/en
Publication of KR20220112095A publication Critical patent/KR20220112095A/en
Application granted granted Critical
Publication of KR102587926B1 publication Critical patent/KR102587926B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/66Tracking systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/50Systems of measurement based on relative movement of target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/491Details of non-pulse systems
    • G01S7/493Extracting wanted echo signals

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

An object tracking apparatus includes: a sensor unit acquiring information on a 3D space based on light received as a response to emitting light into the 3D space; a memory storing one or more commands; and a processor. The processor identifies objects in the 3D space from the acquired information on the 3D space by executing the one or more commands, classifies the identified objects into a plurality of groups based on reflexibility of the received light, and tracks an object of a group selected among the plurality of groups.

Description

객체 추적 장치, 객체 추적 방법 및 이를 수행하는 프로그램을 기록한 기록매체{OBJECT TRACKING APPARATUS, OBJECT TRACKING, RECORDING MEDIUM RECORDING PROGRAM PERFORMING THE SAME}Object tracking device, object tracking method, and recording medium recording the program performing the same

객체 추적 장치, 객체 추적 방법 및 이를 수행하는 프로그램을 기록한 기록매체에 관한 것이다.It relates to an object tracking apparatus, an object tracking method, and a recording medium recording a program for performing the same.

라이다(Light Detection And Ranging, LiDAR) 기술과 같은 센싱 기술의 발전에 따라, 최근 다양한 산업 기술 분야에 센싱 기술이 접목된 첨단 제어 기능들이 나타나고 있다. 자율주행차의 상용화가 가까워짐에 따라, 라이다 기술도 빠르게 발전하고 있다.With the development of sensing technology such as LiDAR (Light Detection And Ranging, LiDAR) technology, advanced control functions in which sensing technology is grafted are recently appearing in various industrial technology fields. As the commercialization of autonomous vehicles approaches, lidar technology is also developing rapidly.

라이다는 3차원 공간의 객체에 광을 방출한 후 반사된 광을 수신하여, 이로부터 3차원 공간에 대한 정보를 획득하는 기술이다. 라이다는 카메라 이미지 센서처럼 컬러를 인지할 수 없으나, 멀리 있는 물체까지 감지할 수 있고, 뛰어난 공간 분해능을 가지고 있다.LiDAR is a technology that emits light to an object in a 3D space and then receives the reflected light, and obtains information about the 3D space therefrom. Lidar cannot perceive color like a camera image sensor, but it can detect distant objects and has excellent spatial resolution.

센서를 이용하여 획득한 공간 정보를 광의 반사율에 기초하여 복수의 그룹들로 분류하여 객체를 추적하는데 이용하는 객체 추적 장치, 객체 추적 방법 및 이를 수행하는 프로그램을 기록한 기록매체를 제공하는 것이다.To provide an object tracking apparatus, an object tracking method, and a recording medium recording a program for performing the object tracking method, and an object tracking method used to track an object by classifying spatial information obtained using a sensor into a plurality of groups based on the reflectance of light.

제1 측면에 따른 객체 추적 방법은, 3차원 공간에 광을 방출한 것에 대한 응답으로 수신된 광에 기초하여 3차원 공간에 대한 정보를 획득하는 단계; 상기 획득된 3차원 공간에 대한 정보로부터 상기 3차원 공간상의 객체들을 식별하는 단계; 상기 수신된 광의 반사율에 기초하여, 상기 식별된 객체들을 복수의 그룹들로 분류하는 단계; 및 상기 복수의 그룹들 중 선택된 그룹의 객체를 추적하는 단계를 포함하고, 상기 복수의 그룹들은 역반사 물질이 포함된 태그를 가지는 객체에 대응되는 제1 그룹과 상기 태그를 가지지 않는 객체에 대응되는 제2 그룹을 포함한다.An object tracking method according to a first aspect includes: acquiring information about a three-dimensional space based on light received in response to emitting light in the three-dimensional space; identifying objects in the 3D space from the obtained 3D space information; classifying the identified objects into a plurality of groups based on the reflectance of the received light; and tracking an object of a selected group from among the plurality of groups, wherein the plurality of groups correspond to a first group corresponding to an object having a tag including a retroreflective material and an object not having the tag a second group.

제2 측면에 따른 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체는, 3차원 공간에 광을 방출한 것에 대한 응답으로 수신된 광에 기초하여 3차원 공간에 대한 정보를 획득하는 명령어들; 상기 획득된 3차원 공간에 대한 정보로부터 상기 3차원 공간상의 객체들을 식별하는 명령어들; 상기 수신된 광의 반사율에 기초하여, 상기 식별된 객체들을 복수의 그룹들로 분류하는 명령어들; 및 상기 복수의 그룹들 중 선택된 그룹의 객체를 추적하는 명령어들을 포함하고, 상기 복수의 그룹들은 역반사 물질이 포함된 태그를 가지는 객체에 대응되는 제1 그룹과 상기 태그를 가지지 않는 객체에 대응되는 제2 그룹을 포함한다.A computer-readable recording medium recording a program for execution by a computer according to the second aspect is an instruction for obtaining information about a three-dimensional space based on light received in response to emitting light in the three-dimensional space field; instructions for identifying objects in the three-dimensional space from the obtained information on the three-dimensional space; instructions for classifying the identified objects into a plurality of groups based on the reflectance of the received light; and instructions for tracking an object of a selected group from among the plurality of groups, wherein the plurality of groups correspond to a first group corresponding to an object having a tag including a retroreflective material and an object not having the tag a second group.

제3 측면에 따른 객체 추적 장치는, 3차원 공간에 광을 방출한 것에 대한 응답으로 수신된 광에 기초하여 3차원 공간에 대한 정보를 획득하는 센서부; 하나 이상의 명령어들을 저장하는 메모리; 및 상기 하나 이상의 명령어들을 실행함으로써, 상기 획득된 3차원 공간에 대한 정보로부터 상기 3차원 공간상의 객체들을 식별하고, 상기 수신된 광의 반사율에 기초하여, 상기 식별된 객체들을 복수의 그룹들로 분류하며, 상기 복수의 그룹들 중 선택된 그룹의 객체를 추적하는 프로세서를 포함하고, 상기 복수의 그룹들은 역반사 물질이 포함된 태그를 가지는 객체에 대응되는 제1 그룹과 상기 태그를 가지지 않는 객체에 대응되는 제2 그룹을 포함한다.An object tracking apparatus according to a third aspect includes: a sensor unit configured to obtain information on a three-dimensional space based on light received in response to light emission in the three-dimensional space; a memory storing one or more instructions; and by executing the one or more instructions, identify objects in the three-dimensional space from the obtained information on the three-dimensional space, and classify the identified objects into a plurality of groups based on the reflectance of the received light; , a processor for tracking an object of a selected group from among the plurality of groups, wherein the plurality of groups correspond to a first group corresponding to an object having a tag including a retroreflective material and an object not having the tag a second group.

도 1은 객체 추적 장치가 사용되는 제1 환경을 설명하기 위한 도면이다.
도 2는 객체 추적 장치가 사용되는 제2 환경을 설명하기 위한 도면이다.
도 3은 일 실시예에 따른 객체 추적 장치의 구성 및 동작을 설명하기 위한 도면이다.
도 4는 일 실시예에 따른 서버의 구성 및 동작을 설명하기 위한 도면이다.
도 5는 일 실시예에 따른 객체 추적 방법을 설명하기 위한 흐름도이다.
도 6은 다른 실시예에 따른 객체 추적 방법을 설명하기 위한 흐름도이다.
도 7은 식별된 객체를 추적하는 프로세스를 설명하기 위한 상세 흐름도이다.
1 is a diagram for explaining a first environment in which an object tracking device is used.
2 is a diagram for explaining a second environment in which an object tracking device is used.
3 is a diagram for explaining the configuration and operation of an object tracking apparatus according to an embodiment.
4 is a diagram for explaining the configuration and operation of a server according to an embodiment.
5 is a flowchart illustrating an object tracking method according to an embodiment.
6 is a flowchart illustrating an object tracking method according to another embodiment.
7 is a detailed flowchart illustrating a process for tracking an identified object.

이하에서는 도면을 참조하여 다양한 실시예들을 상세히 설명한다. 실시예들의 특징을 보다 명확히 설명하기 위하여 이하의 실시예들이 속하는 기술분야에서 통상의 지식을 가진 자에게 널리 알려져 있는 사항들에 관해서 자세한 설명은 생략한다.Hereinafter, various embodiments will be described in detail with reference to the drawings. In order to more clearly describe the features of the embodiments, detailed descriptions of matters widely known to those of ordinary skill in the art to which the following embodiments belong will be omitted.

한편, 본 명세서에서 어떤 구성이 다른 구성과 "연결"되어 있다고 할 때, 이는 '직접적으로 연결'되어 있는 경우뿐 아니라, '그 중간에 다른 구성을 사이에 두고 연결'되어 있는 경우도 포함한다. 또한, 어떤 구성이 다른 구성을 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한, 그 외 다른 구성을 제외하는 것이 아니라 다른 구성들 더 포함할 수도 있다는 것을 의미한다.On the other hand, in the present specification, when a component is "connected" with another component, it includes not only a case of 'directly connected' but also a case of 'connected with another component interposed therebetween'. In addition, when a component "includes" another component, it means that other components may be further included, rather than excluding other components, unless otherwise stated.

또한, 본 명세서에서 사용되는 '제 1' 또는 '제 2' 등과 같이 서수를 포함하는 용어는 다양한 구성 요소들을 설명하는데 사용할 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만 사용된다. Also, terms including an ordinal number such as 'first' or 'second' used in this specification may be used to describe various elements, but the elements should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from another.

본 실시예들은 객체 추적 장치, 객체 추적 방법 및 이를 수행하는 프로그램을 기록한 기록매체에 관한 것으로서 이하의 실시예들이 속하는 기술 분야에서 통상의 지식을 가진 자에게 널리 알려져 있는 사항들에 관해서는 자세한 설명을 생략한다.The present embodiments relate to an object tracking apparatus, an object tracking method, and a recording medium recording a program for performing the same, and detailed descriptions are given for matters widely known to those of ordinary skill in the art to which the following embodiments belong. omit

도 1은 객체 추적 장치(100)가 사용되는 제1 환경을 설명하기 위한 도면이다.1 is a view for explaining a first environment in which the object tracking apparatus 100 is used.

객체 추적 장치(100)는 공간 정보를 획득할 수 있는 센싱 장치로서, 적어도 하나의 센서를 포함할 수 있다. 객체 추적 장치(100)는 3차원 공간에 광을 방출하고, 이에 대한 응답으로 수신된 광에 기초하여 3차원 공간에 대한 정보를 획득할 수 있다. 객체 추적 장치(100)는 실내 또는 실외에서, 관심 영역에 해당하는 공간 또는 가능한 넓은 공간을 감지할 수 있는 곳에 위치할 수 있다. 예를 들어, 도 1에서와 같이, 전자 제품 판매점의 경우, 전자 제품들이 전시되어 있는 실내 공간의 천정 중앙부에 객체 추적 장치(100)를 설치할 수 있다. The object tracking apparatus 100 is a sensing device capable of acquiring spatial information and may include at least one sensor. The object tracking apparatus 100 may emit light in the 3D space, and in response thereto may acquire information on the 3D space based on the received light. The object tracking apparatus 100 may be located indoors or outdoors, in a place capable of detecting a space corresponding to the ROI or as wide as possible. For example, as shown in FIG. 1 , in the case of an electronic product retailer, the object tracking apparatus 100 may be installed in the center of the ceiling of an indoor space in which electronic products are displayed.

객체 추적 장치(100)는 라이다(Light Detection and Ranging) 센서를 구비할 수 있으며, 필요에 따라, 레이더(radar) 센서, 적외선 영상 센서, 초음파 센서 등과 같은 다양한 종류의 센서를 더 포함할 수도 있다. 객체 추적 장치(100)는 3차원 공간에 대한 정보를 획득하기 위해, 각 종류의 센서가 가지고 있는 감지 범위나 획득할 수 있는 데이터의 종류 등을 고려하여, 동종의 센서를 복수 개 이용하거나, 이종의 센서들을 조합하여 이용할 수도 있다. The object tracking apparatus 100 may include a light detection and ranging sensor, and, if necessary, may further include various types of sensors such as a radar sensor, an infrared image sensor, an ultrasonic sensor, and the like. . The object tracking apparatus 100 uses a plurality of sensors of the same type or different It is also possible to use a combination of the sensors of

라이다 센서는 3차원 공간의 객체들의 컬러를 감지할 수 없으나, 형태, 크기, 위치를 감지할 수 있다. 즉, 라이다 센서는 객체의 컬러나 텍스쳐를 감지할 수 없지만, 객체의 대략적인 형태와 크기를 비교적 먼거리까지 확인할 수 있어, 프라이버시 침해와 같은 문제로부터 자유롭고, 객체의 대략적인 형태와 크기를 활용할 수 있는 분야에 적합하다. 예를 들어, 라이다 센서는 자율 주행, 교통 흐름 추적 등의 분야에 활용될 수 있다.The lidar sensor cannot detect the color of objects in 3D space, but can detect the shape, size, and position. In other words, although the lidar sensor cannot detect the color or texture of an object, it can check the approximate shape and size of an object from a relatively long distance, so it is free from problems such as invasion of privacy and can utilize the approximate shape and size of the object. suitable for the field For example, the lidar sensor may be used in fields such as autonomous driving and traffic flow tracking.

이와 같은 라이다 센서를 사람과 같은 움직이는 객체의 추적에 활용하면, 움직임의 패턴이나 행동을 분석할 수 있어, 운용의 효율성을 높이거나, 작업자와 같은 사람을 모니터링하여 안전 문제 등을 해결할 수 있다. 다만, 앞서 설명한 바와 같이, 객체의 대략적인 형태와 크기, 위치는 확인할 수 있으나, 컬러를 확인할 수 없으므로, 비슷한 외형을 가진 객체들이 있는 곳에서 이들을 구별하여야 할 필요가 있는 경우, 조치가 필요하다. 이하, 역반사 물질이 도포된 태그를 이용하여, 비슷한 외형을 가진 객체들을 구분하여 추적하는 기술에 대해 설명한다.If such a lidar sensor is used to track a moving object such as a person, it is possible to analyze a movement pattern or behavior, thereby increasing the efficiency of operation or solving a safety problem by monitoring a person such as a worker. However, as described above, although the approximate shape, size, and position of the object can be confirmed, the color cannot be confirmed. Therefore, if it is necessary to distinguish objects with similar appearances, measures are required. Hereinafter, a technique for distinguishing and tracking objects having similar appearances using a tag coated with a retroreflective material will be described.

도 1을 참조하면, 전자 제품 판매점에 여러 사람이 있는 상황을 확인할 수 있다. 전자 제품 판매점의 관리자는 최적의 광고 및 제품 배치를 통해 더 많은 제품을 팔고, 고객에게 더 좋은 서비스를 제공하기 위해, 고객이 어떤 동선으로 움직였는지, 어떤 제품 앞에서 많은 시간을 할애하였는지, 제일 많은 고객들이 구경한 제품이 무엇이었는지 등을 알 필요가 있다. 이때, 전자 제품 판매점의 직원은 고객이 아니기 때문에, 추적해야 하는 객체에서 제외될 수 있어야 한다. 라이다의 경우, 고객의 프라이버시 침해 문제는 발생하지 않으나, 이와 같이, 고객이 아닌 직원을 고객과 구별하기가 어렵기 때문에, 별도의 조치가 필요하다. Referring to FIG. 1 , a situation in which several people are present at an electronic product store may be identified. In order to sell more products and provide better service to customers through optimal advertisement and product placement, the manager of an electronic product store determines how customers move, what products they spend a lot of time in, and the number of customers. They need to know what products they have seen, etc. At this time, since the employee of the electronic product store is not a customer, it should be able to be excluded from the object to be tracked. In the case of LiDAR, there is no problem of invasion of customer privacy, but since it is difficult to distinguish non-customer employees from customers, separate measures are required.

고객은 관리자의 지시를 따를 의무가 없는 비협력 객체인 반면, 직원은 관리자의 지시를 따르는 협력 객체이다. 라이다 센서로 두 종류의 객체를 구분하기 위해, 협력 객체인 직원에게 라이다 센서가 감지할 수 있는 태그를 부착할 수 있다. 태그는 라이다 센서에서 구별하여 감지할 수 있는 소정의 물질, 예를 들어, 역반사 물질이 도포된 명판(name plate), 뱃지(badge), 라벨(label), 끈, 의류, 및 모자 중 어느 하나의 형태일 수 있으나, 이에 제한되는 것은 아니다. A customer is a non-cooperating entity that is not obligated to follow a manager's instructions, whereas an employee is a collaborating entity that follows the manager's instructions. In order to distinguish between the two types of objects with the lidar sensor, a tag that can be detected by the lidar sensor may be attached to an employee who is a collaborating object. A tag is a predetermined material that can be distinguished and detected by a lidar sensor, for example, a name plate, a badge, a label, a string, clothing, and a hat coated with a retroreflective material. It may be in one form, but is not limited thereto.

라이다 센서는 광을 방출하고 반사되 광을 수신하는데, 일반적으로, 객체까지의 거리와 수신된 광의 인텐시티(intensity)는 2차 관계(quadratic relationship)에 있다. 반면, 역반사 물질은 라이다 센서에서 방출하는 광을 입사각에 관계없이 그대로 라이다 센서로 반사시키기 때문에, 객체까지의 거리와 수신된 광의 인텐시티는 선형 관계를 가진다. 따라서, 역반사 물질이 도포된 태그가 있는 협력 개체(직원)와 태그가 없는 비협력 객체(고객)를 라이다를 이용하여 감지하면, 태그에 의해 반사된 광의 인텐시티가 다르기 때문에, 다시 말해, 수신된 광의 반사율이 다르기 때문에, 태그는 협력 객체와 비협력 객체를 구분할 수 있는 마커 역할을 할 수 있다. A lidar sensor emits light and receives reflected light, in general, the distance to an object and the intensity of the received light have a quadratic relationship. On the other hand, since the retroreflective material reflects the light emitted from the LIDAR sensor to the LIDAR sensor as it is regardless of the incident angle, the distance to the object and the intensity of the received light have a linear relationship. Therefore, when a tagged collaborating object (employee) and an untagged non-cooperating object (customer) with a retroreflective material applied thereto are detected using lidar, the intensities of the light reflected by the tag are different, in other words, the reception Since the reflectance of the emitted light is different, the tag can serve as a marker that can distinguish between a cooperative object and a non-cooperative object.

도 1을 참조하면, 전자 제품 판매점 내의 다섯 명 중 두 명의 직원이 명판 또는 뱃지, 라벨 형태의 태그를 몸에 부착하고 있는 것을 확인할 수 있다. 객체 추적 장치(100)는 라이다 센서를 이용하여, 전자 제품 판매점 내의 3차원 공간에 대한 정보를 획득할 수 있다. 객체 추적 장치(100)는 라이다 센서를 이용하여 획득한 3차원 공간에 대한 정보를 객체 별로 클러스터링한 후, 태그에 의해 반사된 광을 포함하는 객체 정보를 제거함으로써, 고객에 해당하는 비협력 객체의 객체 정보를 획득할 수 있다. 이와 같은 방식으로, 라이다 센서를 통해 획득한 3차원 공간에 대한 정보 중 협력 객체의 객체 정보를 제거한, 비협력 객체의 객체 정보를 활용하면, 노이즈 없이, 고객의 움직임의 패턴이나 행동을 정확히 분석할 수 있어, 전자 제품 판매점의 운용의 효율성을 높일 수 있는 방안을 마련하는 토대가 될 수 있다.Referring to FIG. 1 , it can be seen that two of five employees in an electronic product store are attaching a tag in the form of a name plate, badge, or label to their body. The object tracking apparatus 100 may obtain information on a three-dimensional space in an electronic product store by using a lidar sensor. The object tracking apparatus 100 clusters the information on the three-dimensional space obtained by using the lidar sensor for each object, and then removes the object information including the light reflected by the tag, so that the non-cooperative object corresponding to the customer of object information can be obtained. In this way, if the object information of the non-cooperating object is used in the 3D space information obtained through the lidar sensor, the object information of the cooperative object is removed, the pattern or behavior of the customer's movement is accurately analyzed without noise. This can serve as a basis for preparing a plan to increase the efficiency of the operation of electronic product stores.

도 2는 객체 추적 장치(100)가 사용되는 제2 환경을 설명하기 위한 도면이다.2 is a diagram for explaining a second environment in which the object tracking apparatus 100 is used.

도 2는 도 1의 제1 환경과 달리, 협력 객체의 객체 정보를 활용하여야 하는 예를 설명하기 위한 일 예이다. 공사장과 같은 환경에서는 안전을 위해, 작업자와 같은 사람을 모니터링하는 것이 중요하다. 이를 위해, 공사장의 관리자의 지시를 따르는 공사 작업자들은 협력 객체로서, 역반사 물질이 도포된 태그로써, 모자나 헬멧, 조끼, 겉옷, 신발 등을 착용할 수 있다. FIG. 2 is an example for explaining an example in which object information of a cooperation object should be utilized, unlike the first environment of FIG. 1 . In an environment such as a construction site, it is important to monitor people such as workers for safety. To this end, construction workers following the instructions of the construction site manager may wear a hat, helmet, vest, outerwear, shoes, etc. as a cooperative object, a tag coated with a retroreflective material.

도 2를 참조하면, 공사장의 다섯 명의 작업자들은 역반사 물질이 도포된 헬멧 또는 조끼, 상의를 착용하고 있는 것을 확인할 수 있다. 객체 추적 장치(100)는 라이다 센서를 이용하여, 공사장의 3차원 공간에 대한 정보를 획득할 수 있다. 객체 추적 장치(100)는 라이다 센서를 이용하여 획득한 3차원 공간에 대한 정보를 객체 별로 클러스터링한 후, 태그에 의해 반사된 광을 포함하는 객체 정보를 선택함으로써, 공사장 작업자들에 해당하는 협력 객체의 객체 정보를 획득할 수 있다. 이와 같은 방식으로, 라이다 센서를 통해 획득한 3차원 공간에 대한 정보 중 협력 객체의 객체 정보를 활용하면, 작업자들의 움직임이나 행동을 모니터링할 수 있어, 작업자의 안전 문제 등을 해결할 수 있다. 예를 들어, 작업자가 위험한 곳으로 이동하거나 움직임이 예상되는 지역이 아닌 곳에서 작업자의 움직임이 모니터링되는 경우, 경고 방송을 하거나 관리자의 단말기로 상황을 알려줄 수 있다.Referring to FIG. 2 , it can be seen that five workers at the construction site are wearing helmets, vests, and tops coated with retroreflective materials. The object tracking apparatus 100 may obtain information about a three-dimensional space of a construction site by using a lidar sensor. The object tracking apparatus 100 clusters the information on the three-dimensional space obtained by using the lidar sensor for each object, and then selects object information including the light reflected by the tag, thereby cooperating corresponding to the construction site workers. It is possible to obtain object information of an object. In this way, by utilizing the object information of the cooperative object among the information about the three-dimensional space obtained through the lidar sensor, the movement or behavior of the workers can be monitored, so that the safety problem of the workers can be solved. For example, when the operator moves to a dangerous place or the movement of the operator is monitored in a place other than an area where the movement is expected, a warning broadcast may be broadcast or the situation may be notified to the manager's terminal.

도 3은 일 실시예에 따른 객체 추적 장치(100)의 구성 및 동작을 설명하기 위한 도면이다.3 is a diagram for explaining the configuration and operation of the object tracking apparatus 100 according to an embodiment.

도 3을 참조하면, 일 실시예에 따른 객체 추적 장치(100)는 메모리(110), 프로세서(120), 센서부(130), 통신 인터페이스 장치(140)를 포함할 수 있다. 본 실시예와 관련된 기술분야에서 통상의 지식을 가진 자라면 도 3에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 더 포함될 수 있음을 알 수 있다.Referring to FIG. 3 , the object tracking apparatus 100 according to an embodiment may include a memory 110 , a processor 120 , a sensor unit 130 , and a communication interface device 140 . Those of ordinary skill in the art related to the present embodiment can see that other general-purpose components other than those shown in FIG. 3 may be further included.

메모리(110)는 소프트웨어 및/또는 프로그램을 저장할 수 있다. 메모리(110)는 프로세서(120)에 의해 실행 가능한 명령어들을 저장할 수 있다. The memory 110 may store software and/or programs. The memory 110 may store instructions executable by the processor 120 .

프로세서(120)는 메모리(110)에 저장된 데이터에 접근하여 이를 이용하거나, 또는 새로운 데이터를 메모리(110)에 저장할 수 있다. 프로세서(120)는 메모리(110)에 저장된 명령어들을 실행할 수 있다. 프로세서(120)는 객체 추적 장치(100)에 설치된 컴퓨터 프로그램을 실행할 수 있다. 또한, 프로세서(120)는 외부로부터 수신한 컴퓨터 프로그램 또는 애플리케이션을 메모리(110)에 저장하고 실행시킬 수 있다. 프로세서(120)는 적어도 하나의 프로세싱 모듈을 포함할 수 있다. 예를 들어, 프로세서(120)는 3차원 공간에서 객체를 추적하는 객체 추적 프로그램을 실행하는 프로세싱 모듈을 전용 프로세싱 모듈 형태로 포함할 수 있다. 프로세서(120)는 명령어 또는 컴퓨터 프로그램 등의 실행 결과에 대응되는 동작을 수행하도록 객체 추적 장치(100)에 포함된 다른 구성들을 제어할 수 있다. The processor 120 may access and use data stored in the memory 110 , or store new data in the memory 110 . The processor 120 may execute instructions stored in the memory 110 . The processor 120 may execute a computer program installed in the object tracking device 100 . In addition, the processor 120 may store and execute a computer program or application received from the outside in the memory 110 . The processor 120 may include at least one processing module. For example, the processor 120 may include a processing module executing an object tracking program for tracking an object in a three-dimensional space in the form of a dedicated processing module. The processor 120 may control other components included in the object tracking apparatus 100 to perform an operation corresponding to an execution result such as an instruction or a computer program.

센서부(130)는 3차원 공간을 감지하기 위한 적어도 하나의 센서를 포함할 수 있다. 센서부(130)는 3차원 공간에 광을 방출하는 발광부와 광을 수신하는 수광부를 포함할 수 있으며, 수광부에 수신된 광의 세기에 기초하여 3차원 공간에 대한 정보를 획득하는 전용 프로세싱 모듈을 더 포함할 수 있다. 센서부(130)는 감지 범위 내에 위치한 객체에 대한 형상 데이터 또는 거리 데이터를 획득할 수 있다. The sensor unit 130 may include at least one sensor for sensing a 3D space. The sensor unit 130 may include a light emitting unit that emits light in a three-dimensional space and a light receiving unit that receives light, and a dedicated processing module for obtaining information about the three-dimensional space based on the intensity of the light received by the light receiving unit. may include more. The sensor unit 130 may acquire shape data or distance data for an object located within a detection range.

센서부(130)는 라이다(Light Detection and Ranging) 센서일 수 있으며, 적어도 하나의 3차원 라이다 센서를 포함하여 360도 범위의 공간에 대한 데이터를 획득할 수 있다. 센서부(130)는 환경에 따라, 레이더(radar) 센서, 적외선 영상 센서, 초음파 센서 등과 같은 다양한 종류의 센서를 더 포함할 수도 있다. 예를 들어, 센서부(130)는 레이더 센서 및 초음파 센서 중 적어도 하나를 더 포함하여 라이다 센서가 감지할 수 없는 사각 영역 또는 객체 추적 장치(100)로부터 소정의 거리 내의 근접 공간에 대한 데이터를 획득할 수 있다.The sensor unit 130 may be a LiDAR (Light Detection and Ranging) sensor, and may acquire data for a 360-degree space including at least one 3D LiDAR sensor. The sensor unit 130 may further include various types of sensors, such as a radar sensor, an infrared image sensor, and an ultrasonic sensor, depending on the environment. For example, the sensor unit 130 may further include at least one of a radar sensor and an ultrasonic sensor to receive data on a blind area that cannot be detected by the lidar sensor or a proximity space within a predetermined distance from the object tracking apparatus 100 . can be obtained

통신 인터페이스 장치(140)는 다른 장치 또는 네트워크와 유무선 통신을 수행할 수 있다. 이를 위해, 통신 인터페이스 장치(140)는 다양한 유무선 통신 방법 중 적어도 하나를 지원하는 통신 모듈을 포함할 수 있다. 예를 들어, RFID(Radio Frequency Identification), NFC(Near Field Communication), 블루투스(Bluetooth)와 같은 근거리 통신, 다양한 종류의 무선 통신 또는 동축 케이블이나 광케이블 등을 이용하는 유선 통신을 수행하는 통신 모듈이 포함될 수 있다. 통신 인터페이스 장치(140)는 객체 추적 장치(100)의 외부에 위치한 장치와 연결되어 신호 또는 데이터를 송수신할 수 있다. 객체 추적 장치(100)는 통신 인터페이스 장치(140)를 통해 관리자의 단말 장치와 통신을 수행하거나, 객체 추적 장치(100)가 위치하는 구역을 관리하는 서버와도 연결될 수 있다.The communication interface device 140 may perform wired/wireless communication with other devices or networks. To this end, the communication interface device 140 may include a communication module supporting at least one of various wired and wireless communication methods. For example, a communication module that performs short-distance communication such as RFID (Radio Frequency Identification), NFC (Near Field Communication), Bluetooth, various types of wireless communication, or wired communication using a coaxial cable or optical cable, etc. may be included. have. The communication interface device 140 may be connected to a device located outside the object tracking device 100 to transmit/receive signals or data. The object tracking device 100 may communicate with a terminal device of a manager through the communication interface device 140 or may be connected to a server that manages an area in which the object tracking device 100 is located.

상기한 구성에 따른 일 예의 프로세서(120)는 메모리(110)에 저장된 하나 이상의 명령어들을 실행함으로써, 센서부(130)에서 획득된 3차원 공간에 대한 정보로부터 상기 3차원 공간상의 객체들을 식별할 수 있다. 프로세서(120)는 획득된 3차원 공간에 대한 정보를 클러스터링하고 객체 분류 모델을 이용하여 서로 다른 객체들로 식별할 수 있다. 이와 같이 식별된 객체들 각각은 서로 구별될 수 있도록 서로 다른 객체 식별 정보가 각각 태깅될 수 있다. 더 나아가, 태그가 식별되는 경우, 프로세서(120)는 식별된 객체들 중에서 태그의 종류, 모양, 및 개수 중 적어도 하나에 기초하여, 식별된 객체들을 더 상세히 구분하여 식별할 수 있다. An example of the processor 120 according to the above configuration executes one or more instructions stored in the memory 110 , so that objects in the three-dimensional space can be identified from the information on the three-dimensional space obtained from the sensor unit 130 . have. The processor 120 may cluster the obtained 3D space information and identify different objects using an object classification model. Each of the identified objects may be tagged with different object identification information to be distinguished from each other. Furthermore, when the tag is identified, the processor 120 may further classify and identify the identified objects based on at least one of a type, shape, and number of tags among the identified objects.

프로세서(120)는 수신된 광의 반사율에 기초하여, 식별된 객체들을 복수의 그룹들로 분류할 수 있다. 센서부(130)의 발광부가 소정의 광을 3차원 공간에 균일하게 방출한다고 하더라도, 센서부(130)의 수광부는 반사율이 서로 다른 광을 객체들로부터 수신할 수 있다. 광의 반사율은 객체의 표면의 성질에 따라 달라질 수 있으며, 프로세서(120)는 수신된 광의 인텐시티에 기초하여, 소정의 기준 이상의 반사율을 가지는 광을 구별할 수 있다. 복수의 그룹들은 역반사 물질이 포함된 태그를 가지는 객체에 대응되는 제1 그룹과 태그를 가지지 않는 객체에 대응되는 제2 그룹을 포함할 수 있다. 제1 그룹은 태그에 의해 소정의 기준 이상의 반사율을 가지는 광을 반사하는 객체에 대응되고, 제2 그룹은 소정의 기준 미만의 반사율만을 가지는 광을 반사하는 객체에 대응될 수 있다.The processor 120 may classify the identified objects into a plurality of groups based on the reflectance of the received light. Even if the light emitting unit of the sensor unit 130 uniformly emits a predetermined light in a three-dimensional space, the light receiving unit of the sensor unit 130 may receive light having different reflectivities from objects. The reflectance of the light may vary depending on the property of the surface of the object, and the processor 120 may distinguish light having a reflectance greater than or equal to a predetermined reference based on the intensity of the received light. The plurality of groups may include a first group corresponding to an object having a tag including a retroreflective material and a second group corresponding to an object having no tag. The first group may correspond to an object that reflects light having a reflectance greater than or equal to a predetermined standard by the tag, and the second group may correspond to an object that reflects light having only a reflectance lower than a predetermined reference.

이와 같이 분류된 그룹들 각각은 서로 구별될 수 있도록 서로 다른 그룹 식별 정보가 각각 태깅될 수 있다. 이에 따라, 서로 다른 그룹 식별 정보가 태깅된 복수의 그룹들은 범주화(categorization)될 수 있고, 데이터 분석 시, 일부 그룹의 3차원 공간에 대한 정보가 필터링될 수 있다. 또는, 일부 그룹에 대해서만 그룹 식별 정보가 태깅될 수도 있다. 이에 따라, 그룹 식별 정보가 태깅된 그룹의 3차원 공간에 대한 정보가 필터링되거나, 복수의 그룹들 중 그룹 식별 정보가 태깅된 그룹을 제외한 그룹의 3차원 공간에 대한 정보가 필터링될 수 있다.Each of the groups classified as described above may be tagged with different group identification information to be distinguished from each other. Accordingly, a plurality of groups to which different group identification information is tagged may be categorized, and information on the 3D space of some groups may be filtered during data analysis. Alternatively, group identification information may be tagged only for some groups. Accordingly, information on the 3D space of the group to which the group identification information is tagged may be filtered, or information on the 3D space of the group excluding the group to which the group identification information is tagged among a plurality of groups may be filtered.

각각의 객체는 그룹 식별 정보와 객체 식별 정보를 가짐으로써, 그룹 식별 정보에 의해, 역반사 물질이 도포된 태그를 가지는 객체인지 분류될 수 있고, 객체 식별 정보에 의해, 같은 그룹 내의 다른 객체들과 구분될 수 있다.By having group identification information and object identification information, each object can be classified as an object having a tag to which a retroreflective material is applied, by group identification information, and by object identification information, with other objects in the same group can be distinguished.

프로세서(120)는 복수의 그룹들 중 선택된 그룹의 객체를 추적할 수 있다. 복수의 그룹들 중 적어도 하나의 그룹이 선택될 수 있다. 예를 들어, 제1 그룹과 제2 그룹으로 분류된 경우, 제1 그룹을 선택하거나, 제2 그룹을 선택하거나, 또는 제1 그룹과 제2 그룹 모두를 선택할 수도 있다. 선택될 그룹에 대한 정보는 미리 설정되어 있거나, 통신 인터페이스 장치(140) 또는 사용자 인터페이스 장치(미도시)를 통한 외부의 입력에 따라 설정될 수 있다. 프로세서(120)는 복수의 그룹들 중 선택된 그룹의 객체의 위치 정보를 누적하여, 식별된 객체의 움직임을 추적하고, 추적된 움직임에 기초하여, 식별된 객체의 움직임 패턴을 분석할 수 있다.The processor 120 may track an object of a selected group among a plurality of groups. At least one group from among the plurality of groups may be selected. For example, when classified into the first group and the second group, the first group may be selected, the second group may be selected, or both the first group and the second group may be selected. Information on the group to be selected may be preset or may be set according to an external input through the communication interface device 140 or the user interface device (not shown). The processor 120 may accumulate location information of an object of a selected group from among a plurality of groups, track a movement of the identified object, and analyze a movement pattern of the identified object based on the tracked movement.

상기한 구성에 따른 다른 예의 프로세서(120)는 메모리(110)에 저장된 하나 이상의 명령어들을 실행함으로써, 센서부(130)에서 획득된 3차원 공간에 대한 정보를 수신된 광의 반사율에 기초하여 복수의 그룹들로 분류할 수 있다. 프로세서(120)는 3차원 공간에 대한 정보를 객체 별로 클러스터링한 후, 소정의 기준 이상의 반사율을 가지는 광을 찾아낼 수 있다. 예를 들어, 복수의 그룹들은 역반사 물질이 포함된 태그를 가지는 객체에 대응되는 제1 그룹과 태그를 가지지 않는 객체에 대응되는 제2 그룹을 포함할 수 있다. 제1 그룹은 태그에 의해 소정의 기준 이상의 반사율을 가지는 광을 반사하는 객체에 대응되고, 제2 그룹은 소정의 기준 미만의 반사율만을 가지는 광을 반사하는 객체에 대응될 수 있다. The processor 120 of another example according to the above configuration executes one or more instructions stored in the memory 110 , thereby receiving information on the 3D space obtained from the sensor unit 130 in a plurality of groups based on the reflectance of the received light. can be classified into After clustering the information on the 3D space for each object, the processor 120 may find light having a reflectance greater than or equal to a predetermined reference. For example, the plurality of groups may include a first group corresponding to an object having a tag including a retroreflective material and a second group corresponding to an object having no tag. The first group may correspond to an object that reflects light having a reflectance greater than or equal to a predetermined standard by the tag, and the second group may correspond to an object that reflects light having only a reflectance lower than a predetermined reference.

이와 같이 분류된 그룹들 각각은 서로 구별될 수 있도록 서로 다른 그룹 식별 정보가 각각 태깅될 수 있다.Each of the groups classified as described above may be tagged with different group identification information to be distinguished from each other.

프로세서(120)는 복수의 그룹들 중 선택된 그룹의 3차원 공간에 대한 정보를 이용하여, 3차원 공간상의 객체를 식별할 수 있다. 복수의 그룹들 중 적어도 하나의 그룹이 선택될 수 있으며, 선택될 그룹에 대한 정보는 미리 설정되어 있거나, 통신 인터페이스 장치(140) 또는 사용자 인터페이스 장치(미도시)를 통한 외부의 입력에 따라 설정될 수 있다. 프로세서(120)는 복수의 그룹들 중 적어도 하나의 그룹의 3차원 공간에 대한 정보를 이용할 수 있다. 예를 들어, 제1 그룹과 제2 그룹으로 분류된 경우, 제1 그룹으로 태깅된 3차원 공간에 대한 정보를 이용하여 3차원 공간상의 객체를 식별하거나, 제2 그룹으로 태깅된 3차원 공간에 대한 정보를 이용하여 3차원 공간상의 객체를 식별할 수 있다. 또는, 제1 그룹과 제2 그룹 모두에 대해서 3차원 공간상의 객체를 식별할 수도 있다.The processor 120 may identify an object in the 3D space by using information on the 3D space of the selected group from among the plurality of groups. At least one group may be selected from among the plurality of groups, and information on the group to be selected may be preset or set according to an external input through the communication interface device 140 or the user interface device (not shown). can The processor 120 may use information about the 3D space of at least one group among the plurality of groups. For example, when classified into the first group and the second group, an object in the 3D space is identified using information on the 3D space tagged as the first group, or an object in the 3D space tagged as the second group is identified. An object in a three-dimensional space can be identified using the information about the object. Alternatively, an object in a 3D space may be identified for both the first group and the second group.

제2 그룹으로 태깅된 3차원 공간에 대한 정보를 이용하여 3차원 공간상의 객체를 식별하는 경우, 객체 분류 모델을 이용하여, 서로 다른 객체로 구분하여 식별할 수 있다. 한편, 제1 그룹으로 태깅된 3차원 공간에 대한 정보를 이용하여 3차원 공간상의 객체를 식별하는 경우, 객체 분류 모델을 이용하는 방식 뿐만 아니라, 역반사 물질이 포함된 태그의 종류, 모양, 및 개수 중 적어도 하나에 기초하여, 서로 다른 객체로 구분하여 식별할 수 있다.When an object in the 3D space is identified using the information on the 3D space tagged as the second group, the object classification model may be used to classify and identify different objects. On the other hand, when identifying an object in a 3D space using information about the 3D space tagged as the first group, the type, shape, and number of tags including retroreflective materials as well as a method using an object classification model Based on at least one of the objects, different objects may be distinguished and identified.

이와 같이 식별된 객체들 각각은 서로 구별될 수 있도록 서로 다른 객체 식별 정보가 각각 태깅될 수 있다. 각각의 객체는 그룹 식별 정보와 객체 식별 정보를 가짐으로써, 그룹 식별 정보에 의해, 역반사 물질이 도포된 태그를 가지는 객체인지 분류될 수 있고, 객체 식별 정보에 의해, 같은 그룹 내의 다른 객체들과 구분될 수 있다.Each of the identified objects may be tagged with different object identification information to be distinguished from each other. By having group identification information and object identification information, each object can be classified as an object having a tag to which a retroreflective material is applied, by group identification information, and by object identification information, with other objects in the same group can be distinguished.

프로세서(120)는 식별된 객체를 추적할 수 있다. 프로세서(120)는 식별된 적어도 하나의 객체를 포함하는 감지된 3차원 공간을 추적할 수 있다. 프로세서(120)는 감지된 3차원 공간 내의 식별된 적어도 하나의 객체의 종류, 3차원 형상, 위치, 자세, 사이즈, 궤적, 및 속도 중 적어도 하나의 속성 정보를 판단하여 3차원 공간을 추적할 수 있다. 프로세서(120)는 식별된 객체의 위치 정보를 누적하여, 식별된 객체의 움직임을 추적하고, 추적된 움직임에 기초하여, 식별된 객체의 움직임 패턴을 분석할 수 있다. The processor 120 may track the identified object. The processor 120 may track the sensed 3D space including the identified at least one object. The processor 120 may track the three-dimensional space by determining attribute information of at least one of a type, a three-dimensional shape, a position, a posture, a size, a trajectory, and a speed of at least one identified object in the sensed three-dimensional space. have. The processor 120 may accumulate location information of the identified object, track the movement of the identified object, and analyze a movement pattern of the identified object based on the tracked movement.

한편, 태그를 가지는 객체임에도 불구하고 태그가 감지되지 않은 경우, 예를 들어, 태그가 가려졌거나 센서부(130)에서 획득된 3차원 공간에 대한 정보의 밀도가 낮아 태그가 감지되지 못한 경우, 프로세서(120)는 획득된 3차원 공간에 대한 정보를 제2 그룹으로 분류하여, 제2 그룹에 대응되는 제2 그룹 식별 정보를 부여할 수 있다. 이후, 프로세서(120)는 태그가 인식된 때부터, 인식된 태그를 가지는 객체에 대응되는 3차원 공간에 대한 정보를 다시 제1 그룹으로 분류하고, 제2 그룹 식별 정보를 제1 그룹에 대응되는 제1 그룹 식별 정보로 업데이트 할 수 있다.On the other hand, when the tag is not detected despite the object having the tag, for example, when the tag is not detected because the tag is hidden or the density of the 3D space information obtained from the sensor unit 130 is low, the processor 120 classifies the obtained 3D space information into a second group, and provides second group identification information corresponding to the second group. Thereafter, from the time when the tag is recognized, the processor 120 classifies the information on the 3D space corresponding to the object having the recognized tag into the first group again, and divides the second group identification information into the first group. It can be updated with the first group identification information.

한편, 태그가 전자 태그 칩을 포함하는 형태인 경우, 프로세서(120)는 통신 인터페이스 장치(140)를 이용하여 근거리 통신을 통해 객체 추적 장치(100)로부터 소정의 거리 내의 태그를 인식하고, 인식된 태그를 가지는 객체에 대응되는 3차원 공간에 대한 정보를 제1 그룹으로 분류할 수 있다. 예를 들어, 태그가 역반사 물질이 도포된 'RFID 태그'인 경우, 센서부(130)가 태그를 감지하지 못하더라도, 프로세서(120)는 RFID 통신 모듈을 포함한 통신 인터페이스 장치(140)를 통해 태그를 인식할 수 있다. 프로세서(120)는 인식된 태그를 가지는 객체에 대응되는 3차원 공간에 대한 정보를 제1 그룹으로 분류하여, 제1 그룹에 대응되는 제1 그룹 식별 정보를 부여할 수 있다.On the other hand, when the tag includes an electronic tag chip, the processor 120 recognizes a tag within a predetermined distance from the object tracking device 100 through short-distance communication using the communication interface device 140 and recognizes the recognized tag. Information on a 3D space corresponding to an object having a tag may be classified into a first group. For example, if the tag is an 'RFID tag' coated with a retroreflective material, even if the sensor unit 130 does not detect the tag, the processor 120 performs the communication interface device 140 including the RFID communication module. tags can be recognized. The processor 120 may classify information on a 3D space corresponding to an object having a recognized tag into a first group, and may provide first group identification information corresponding to the first group.

한편, 프로세서(120)는 추적된 3차원 공간에 관련된 정보를 통신 인터페이스 장치(140)를 통해 외부로 전송할 수 있다.Meanwhile, the processor 120 may transmit information related to the tracked 3D space to the outside through the communication interface device 140 .

도 4는 일 실시예에 따른 서버(200)의 구성 및 동작을 설명하기 위한 도면이다. 서버(200)는 컴퓨팅 디바이스, 오퍼레이터, 콘솔 장치 등으로 대체될 수 있다.4 is a diagram for explaining the configuration and operation of the server 200 according to an embodiment. The server 200 may be replaced by a computing device, an operator, a console device, or the like.

앞서 설명한 바와 같이, 객체 추적 장치(100)는 3차원 공간에 대한 정보를 이용하여 3차원 공간상의 객체를 식별 및 복수의 그룹으로 분류하고, 식별된 객체를 추적하는 프로세서를 탑재하는 임베디드 기기 형태일 수 있으나, 이에 한정되는 것은 아니다. 객체 추적 장치(100)는 획득한 3차원 공간에 대한 정보를 객체 추적 서비스를 제공하는 서버(200)로 전송하여, 3차원 공간에 대한 정보를 이용하여 3차원 공간상의 객체를 식별 및 복수의 그룹으로 분류하는 일련의 프로세싱을 서버(200)에서 처리하도록 할 수 있다. 객체 추적 장치(100)에서 획득한 3차원 공간에 대한 데이터는 익명성이 보장되므로, 서버(200)로 전송되어 처리되어도 프라이버시 침해 문제가 발생하지 않는다.As described above, the object tracking device 100 identifies and classifies objects in a three-dimensional space into a plurality of groups using information about the three-dimensional space, and is in the form of an embedded device equipped with a processor for tracking the identified objects. However, the present invention is not limited thereto. The object tracking apparatus 100 transmits the acquired information on the 3D space to the server 200 that provides the object tracking service, and uses the information on the 3D space to identify an object in the 3D space and a plurality of groups A series of processing classified as can be processed by the server 200 . Since the data for the three-dimensional space obtained by the object tracking device 100 is anonymized, there is no privacy infringement problem even if it is transmitted to the server 200 and processed.

서버(200)는 클라우드 컴퓨팅과 같은 기술로 구현될 수 있다. 서버(200)는 객체 추적 장치(100)와 고속의 데이터 통신을 수행할 수 있다.The server 200 may be implemented with a technology such as cloud computing. The server 200 may perform high-speed data communication with the object tracking apparatus 100 .

도 4를 참조하면, 서버(200)는 메모리(210), 프로세서(220), 통신 인터페이스 장치(230)를 포함할 수 있다. 본 실시예와 관련된 기술분야에서 통상의 지식을 가진 자라면 도 4에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 더 포함될 수 있음을 알 수 있다. 앞서, 객체 추적 장치(100)에 대하여 설명한 내용은 이하 생략된 내용이라 하더라도, 서버(200)의 동일한 명칭의 구성에 대해서 그대로 적용될 수 있다.Referring to FIG. 4 , the server 200 may include a memory 210 , a processor 220 , and a communication interface device 230 . Those of ordinary skill in the art related to the present embodiment can see that other general-purpose components other than the components shown in FIG. 4 may be further included. Previously, the description of the object tracking apparatus 100 may be applied to the configuration of the server 200 with the same name, even if omitted below.

도 4의 블록도의 각 구성요소는 서버(200)의 구현 방식에 따라 분리, 추가, 또는 생략될 수 있다. 즉, 구현 방식에 따라 하나의 구성요소가 2 이상의 구성요소로 세분화되거나, 2 이상의 구성요소가 하나의 구성요소로 합쳐질 수도 있고, 일부 구성요소가 더 추가되거나 제거될 수 있다. Each component of the block diagram of FIG. 4 may be separated, added, or omitted according to an implementation method of the server 200 . That is, one component may be subdivided into two or more components, two or more components may be combined into one component, and some components may be further added or removed depending on the implementation method.

메모리(210)는 프로세서(220)에 의해 실행 가능한 명령어들을 저장할 수 있다. 메모리(210)는 소프트웨어 또는 프로그램을 저장할 수 있다. The memory 210 may store instructions executable by the processor 220 . The memory 210 may store software or a program.

프로세서(220)는 메모리(210)에 저장된 명령어들을 실행할 수 있다. 프로세서(220)는 서버(200)의 전반적인 제어를 수행할 수 있다. 프로세서(220)는 통신 인터페이스 장치(230)를 통해 수신되는 정보 및 요청 사항을 획득하고, 수신되는 정보를 스토리지(미도시)에 저장할 수 있다. 또한, 프로세서(220)는 수신되는 정보를 가공할 수 있다. 예를 들어, 프로세서(220)는 객체 추적 장치(100)로부터 수신되는 정보로부터 객체 추적에 이용되는 정보를 획득하거나, 수신되는 정보들을 관리하기 위한 가공행위를 수행하여, 스토리지(미도시)에 저장할 수 있다. 또한, 프로세서(220)는 관리자의 단말로부터 획득된 요청 사항에 대한 응답으로써, 스토리지(미도시)에 저장된 데이터 또는 정보를 이용하여, 통신 인터페이스 장치(230)를 통해 관리자의 단말에 객체 추적 서비스를 제공하기 위한 정보를 전송할 수 있다.The processor 220 may execute instructions stored in the memory 210 . The processor 220 may perform overall control of the server 200 . The processor 220 may obtain information and a request received through the communication interface device 230 , and store the received information in a storage (not shown). In addition, the processor 220 may process the received information. For example, the processor 220 obtains information used for object tracking from information received from the object tracking device 100 or performs a processing operation for managing the received information to be stored in storage (not shown). can In addition, the processor 220 provides an object tracking service to the manager's terminal through the communication interface device 230 using data or information stored in storage (not shown) as a response to the request obtained from the manager's terminal. Information to provide can be transmitted.

통신 인터페이스 장치(230)는 다른 장치 또는 네트워크와 유무선 통신을 수행할 수 있다. 통신 인터페이스 장치(230)는 서버(200)의 외부에 위치한 장치와 연결되어 신호 또는 데이터를 송수신할 수 있다. 서버(200)는 통신 인터페이스 장치(230)를 통해 객체 추적 장치(100)와 통신을 수행하거나, 네트워크로 연결된 다른 서버와도 연결될 수 있다. 예를 들어, 서버(200)는 통신 인터페이스 장치(230)를 통해 객체 추적 장치(100)로부터 3차원 공간에 대한 데이터를 획득할 수 있다.The communication interface device 230 may perform wired/wireless communication with other devices or networks. The communication interface device 230 may be connected to a device located outside the server 200 to transmit/receive signals or data. The server 200 may communicate with the object tracking device 100 through the communication interface device 230 or may be connected to another server connected through a network. For example, the server 200 may obtain data on the 3D space from the object tracking device 100 through the communication interface device 230 .

스토리지(미도시)는 서버(200)가 객체 추적 서비스를 제공하기 위해 필요한 각종 소프트웨어 및 정보들을 저장할 수 있다. 예를 들어, 스토리지(미도시)는 서버(200)에서 실행되는 프로그램, 애플리케이션, 및 충전 서비스에 이용되는 각종 데이터 또는 정보를 저장할 수 있다. The storage (not shown) may store various types of software and information necessary for the server 200 to provide an object tracking service. For example, the storage (not shown) may store various data or information used in programs, applications, and charging services executed in the server 200 .

서버(200)는 부하 분산 서버와 충전 서비스를 제공하는 기능 서버들로 구성될 수 있다. 서버(200)는 기능별로 나눠진 복수의 서버들로 구성되거나, 하나로 통합된 형태의 서버가 될 수도 있다. The server 200 may be composed of a load balancing server and functional servers that provide a charging service. The server 200 may be composed of a plurality of servers divided by function, or may be an integrated server.

도 5는 일 실시예에 따른 객체 추적 방법을 설명하기 위한 흐름도이다. 이상에서 객체 추적 장치(100)에 대하여 설명한 내용과 중복되는 내용에 대해서는 이하 그 상세한 설명을 생략한다.5 is a flowchart illustrating an object tracking method according to an embodiment. A detailed description of the content overlapping with the content described with respect to the object tracking apparatus 100 in the above will be omitted below.

510 단계에서, 객체 추적 장치(100)는 3차원 공간에 광을 방출한 것에 대한 응답으로 수신된 광에 기초하여 3차원 공간에 대한 정보를 획득할 수 있다.In operation 510, the object tracking apparatus 100 may obtain information on the 3D space based on the light received in response to the emission of the light in the 3D space.

520 단계에서, 객체 추적 장치(100)는 획득된 3차원 공간에 대한 정보로부터 3차원 공간상의 객체들을 식별할 수 있다. 객체 추적 장치(100)는 획득된 3차원 공간에 대한 정보를 클러스터링하고 객체 분류 모델을 이용하여 서로 다른 객체들로 식별할 수 있다. 태그가 식별되는 경우, 객체 추적 장치(100)는 식별된 객체들 중에서 태그의 종류, 모양, 및 개수 중 적어도 하나에 기초하여, 제1 그룹에 대응되는 객체들을 더 상세히 구분하여 식별할 수 있다.In operation 520, the object tracking apparatus 100 may identify objects in the 3D space from the obtained information on the 3D space. The object tracking apparatus 100 may cluster the obtained 3D space information and identify different objects using an object classification model. When the tag is identified, the object tracking apparatus 100 may classify and identify the objects corresponding to the first group in more detail based on at least one of the type, shape, and number of the tag among the identified objects.

530 단계에서, 객체 추적 장치(100)는 수신된 광의 반사율에 기초하여, 식별된 객체들을 복수의 그룹들로 분류할 수 있다. 복수의 그룹들은 역반사 물질이 포함된 태그를 가지는 객체에 대응되는 제1 그룹과 태그를 가지지 않는 객체에 대응되는 제2 그룹을 포함할 수 있다. 제1 그룹은 태그에 의해 소정의 기준 이상의 반사율을 가지는 광을 반사하는 객체에 대응되고, 제2 그룹은 소정의 기준 미만의 반사율만을 가지는 광을 반사하는 객체에 대응될 수 있다.In operation 530, the object tracking apparatus 100 may classify the identified objects into a plurality of groups based on the reflectance of the received light. The plurality of groups may include a first group corresponding to an object having a tag including a retroreflective material and a second group corresponding to an object having no tag. The first group may correspond to an object that reflects light having a reflectance greater than or equal to a predetermined standard by the tag, and the second group may correspond to an object that reflects light having only a reflectance lower than a predetermined reference.

540 단계에서, 객체 추적 장치(100)는 복수의 그룹들 중 선택된 그룹의 객체를 추적할 수 있다.In operation 540, the object tracking apparatus 100 may track an object of a group selected from among a plurality of groups.

도 6은 다른 실시예에 따른 객체 추적 방법을 설명하기 위한 흐름도이다. 이상에서 객체 추적 장치(100)에 대하여 설명한 내용과 중복되는 내용에 대해서는 이하 그 상세한 설명을 생략한다.6 is a flowchart illustrating an object tracking method according to another embodiment. A detailed description of the content overlapping with the content described with respect to the object tracking apparatus 100 in the above will be omitted below.

610 단계에서, 객체 추적 장치(100)는 3차원 공간에 광을 방출한 것에 대한 응답으로 수신된 광에 기초하여 3차원 공간에 대한 정보를 획득할 수 있다.In operation 610, the object tracking apparatus 100 may obtain information on the 3D space based on the light received in response to the emission of the light in the 3D space.

620 단계에서, 객체 추적 장치(100)는 획득된 3차원 공간에 대한 정보를 수신된 광의 반사율에 기초하여 복수의 그룹들로 분류할 수 있다. 복수의 그룹들은 역반사 물질이 포함된 태그를 가지는 객체에 대응되는 제1 그룹과 태그를 가지지 않는 객체에 대응되는 제2 그룹을 포함할 수 있다. 제1 그룹은 태그에 의해 소정의 기준 이상의 반사율을 가지는 광을 반사하는 객체에 대응되고, 제2 그룹은 소정의 기준 미만의 반사율만을 가지는 광을 반사하는 객체에 대응될 수 있다.In operation 620, the object tracking apparatus 100 may classify the obtained information on the 3D space into a plurality of groups based on the reflectance of the received light. The plurality of groups may include a first group corresponding to an object having a tag including a retroreflective material and a second group corresponding to an object having no tag. The first group may correspond to an object that reflects light having a reflectance greater than or equal to a predetermined standard by the tag, and the second group may correspond to an object that reflects light having only a reflectance lower than a predetermined reference.

630 단계에서, 객체 추적 장치(100)는 복수의 그룹들 중 선택된 그룹의 3차원 공간에 대한 정보를 이용하여, 3차원 공간상의 객체를 식별할 수 있다. In operation 630, the object tracking apparatus 100 may identify the object in the 3D space by using the information on the 3D space of the selected group from among the plurality of groups.

객체 추적 장치(100)는 제2 그룹으로 태깅된 3차원 공간에 대한 정보를 이용하여 3차원 공간상의 객체를 식별하는 경우, 객체 분류 모델을 이용하여, 서로 다른 객체로 구분하여 식별할 수 있다. 객체 추적 장치(100)는 제1 그룹으로 태깅된 3차원 공간에 대한 정보를 이용하여 3차원 공간상의 객체를 식별하는 경우, 역반사 물질이 포함된 태그의 종류, 모양, 및 개수 중 적어도 하나에 기초하여, 서로 다른 객체로 구분하여 식별할 수 있다.When the object tracking apparatus 100 identifies an object in the 3D space by using the information on the 3D space tagged as the second group, the object tracking apparatus 100 may classify and identify different objects using the object classification model. When the object tracking apparatus 100 identifies an object in a 3D space using the information on the 3D space tagged as the first group, the object tracking device 100 determines at least one of the type, shape, and number of the tag including the retroreflective material. Based on this, it can be distinguished and identified as different objects.

640 단계에서, 객체 추적 장치(100)는 식별된 객체를 추적할 수 있다. In operation 640, the object tracking apparatus 100 may track the identified object.

도 7은 식별된 객체를 추적하는 프로세스를 설명하기 위한 상세 흐름도이다.7 is a detailed flowchart illustrating a process for tracking an identified object.

앞서 설명한 도 5 의 540 단계 또는 도 6의 640 단계를 상세히 설명한다.Step 540 of FIG. 5 or step 640 of FIG. 6 described above will be described in detail.

710 단계에서, 객체 추적 장치(100)는 선택된 그룹의 식별된 객체의 위치 정보를 누적하여, 식별된 객체의 움직임을 추적할 수 있다. 더 나아가, 객체 추적 장치(100)는 누적된 위치 정보에 기초하여, 식별된 객체의 움직임을 예상할 수도 있다. In operation 710 , the object tracking apparatus 100 may track the movement of the identified object by accumulating location information of the identified object of the selected group. Furthermore, the object tracking apparatus 100 may predict the movement of the identified object based on the accumulated location information.

720 단계에서, 객체 추적 장치(100)는 추적된 움직임에 기초하여, 식별된 객체의 움직임 패턴을 분석할 수 있다. 예를 들어, 객체 추적 장치(100)는 움직임 패턴에서 일정한 규칙이 발견되면, 공간의 레이아웃을 조정하거나 제품 배치를 달리하여 운용의 효율성을 높일 수 있다. 또한, 객체 추적 장치(100)는 예측을 벗어난 객체의 움직임이 발생하는 경우를 확인하여, 안전 사고가 나지 않도록 조치를 취하여, 안전 문제 등을 해결할 수 있다.In operation 720, the object tracking apparatus 100 may analyze a movement pattern of the identified object based on the tracked movement. For example, when a certain rule is found in the movement pattern, the object tracking apparatus 100 may adjust the layout of the space or change the arrangement of products to increase operational efficiency. In addition, the object tracking apparatus 100 may check a case where an out-of-prediction object movement occurs, take measures to prevent a safety accident, and solve a safety problem.

상술한 실시예들 각각은 객체 추적 방법을 수행하는 소정의 단계들을 실행시키기 위하여, 매체에 저장된 컴퓨터 프로그램 또는 애플리케이션 형태로 제공될 수 있다. 다시 말해서, 상술한 실시예들 각각은 서버의 적어도 하나의 프로세서로 하여금, 객체 추적 방법을 수행하는 소정의 단계들을 수행하도록 하는, 매체에 저장된 컴퓨터 프로그램 또는 애플리케이션 형태로 제공될 수 있다. Each of the above-described embodiments may be provided in the form of a computer program or application stored in a medium in order to execute predetermined steps for performing the object tracking method. In other words, each of the above-described embodiments may be provided in the form of a computer program or application stored in a medium, which causes at least one processor of the server to perform predetermined steps for performing the object tracking method.

상술한 실시예들은 컴퓨터 또는 프로세서에 의하여 실행 가능한 명령어 및 데이터를 저장하는 컴퓨터 판독 가능 저장매체의 형태로 구현될 수 있다. 명령어 및 데이터 중 적어도 하나는 프로그램 코드의 형태로 저장될 수 있으며, 프로세서에 의해 실행되었을 때, 소정의 프로그램 모듈을 생성하여 소정의 동작을 수행할 수 있다. 이와 같은 컴퓨터 판독 가능 저장매체는 read-only memory (ROM), random-access memory (RAM), flash memory, CD-ROMs, CD-Rs, CD+Rs, CD-RWs, CD+RWs, DVD-ROMs, DVD-Rs, DVD+Rs, DVD-RWs, DVD+RWs, DVD-RAMs, BD-ROMs, BD-Rs, BD-R LTHs, BD-REs, 마그네틱 테이프, 플로피 디스크, 광자기 데이터 저장 장치, 광학 데이터 저장 장치, 하드 디스크, 솔리드-스테이트 디스크(SSD), 그리고 명령어 또는 소프트웨어, 관련 데이터, 데이터 파일, 및 데이터 구조들을 저장할 수 있고, 프로세서나 컴퓨터가 명령어를 실행할 수 있도록 프로세서나 컴퓨터에 명령어 또는 소프트웨어, 관련 데이터, 데이터 파일, 및 데이터 구조들을 제공할 수 있는 어떠한 장치라도 될 수 있다. The above-described embodiments may be implemented in the form of a computer-readable storage medium that stores instructions and data executable by a computer or processor. At least one of the instructions and data may be stored in the form of a program code, and when executed by the processor, a predetermined program module may be generated to perform a predetermined operation. Such computer-readable storage media include read-only memory (ROM), random-access memory (RAM), flash memory, CD-ROMs, CD-Rs, CD+Rs, CD-RWs, CD+RWs, DVD-ROMs. , DVD-Rs, DVD+Rs, DVD-RWs, DVD+RWs, DVD-RAMs, BD-ROMs, BD-Rs, BD-R LTHs, BD-REs, magnetic tapes, floppy disks, magneto-optical data storage devices, optical data storage devices, hard disks, solid-state disks (SSDs), and may store instructions or software, associated data, data files, and data structures, and may store instructions or It can be any device capable of providing software, associated data, data files, and data structures.

이제까지 실시예들을 중심으로 살펴보았다. 개시된 실시예들이 속하는 기술 분야에서 통상의 지식을 가진 자는 개시된 실시예들이 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 발명의 범위는 전술한 실시예들의 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 발명의 범위에 포함된 것으로 해석되어야 할 것이다.So far, examples have been mainly looked at. Those of ordinary skill in the art to which the disclosed embodiments pertain will understand that the disclosed embodiments can be implemented in modified forms without departing from the essential characteristics. Therefore, the disclosed embodiments are to be considered in an illustrative rather than a restrictive sense. The scope of the invention is indicated in the claims rather than the description of the above-described embodiments, and all differences within an equivalent range should be construed as being included in the scope of the invention.

Claims (15)

3차원 공간에 광을 방출한 것에 대한 응답으로 수신된 광에 기초하여 3차원 공간에 대한 정보를 획득하는 단계;
상기 획득된 3차원 공간에 대한 정보로부터 상기 3차원 공간상의 객체들을 식별하는 단계;
상기 수신된 광의 반사율에 기초하여, 상기 식별된 객체들을 복수의 그룹들로 분류하는 단계; 및
상기 복수의 그룹들 중 선택된 그룹의 객체를 추적하는 단계를 포함하고,
상기 복수의 그룹들은 역반사 물질이 포함된 태그를 가지는 객체에 대응되는 제1 그룹과 상기 태그를 가지지 않는 객체에 대응되는 제2 그룹을 포함하는, 객체 추적 방법.
obtaining information on the three-dimensional space based on the light received in response to the emission of the light into the three-dimensional space;
identifying objects in the 3D space from the obtained 3D space information;
classifying the identified objects into a plurality of groups based on the reflectance of the received light; and
tracking an object of a selected group among the plurality of groups;
The plurality of groups includes a first group corresponding to an object having a tag including a retroreflective material and a second group corresponding to an object not having the tag, the object tracking method.
제1 항에 있어서,
상기 제1 그룹은 상기 태그에 의해 소정의 기준 이상의 반사율을 가지는 광을 반사하는 객체에 대응되고, 상기 제2 그룹은 상기 소정의 기준 미만의 반사율만을 가지는 광을 반사하는 객체에 대응되는, 객체 추적 방법.
The method of claim 1,
The first group corresponds to an object reflecting light having a reflectivity greater than or equal to a predetermined standard by the tag, and the second group corresponds to an object reflecting light having only a reflectance lower than the predetermined reference, object tracking Way.
제1 항에 있어서,
상기 3차원 공간상의 객체를 식별하는 단계는,
상기 획득된 3차원 공간에 대한 정보를 클러스터링하고 객체 분류 모델을 이용하여 서로 다른 객체들로 식별하는, 객체 추적 방법.
The method of claim 1,
The step of identifying the object in the three-dimensional space,
An object tracking method for clustering the obtained three-dimensional space information and identifying different objects using an object classification model.
제3 항에 있어서,
상기 3차원 공간상의 객체를 식별하는 단계는,
상기 식별된 객체들 중에서 상기 태그의 종류, 모양, 및 개수 중 적어도 하나에 기초하여, 상기 제1 그룹에 대응되는 객체들을 구분하여 식별하는, 객체 추적 방법.
4. The method of claim 3,
The step of identifying the object in the three-dimensional space,
An object tracking method for classifying and identifying objects corresponding to the first group based on at least one of a type, a shape, and a number of the tag among the identified objects.
제1 항에 있어서,
상기 태그는 상기 역반사 물질이 도포된 명판(name plate), 뱃지(badge), 라벨(label), 끈, 의류, 및 모자 중 어느 하나의 형태인, 객체 추적 방법.
The method of claim 1,
The tag is in the form of any one of a name plate, a badge, a label, a string, clothing, and a hat to which the retroreflective material is applied.
제1 항에 있어서,
상기 추적하는 단계는,
상기 선택된 그룹의 객체의 위치 정보를 누적하여, 상기 식별된 객체의 움직임을 추적하는 단계; 및
상기 추적된 움직임에 기초하여, 상기 식별된 객체의 움직임 패턴을 분석하는 단계;를 포함하는, 객체 추적 방법.
The method of claim 1,
The tracking step is
accumulating location information of the objects of the selected group to track the movement of the identified objects; and
Based on the tracked movement, analyzing the movement pattern of the identified object; Containing, object tracking method.
제1 항에 있어서,
상기 태그가 전자 태그 칩을 포함하는 형태인 경우,
근거리 통신을 통해 객체 추적 장치로부터 소정의 거리 내의 상기 태그를 인식하는 단계를 더 포함하고,
상기 복수의 그룹들로 분류하는 단계는,
상기 인식된 태그를 가지는 객체를 상기 제1 그룹으로 분류하는, 객체 추적 방법.
The method of claim 1,
When the tag includes an electronic tag chip,
Further comprising the step of recognizing the tag within a predetermined distance from the object tracking device through short-range communication,
The step of classifying into the plurality of groups comprises:
Classifying the object having the recognized tag into the first group, an object tracking method.
3차원 공간에 광을 방출한 것에 대한 응답으로 수신된 광에 기초하여 3차원 공간에 대한 정보를 획득하는 명령어들;
상기 획득된 3차원 공간에 대한 정보로부터 상기 3차원 공간상의 객체들을 식별하는 명령어들;
상기 수신된 광의 반사율에 기초하여, 상기 식별된 객체들을 복수의 그룹들로 분류하는 명령어들; 및
상기 복수의 그룹들 중 선택된 그룹의 객체를 추적하는 명령어들을 포함하고,
상기 복수의 그룹들은 역반사 물질이 포함된 태그를 가지는 객체에 대응되는 제1 그룹과 상기 태그를 가지지 않는 객체에 대응되는 제2 그룹을 포함하는, 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
instructions for obtaining information on the three-dimensional space based on the light received in response to the emission of the light into the three-dimensional space;
instructions for identifying objects in the three-dimensional space from the obtained information on the three-dimensional space;
instructions for classifying the identified objects into a plurality of groups based on the reflectance of the received light; and
including instructions for tracking an object of a selected group among the plurality of groups,
The plurality of groups may include a first group corresponding to an object having a tag including a retroreflective material and a second group corresponding to an object not having the tag. recorded media.
3차원 공간에 광을 방출한 것에 대한 응답으로 수신된 광에 기초하여 3차원 공간에 대한 정보를 획득하는 센서부;
하나 이상의 명령어들을 저장하는 메모리; 및
상기 하나 이상의 명령어들을 실행함으로써, 상기 획득된 3차원 공간에 대한 정보로부터 상기 3차원 공간상의 객체들을 식별하고, 상기 수신된 광의 반사율에 기초하여, 상기 식별된 객체들을 복수의 그룹들로 분류하며, 상기 복수의 그룹들 중 선택된 그룹의 객체를 추적하는 프로세서를 포함하고,
상기 복수의 그룹들은 역반사 물질이 포함된 태그를 가지는 객체에 대응되는 제1 그룹과 상기 태그를 가지지 않는 객체에 대응되는 제2 그룹을 포함하는, 객체 추적 장치.
a sensor unit configured to acquire information on the three-dimensional space based on the light received in response to the emission of the light into the three-dimensional space;
a memory that stores one or more instructions; and
by executing the one or more instructions, identify objects in the three-dimensional space from the obtained information about the three-dimensional space, and classify the identified objects into a plurality of groups based on the reflectance of the received light, a processor for tracking an object of a selected group among the plurality of groups;
The plurality of groups includes a first group corresponding to an object having a tag including a retroreflective material and a second group corresponding to an object not having the tag, the object tracking device.
제9 항에 있어서,
상기 제1 그룹은 상기 태그에 의해 소정의 기준 이상의 반사율을 가지는 광을 반사하는 객체에 대응되고, 상기 제2 그룹은 상기 소정의 기준 미만의 반사율만을 가지는 광을 반사하는 객체에 대응되는, 객체 추적 장치.
10. The method of claim 9,
The first group corresponds to an object reflecting light having a reflectivity greater than or equal to a predetermined standard by the tag, and the second group corresponds to an object reflecting light having only a reflectance lower than the predetermined reference, object tracking Device.
제9 항에 있어서,
상기 프로세서는 상기 하나 이상의 명령어들을 실행함으로써, 상기 획득된 3차원 공간에 대한 정보를 클러스터링하고 객체 분류 모델을 이용하여 서로 다른 객체들로 식별하는, 객체 추적 장치.
10. The method of claim 9,
By executing the one or more instructions, the processor clusters the obtained three-dimensional space information and identifies different objects using an object classification model.
제11 항에 있어서,
상기 프로세서는 상기 하나 이상의 명령어들을 실행함으로써, 상기 식별된 객체들 중에서 상기 태그의 종류, 모양, 및 개수 중 적어도 하나에 기초하여, 상기 제1 그룹에 대응되는 객체들을 구분하여 식별하는, 객체 추적 장치.
12. The method of claim 11,
The processor by executing the one or more instructions, based on at least one of the type, shape, and number of the tag among the identified objects, to distinguish and identify objects corresponding to the first group, object tracking device .
제9 항에 있어서,
상기 태그는 상기 역반사 물질이 도포된 명판(name plate), 뱃지(badge), 라벨(label), 끈, 의류, 및 모자 중 어느 하나의 형태인, 객체 추적 장치.
10. The method of claim 9,
The tag is in the form of any one of a name plate, a badge, a label, a string, clothing, and a hat to which the retroreflective material is applied.
제9 항에 있어서,
상기 프로세서는 상기 하나 이상의 명령어들을 실행함으로써, 상기 선택된 그룹의 객체의 위치 정보를 누적하여, 상기 식별된 객체의 움직임을 추적하고, 상기 추적된 움직임에 기초하여, 상기 식별된 객체의 움직임 패턴을 분석하는, 객체 추적 장치.
10. The method of claim 9,
The processor, by executing the one or more instructions, accumulates position information of the objects of the selected group, tracks the movement of the identified object, and analyzes the movement pattern of the identified object based on the tracked movement which is an object tracking device.
제9 항에 있어서,
통신 인터페이스 장치를 더 포함하고,
상기 태그가 전자 태그 칩을 포함하는 형태인 경우,
상기 프로세서는 상기 하나 이상의 명령어들을 실행함으로써, 상기 통신 인터페이스 장치를 이용하여 근거리 통신을 통해 객체 추적 장치로부터 소정의 거리 내의 상기 태그를 인식하고, 상기 인식된 태그를 가지는 객체를 상기 제1 그룹으로 분류하는, 객체 추적 장치.

10. The method of claim 9,
Further comprising a communication interface device,
When the tag includes an electronic tag chip,
The processor recognizes the tag within a predetermined distance from the object tracking device through short-distance communication using the communication interface device by executing the one or more instructions, and classifies the object having the recognized tag into the first group which is an object tracking device.

KR1020210015651A 2021-02-03 2021-02-03 Object tracking apparatus, object tracking, recording medium recording program performing the same KR102587926B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210015651A KR102587926B1 (en) 2021-02-03 2021-02-03 Object tracking apparatus, object tracking, recording medium recording program performing the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210015651A KR102587926B1 (en) 2021-02-03 2021-02-03 Object tracking apparatus, object tracking, recording medium recording program performing the same

Publications (2)

Publication Number Publication Date
KR20220112095A true KR20220112095A (en) 2022-08-10
KR102587926B1 KR102587926B1 (en) 2023-10-12

Family

ID=82847037

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210015651A KR102587926B1 (en) 2021-02-03 2021-02-03 Object tracking apparatus, object tracking, recording medium recording program performing the same

Country Status (1)

Country Link
KR (1) KR102587926B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120019661A (en) * 2010-08-26 2012-03-07 아주대학교산학협력단 Robot and method of tracing object
KR20170010808A (en) * 2014-05-21 2017-02-01 유니버셜 시티 스튜디오스 엘엘씨 Ride vehicle tracking and control system using passive tracking elements
KR20190127624A (en) * 2019-10-31 2019-11-13 충북대학교 산학협력단 Apparatus and method for detecting object based on density using lidar sensor

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120019661A (en) * 2010-08-26 2012-03-07 아주대학교산학협력단 Robot and method of tracing object
KR20170010808A (en) * 2014-05-21 2017-02-01 유니버셜 시티 스튜디오스 엘엘씨 Ride vehicle tracking and control system using passive tracking elements
KR20190127624A (en) * 2019-10-31 2019-11-13 충북대학교 산학협력단 Apparatus and method for detecting object based on density using lidar sensor

Also Published As

Publication number Publication date
KR102587926B1 (en) 2023-10-12

Similar Documents

Publication Publication Date Title
US7567179B2 (en) Configuration management system and method for use in an RFID system including a multiplicity of RFID readers
Liu et al. Mining frequent trajectory patterns for activity monitoring using radio frequency tag arrays
US8615254B2 (en) Target localization utilizing wireless and camera sensor fusion
US10262331B1 (en) Cross-channel in-store shopper behavior analysis
US9762976B2 (en) Systems and methods for detecting patterns in spatio-temporal data collected using an RFID system
WO2012024516A2 (en) Target localization utilizing wireless and camera sensor fusion
US11830274B2 (en) Detection and identification systems for humans or objects
US10521627B2 (en) RFID module for through boundary location accuracy
US20170315208A1 (en) Joint Entity and Object Tracking Using an RFID and Detection Network
US11354683B1 (en) Method and system for creating anonymous shopper panel using multi-modal sensor fusion
CN102282594A (en) System and method for detection of eas marker shielding
US11080881B2 (en) Detection and identification systems for humans or objects
US20240192366A1 (en) Method and sensing device for monitoring region of interest in workspace
AU2020428822A1 (en) Method, apparatus, server, and computer program for collision accident prevention
KR102587926B1 (en) Object tracking apparatus, object tracking, recording medium recording program performing the same
WO2023014506A1 (en) System and method for audio tagging of an object of interest
Stisen et al. Task phase recognition for highly mobile workers in large building complexes
EP4026108A1 (en) Methods and systems for classifying tag status in a retail environment
KR102498023B1 (en) Security system and method using lidar sensor
WO2018051507A1 (en) Object identification system and object identification method
Motamedi Improving facilities lifecycle management using RFID localization and BIM-based visual analytics
WO2023200075A1 (en) Object tracking device, object tracking method, and recording medium on which program for performing object tracking method is recorded
EP4394440A1 (en) Method for sensing installation abnormality of sensing device, and sensing device for performing same
Wunderle et al. Safe object detection in AMRs-a Survey
KR102752688B1 (en) Local analysis-based video surveillance system and method integrating thermal and visible cameras with lidar sensor

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20210203

PA0201 Request for examination
PG1501 Laying open of application
E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20230419

Patent event code: PE09021S01D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20230705

PG1601 Publication of registration