KR102687756B1 - Method and apparatus for generating target location information in water - Google Patents
Method and apparatus for generating target location information in water Download PDFInfo
- Publication number
- KR102687756B1 KR102687756B1 KR1020230189880A KR20230189880A KR102687756B1 KR 102687756 B1 KR102687756 B1 KR 102687756B1 KR 1020230189880 A KR1020230189880 A KR 1020230189880A KR 20230189880 A KR20230189880 A KR 20230189880A KR 102687756 B1 KR102687756 B1 KR 102687756B1
- Authority
- KR
- South Korea
- Prior art keywords
- target
- information
- location information
- generating
- target location
- Prior art date
Links
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 title claims abstract description 37
- 238000000034 method Methods 0.000 title claims abstract description 22
- 238000005259 measurement Methods 0.000 claims abstract description 19
- 238000013473 artificial intelligence Methods 0.000 claims description 9
- 238000010586 diagram Methods 0.000 description 11
- 230000014509 gene expression Effects 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S11/00—Systems for determining distance or velocity not using reflection or reradiation
- G01S11/14—Systems for determining distance or velocity not using reflection or reradiation using ultrasonic, sonic, or infrasonic waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S15/00—Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
- G01S15/88—Sonar systems specially adapted for specific applications
- G01S15/89—Sonar systems specially adapted for specific applications for mapping or imaging
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Acoustics & Sound (AREA)
- Computer Networks & Wireless Communication (AREA)
- Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
Abstract
수중에서의 타겟 위치 정보 생성 방법 및 그 장치가 개시된다. 수중에서의 타겟 위치 정보 생성 방법은 (a) 타겟이 착용한 장비에 부착된 자세측정 센서로부터 각 시나리오별 타겟 방향 정보를 각각 획득하는 단계; (b) 수조 내에 위치된 수신기를 이용하여 상기 타겟이 착용한 장비에 부착된 핑어(pinger) 위치 정보를 등간격으로 획득하는 단계; (c) 상기 등간격으로 획득된 상기 핑어 위치 정보를 기초로 상기 타겟의 속도 정보를 도출하는 단계; 및 (d) 상기 타겟의 속도 정보를 이용하여 상기 타겟 방향 정보를 보정하여 최종 타겟 위치 정보를 생성하는 단계를 포함한다.A method and device for generating target location information in water are disclosed. A method of generating target location information in water includes (a) acquiring target direction information for each scenario from an attitude measurement sensor attached to equipment worn by the target; (b) acquiring location information of a finger attached to equipment worn by the target at equal intervals using a receiver located in the water tank; (c) deriving speed information of the target based on the finger position information obtained at regular intervals; and (d) generating final target position information by correcting the target direction information using the speed information of the target.
Description
본 발명은 수중에서의 타겟 위치 정보 생성 방법 및 그 장치에 관한 것이다.The present invention relates to a method and device for generating target location information in water.
인공지능의 발전으로 다양한 형태의 인공지능 모델들이 지속적으로 등장하고 있으나, 이러한 인공지능 모델들의 학습을 위해서는 다양한 형태의 학습 데이터가 필요하다.With the development of artificial intelligence, various types of artificial intelligence models are continuously emerging, but various types of learning data are required to learn these artificial intelligence models.
수중 환경 특성으로 인해, 수중에서 사람 등에 대한 정보를 획득하는 것은 매우 어려운 일이다. 이로 인해, 수중 데이터는 그 수가 매우 적고, 획득 방법 또한 체계화되지 않은 단점이 있다.Due to the characteristics of the underwater environment, it is very difficult to obtain information about people, etc. underwater. Because of this, the number of underwater data is very small, and the acquisition method is also unsystematized.
본 발명은 수중에서의 타겟 위치 정보 생성 방법 및 그 장치를 제공하기 위한 것이다.The present invention is to provide a method and device for generating target location information in water.
또한, 본 발명은 수중 타겟 위치를 분석하는 인공지능 모델 학습을 위한 수중에서의 타겟 위치 정보 생성 방법 및 그 장치를 제공하기 위한 것이다.In addition, the present invention is to provide a method and device for generating target location information in water for learning an artificial intelligence model that analyzes the location of an underwater target.
또한, 본 발명은 동기 주기가 상이한 이기종 센서에 의해 취득된 데이터를 이용하여 센서들간의 데이터를 매칭하고 보정하여 수중에서의 타겟의 절대 위치를 생성할 수 있는 수중에서의 타겟 위치 정보 생성 방법 및 그 장치를 제공하기 위한 것이다.In addition, the present invention provides a method for generating target position information in water that can generate the absolute position of a target in water by matching and correcting data between sensors using data acquired by heterogeneous sensors with different synchronization periods, and the same. This is to provide a device.
본 발명의 일 측면에 따르면, 수중에서의 타겟 위치 정보 생성 방법이 제공된다.According to one aspect of the present invention, a method for generating target location information in water is provided.
본 발명의 일 실시예에 따르면, (a) 타겟이 착용한 장비에 부착된 자세측정 센서로부터 각 시나리오별 타겟 방향 정보를 각각 획득하는 단계; (b) 수조 내에 위치된 수신기를 이용하여 상기 타겟이 착용한 장비에 부착된 핑어(pinger) 위치 정보를 등간격으로 획득하는 단계; (c) 상기 등간격으로 획득된 상기 핑어 위치 정보를 기초로 상기 타겟의 속도 정보를 도출하는 단계; 및 (d) 상기 타겟의 속도 정보를 이용하여 상기 타겟 방향 정보를 보정하여 최종 타겟 위치 정보를 생성하는 단계를 포함하는 수중에서의 타겟 위치 정보 생성 방법이 제공될 수 있다.According to one embodiment of the present invention, (a) acquiring target direction information for each scenario from a posture measurement sensor attached to equipment worn by the target; (b) acquiring location information of a finger attached to equipment worn by the target at equal intervals using a receiver located in the water tank; (c) deriving speed information of the target based on the finger position information obtained at regular intervals; and (d) generating final target location information by correcting the target direction information using the speed information of the target.
상기 (d) 단계는, 상기 타겟의 속도 정보의 벡터 방향을 기초로 상기 타겟 방향 정보를 회전이동시켜 보정하여 상기 최종 타겟 위치 정보를 생성할 수 있다.In step (d), the final target position information may be generated by rotating and correcting the target direction information based on the vector direction of the target's speed information.
상기 (d) 단계 이전에, 상기 수조내 위치한 지주 부재에 고정된 영상 획득 장치로부터 타겟 영상 정보를 획득하는 단계를 더 포함하되, 상기 타겟 영상 정보와 상기 최종 타겟 위치 정보는 타임 스탬프를 이용하여 매칭 저장될 수 있다.Before step (d), it further includes acquiring target image information from an image acquisition device fixed to a holding member located in the water tank, wherein the target image information and the final target location information are matched using a time stamp. It can be saved.
상기 타겟 영상 정보는 상기 타겟에 대한 스테레오 영상 및 소나 영상 중 적어도 하나일 수 있다.The target image information may be at least one of a stereo image and a sonar image for the target.
상기 영상 획득 장치에 의해 상기 타겟 영상 정보 획득이 가능한 시점에 동기화되어 상기 (a) 단계 및 상기 (b) 단계가 수행될 수 있다.Steps (a) and (b) may be performed in synchronization with a time when the target image information can be acquired by the image acquisition device.
상기 영상 획득 장치, 상기 자세측정 센서 및 상기 수신기는 각기 상이한 동작 주기로 동작하되, 타임 스탬프(timestamp)를 기반으로 근접한 시간으로 획득된 타겟 영상 정보 및 상기 타겟 위치 정보를 매칭시켜 저장할 수 있다.The image acquisition device, the posture measurement sensor, and the receiver each operate with different operation cycles, and can match and store target image information and target location information acquired at close times based on a timestamp.
본 발명의 다른 측면에 따르면, 수중에서의 타겟 위치 정보 생성 장치가 제공된다.According to another aspect of the present invention, an apparatus for generating target location information in water is provided.
본 발명의 일 실시예에 따르면, 타겟이 착용한 장비에 부착되되, 각 시나리오별 타겟 방향 정보를 각각 획득하는 자세측정 센서; 수조 내에 위치되며, 상기 타겟이 착용한 장비에 부착된 핑어(pinger)의 위치 정보를 등간격으로 획득하는 수신기; 및 상기 등간격으로 획득된 상기 핑어의 위치 정보를 기초로 타겟 속도 정보를 도출하고, 상기 타겟 속도 정보를 기초로 상기 타겟 방향 정보를 보정하여 타겟 위치 정보를 생성하는 보정부를 포함하는 수중에서의 타겟 위치 정보 생성 장치가 제공될 수 있다.According to one embodiment of the present invention, a posture measurement sensor is attached to equipment worn by the target and acquires target direction information for each scenario; A receiver located in the water tank and acquiring location information of a finger attached to the equipment worn by the target at equal intervals; And a target in water including a correction unit that derives target speed information based on the position information of the finger obtained at equal intervals, and generates target position information by correcting the target direction information based on the target speed information. A location information generating device may be provided.
상기 보정부는, 상기 타겟의 속도 정보의 벡터 방향을 기초로 상기 타겟 방향 정보를 회전이동시켜 보정하여 상기 타겟 위치 정보를 생성하되, 상기 타겟 속도 정보가 기준 속도 미만인 경우에는 상기 타겟 방향 정보를 보정하지 않을 수 있다.The correction unit generates the target position information by rotating and correcting the target direction information based on the vector direction of the target speed information, but does not correct the target direction information when the target speed information is less than the reference speed. It may not be possible.
상기 수조내에 위치된 지주 부재에 고정되되, 상기 타겟을 촬영하여 타겟 영상 정보를 획득하는 영상 획득 장치를 더 포함하되, 상기 타겟 영상 정보와 상기 타겟 위치 정보는 타임 스탬프를 이용하여 매칭 저장될 수 있다.It is fixed to a holding member located in the water tank, and further includes an image acquisition device for acquiring target image information by photographing the target, wherein the target image information and the target location information can be matched and stored using a time stamp. .
본 발명의 일 실시예에 따른 수중에서의 타겟 위치 정보 생성 방법 및 그 장치를 제공함으로써, 수중 타겟 위치를 분석하는 인공지능 모델 학습을 위한 수중에서의 타겟 관련 데이터를 생성할 수 있다.By providing a method and apparatus for generating target location information in water according to an embodiment of the present invention, it is possible to generate target-related data in water for learning an artificial intelligence model that analyzes the location of an underwater target.
또한, 본 발명은 동기 주기가 상이한 이기종 센서에 의해 취득된 데이터를 이용하여 센서들간의 데이터를 매칭하고 보정하여 수중에서의 타겟의 절대 위치를 생성할 수 있다.Additionally, the present invention can generate the absolute position of a target in water by matching and correcting data between sensors using data acquired by heterogeneous sensors with different synchronization periods.
도 1은 본 발명의 일 실시예에 따른 수중에서의 타겟 위치 정보 생성 방법을 나타낸 순서도.
도 2는 본 발명의 일 실시예에 따른 수중 데이터 획득을 설명하기 위해 도시한 도면.
도 3은 본 발명의 일 실시예에 따른 스테레오 영상 정보를 예시한 도면.
도 4는 본 발명의 일 실시예에 따른 소나 영상 정보를 예시한 도면.
도 5는 본 발명의 일 실시예에 따른 노이즈 제거 전후 결과를 도시한 도면.
도 6은 본 발명의 일 실시예에 따른 타겟 위치 정보 생성 장치의 구성을 개략적으로 도시한 도면.1 is a flowchart showing a method for generating target location information in water according to an embodiment of the present invention.
Figure 2 is a diagram illustrating acquisition of underwater data according to an embodiment of the present invention.
Figure 3 is a diagram illustrating stereo image information according to an embodiment of the present invention.
Figure 4 is a diagram illustrating sonar image information according to an embodiment of the present invention.
Figure 5 is a diagram showing the results before and after noise removal according to an embodiment of the present invention.
Figure 6 is a diagram schematically showing the configuration of a target location information generating device according to an embodiment of the present invention.
본 명세서에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "구성된다" 또는 "포함한다" 등의 용어는 명세서상에 기재된 여러 구성 요소들, 또는 여러 단계들을 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.As used herein, singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, terms such as “consists of” or “comprises” should not be construed as necessarily including all of the various components or steps described in the specification, and some of the components or steps may be included in the specification. It may not be included, or it should be interpreted as including additional components or steps. In addition, terms such as "... unit" and "module" used in the specification refer to a unit that processes at least one function or operation, which may be implemented as hardware or software, or as a combination of hardware and software. .
이하, 첨부된 도면들을 참조하여 본 발명의 실시예를 상세히 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the attached drawings.
도 1은 본 발명의 일 실시예에 따른 수중에서의 타겟 위치 정보 생성 방법을 나타낸 순서도이고, 도 2는 본 발명의 일 실시예에 따른 수중 데이터 획득을 설명하기 위해 도시한 도면이고, 도 3은 본 발명의 일 실시예에 따른 스테레오 영상 정보를 예시한 도면이고, 도 4는 본 발명의 일 실시예에 따른 소나 영상 정보를 예시한 도면이며, 도 5는 본 발명의 일 실시예에 따른 노이즈 제거 전후 결과를 도시한 도면이다.FIG. 1 is a flowchart showing a method for generating target location information underwater according to an embodiment of the present invention, FIG. 2 is a diagram illustrating acquisition of underwater data according to an embodiment of the present invention, and FIG. 3 is a Figure 4 is a diagram illustrating stereo image information according to an embodiment of the present invention, Figure 4 is a diagram illustrating sonar image information according to an embodiment of the present invention, and Figure 5 is a diagram illustrating noise removal according to an embodiment of the present invention. This diagram shows the before and after results.
이해와 설명의 편의를 도모하기 위해, 하기에서 각 센서에 의해 취득되는 데이터는 수조내에서 취득되는 것으로 이해되어야 할 것이다. 즉, 도 2에 도시된 바와 같이, 수조 내에 이기종 센서들이 위치되며, 해당 이기종 센서를 이용하여 수조 내에서 타겟의 움직임에 따른 타겟 위치 정보를 생성할 수 있다.For convenience of understanding and explanation, the data acquired by each sensor below should be understood as being acquired within the water tank. That is, as shown in FIG. 2, heterogeneous sensors are located within the water tank, and target location information according to the movement of the target within the water tank can be generated using the heterogeneous sensors.
단계 110에서 타겟 위치 정보 생성 장치(100)는 영상 획득 장치로부터 타겟을 촬영한 타겟 영상 정보를 획득한다.In step 110, the target location information generating device 100 acquires target image information obtained by capturing a target from an image acquisition device.
도 2에 도시된 바와 같이, 영상 획득 장치는 수조 내에 위치된 지주 부재에 고정될 수 있다. 또한, 영상 획득 장치는 복수이되, 이기종 영상 획득 장치일 수 있다. 예를 들어, 제1 영상 획득 장치 및 제2 영상 획득 장치 중 어느 하나는 스테레오 카메라일 수 있으며, 다른 하나는 소나 센서일 수 있다.As shown in Figure 2, the image acquisition device may be fixed to a support member located within the water tank. Additionally, there may be a plurality of image acquisition devices, but they may be heterogeneous image acquisition devices. For example, one of the first image acquisition device and the second image acquisition device may be a stereo camera, and the other may be a sonar sensor.
제1 영상 획득 장치와 제2 영상 획득 장치는 적층되어 획득될 수 있다. 제1 영상 획득 장치와 제2 영상 획득 장치의 화각 등은 사전 설정되어 있는 것을 가정하기로 한다.The first image acquisition device and the second image acquisition device may be obtained by stacking them. It is assumed that the angles of view of the first image acquisition device and the second image acquisition device are preset.
도 3에는 획득된 스테레오 영상의 일 예가 도시되어 있으며, 도 4에는 소나 영상 정보가 예시되어 있다.Figure 3 shows an example of an acquired stereo image, and Figure 4 illustrates sonar image information.
단계 115에서 타겟 위치 정보 생성 장치(100)는 자세측정 센서로부터 각 시나리오별 타겟 방향 정보를 각각 획득한다. 여기서, 자세측정 센서는 타겟(예를 들어, 사람)이 착용한 장비(예를 들어, 스쿠버 장비)에 부착될 수 있다. 자세측정 센서는 AHRS(Attitude Heading Reference System) 센서일 수 있다. AHRS 센서에 의해 획득된 타겟 방향 정보는 절대적인 방향이 아니라, AHRS 센서가 동작된 이후 회전된 각 속도를 이용하여 (롤(Roll), 피치(Pitch), 요(Yaw)를 획득할 수 있다. 이에 따라, AHRS 센서를 턴 오프(off)시킨 후 턴 온(on)시키는 경우 기존과 다른 시점에서 얻어진 (롤, 피치, 요)값을 얻기 때문에, 같은 방향을 측정하더라도 다른 결과가 획득될 수 있다.In step 115, the target location information generating device 100 acquires target direction information for each scenario from the posture measurement sensor. Here, the posture measurement sensor may be attached to equipment (eg, scuba equipment) worn by the target (eg, person). The attitude measurement sensor may be an Attitude Heading Reference System (AHRS) sensor. The target direction information acquired by the AHRS sensor is not an absolute direction, but (Roll, Pitch, and Yaw) can be obtained using the angular speed rotated after the AHRS sensor is operated. Therefore, Accordingly, when the AHRS sensor is turned off and then turned on, the (roll, pitch, yaw) values obtained at a different point in time are obtained, so different results may be obtained even if the same direction is measured.
따라서, 타겟 위치 정보 생성 장치(100)는 각각의 시나리오별 타겟 방향 정보를 획득함에 있어, 각 시나리오마다 AHRS 센서를 오프시킨 후 다시 동작시켜 타겟 방향 정보를 획득할 수 있다.Accordingly, when acquiring target direction information for each scenario, the target location information generating device 100 may acquire target direction information by turning off the AHRS sensor for each scenario and then operating it again.
단계 120에서 타겟 위치 정보 생성 장치(100)는 수신기로부터 타겟 위치 정보를 획득한다.In step 120, the target location information generating device 100 obtains target location information from the receiver.
도 2에 도시된 바와 같이, 수신기는 수조 내에 고정된 위치에 설치되며, 타겟이 장착한 장비에 핑어(pinger) 모듈이 장착될 수 있다. 이로 인해, 수신기는 등간격으로 핑어 모듈로부터 핑어 위치 정보를 타겟 위치 정보로서 획득할 수 있다.As shown in Figure 2, the receiver is installed in a fixed position within the water tank, and a finger module can be mounted on the equipment equipped with the target. Because of this, the receiver can obtain finger location information as target location information from the finger module at regular intervals.
단계 125에서 타겟 위치 정보 생성 장치(100)는 등간격으로 획득되는 타겟 위치 정보를 이용하여 타겟 속도 정보를 도출한다.In step 125, the target location information generating device 100 derives target speed information using target location information acquired at regular intervals.
핑어 모듈로부터 핑어 위치 정보(좌표 정보)가 등간격으로 획득됨에 따라 타겟 위치 정보는 등간격으로 획득된 좌표 정보를 이용하여 등간격 동안 타겟이 이동한 속도 정보를 도출할 수 있다.As finger location information (coordinate information) is acquired from the finger module at regular intervals, target location information can be used to derive information on the speed at which the target moves during regular intervals using the coordinate information acquired at regular intervals.
단계 130에서 타겟 위치 정보 생성 장치(100)는 타겟 속도 정보를 이용하여 타겟 방향 정보를 보정하여 최종 타겟 위치 정보를 생성한다.In step 130, the target location information generating device 100 corrects target direction information using target speed information and generates final target location information.
이때, 타겟 위치 정보 생성 장치(100)는 타겟 속도 정보가 기준 속도(예를 들어, 0) 이하인 경우, 해당 타겟 속도 정보를 이용하여 타겟 방향 정보를 보정하지 않는다. 타겟 위치 정보 생성 장치(100)는 타겟 속도 정보가 기준 속도 초과인 경우, 해당 타겟 속도 정보의 방향 정보와 타겟 방향 정보가 일치되도록 보정할 수 있다. 즉, 타겟 위치 정보 생성 장치(100)는 타겟 속도 정보가 기준 속도 초과인 경우 해당 타겟 속도 정보의 방향 정보와 타겟 방향 정보의 값이 일치하도록 타겟 방향 정보를 회전이동시켜 보정할 수 있다.At this time, when the target speed information is less than or equal to the reference speed (for example, 0), the target location information generating device 100 does not correct the target direction information using the target speed information. When the target speed information exceeds the reference speed, the target location information generating apparatus 100 may correct the direction information of the target speed information so that the target direction information matches. That is, when the target speed information exceeds the reference speed, the target location information generating apparatus 100 may correct the target direction information by rotating it so that the direction information of the target speed information and the value of the target direction information match.
이어, 타겟 위치 정보 생성 장치(100)는 타겟 위치 정보와 타겟 방향 정보를 매칭시켜 최종 타겟 위치 정보를 생성할 수 있다. 이때, 최종 타겟 위치 정보는 타겟 영상 정보에 매칭하여 저장될 수 있다.Next, the target location information generating device 100 may generate final target location information by matching the target location information and target direction information. At this time, the final target location information may be stored by matching the target image information.
타겟 영상 정보와 타겟 위치 정보, 타겟 방향 정보는 서로 상이한 동작 주기로 획득될 수 있다. 따라서, 해당 타겟 영상 정보가 획득된 시점과 타겟 위치 정보, 타겟 방향 정보가 획득된 시점이 동일하지 않을 수 있다. 이에, 타겟 위치 정보 생성 장치(100)는 타겟 영상 정보, 타겟 위치 정보, 타겟 방향 정보가 획득된 타임 스탬프를 이용하여 근접한 시간에 획득된 정보(예를 들어, 타겟 영상 정보, 타겟 위치 정보, 타겟 방향 정보)를 매칭시켜 저장할 수 있다.Target image information, target location information, and target direction information may be acquired with different operation cycles. Therefore, the time when the target image information is acquired and the time when the target location information and target direction information are acquired may not be the same. Accordingly, the target location information generating device 100 uses the time stamp at which the target image information, target location information, and target direction information were acquired to obtain information (e.g., target image information, target location information, target direction information) acquired at a nearby time. direction information) can be matched and stored.
또한, 타겟 위치 정보 생성 장치(100)는 타겟 영상 정보와 타겟 위치 정보, 타겟 방향 정보를 매칭하여 저장하기 전에, 노이즈를 제거하는 과정을 선행할 수 있다. 예를 들어, 타겟 위치 정보 생성 장치(100)는 Gaussian Rolling 알고리즘을 적용하여 갑자기 값이 튀는 노이즈를 제거할 수 있다. 도 5에 노이즈 제거 전 후의 데이터의 일 예가 도시되어 있다.Additionally, the target location information generating device 100 may first perform a noise removal process before matching and storing the target image information, target location information, and target direction information. For example, the target location information generating device 100 may apply the Gaussian Rolling algorithm to remove noise that suddenly causes values to jump. Figure 5 shows an example of data before and after noise removal.
또한, 본 발명의 일 실시예에 따르면, 타겟 위치 정보 생성 장치(100)는 인공지능 학습을 위한 학습 데이터로 이용하기 위해, 각 시나리오별 타겟 영상 정보 획득이 가능한 시점에 동기화되어 핑어 위치 정보(타겟 위치 정보)와 타겟 방향 정보를 획득할 수도 있다.In addition, according to an embodiment of the present invention, the target location information generating device 100 is synchronized at a time when target image information for each scenario can be acquired to use it as learning data for artificial intelligence learning, and generates finger location information (target Location information) and target direction information can also be obtained.
도 6은 본 발명의 일 실시예에 따른 타겟 위치 정보 생성 장치의 구성을 개략적으로 도시한 도면이다.Figure 6 is a diagram schematically showing the configuration of a target location information generating device according to an embodiment of the present invention.
도 6을 참조하면, 본 발명의 일 실시예에 따른 타겟 위치 정보 생성 장치(100)는 영상 획득 장치(610), 자세측정 센서(620), 수신기(630), 보정부(640), 메모리(650) 및 프로세서(660)를 포함하여 구성된다.Referring to FIG. 6, the target location information generating device 100 according to an embodiment of the present invention includes an image acquisition device 610, a posture measurement sensor 620, a receiver 630, a correction unit 640, and a memory ( 650) and a processor 660.
영상 획득 장치(610)는 수조 내의 지주 부재에 고정 설치되어 각 시나리오별 타겟에 대한 영상(즉, 타겟 영상 정보)를 획득한다. 전술한 바와 같이, 영상 획득 장치(610)는 복수이되, 서로 상이한 유형의 타겟 영상 정보를 획득할 수 있다.The image acquisition device 610 is fixedly installed on a support member in the water tank and acquires images (i.e., target image information) for the target for each scenario. As described above, the image acquisition device 610 may acquire a plurality of different types of target image information.
즉, 제1 영상 획득 장치 및 제2 영상 획득 장치 중 어느 하나는 스테레오 영상 정보를 획득하며, 다른 하나는 소나 영상 정보를 획득할 수 있다.That is, one of the first image acquisition device and the second image acquisition device may acquire stereo image information, and the other may acquire sonar image information.
자세측정 센서(620)는 타겟이 착용한 장비에 부착되며, 각 시나리오별 타겟 방향 정보를 각각 획득한다.The posture measurement sensor 620 is attached to the equipment worn by the target and acquires target direction information for each scenario.
자세측정 센서(620)는 각 시나리오마다 턴 오프(turn off)된 후 다시 온(on) 되어 타겟 방향 정보를 획득할 수 있다.The posture measurement sensor 620 is turned off for each scenario and then turned back on to obtain target direction information.
수신기(630)는 수조 내의 특정 위치에 설치되며, 타겟이 착용한 장비에 부착된 핑어 모듈의 위치 정보를 등간격을 수신하기 위한 수단이다. 이때, 핑어 모듈은 타겟이 탁용한 장비에 부착되어 있으므로, 소정의 오차를 가지더라도 무시할 수 있는 정도의 오차이므로, 수조내에서 타겟의 위치 정보로 이용될 수 있다.The receiver 630 is installed at a specific location in the water tank and is a means for receiving location information of the finger module attached to the equipment worn by the target at equal intervals. At this time, since the finger module is attached to equipment that has a clear target, even if it has a certain error, the error is negligible and can be used as location information of the target in the water tank.
보정부(640)는 등간격으로 획득된 핑어 모듈의 위치 정보를 기초로 타겟 속도 정보를 도출하고, 타겟 속도 정보를 기초로 상기 타겟 방향 정보를 보정하여 타겟 위치 정보를 생성하기 위한 수단이다.The correction unit 640 is a means for deriving target speed information based on the position information of the finger module acquired at regular intervals and correcting the target direction information based on the target speed information to generate target position information.
메모리(650)는 본 발명의 일 실시예에 따른 수중에서의 타겟 위치 정보 생성 방법을 수행하기 위한 다양한 명령어를 저장한다.The memory 650 stores various commands for performing a method for generating target location information in water according to an embodiment of the present invention.
프로세서(660)는 본 발명의 일 실시예에 따른 타겟 위치 정보 생성 장치(100)의 구성 요소들(예를 들어, 영상 획득 장치(610), 자세측정 센서(620), 수신기(630), 보정부(640), 메모리(650) 등)을 제어하기 위한 수단이다.The processor 660 includes components of the target location information generating device 100 according to an embodiment of the present invention (e.g., an image acquisition device 610, an attitude measurement sensor 620, a receiver 630, and a It is a means to control the government (640), memory (650), etc.).
또한, 프로세서(660)는 영상 획득 장치(610), 자세측정 센서(620), 수신기(630)가 동일한 동기 주기로 동작되지 않기 때문에, 영상 획득 장치(610), 자세측정 센서(620), 수신기(630)에서 획득된 데이터의 타임 스탬프를 이용하여 근접한 시간에 획득된 데이터들을 상호 매핑하여 저장하도록 제어할 수 있다.In addition, the processor 660 uses the image acquisition device 610, the posture measurement sensor 620, and the receiver 630 because the image acquisition device 610, the posture measurement sensor 620, and the receiver 630 do not operate in the same synchronous cycle. Using the time stamp of the data acquired in step 630), data acquired at close times can be controlled to be mapped and stored.
또한, 프로세서(660)는 최종적으로 타겟 위치 정보가 인공지능 모델의 학습에 이용될 수 있도록 타겟 영상 정보(예를 들어, 스테레오 영상 정보, 소나 영상 정보)와 타겟 위치 정보를 매칭시켜 저장할 수 있다. 이때, 프로세서(660)는 타겟 영상 정보 획득 시점에 동기화되어 타겟 위치 정보가 획득되도록 자세측정 센서(620)와 수신기(630)를 제어할 수도 있다.Additionally, the processor 660 may match and store target image information (e.g., stereo image information, sonar image information) and target location information so that the target location information can be ultimately used for learning an artificial intelligence model. At this time, the processor 660 may control the posture measurement sensor 620 and the receiver 630 so that target location information is acquired in synchronization with the time of acquisition of target image information.
본 발명의 실시 예에 따른 장치 및 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 컴퓨터 판독 가능 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야 통상의 기술자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media) 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.Devices and methods according to embodiments of the present invention may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer-readable medium. Computer-readable media may include program instructions, data files, data structures, etc., singly or in combination. Program instructions recorded on a computer-readable medium may be specially designed and constructed for the present invention or may be known and usable by those skilled in the computer software field. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -Includes magneto-optical media and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, etc. Examples of program instructions include machine language code, such as that produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter, etc.
상술한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.
이제까지 본 발명에 대하여 그 실시 예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시 예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.So far, the present invention has been examined focusing on its embodiments. A person skilled in the art to which the present invention pertains will understand that the present invention may be implemented in a modified form without departing from the essential characteristics of the present invention. Therefore, the disclosed embodiments should be considered from an illustrative rather than a restrictive perspective. The scope of the present invention is indicated in the claims rather than the foregoing description, and all differences within the equivalent scope should be construed as being included in the present invention.
Claims (10)
(a) 타겟이 착용한 장비에 부착된 자세측정 센서로부터 각 시나리오별 타겟 방향 정보를 각각 획득하는 단계;
(b) 수조 내에 위치된 수신기를 이용하여 상기 타겟이 착용한 장비에 부착된 핑어(pinger) 위치 정보를 등간격으로 획득하는 단계;
(c) 상기 등간격으로 획득된 상기 핑어 위치 정보를 기초로 상기 타겟의 속도 정보를 도출하는 단계; 및
(d) 상기 타겟의 속도 정보를 이용하여 상기 타겟 방향 정보를 보정하여 최종 타겟 위치 정보를 생성하는 단계를 포함하고,
상기 자세측정 센서는,
각 시나리오마다 오프된 후 다시 동작됨에 따라 같은 방향을 측정하더라도 상이한 상기 타겟 방향 정보를 획득 가능하고,
상기 (d) 단계는,
상기 타겟의 속도 정보의 벡터 방향을 기초로 상기 타겟 방향 정보를 상기 타겟의 속도 정보의 벡터 방향과 일치하도록 회전이동시켜 보정하여 상기 최종 타겟 위치 정보를 생성하는, 수중에서의 타겟 위치 정보 생성 방법.In a method of generating target location information underwater for learning an artificial intelligence model that analyzes the underwater target location,
(a) acquiring target direction information for each scenario from a posture measurement sensor attached to equipment worn by the target;
(b) acquiring location information of a finger attached to equipment worn by the target at equal intervals using a receiver located in the water tank;
(c) deriving speed information of the target based on the finger position information obtained at regular intervals; and
(d) generating final target position information by correcting the target direction information using the speed information of the target,
The posture measurement sensor is,
As it is turned off and then restarted for each scenario, it is possible to obtain different target direction information even if the same direction is measured,
In step (d),
A method of generating target position information in water, wherein the final target position information is generated by rotating and correcting the target direction information to match the vector direction of the target speed information based on the vector direction of the target speed information.
상기 (d) 단계 이전에,
상기 수조내 위치한 지주 부재에 고정된 영상 획득 장치로부터 타겟 영상 정보를 획득하는 단계를 더 포함하되,
상기 타겟 영상 정보와 상기 최종 타겟 위치 정보는 타임 스탬프를 이용하여 매칭 저장되는 것을 특징으로 하는 수중에서의 타겟 위치 정보 생성 방법.According to claim 1,
Before step (d) above,
It further includes the step of acquiring target image information from an image acquisition device fixed to a holding member located in the water tank,
A method of generating target location information in water, characterized in that the target image information and the final target location information are matched and stored using a time stamp.
상기 타겟 영상 정보는 상기 타겟에 대한 스테레오 영상 및 소나 영상 중 적어도 하나인 것을 특징으로 하는 수중에서의 타겟 위치 정보 생성 방법.According to clause 3,
The target image information is at least one of a stereo image and a sonar image for the target.
상기 영상 획득 장치에 의해 상기 타겟 영상 정보 획득이 가능한 시점에 동기화되어 상기 (a) 단계 및 상기 (b) 단계가 수행되는 것을 특징으로 하는 수중에서의 타겟 위치 정보 생성 방법.According to clause 3,
A method of generating target location information in water, characterized in that steps (a) and (b) are performed in synchronization at a time when the target image information can be acquired by the image acquisition device.
상기 영상 획득 장치, 상기 자세측정 센서 및 상기 수신기는 각기 상이한 동작 주기로 동작하되, 타임 스탬프(timestamp)를 기반으로 근접한 시간으로 획득된 타겟 영상 정보 및 상기 타겟 위치 정보를 매칭시켜 저장하는 것을 특징으로 하는 수중에서의 타겟 위치 정보 생성 방법.According to clause 5,
The image acquisition device, the posture measurement sensor, and the receiver each operate with different operation cycles, but are characterized in that the target image information and the target location information acquired at close times are matched and stored based on a timestamp. Method for generating target location information underwater.
타겟이 착용한 장비에 부착되되, 각 시나리오별 타겟 방향 정보를 각각 획득하는 자세측정 센서;
수조 내에 위치되며, 상기 타겟이 착용한 장비에 부착된 핑어(pinger)의 위치 정보를 등간격으로 획득하는 수신기; 및
상기 등간격으로 획득된 상기 핑어의 위치 정보를 기초로 타겟 속도 정보를 도출하고, 상기 타겟 속도 정보를 기초로 상기 타겟 방향 정보를 보정하여 타겟 위치 정보를 생성하는 보정부를 포함하고,
상기 자세측정 센서는,
각 시나리오마다 오프된 후 다시 동작됨에 따라 같은 방향을 측정하더라도 상이한 상기 타겟 방향 정보를 획득 가능하고,
상기 보정부는,
상기 타겟 속도 정보의 벡터 방향을 기초로 상기 타겟 방향 정보를 상기 타겟 속도 정보의 벡터 방향과 일치하도록 회전이동시켜 보정하여 상기 타겟 위치 정보를 생성하는, 수중에서의 타겟 위치 정보 생성 장치.In an underwater target location information generating device for learning an artificial intelligence model that analyzes the underwater target location,
A posture measurement sensor that is attached to the equipment worn by the target and acquires target direction information for each scenario;
A receiver located in the water tank and acquiring location information of a finger attached to the equipment worn by the target at equal intervals; and
A correction unit that derives target speed information based on the position information of the finger obtained at equal intervals, and generates target position information by correcting the target direction information based on the target speed information,
The posture measurement sensor is,
As it is turned off and then restarted for each scenario, it is possible to obtain different target direction information even if the same direction is measured,
The correction unit,
An underwater target position information generating device that generates the target position information by rotating and correcting the target direction information to match the vector direction of the target speed information based on the vector direction of the target speed information.
상기 보정부는,
상기 타겟 속도 정보가 기준 속도 미만인 경우에는 상기 타겟 방향 정보를 보정하지 않는 것을 특징으로 하는 수중에서의 타겟 위치 정보 생성 장치.According to clause 8,
The correction unit,
An apparatus for generating target position information in water, characterized in that the target direction information is not corrected when the target speed information is less than the reference speed.
상기 수조내에 위치된 지주 부재에 고정되되, 상기 타겟을 촬영하여 타겟 영상 정보를 획득하는 영상 획득 장치를 더 포함하되,
상기 타겟 영상 정보와 상기 타겟 위치 정보는 타임 스탬프를 이용하여 매칭 저장되는 것을 특징으로 하는 수중에서의 타겟 위치 정보 생성 장치.
According to clause 8,
It is fixed to a holding member located in the water tank, and further includes an image acquisition device for acquiring target image information by photographing the target,
An underwater target location information generating device, wherein the target image information and the target location information are matched and stored using a time stamp.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020230189880A KR102687756B1 (en) | 2023-12-22 | 2023-12-22 | Method and apparatus for generating target location information in water |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020230189880A KR102687756B1 (en) | 2023-12-22 | 2023-12-22 | Method and apparatus for generating target location information in water |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102687756B1 true KR102687756B1 (en) | 2024-07-24 |
Family
ID=92171123
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020230189880A KR102687756B1 (en) | 2023-12-22 | 2023-12-22 | Method and apparatus for generating target location information in water |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102687756B1 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20120096626A (en) * | 2011-02-23 | 2012-08-31 | 대양전기공업 주식회사 | A position estimation method for moving objects in underwater and position estimation device for moving objects in underwater |
US20170328982A1 (en) * | 2014-10-31 | 2017-11-16 | Fugro N.V. | Underwater positioning system |
-
2023
- 2023-12-22 KR KR1020230189880A patent/KR102687756B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20120096626A (en) * | 2011-02-23 | 2012-08-31 | 대양전기공업 주식회사 | A position estimation method for moving objects in underwater and position estimation device for moving objects in underwater |
US20170328982A1 (en) * | 2014-10-31 | 2017-11-16 | Fugro N.V. | Underwater positioning system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107990899B (en) | Positioning method and system based on SLAM | |
CN106780601B (en) | Spatial position tracking method and device and intelligent equipment | |
KR102133728B1 (en) | Device, method and readable media for multimodal recognizing emotion based on artificial intelligence | |
JP4985516B2 (en) | Information processing apparatus, information processing method, and computer program | |
CN109100707B (en) | Scaling method, device, equipment and the storage medium of radar sensor | |
US10430650B2 (en) | Image processing system | |
JP2021503134A (en) | Unsupervised learning of image depth and egomotion prediction neural networks | |
KR101926563B1 (en) | Method and apparatus for camera tracking | |
JP6833620B2 (en) | Image analysis device, neural network device, learning device, image analysis method and program | |
US9712937B2 (en) | Sound source separation apparatus and sound source separation method | |
KR102023042B1 (en) | Foot scanning apparatus and method for scanning foot thereof | |
KR20200000083A (en) | Underwater navigation method and system for underwater vehicle | |
US20200401151A1 (en) | Device motion control | |
WO2020054408A1 (en) | Control device, information processing method, and program | |
JP2017036970A (en) | Information processor, information processing method, and program | |
JP2017146952A5 (en) | Information processing apparatus, information processing apparatus control method, information processing method, and program | |
WO2023015566A1 (en) | Control method, control device, movable platform, and storage medium | |
KR20200085696A (en) | Method of processing video for determining emotion of a person | |
JPWO2018235219A1 (en) | Self-location estimation method, self-location estimation device, and self-location estimation program | |
US20150356780A1 (en) | Method for providing real time guidance to a user and a system thereof | |
US11182633B2 (en) | Storage medium having stored learning program, learning method, and learning apparatus | |
KR102687756B1 (en) | Method and apparatus for generating target location information in water | |
JP2020160594A (en) | Self-position estimating method | |
WO2018096669A1 (en) | Laser processing device, laser processing method, and laser processing program | |
US20230206492A1 (en) | Method for generating three-dimensional map and method for determining pose of user terminal by using generated three-dimensional map |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |