KR102268677B1 - Radar Signal Processing Method and Apparatus for Detecting a human inside a room - Google Patents
Radar Signal Processing Method and Apparatus for Detecting a human inside a room Download PDFInfo
- Publication number
- KR102268677B1 KR102268677B1 KR1020190095582A KR20190095582A KR102268677B1 KR 102268677 B1 KR102268677 B1 KR 102268677B1 KR 1020190095582 A KR1020190095582 A KR 1020190095582A KR 20190095582 A KR20190095582 A KR 20190095582A KR 102268677 B1 KR102268677 B1 KR 102268677B1
- Authority
- KR
- South Korea
- Prior art keywords
- target
- dimensional
- image
- activation map
- neural network
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/02—Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
- G01S13/50—Systems of measurement based on relative movement of target
- G01S13/58—Velocity or trajectory determination systems; Sense-of-movement determination systems
- G01S13/62—Sense-of-movement determination
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/02—Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
- G01S13/50—Systems of measurement based on relative movement of target
- G01S13/52—Discriminating between fixed and moving objects or between objects moving at different speeds
- G01S13/522—Discriminating between fixed and moving objects or between objects moving at different speeds using transmissions of interrupted pulse modulated waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/28—Details of pulse systems
- G01S7/285—Receivers
- G01S7/292—Extracting wanted echo-signals
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/41—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
- G01S7/415—Identification of targets based on measurements of movement associated with the target
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Radar Systems Or Details Thereof (AREA)
- Image Analysis (AREA)
Abstract
펄스 레이더를 이용하여 실내의 사람의 위치를 검출하는 레이더 신호 처리 기술이 개시된다. 펄스 레이더 신호를 펄스 주기별로 버퍼링한 신호를 시간에 따라 누적하여 획득되는 2차원 시간-거리 영상 신호로부터 타겟이 감지된다. 일 예로, 시간-거리 영상 신호는 길쌈 신경망(CNN : Convolutional Neural Network)회로에 의해 처리될 수 있다. 길쌈 신경망 처리부의 활성화 맵에서 활성화도가 높은 연속된 영역을 추출하여 1차원 타겟 영역이 산출될 수 있다. 복수의 레이더 센서에서 획득된 복수의 1차원 타겟 영역들을 후방 투사하여 2차원 타겟 영상이 생성될 수 있다. Disclosed is a radar signal processing technology for detecting a position of a person indoors using a pulse radar. A target is detected from a two-dimensional time-distance image signal obtained by accumulating signals obtained by buffering a pulse radar signal for each pulse period over time. For example, the time-distance image signal may be processed by a convolutional neural network (CNN) circuit. A one-dimensional target region may be calculated by extracting a continuous region having a high degree of activation from the activation map of the convolutional neural network processing unit. A two-dimensional target image may be generated by rearwardly projecting a plurality of one-dimensional target regions obtained from a plurality of radar sensors.
Description
레이더 기술, 특허 펄스 레이더를 이용하여 실내의 사람의 위치를 검출하는 레이더 신호 처리 기술이 개시된다. Radar technology, a radar signal processing technology for detecting the position of a person indoors using a patented pulse radar is disclosed.
임펄스 무선 초광대역 레이더(Impulse-radio Ultra-wideband radar)를 이용하여 호흡에 의한 사람의 움직임(respiratory movement of a person)을 검출함으로써 사람의 존재나 위치를 영상화하는 기술이 알려져 있다. 종래 레이더 신호를 주파수 영역으로 변환하고 그 호흡 주파수 성분을 분석하여 사람을 검출하는 주파수 분석법이 알려져 있다. 주파수 분석법은 호흡과 비슷한 주파수로 움직이는 물체, 예를 들면 바람에 휘날리는 커튼, 회전하는 선풍기, 움직이는 장난감 기차 등과 같은 물체들을 사람의 호흡과 구분하는 것에 어려움을 겪는다.A technique for imaging the presence or location of a person by detecting a respiratory movement of a person by using an impulse-radio ultra-wideband radar is known. A conventional frequency analysis method for detecting a person by converting a radar signal into a frequency domain and analyzing a breathing frequency component thereof is known. Frequency analysis has difficulty in distinguishing objects that move with frequencies similar to breathing, such as curtains blowing in the wind, rotating fans, and moving toy trains, from human breathing.
펄스 레이더 신호로부터 타겟의 생체 움직임을 검출하는 새로운 진보된 방법이 제시된다. A new advanced method for detecting the biological movement of a target from a pulsed radar signal is presented.
또 기존보다 더 간단하면서도 신뢰도 높은 타겟의 생체 움직임을 검출하는 방법이 제시된다. In addition, a method for detecting the biological motion of a target that is simpler and more reliable than the existing one is proposed.
실내의 사람을 검출하고 위치를 파악하여 영상화하는 효과적인 레이더 신호 처리 방법이 제안된다. An effective radar signal processing method for detecting and locating a person indoors and imaging it is proposed.
일 양상에 따르면, 펄스 레이더 신호를 펄스 주기별로 버퍼링한 신호를 시간에따라 누적하여 획득되는 2차원 시간-거리 영상 신호로부터 타겟이 감지된다. According to an aspect, a target is detected from a two-dimensional time-distance image signal obtained by accumulating signals obtained by buffering a pulse radar signal for each pulse period over time.
또 다른 양상에 따르면, 이러한 탐지 과정에서 어떤 영역이 타겟이 존재한다고 판단된 근거로 활용되는 정도를 나타내는 활성화 맵(activation map)이 산출되고 그로부터 1차원 타겟 영역이 산출될 수 있다. According to another aspect, in the detection process, an activation map indicating a degree to which a certain area is used as a basis for determining that a target exists may be calculated, and a one-dimensional target area may be calculated therefrom.
추가적인 양상에 따르면, 시간-거리 영상 신호는 길쌈 신경망(CNN : Convolutional Neural Network)회로에 의해 처리될 수 있다. According to a further aspect, the time-distance image signal may be processed by a convolutional neural network (CNN) circuit.
추가적인 양상에 따르면, 길쌈 신경망 처리부의 활성화 맵에서 활성화도가 높은 연속된 영역을 추출하여 1차원 타겟 영역이 산출될 수 있다. According to an additional aspect, a one-dimensional target region may be calculated by extracting a continuous region having a high activation degree from the activation map of the convolutional neural network processing unit.
추가적인 양상에 따르면, 복수의 펄스 레이더 센서가 준비되고, 각각의 펄스 레이더 센서에 대해 그 펄스 레이더 신호를 펄스 주기별로 버퍼링하여 획득되는 2차원 시간-거리 영상 신호로부터 타겟이 감지되고, 그 활성화 맵에서 1차원 타겟 영역들이 산출될 수 있다. 획득된 복수의 1차원 타겟 영역들로부터 2차원 타겟 영상이 생성될 수 있다. According to a further aspect, a plurality of pulsed radar sensors are prepared, and a target is detected from a two-dimensional time-distance image signal obtained by buffering the pulsed radar signal for each pulse period for each pulsed radar sensor, and in the activation map One-dimensional target regions may be calculated. A two-dimensional target image may be generated from the plurality of obtained one-dimensional target regions.
종속적인 양상에 따르면, 2차원 타겟 영상은 1차원 타겟 영역들을 후방 투사(back-projection)하여 생성될 수 있다. According to a dependent aspect, the 2D target image may be generated by back-projecting 1D target regions.
제안된 발명에 따라 레이더 센서를 이용하여 실내 공간에서 사람을 효과적으로 검출하고 영상화할 수 있다. According to the proposed invention, it is possible to effectively detect and image a person in an indoor space using a radar sensor.
도 1은 일 실시예에 따른 레이더 신호 처리 장치의 구성을 도시한 블록도이다.
도 2는 또 다른 실시예에 따른 레이더 신호 처리 장치의 구성을 도시한 블록도이다.
도 3은 일 실시예에 따른 레이더 신호 처리 방법의 구성을 도시한 흐름도이다.
도 4는 또 다른 실시예에 따른 레이더 신호 처리 방법의 구성을 도시한 흐름도이다.
도 5는 검출 대상 공간에 배열된 레이더 센서의 예시적인 레이더 신호와 그 활성화 맵을 도시한다.1 is a block diagram illustrating a configuration of a radar signal processing apparatus according to an exemplary embodiment.
2 is a block diagram illustrating a configuration of a radar signal processing apparatus according to another embodiment.
3 is a flowchart illustrating a configuration of a radar signal processing method according to an embodiment.
4 is a flowchart illustrating a configuration of a radar signal processing method according to another embodiment.
5 shows an exemplary radar signal of a radar sensor arranged in a detection target space and an activation map thereof.
전술한, 그리고 추가적인 양상들은 첨부된 도면을 참조하여 설명하는 실시예들을 통해 구체화된다. 각 실시예들의 구성 요소들은 다른 언급이나 상호간에 모순이 없는 한 다양한 조합이 가능한 것으로 이해된다. 이하에서는 이러한 양상들을 첨부된 도면을 참조하여 설명하는 실시예들을 통하여 상세히 설명한다. The foregoing and additional aspects are embodied through the embodiments described with reference to the accompanying drawings. It is understood that various combinations of elements of each of the embodiments are possible as long as there is no contradiction between them or other mentions. Hereinafter, these aspects will be described in detail through embodiments described with reference to the accompanying drawings.
도 1은 일 실시예에 따른 레이더 신호 처리 장치의 구성을 도시한 블록도이다. 제안된 발명의 일 실시예에 있어서, 임펄스 무선 초광대역 레이더(Impulse-radio Ultra-Wideband radar, IR UWB Radar) 센서가 검출 대상 공간에 배치된다. 일 실시예에 있어서, IR UWB 레이더는 펄스 레이더이다. UWB 레이더는 매우 폭이 좁은 펄스(extremely narrow pulse)를 송출하며, 타겟으로부터 반사된 반사파를 수신한다. 파장이 매우 좁은 펄스파이기 때문에 수신된 레이더 신호는 타겟의 위치 뿐 아니라 그 생리적인 움직임, 예를 들면 호흡이나 심장의 박동에 관한 정보를 포함할 수 있으며, 비침습적으로 생체 구조에 관한 정보도 제공할 수 있다. 제안된 발명은 IR-UWB 레이더 센서를 배치하고 그 수신 신호를 이용하여 호흡하고 있는 사람이 대상 공간에 몇 명 존재하는지 및/또는 어디에 존재하는지를 파악하는 것을 목적으로 한다. 1 is a block diagram illustrating a configuration of a radar signal processing apparatus according to an exemplary embodiment. In an embodiment of the proposed invention, an Impulse-radio Ultra-Wideband radar (IR UWB Radar) sensor is disposed in the detection target space. In one embodiment, the IR UWB radar is a pulsed radar. UWB radar emits extremely narrow pulses and receives reflected waves from the target. Since the wavelength is a very narrow pulse wave, the received radar signal can include information about not only the position of the target but also its physiological movement, such as respiration or heartbeat, and provides information about the biological structure non-invasively. can do. The proposed invention aims at arranging an IR-UWB radar sensor and identifying how many breathing people exist in a target space and/or where they exist by using the received signal.
도 5의 (a)는 검출 대상 공간에 배열된 레이더 센서의 예시적인 레이더 신호를 도시한다. 도시된 예에서, 초당 12개의 펄스 레이더 신호가 송출되고 그 반사파, 즉 레이더 신호 프레임들이 수신된다. 각각의 레이더 신호 프레임들은 펄스가 타겟에서 반사되어 수신된 것이므로 그 시간축 상에서 거리 정보를 포함한다. 각각의 레이더 신호에서 거리의 해상도는 0.65cm이다. 도시된 신호는 레이더 센서의 수신 프레임에서 1-6m 거리의 770개의 거리 샘플들을 20초 동안 모아서 쌓아 올린 것이다. 즉 각각이 770개의 거리 샘플을 포함하는 12×20=240 개의 레이더 신호 프레임들을 시간 축 상에서 쌓아 올려 2차원으로 표시한 것이다. 여기서 0m~1m 사이의 샘플들은 부정확한 정보를 포함하므로 제거되었다.FIG. 5A shows an exemplary radar signal of a radar sensor arranged in a detection target space. In the example shown, 12 pulses per second radar signal is transmitted and its reflected waves, i.e., radar signal frames, are received. Each of the radar signal frames includes distance information on the time axis because the pulse is received by being reflected from the target. The resolution of the distance in each radar signal is 0.65 cm. The signal shown is a collection of 770 distance samples at a distance of 1-6 m from the receiving frame of the radar sensor for 20 seconds and stacking them up. That is, 12×20=240 radar signal frames each including 770 distance samples are stacked on the time axis and displayed in two dimensions. Here, samples between 0m and 1m were removed because they contained inaccurate information.
도 1은 일 실시예에 따른 레이더 신호 처리 장치의 구성을 도시한 블록도이다. 도시된 바와 같이, 일 실시예에 따른 레이더 신호 처리 방법은 펄스 레이더 센서(113)로부터 레이더 신호를 입력 받아 처리한다. CMOS 기술에 기반한 UWB 레이더 센서 칩이 상용화되어 이미 제공되고 있다. 도시된 실시예에 있어서, 펄스 레이더 센서(113)는 UWB 레이더 센서 칩을 포함하며, 추가로 안테나(111)와 이 UWB 레이더 센서 칩 사이에 연결되는 저잡음 증폭기, 전력 증폭기 등의 회로 소자들을 더 포함할 수 있다. 그러나 개별적인 제어 회로와 아날로그 소자들을 사용하여 구현할 수도 있음은 당연하다. 1 is a block diagram illustrating a configuration of a radar signal processing apparatus according to an exemplary embodiment. As shown, the radar signal processing method according to an embodiment receives and processes a radar signal from the
일 실시예에 따른 레이더 신호 처리 장치는 영상기반 타겟 탐지부(150)와, 타겟 위치 산출부(170)를 포함한다. 영상기반 타겟 탐지부(150)와 타겟 위치 산출부(170)는 UWB 레이더 센서 칩 내부에 구비된 디지털 신호처리기에서 프로그램으로 구현될 수 있다. 또 다른 예로, UWB 레이더 센서 칩에 연결되는 별도의 디지털 신호 처리기 혹은 인공 지능 프로세서에서 전용 하드웨어 및 소프트웨어의 조합으로 구현될 수 있다. 이러한 구현 방법은 다양하게 알려져 있으며, 설계 사양에 따라 적절히 선택될 수 있다. The radar signal processing apparatus according to an embodiment includes an image-based
영상기반 타겟 탐지부(150)는 펄스 레이더 신호를 펄스 주기별로 버퍼링한 신호를 시간에 따라 누적하여 획득되는 2차원 시간-거리 영상 신호를 입력 받아 타겟을 감지한다. 영상기반 타겟 탐지부(150)의 입력의 일 예가 도 5의 (a)에 도시되었다. 이러한 신호를 본 명세서에서는 “시간-거리 영상 신호”라고 부른다. 이는 펄스 레이더 신호를 일정한 길이로 잘라서 배열한 것이지만, 영상 신호와 유사한 용장 특성(redundancy characteristics)을 가지므로 이와 같이 부르기로 한다. 버퍼(130)는 도시되지 않은 메모리 제어기의 제어 하에, 펄스 레이더 센서(113)가 출력하는 디지털 레이더 신호를 버퍼링한 신호를 시간에 따라 누적하여 2차원 시간-거리 영상 신호를 생성한다. 영상기반 타겟 탐지부(150)는 이와 같은 시간-거리 영상 신호를 입력 받아 타겟을 감지한다. 제안된 발명은 레이더 신호의 시간-거리 영상 전체를 입력으로 사용하여 입력 정보의 활용도를 높이고 처리 시간을 줄인다.The image-based
추가적인 양상에 따르면, 영상 기반 타겟 탐지부(150)는 시간-거리 영상 신호를 입력 받아 타겟의 존재 여부를 출력하는 길쌈 신경망(CNN : Convolutional Neural Network) 처리부를 포함할 수 있다. 길쌈 신경망 회로는 영상 인식에 효과적으로 사용되는 인공 지능 알고리즘으로 알려져 있다. 제안된 발명은 펄스 레이더 신호를 버퍼링한 신호를 시간에 따라 누적하여 영상 신호의 특성을 가지는 2차원 시간-거리 영상 신호로 구성하고, 이를 이러한 길쌈 신경망 회로로 처리하여 타겟의 존재 여부 혹은 타겟의 개수를 산출할 수 있다. 획득한 시간-거리 영상의 특징을 더욱 두드러지도록 하기 위하여 길쌈 신경망 회로에 입력하기 전에 영상 정규화(normalization) 처리를 더 거칠 수 있다. According to an additional aspect, the image-based
길쌈 신경망 회로가 타겟의 존재 여부를 출력하는 경우 시간-거리 영상과 그 타겟 존재 여부로 학습시킬 수 있다. 또 다른 예로, 길쌈 신경망 회로가 타겟의 개수를 출력하는 경우 시간-거리 영상과 그 영상에 존재하는 타겟의 개수로 학습시킬 수 있다.When the convolutional neural network circuit outputs the presence or absence of a target, it can learn from a time-distance image and whether the target exists. As another example, when the convolutional neural network circuit outputs the number of targets, learning may be performed using a time-distance image and the number of targets present in the image.
타겟 위치 산출부(170)는 영상기반 타겟 탐지부(150)의 활성화 맵(activation map)을 산출하여 그로부터 1차원 타겟 영역을 산출한다. 일 양상에 따라, 영상 기반 타겟 탐지부(150)는 타겟의 존재 여부를 판단할 때 주파수 특성을 분석하거나 하지 않고, 영상의 특정한 영역에 기초하여 판단한다. 활성화 맵은 어떤 영역이 타겟이 존재한다고 판단된 근거로 활용되는 정도를 나타내는 정도값을 모든 영역에 대해 표시한 맵이다. 이러한 활성화 맵에서 값이 높은 영역은 그 영역으로 인해 타겟 위치 산출부(170)가 타겟이 존재한다고 판단하였음을 의미한다. 따라서 활성화 맵에서 높은 값을 나타내는 영역을 분별하면 타겟이 존재하는 위치를 알 수 있다. The
추가적인 양상에 따르면, 타겟 위치 산출부는 활성화 맵 산출부(171)와, 1차원 위치 산출부(173)를 포함할 수 있다. 활성화 맵 산출부(171)는 길쌈 신경망 회로의 활성화 맵을 산출한다. 도시된 실시예에서, 활성화 맵 산출부(171)는 GradCAM(Gradient-weighted Class Activation Mapping) 알고리즘에 따라 활성화 맵을 산출한다. 일반적으로 CNN과 같은 딥러닝 알고리즘은 매우 우수한 특성을 나타내지만 그 결과를 설명하지 못한다는 단점이 있었다. 이러한 문제를 해결하고자 XAI (Explainable Aritificial Intelligence) 기술이 개발되고 있다. GradCAM은 CNN의 마지막 레이어의 전체 필터를 추출하여 각 필터들이 결과에 얼마나 영향을 주었는지 가중치를 계산하고 이를 마지막 레이어에 적용한 후 복수 필터를 평균하는 하나의 필터를 통해 양의 값을 출력하도록 변형한다. 그러나 제안된 발명은 이에 한정되지 않으며, 신경망 회로의 활성화 맵을 산출하는 다른 알고리즘을 적용할 수도 있다. According to an additional aspect, the target location calculator may include an
호흡 검출에 있어서 CNN이 타겟을 식별하는데 영향을 미친 정도가 큰 영역이 해당 영상에서 호흡이 검출된 영역, 즉 타겟이 존재하는 영역이 될 확률이 높다. 도 5의 (b)는 도 5의 (a)의 시간-거리 영상의 Grad-CAM 출력 영상을 원 영상과 동일 스케일로 표시한 것이다. 3.2m 정도 거리에 존재하는 호흡 신호 패턴에 맞추어 활성화 맵이 출력되고 있다. In respiration detection, the area where the CNN has a great influence on identifying the target is highly likely to be the area where the respiration is detected in the image, that is, the area where the target exists. FIG. 5(b) shows the Grad-CAM output image of the time-distance image of FIG. 5(a) in the same scale as the original image. The activation map is output according to the breathing signal pattern that exists at a distance of about 3.2m.
1차원 위치 산출부(173)는 활성화 맵에서 활성화도가 높은 연속된 영역을 추출하여 1차원 타겟 영역으로 산출한다. 예를 들어 활성화 맵에서 활성화도가 일정치 이상인 영역들을 병합하고, 그 연속된 영역의 크기, 즉 영역별 픽셀수가 일정치 이상인 경우에 해당 거리에 사람이 존재한다고 판단할 수 있다. The one-
도 1에 도시된 실시예에서, 출력부(190)는 타겟 위치 산출부(170)에서 구해진 1차원 타겟 영역 정보를 출력한다. 예를 들어 출력부(190)는 타겟의 존재 여부를 출력할 수 있다. 또 다른 예로, 출력부(190)는 해당 공간에 존재하는 타겟의 개수를 출력할 수 있다. 또 다른 예로, 출력부(190)는 레이더 센서에서 해당 공간에 존재하는 타겟 까지의 거리를 출력할 수 있다. 또 다른 예로, 출력부(190)는 해당 공간에 존재하는 타겟을 시각화하여 영상으로 출력할 수 있다.In the embodiment shown in FIG. 1 , the
도 2는 또 다른 실시예에 따른 레이더 신호 처리 장치의 구성을 도시한 블록도이다. 도시된 바와 같이, 또 다른 실시예에 따른 레이더 신호 처리 장치는 복수의 1차원 타겟 영역 검출부(160-1,160-2,…,160-n)와, 2차원 영상 생성부(180)를 포함한다. 2 is a block diagram illustrating a configuration of a radar signal processing apparatus according to another embodiment. As shown, the radar signal processing apparatus according to another exemplary embodiment includes a plurality of one-dimensional target area detectors 160-1, 160-2, ..., 160-n and a two-
편의를 위해 도시되지 않았지만, 복수의 1차원 타겟 영역 검출부(160-1,160-2,…,160-n)의 각각은 영상기반 타겟 탐지부(150-1,150-2,…,150-n)와, 타겟 위치 산출부(170-1,170-2,…,170-n)를 포함한다. 영상기반 타겟 탐지부(150-1,150-2,…,150-n)는 펄스 레이더 센서(113-1,113-2,…,113-n)로부터의 펄스 레이더 신호를 펄스 주기별로 버퍼링한 신호를 시간에 따라 누적하여 획득되는 2차원 시간-거리 영상 신호를 입력 받아 타겟을 감지한다. Although not shown for convenience, each of the plurality of one-dimensional target area detection units 160-1, 160-2, ..., 160-n includes an image-based target detection unit 150-1, 150-2, ..., 150-n; and target position calculation units 170-1, 170-2, ..., 170-n. The image-based target detection unit 150-1, 150-2, ..., 150-n buffers the pulse radar signals from the pulse radar sensors 113-1, 113-2, ..., 113-n for each pulse period in time. A target is sensed by receiving a two-dimensional time-distance image signal that is accumulated according to the input.
추가적인 양상에 따르면, 각각의 영상 기반 타겟 탐지부(150)는 시간-거리 영상 신호를 입력 받아 타겟의 존재 여부를 출력하는 길쌈 신경망(CNN : Convolutional Neural Network) 처리부를 포함할 수 있다. 획득한 시간-거리 영상의 특징을 더욱 두드러지도록 하기 위하여 길쌈 신경망 회로에 입력하기 전에 각각 영상 정규화(normalization) 처리를 더 거칠 수 있다. According to an additional aspect, each image-based
타겟 위치 산출부(170-1,170-2,…,170-n)는 영상기반 타겟 탐지부(150-1,150-2,…,150-n)의 활성화 맵(activation map)을 산출하여 그로부터 1차원 타겟 영역들을 산출한다. 도시된 실시예에서, 활성화 맵 산출부(171)는 GradCAM(Gradient-weighted Class Activation Mapping) 알고리즘에 따라 활성화 맵을 산출한다. 이들의 구성에 대해서는 도 1과 유사하므로 상세한 설명은 생략한다. The target position calculation unit 170-1, 170-2, ..., 170-n calculates an activation map of the image-based target detection unit 150-1, 150-2, ..., 150-n and calculates an activation map therefrom. Count areas. In the illustrated embodiment, the activation
2차원 영상 생성부(180)는 복수의 1차원 타겟 영역 검출부의 출력들로부터 2차원 타겟 영상을 생성하여 출력한다. 복수의 1차원 타겟 영역 검출부(160-1,160-2,…,160-n)가 출력하는 1차원 타겟 영역들은 대응하는 펄스 레이더 센서로부터 타겟까지의 거리 정보를 포함한다. 동일한 타겟이 복수의 펄스 레이더 센서에서 검출되므로, 이들을 종합하면 타겟의 2차원 위치를 알 수 있다. The
추가적인 양상에 따르면, 2차원 영상 생성부(180)는 복수의 1차원 타겟 영역 검출부(160-1,160-2,…,160-n)에서 산출된 복수의 1차원 타겟 영역들을 후방 투사(back-projection)하여 2차원 타겟 영상을 생성할 수 있다. 예를 들어 각각의 펄스 레이더 센서를 중심으로 산출된 1차원 타겟 영역까지의 거리를 반경으로 하는 원호를 그리고 그 만나는 점들에 타겟이 존재하는 것으로 식별할 수 있다. 이러한 후방 투사에 의해 2차원 영상을 생성하는 방법은 알려져 있으므로 상세한 설명은 생략한다. According to an additional aspect, the
도 3은 일 실시예에 따른 레이더 신호 처리 방법의 구성을 도시한 흐름도이다. 일 실시예에 따른 레이더 신호 처리 방법은 펄스 레이더 센서(113)로부터 레이더 신호를 입력 받아 처리한다. CMOS 기술에 기반한 UWB 레이더 센서 칩이 상용화되어 이미 제공되고 있다. 일 실시예에 따른 레이더 신호 처리 방법은 영상기반 타겟 탐지 단계(350)와, 타겟 위치 산출 단계(370)를 포함한다. 영상기반 타겟 탐지 단계(350)와 타겟 위치 산출 단계(370)는 UWB 레이더 센서 칩 내부에 구비된 디지털 신호처리기에서 프로그램으로 구현될 수 있다. 또 다른 예로, UWB 레이더 센서 칩에 연결되는 별도의 디지털 신호 처리기 혹은 인공 지능 프로세서에서 전용 하드웨어 및 소프트웨어의 조합으로 구현될 수 있다. 이러한 구현 방법은 다양하게 알려져 있으며, 설계 사양에 따라 적절히 선택될 수 있다. 3 is a flowchart illustrating a configuration of a radar signal processing method according to an embodiment. The radar signal processing method according to an embodiment receives and processes a radar signal from the
먼저 레이더 신호를 도시되지 않은 메모리 제어기의 제어 하에, 펄스 레이더 센서가 출력하는 디지털 레이더 신호를 버퍼링한 신호를 시간에 따라 누적하여 2차원 시간-거리 영상 신호를 생성한다(단계 330). 영상기반 타겟 탐지 단계(350)에서는 이와 같은 시간-거리 영상 신호를 입력 받아 타겟을 감지한다. 제안된 발명은 레이더 신호의 시간-거리 영상 전체를 입력으로 사용하여 입력 정보의 활용도를 높이고 처리 시간을 줄인다.First, a two-dimensional time-distance image signal is generated by accumulating a signal obtained by buffering a digital radar signal output from a pulse radar sensor over time under the control of a not-shown memory controller (step 330). In the image-based
추가적인 양상에 따르면, 영상 기반 타겟 탐지 단계(350)에서는 시간-거리 영상 신호를 입력 받아 타겟의 존재 여부를 출력하는 길쌈 신경망(CNN : Convolutional Neural Network) 처리 단계를 포함할 수 있다. 길쌈 신경망 회로는 영상 인식에 효과적으로 사용되는 인공 지능 알고리즘으로 알려져 있다. 제안된 발명은 펄스 레이더 신호를 버퍼링한 신호를 시간에 따라 누적하여 영상 신호의 특성을 가지는 2차원 시간-거리 영상 신호로 구성하고, 이를 이러한 길쌈 신경망 회로로 처리하여 타겟의 존재 여부 혹은 타겟의 개수를 산출할 수 있다. 획득한 시간-거리 영상의 특징을 더욱 두드러지도록 하기 위하여 길쌈 신경망 회로에 입력하기 전에 영상 정규화(normalization) 처리를 더 거칠 수 있다. According to an additional aspect, the image-based
길쌈 신경망 회로가 타겟의 존재 여부를 출력하는 경우 시간-거리 영상과 그 타겟 존재 여부로 학습시킬 수 있다. 또 다른 예로, 길쌈 신경망 회로가 타겟의 개수를 출력하는 경우 시간-거리 영상과 그 영상에 존재하는 타겟의 개수로 학습시킬 수 있다.When the convolutional neural network circuit outputs the presence or absence of a target, it can learn from a time-distance image and whether the target exists. As another example, when the convolutional neural network circuit outputs the number of targets, learning may be performed using a time-distance image and the number of targets present in the image.
타겟 위치 산출 단계(370)에서는 영상기반 타겟 탐지 단계(350)에서의 처리의 활성화 맵(activation map)을 산출하여 그로부터 1차원 타겟 영역을 산출한다. 일 양상에 따라, 영상 기반 타겟 탐지 단계(350)는 타겟의 존재 여부를 판단할 때 주파수 특성을 분석하거나 하지 않고, 영상의 특정한 영역에 기초하여 판단한다. 활성화 맵은 어떤 영역이 타겟이 존재한다고 판단된 근거로 활용되는 정도를 나타내는 정도값을 모든 영역에 대해 표시한 맵이다. 이러한 활성화 맵에서 값이 높은 영역은 그 영역으로 인해 타겟 위치 산출 단계(370)가 타겟이 존재한다고 판단하였음을 의미한다. 따라서 활성화 맵에서 높은 값을 나타내는 영역을 분별하면 타겟이 존재하는 위치를 알 수 있다. In the target
추가적인 양상에 따르면, 타겟 위치 산출 단계(370)는 활성화 맵 산출 단계(371)와, 1차원 위치 산출 단계(373)를 포함할 수 있다. 활성화 맵 산출 단계(371)에서는 길쌈 신경망 회로의 활성화 맵을 산출한다. 도시된 실시예에서, 활성화 맵 산출 단계(371)는 GradCAM(Gradient-weighted Class Activation Mapping) 알고리즘에 따라 활성화 맵을 산출한다. 일반적으로 CNN과 같은 딥러닝 알고리즘은 매우 우수한 특성을 나타내지만 그 결과를 설명하지 못한다는 단점이 있었다. 이러한 문제를 해결하고자 XAI (Explainable Aritificial Intelligence) 기술이 개발되고 있다. GradCAM은 CNN의 마지막 레이어의 전체 필터를 추출하여 각 필터들이 결과에 얼마나 영향을 주었는지 가중치를 계산하고 이를 마지막 레이어에 적용한 후 복수 필터를 평균하는 하나의 필터를 통해 양의 값을 출력하도록 변형한다. 그러나 제안된 발명은 이에 한정되지 않으며, 신경망 회로의 활성화 맵을 산출하는 다른 알고리즘을 적용할 수도 있다.According to a further aspect, calculating the
호흡 검출에 있어서 CNN이 타겟을 식별하는데 영향을 미친 정도가 큰 영역이 해당 영상에서 호흡이 검출된 영역, 즉 타겟이 존재하는 영역이 될 확률이 높다. 도 5의 (b)는 도 5의 (a)의 시간-거리 영상의 Grad-CAM 출력 영상을 원 영상과 동일 스케일로 표시한 것이다. 3.2m 정도 거리에 존재하는 호흡 신호 패턴에 맞추어 활성화 맵이 출력되고 있다. In respiration detection, the area where the CNN has a great influence on identifying the target is highly likely to be the area where the respiration is detected in the image, that is, the area where the target exists. FIG. 5(b) shows the Grad-CAM output image of the time-distance image of FIG. 5(a) in the same scale as the original image. The activation map is output according to the breathing signal pattern that exists at a distance of about 3.2m.
1차원 위치 산출 단계(373)에서는 활성화 맵에서 활성화도가 높은 연속된 영역을 추출하여 1차원 타겟 영역으로 산출한다. 예를 들어 활성화 맵에서 활성화도가 일정치 이상인 영역들을 병합하고, 그 연속된 영역의 크기, 즉 영역별 픽셀수가 일정치 이상인 경우에 해당 거리에 사람이 존재한다고 판단할 수 있다. In the one-dimensional
도 3에 도시된 실시예에서, 출력 단계(390)에서는 타겟 위치 산출 단계(370)에서 구해진 1차원 타겟 영역 정보를 출력한다. 예를 들어 출력 단계(390)에서 타겟의 존재 여부를 출력할 수 있다. 또 다른 예로, 출력 단계(390)에서 해당 공간에 존재하는 타겟의 개수를 출력할 수 있다. 또 다른 예로, 출력 단계(390)에서 레이더 센서에서 해당 공간에 존재하는 타겟 까지의 거리를 출력할 수 있다. 또 다른 예로, 출력 단계(390)에서 해당 공간에 존재하는 타겟을 시각화하여 영상으로 출력할 수 있다.In the embodiment shown in FIG. 3 , in the
도 4는 또 다른 실시예에 따른 레이더 신호 처리 방법의 구성을 도시한 흐름도이다. 도시된 바와 같이, 또 다른 실시예에 따른 레이더 신호 처리 방법은 복수의 1차원 타겟 영역 검출 단계(360-1,360-2,…,360-n)와, 2차원 영상 생성 단계(380)를 포함한다. 4 is a flowchart illustrating a configuration of a radar signal processing method according to another embodiment. As shown, the radar signal processing method according to another embodiment includes detecting a plurality of one-dimensional target regions (360-1, 360-2, ..., 360-n) and generating a two-dimensional image (380). .
먼저 펄스 레이더 센서들로부터의 펄스 레이더 신호 각각이 버퍼링되면서 2차원 시간-거리 영상 신호로 재배열된다(단계 330-1,330-2,…,330-n). 이후에 각각의 버퍼링된 시간-거리 영상 신호가 1차원 타겟 영역 검출 단계에서 처리되어 각각의 1차원 타겟 영역이 산출된다. 편의를 위해 도시되지 않았지만, 복수의 1차원 타겟 영역 검출 단계(360-1,360-2,…,360-n)의 각각은 영상기반 타겟 탐지 단계(350-1,350-2,…,350-n)와, 타겟 위치 산출 단계(370-1,370-2,…,370-n)를 포함할 수 있다. 영상기반 타겟 탐지 단계(350-1,350-2,…,350-n)에서는 펄스 레이더 센서들로부터의 펄스 레이더 신호를 펄스 주기별로 버퍼링한 신호를 시간에 따라 누적하여 획득되는 2차원 시간-거리 영상 신호를 입력 받아 타겟을 감지한다. First, each of the pulse radar signals from the pulse radar sensors is buffered and rearranged into a two-dimensional time-distance image signal (steps 330-1, 330-2, ..., 330-n). Thereafter, each buffered time-distance image signal is processed in a one-dimensional target region detection step to calculate each one-dimensional target region. Although not shown for convenience, each of the plurality of one-dimensional target area detection steps 360-1, 360-2, ..., 360-n includes an image-based target detection step 350-1, 350-2, ..., 350-n and , target position calculation steps 370-1, 370-2, ..., 370-n may be included. In the image-based target detection step 350-1, 350-2, ..., 350-n, a two-dimensional time-distance image signal obtained by accumulating signals obtained by buffering pulsed radar signals from pulsed radar sensors for each pulse period over time. Detects the target by receiving input.
추가적인 양상에 따르면, 각각의 영상 기반 타겟 탐지 단계(350)는 시간-거리 영상 신호를 입력 받아 타겟의 존재 여부를 출력하는 길쌈 신경망(CNN : Convolutional Neural Network) 처리 단계를 포함할 수 있다. 획득한 시간-거리 영상의 특징을 더욱 두드러지도록 하기 위하여 길쌈 신경망 회로에 입력하기 전에 각각 영상 정규화(normalization) 처리를 더 거칠 수 있다. According to an additional aspect, each image-based
타겟 위치 산출 단계(370-1,370-2,…,370-n)에서는 영상기반 타겟 탐지 단계(350-1,350-2,…,350-n)의 활성화 맵(activation map)을 산출하여 그로부터 1차원 타겟 영역들을 산출한다. 도시된 실시예에서, 활성화 맵 산출 단계(371)는 GradCAM(Gradient-weighted Class Activation Mapping) 알고리즘에 따라 활성화 맵을 산출한다. 그러나 제안된 발명은 이에 한정되지 않으며, 신경망 회로의 활성화 맵을 산출하는 다른 알고리즘을 적용할 수도 있다. 이들의 구성에 대해서는 도 1과 유사하므로 상세한 설명은 생략한다. In the target position calculation step (370-1, 370-2, ..., 370-n), an activation map of the image-based target detection step (350-1, 350-2, ..., 350-n) is calculated, and the one-dimensional target is obtained therefrom. Count areas. In the illustrated embodiment, the activation
2차원 영상 생성 단계(380)에서는 복수의 1차원 타겟 영역 검출부의 출력들로부터 2차원 타겟 영상을 생성하여 출력한다. 복수의 1차원 타겟 영역 검출 단계(360-1,360-2,…,360-n)에서 출력된 1차원 타겟 영역들은 대응하는 펄스 레이더 센서로부터 타겟까지의 거리 정보를 포함한다. 동일한 타겟이 복수의 펄스 레이더 센서에서 검출되므로, 이들을 종합하면 타겟의 2차원 위치를 알 수 있다. In the 2D
추가적인 양상에 따르면, 2차원 영상 생성 단계(380)에서는 복수의 1차원 타겟 영역 검출 단계(360-1,360-2,…,360-n)에서 산출된 복수의 1차원 타겟 영역들을 후방 투사(back-projection)하여 2차원 타겟 영상을 생성할 수 있다. 예를 들어 각각의 펄스 레이더 센서를 중심으로 산출된 1차원 타겟 영역까지의 거리를 반경으로 하는 원호를 그리고 그 만나는 점들에 타겟이 존재하는 것으로 식별할 수 있다. 이러한 후방 투사에 의해 2차원 영상을 생성하는 방법은 알려져 있으므로 상세한 설명은 생략한다. According to an additional aspect, in the 2D
이상에서 본 발명을 첨부된 도면을 참조하는 실시예들을 통해 설명하였지만 이에 한정되는 것은 아니며, 이들로부터 당업자라면 자명하게 도출할 수 있는 다양한 변형예들을 포괄하도록 해석되어야 한다. 특허청구범위는 이러한 변형예들을 포괄하도록 의도되었다. Although the present invention has been described above with reference to the accompanying drawings, the present invention is not limited thereto, and it should be construed to encompass various modifications that can be apparent from those skilled in the art. The claims are intended to cover such modifications.
111 : 안테나 113 : 펄스 레이더 센서
130 : 버퍼 150 : 영상 기반 타겟 탐지부
160 : 1차원 타겟 영역 검출부 170 : 타겟 위치 산출부
171 : 활성화 맵 산출부 173 : 1차원 위치 산출부
180 : 1차원 영상 생성부 190 : 출력부111: antenna 113: pulse radar sensor
130: buffer 150: image-based target detection unit
160: one-dimensional target area detection unit 170: target position calculation unit
171: activation map calculation unit 173: one-dimensional position calculation unit
180: one-dimensional image generating unit 190: output unit
Claims (14)
길쌈 신경망 처리부의 활성화 맵을 산출하는 활성화 맵 산출부와, 활성화 맵에서 활성화도가 일정치보다 높은 연속된 영역을 추출하여 1차원 타겟 영역으로 산출하는 1차원 위치 산출부를 포함하는 타겟 위치 산출부;
를 포함하는 레이더 신호 처리 장치.Image-based including a convolutional neural network (CNN) processing unit that receives a two-dimensional time-distance image signal obtained by accumulating a pulse radar signal buffered for each pulse period over time and outputs the presence or absence of a target target detection unit;
a target location calculator comprising: an activation map calculator for calculating an activation map of the convolutional neural network processor; and a one-dimensional location calculator for calculating a one-dimensional target region by extracting a continuous region having an activation degree higher than a predetermined value from the activation map;
A radar signal processing device comprising a.
상기 복수의 1차원 타겟 영역 검출부의 출력들로부터 2차원 타겟 영상을 생성하여 출력하는 2차원 영상 생성부;
를 포함하는 레이더 신호 처리 장치. A plurality of convolutional neural network (CNN) processing units each including a convolutional neural network (CNN) processing unit that receives a two-dimensional time-distance image signal obtained by accumulating a pulse radar signal buffered for each pulse period over time and outputs the presence or absence of a target of the image-based target detection unit, a plurality of activation map calculation units each calculating an activation map of the convolutional neural network processing unit, and extracting a continuous region having an activation degree higher than a certain value from each activation map to 1 a plurality of one-dimensional target area detection units each including a target position calculation unit including a one-dimensional position calculation unit for calculating a dimensional target area;
a two-dimensional image generator for generating and outputting a two-dimensional target image from outputs of the plurality of one-dimensional target region detectors;
A radar signal processing device comprising a.
길쌈 신경망의 활성화 맵을 산출하는 활성화 맵 산출 단계와;
활성화 맵에서 활성화도가 일정치보다 높은 연속된 영역을 추출하여 1차원 타겟 영역으로 산출하는 1차원 위치 산출 단계;
를 포함하는 레이더 신호 처리 방법.An image-based target detection step of detecting a target by processing a two-dimensional time-distance image signal obtained by accumulating a signal obtained by buffering a pulse radar signal for each pulse period over time by a convolutional neural network (CNN);
an activation map calculation step of calculating an activation map of the convolutional neural network;
a one-dimensional position calculation step of extracting a continuous region having an activation degree higher than a predetermined value from the activation map and calculating it as a one-dimensional target region;
A radar signal processing method comprising a.
각각의 1차원 위치 산출 단계에서 산출된 1차원 타겟 영역들로부터 2차원 타겟 영상을 생성하여 출력하는 2차원 영상 생성 단계;
를 포함하는 레이더 신호 처리 방법.A two-dimensional time-distance image signal obtained by accumulating signals buffered for each pulse period from each of the pulse radar sensors from a plurality of pulse radar sensors is processed by a convolutional neural network (CNN) to obtain a target. An image-based target detection step of sensing, an activation map calculation step of calculating an activation map of each convolutional neural network, and a one-dimensional target area by extracting a continuous region with an activation degree higher than a certain value from each activation map a one-dimensional target area detection step including a one-dimensional position calculation step;
a two-dimensional image generating step of generating and outputting a two-dimensional target image from the one-dimensional target regions calculated in each one-dimensional position calculation step;
A radar signal processing method comprising a.
The method of claim 13 , wherein the generating of the 2D image comprises back-projecting the plurality of 1D target areas calculated in the step of detecting the 1D target area to generate a 2D target image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190095582A KR102268677B1 (en) | 2019-08-06 | 2019-08-06 | Radar Signal Processing Method and Apparatus for Detecting a human inside a room |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190095582A KR102268677B1 (en) | 2019-08-06 | 2019-08-06 | Radar Signal Processing Method and Apparatus for Detecting a human inside a room |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20210016998A KR20210016998A (en) | 2021-02-17 |
KR102268677B1 true KR102268677B1 (en) | 2021-06-23 |
Family
ID=74732056
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190095582A KR102268677B1 (en) | 2019-08-06 | 2019-08-06 | Radar Signal Processing Method and Apparatus for Detecting a human inside a room |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102268677B1 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115880535A (en) * | 2023-01-03 | 2023-03-31 | 上海轴芯科技有限公司 | Unmanned aerial vehicle identification method based on pulse radar signals and applied to unmanned aerial vehicle |
KR102701027B1 (en) * | 2023-12-05 | 2024-08-30 | 한화시스템 주식회사 | Method for monitoring for target, adjusting method of firing apparatus, apparatus for controlling naval gun fire and combat system |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101460591B1 (en) | 2013-05-03 | 2014-11-12 | 한남대학교 산학협력단 | Method and device for recognizing radar target using combining of feature vectors |
JP2019086464A (en) | 2017-11-09 | 2019-06-06 | 株式会社東芝 | Radar device and radar signal processing method thereof |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101984274B1 (en) * | 2017-08-30 | 2019-05-30 | 주식회사 한화 | Apparatus for detecting target and identifying shape in surveillance scout and method thereof |
-
2019
- 2019-08-06 KR KR1020190095582A patent/KR102268677B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101460591B1 (en) | 2013-05-03 | 2014-11-12 | 한남대학교 산학협력단 | Method and device for recognizing radar target using combining of feature vectors |
JP2019086464A (en) | 2017-11-09 | 2019-06-06 | 株式会社東芝 | Radar device and radar signal processing method thereof |
Non-Patent Citations (2)
Title |
---|
Matijs Heiligers 외 1명. On the importance of visual explanation and segmentation for SAR ATR using deep learning. In 2018 IEEE Radar Conference. 2018.4.* |
Xinyu Li 외 2명. A survey of deep learning-based human activity recognition in radar. Remote Sensing. vol.11, no.9., 2019.5.* |
Also Published As
Publication number | Publication date |
---|---|
KR20210016998A (en) | 2021-02-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11412937B2 (en) | Multi-person vital signs monitoring using millimeter wave (mm-wave) signals | |
Liu et al. | Automatic fall detection based on Doppler radar motion signature | |
KR102151195B1 (en) | System and method for detecting passenger in vehicle using UWB | |
CN105190691B (en) | Equipment for obtaining the vital sign of object | |
US8634591B2 (en) | Method and system for image analysis | |
WO2020103409A1 (en) | Detection method, detection apparatus, terminal and detection system | |
CN106066995B (en) | A kind of wireless unbundling human body behavioral value algorithm | |
US20240203227A1 (en) | System and Method for Monitoring Life Signs of a Person | |
US20140266860A1 (en) | Method and system for activity detection and classification | |
KR102268677B1 (en) | Radar Signal Processing Method and Apparatus for Detecting a human inside a room | |
Bosch-Jorge et al. | Fall detection based on the gravity vector using a wide-angle camera | |
CN106456062A (en) | Method and system for unattended child detection | |
WO2013060249A1 (en) | Non-contact vital sign detection method and detection system based on video image | |
US6503197B1 (en) | System and method for detecting an action of the head and generating an output in response thereto | |
JP3922694B2 (en) | Monitoring device | |
Amini et al. | A comparison between heuristic and machine learning techniques in fall detection using Kinect v2 | |
Janakaraj et al. | STAR: Simultaneous tracking and recognition through millimeter waves and deep learning | |
FR3009184A1 (en) | METHOD AND SYSTEM FOR IDENTIFYING RESPIRATORY ACTIVITY | |
WO2019136395A1 (en) | System and method for monitoring life signs of a person | |
Li et al. | Improving acoustic fall recognition by adaptive signal windowing | |
KR102177625B1 (en) | pulse radar apparatus and signal processing method for the same | |
Srinivasan et al. | Presence detection using wideband audio-ultrasound sensor | |
US20220028082A1 (en) | Movement indication | |
JP4509654B2 (en) | Sensing device | |
US11986308B2 (en) | Biosignal measuring apparatus, method for detecting signal peaks in an electrocardiogram of detecting an effective peak using the complexity value around the peak in the wavelet transformed signals, and a computer program for performing the methods |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |