Nothing Special   »   [go: up one dir, main page]

KR102268677B1 - Radar Signal Processing Method and Apparatus for Detecting a human inside a room - Google Patents

Radar Signal Processing Method and Apparatus for Detecting a human inside a room Download PDF

Info

Publication number
KR102268677B1
KR102268677B1 KR1020190095582A KR20190095582A KR102268677B1 KR 102268677 B1 KR102268677 B1 KR 102268677B1 KR 1020190095582 A KR1020190095582 A KR 1020190095582A KR 20190095582 A KR20190095582 A KR 20190095582A KR 102268677 B1 KR102268677 B1 KR 102268677B1
Authority
KR
South Korea
Prior art keywords
target
dimensional
image
activation map
neural network
Prior art date
Application number
KR1020190095582A
Other languages
Korean (ko)
Other versions
KR20210016998A (en
Inventor
김정태
한미선
Original Assignee
이화여자대학교 산학협력단
주식회사 탑 엔지니어링
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이화여자대학교 산학협력단, 주식회사 탑 엔지니어링 filed Critical 이화여자대학교 산학협력단
Priority to KR1020190095582A priority Critical patent/KR102268677B1/en
Publication of KR20210016998A publication Critical patent/KR20210016998A/en
Application granted granted Critical
Publication of KR102268677B1 publication Critical patent/KR102268677B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/50Systems of measurement based on relative movement of target
    • G01S13/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • G01S13/62Sense-of-movement determination
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/50Systems of measurement based on relative movement of target
    • G01S13/52Discriminating between fixed and moving objects or between objects moving at different speeds
    • G01S13/522Discriminating between fixed and moving objects or between objects moving at different speeds using transmissions of interrupted pulse modulated waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/28Details of pulse systems
    • G01S7/285Receivers
    • G01S7/292Extracting wanted echo-signals
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/415Identification of targets based on measurements of movement associated with the target
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Image Analysis (AREA)

Abstract

펄스 레이더를 이용하여 실내의 사람의 위치를 검출하는 레이더 신호 처리 기술이 개시된다. 펄스 레이더 신호를 펄스 주기별로 버퍼링한 신호를 시간에 따라 누적하여 획득되는 2차원 시간-거리 영상 신호로부터 타겟이 감지된다. 일 예로, 시간-거리 영상 신호는 길쌈 신경망(CNN : Convolutional Neural Network)회로에 의해 처리될 수 있다. 길쌈 신경망 처리부의 활성화 맵에서 활성화도가 높은 연속된 영역을 추출하여 1차원 타겟 영역이 산출될 수 있다. 복수의 레이더 센서에서 획득된 복수의 1차원 타겟 영역들을 후방 투사하여 2차원 타겟 영상이 생성될 수 있다. Disclosed is a radar signal processing technology for detecting a position of a person indoors using a pulse radar. A target is detected from a two-dimensional time-distance image signal obtained by accumulating signals obtained by buffering a pulse radar signal for each pulse period over time. For example, the time-distance image signal may be processed by a convolutional neural network (CNN) circuit. A one-dimensional target region may be calculated by extracting a continuous region having a high degree of activation from the activation map of the convolutional neural network processing unit. A two-dimensional target image may be generated by rearwardly projecting a plurality of one-dimensional target regions obtained from a plurality of radar sensors.

Description

재실 감지를 위한 레이더 신호 처리 방법 및 그 장치{Radar Signal Processing Method and Apparatus for Detecting a human inside a room}Radar Signal Processing Method and Apparatus for Detecting a human inside a room

레이더 기술, 특허 펄스 레이더를 이용하여 실내의 사람의 위치를 검출하는 레이더 신호 처리 기술이 개시된다. Radar technology, a radar signal processing technology for detecting the position of a person indoors using a patented pulse radar is disclosed.

임펄스 무선 초광대역 레이더(Impulse-radio Ultra-wideband radar)를 이용하여 호흡에 의한 사람의 움직임(respiratory movement of a person)을 검출함으로써 사람의 존재나 위치를 영상화하는 기술이 알려져 있다. 종래 레이더 신호를 주파수 영역으로 변환하고 그 호흡 주파수 성분을 분석하여 사람을 검출하는 주파수 분석법이 알려져 있다. 주파수 분석법은 호흡과 비슷한 주파수로 움직이는 물체, 예를 들면 바람에 휘날리는 커튼, 회전하는 선풍기, 움직이는 장난감 기차 등과 같은 물체들을 사람의 호흡과 구분하는 것에 어려움을 겪는다.A technique for imaging the presence or location of a person by detecting a respiratory movement of a person by using an impulse-radio ultra-wideband radar is known. A conventional frequency analysis method for detecting a person by converting a radar signal into a frequency domain and analyzing a breathing frequency component thereof is known. Frequency analysis has difficulty in distinguishing objects that move with frequencies similar to breathing, such as curtains blowing in the wind, rotating fans, and moving toy trains, from human breathing.

펄스 레이더 신호로부터 타겟의 생체 움직임을 검출하는 새로운 진보된 방법이 제시된다. A new advanced method for detecting the biological movement of a target from a pulsed radar signal is presented.

또 기존보다 더 간단하면서도 신뢰도 높은 타겟의 생체 움직임을 검출하는 방법이 제시된다. In addition, a method for detecting the biological motion of a target that is simpler and more reliable than the existing one is proposed.

실내의 사람을 검출하고 위치를 파악하여 영상화하는 효과적인 레이더 신호 처리 방법이 제안된다. An effective radar signal processing method for detecting and locating a person indoors and imaging it is proposed.

일 양상에 따르면, 펄스 레이더 신호를 펄스 주기별로 버퍼링한 신호를 시간에따라 누적하여 획득되는 2차원 시간-거리 영상 신호로부터 타겟이 감지된다. According to an aspect, a target is detected from a two-dimensional time-distance image signal obtained by accumulating signals obtained by buffering a pulse radar signal for each pulse period over time.

또 다른 양상에 따르면, 이러한 탐지 과정에서 어떤 영역이 타겟이 존재한다고 판단된 근거로 활용되는 정도를 나타내는 활성화 맵(activation map)이 산출되고 그로부터 1차원 타겟 영역이 산출될 수 있다. According to another aspect, in the detection process, an activation map indicating a degree to which a certain area is used as a basis for determining that a target exists may be calculated, and a one-dimensional target area may be calculated therefrom.

추가적인 양상에 따르면, 시간-거리 영상 신호는 길쌈 신경망(CNN : Convolutional Neural Network)회로에 의해 처리될 수 있다. According to a further aspect, the time-distance image signal may be processed by a convolutional neural network (CNN) circuit.

추가적인 양상에 따르면, 길쌈 신경망 처리부의 활성화 맵에서 활성화도가 높은 연속된 영역을 추출하여 1차원 타겟 영역이 산출될 수 있다. According to an additional aspect, a one-dimensional target region may be calculated by extracting a continuous region having a high activation degree from the activation map of the convolutional neural network processing unit.

추가적인 양상에 따르면, 복수의 펄스 레이더 센서가 준비되고, 각각의 펄스 레이더 센서에 대해 그 펄스 레이더 신호를 펄스 주기별로 버퍼링하여 획득되는 2차원 시간-거리 영상 신호로부터 타겟이 감지되고, 그 활성화 맵에서 1차원 타겟 영역들이 산출될 수 있다. 획득된 복수의 1차원 타겟 영역들로부터 2차원 타겟 영상이 생성될 수 있다. According to a further aspect, a plurality of pulsed radar sensors are prepared, and a target is detected from a two-dimensional time-distance image signal obtained by buffering the pulsed radar signal for each pulse period for each pulsed radar sensor, and in the activation map One-dimensional target regions may be calculated. A two-dimensional target image may be generated from the plurality of obtained one-dimensional target regions.

종속적인 양상에 따르면, 2차원 타겟 영상은 1차원 타겟 영역들을 후방 투사(back-projection)하여 생성될 수 있다. According to a dependent aspect, the 2D target image may be generated by back-projecting 1D target regions.

제안된 발명에 따라 레이더 센서를 이용하여 실내 공간에서 사람을 효과적으로 검출하고 영상화할 수 있다. According to the proposed invention, it is possible to effectively detect and image a person in an indoor space using a radar sensor.

도 1은 일 실시예에 따른 레이더 신호 처리 장치의 구성을 도시한 블록도이다.
도 2는 또 다른 실시예에 따른 레이더 신호 처리 장치의 구성을 도시한 블록도이다.
도 3은 일 실시예에 따른 레이더 신호 처리 방법의 구성을 도시한 흐름도이다.
도 4는 또 다른 실시예에 따른 레이더 신호 처리 방법의 구성을 도시한 흐름도이다.
도 5는 검출 대상 공간에 배열된 레이더 센서의 예시적인 레이더 신호와 그 활성화 맵을 도시한다.
1 is a block diagram illustrating a configuration of a radar signal processing apparatus according to an exemplary embodiment.
2 is a block diagram illustrating a configuration of a radar signal processing apparatus according to another embodiment.
3 is a flowchart illustrating a configuration of a radar signal processing method according to an embodiment.
4 is a flowchart illustrating a configuration of a radar signal processing method according to another embodiment.
5 shows an exemplary radar signal of a radar sensor arranged in a detection target space and an activation map thereof.

전술한, 그리고 추가적인 양상들은 첨부된 도면을 참조하여 설명하는 실시예들을 통해 구체화된다. 각 실시예들의 구성 요소들은 다른 언급이나 상호간에 모순이 없는 한 다양한 조합이 가능한 것으로 이해된다. 이하에서는 이러한 양상들을 첨부된 도면을 참조하여 설명하는 실시예들을 통하여 상세히 설명한다. The foregoing and additional aspects are embodied through the embodiments described with reference to the accompanying drawings. It is understood that various combinations of elements of each of the embodiments are possible as long as there is no contradiction between them or other mentions. Hereinafter, these aspects will be described in detail through embodiments described with reference to the accompanying drawings.

도 1은 일 실시예에 따른 레이더 신호 처리 장치의 구성을 도시한 블록도이다. 제안된 발명의 일 실시예에 있어서, 임펄스 무선 초광대역 레이더(Impulse-radio Ultra-Wideband radar, IR UWB Radar) 센서가 검출 대상 공간에 배치된다. 일 실시예에 있어서, IR UWB 레이더는 펄스 레이더이다. UWB 레이더는 매우 폭이 좁은 펄스(extremely narrow pulse)를 송출하며, 타겟으로부터 반사된 반사파를 수신한다. 파장이 매우 좁은 펄스파이기 때문에 수신된 레이더 신호는 타겟의 위치 뿐 아니라 그 생리적인 움직임, 예를 들면 호흡이나 심장의 박동에 관한 정보를 포함할 수 있으며, 비침습적으로 생체 구조에 관한 정보도 제공할 수 있다. 제안된 발명은 IR-UWB 레이더 센서를 배치하고 그 수신 신호를 이용하여 호흡하고 있는 사람이 대상 공간에 몇 명 존재하는지 및/또는 어디에 존재하는지를 파악하는 것을 목적으로 한다. 1 is a block diagram illustrating a configuration of a radar signal processing apparatus according to an exemplary embodiment. In an embodiment of the proposed invention, an Impulse-radio Ultra-Wideband radar (IR UWB Radar) sensor is disposed in the detection target space. In one embodiment, the IR UWB radar is a pulsed radar. UWB radar emits extremely narrow pulses and receives reflected waves from the target. Since the wavelength is a very narrow pulse wave, the received radar signal can include information about not only the position of the target but also its physiological movement, such as respiration or heartbeat, and provides information about the biological structure non-invasively. can do. The proposed invention aims at arranging an IR-UWB radar sensor and identifying how many breathing people exist in a target space and/or where they exist by using the received signal.

도 5의 (a)는 검출 대상 공간에 배열된 레이더 센서의 예시적인 레이더 신호를 도시한다. 도시된 예에서, 초당 12개의 펄스 레이더 신호가 송출되고 그 반사파, 즉 레이더 신호 프레임들이 수신된다. 각각의 레이더 신호 프레임들은 펄스가 타겟에서 반사되어 수신된 것이므로 그 시간축 상에서 거리 정보를 포함한다. 각각의 레이더 신호에서 거리의 해상도는 0.65cm이다. 도시된 신호는 레이더 센서의 수신 프레임에서 1-6m 거리의 770개의 거리 샘플들을 20초 동안 모아서 쌓아 올린 것이다. 즉 각각이 770개의 거리 샘플을 포함하는 12×20=240 개의 레이더 신호 프레임들을 시간 축 상에서 쌓아 올려 2차원으로 표시한 것이다. 여기서 0m~1m 사이의 샘플들은 부정확한 정보를 포함하므로 제거되었다.FIG. 5A shows an exemplary radar signal of a radar sensor arranged in a detection target space. In the example shown, 12 pulses per second radar signal is transmitted and its reflected waves, i.e., radar signal frames, are received. Each of the radar signal frames includes distance information on the time axis because the pulse is received by being reflected from the target. The resolution of the distance in each radar signal is 0.65 cm. The signal shown is a collection of 770 distance samples at a distance of 1-6 m from the receiving frame of the radar sensor for 20 seconds and stacking them up. That is, 12×20=240 radar signal frames each including 770 distance samples are stacked on the time axis and displayed in two dimensions. Here, samples between 0m and 1m were removed because they contained inaccurate information.

도 1은 일 실시예에 따른 레이더 신호 처리 장치의 구성을 도시한 블록도이다. 도시된 바와 같이, 일 실시예에 따른 레이더 신호 처리 방법은 펄스 레이더 센서(113)로부터 레이더 신호를 입력 받아 처리한다. CMOS 기술에 기반한 UWB 레이더 센서 칩이 상용화되어 이미 제공되고 있다. 도시된 실시예에 있어서, 펄스 레이더 센서(113)는 UWB 레이더 센서 칩을 포함하며, 추가로 안테나(111)와 이 UWB 레이더 센서 칩 사이에 연결되는 저잡음 증폭기, 전력 증폭기 등의 회로 소자들을 더 포함할 수 있다. 그러나 개별적인 제어 회로와 아날로그 소자들을 사용하여 구현할 수도 있음은 당연하다. 1 is a block diagram illustrating a configuration of a radar signal processing apparatus according to an exemplary embodiment. As shown, the radar signal processing method according to an embodiment receives and processes a radar signal from the pulse radar sensor 113 . A UWB radar sensor chip based on CMOS technology has already been commercialized and provided. In the illustrated embodiment, the pulse radar sensor 113 includes a UWB radar sensor chip, and further includes circuit elements such as a low noise amplifier and a power amplifier connected between the antenna 111 and the UWB radar sensor chip. can do. However, it goes without saying that it can also be implemented using individual control circuits and analog devices.

일 실시예에 따른 레이더 신호 처리 장치는 영상기반 타겟 탐지부(150)와, 타겟 위치 산출부(170)를 포함한다. 영상기반 타겟 탐지부(150)와 타겟 위치 산출부(170)는 UWB 레이더 센서 칩 내부에 구비된 디지털 신호처리기에서 프로그램으로 구현될 수 있다. 또 다른 예로, UWB 레이더 센서 칩에 연결되는 별도의 디지털 신호 처리기 혹은 인공 지능 프로세서에서 전용 하드웨어 및 소프트웨어의 조합으로 구현될 수 있다. 이러한 구현 방법은 다양하게 알려져 있으며, 설계 사양에 따라 적절히 선택될 수 있다. The radar signal processing apparatus according to an embodiment includes an image-based target detection unit 150 and a target position calculation unit 170 . The image-based target detection unit 150 and the target position calculation unit 170 may be implemented as a program in a digital signal processor provided inside the UWB radar sensor chip. As another example, it may be implemented as a combination of dedicated hardware and software in a separate digital signal processor or artificial intelligence processor connected to the UWB radar sensor chip. Various implementation methods are known and may be appropriately selected according to design specifications.

영상기반 타겟 탐지부(150)는 펄스 레이더 신호를 펄스 주기별로 버퍼링한 신호를 시간에 따라 누적하여 획득되는 2차원 시간-거리 영상 신호를 입력 받아 타겟을 감지한다. 영상기반 타겟 탐지부(150)의 입력의 일 예가 도 5의 (a)에 도시되었다. 이러한 신호를 본 명세서에서는 “시간-거리 영상 신호”라고 부른다. 이는 펄스 레이더 신호를 일정한 길이로 잘라서 배열한 것이지만, 영상 신호와 유사한 용장 특성(redundancy characteristics)을 가지므로 이와 같이 부르기로 한다. 버퍼(130)는 도시되지 않은 메모리 제어기의 제어 하에, 펄스 레이더 센서(113)가 출력하는 디지털 레이더 신호를 버퍼링한 신호를 시간에 따라 누적하여 2차원 시간-거리 영상 신호를 생성한다. 영상기반 타겟 탐지부(150)는 이와 같은 시간-거리 영상 신호를 입력 받아 타겟을 감지한다. 제안된 발명은 레이더 신호의 시간-거리 영상 전체를 입력으로 사용하여 입력 정보의 활용도를 높이고 처리 시간을 줄인다.The image-based target detector 150 detects a target by receiving a two-dimensional time-distance image signal obtained by accumulating a signal obtained by buffering a pulse radar signal for each pulse period over time. An example of an input of the image-based target detection unit 150 is shown in FIG. 5A . Such a signal is referred to herein as a “time-distance image signal”. Although the pulse radar signal is cut to a certain length and arranged, it has redundancy characteristics similar to that of the image signal, so it will be referred to as such. The buffer 130 generates a two-dimensional time-distance image signal by accumulating a signal obtained by buffering a digital radar signal output from the pulse radar sensor 113 over time under the control of a not-shown memory controller. The image-based target detection unit 150 detects a target by receiving such a time-distance image signal. The proposed invention uses the entire time-distance image of a radar signal as an input to increase utilization of input information and reduce processing time.

추가적인 양상에 따르면, 영상 기반 타겟 탐지부(150)는 시간-거리 영상 신호를 입력 받아 타겟의 존재 여부를 출력하는 길쌈 신경망(CNN : Convolutional Neural Network) 처리부를 포함할 수 있다. 길쌈 신경망 회로는 영상 인식에 효과적으로 사용되는 인공 지능 알고리즘으로 알려져 있다. 제안된 발명은 펄스 레이더 신호를 버퍼링한 신호를 시간에 따라 누적하여 영상 신호의 특성을 가지는 2차원 시간-거리 영상 신호로 구성하고, 이를 이러한 길쌈 신경망 회로로 처리하여 타겟의 존재 여부 혹은 타겟의 개수를 산출할 수 있다. 획득한 시간-거리 영상의 특징을 더욱 두드러지도록 하기 위하여 길쌈 신경망 회로에 입력하기 전에 영상 정규화(normalization) 처리를 더 거칠 수 있다. According to an additional aspect, the image-based target detection unit 150 may include a convolutional neural network (CNN) processing unit that receives a time-distance image signal and outputs whether a target exists. Convolutional neural network circuits are known as artificial intelligence algorithms that are effectively used for image recognition. The proposed invention consists of a two-dimensional time-distance image signal having the characteristics of an image signal by accumulating a signal buffered with a pulse radar signal over time, and processing it with such a convolutional neural network circuit to determine whether a target exists or the number of targets can be calculated. In order to make the characteristics of the acquired time-distance image more prominent, image normalization processing may be further performed before input to the convolutional neural network circuit.

길쌈 신경망 회로가 타겟의 존재 여부를 출력하는 경우 시간-거리 영상과 그 타겟 존재 여부로 학습시킬 수 있다. 또 다른 예로, 길쌈 신경망 회로가 타겟의 개수를 출력하는 경우 시간-거리 영상과 그 영상에 존재하는 타겟의 개수로 학습시킬 수 있다.When the convolutional neural network circuit outputs the presence or absence of a target, it can learn from a time-distance image and whether the target exists. As another example, when the convolutional neural network circuit outputs the number of targets, learning may be performed using a time-distance image and the number of targets present in the image.

타겟 위치 산출부(170)는 영상기반 타겟 탐지부(150)의 활성화 맵(activation map)을 산출하여 그로부터 1차원 타겟 영역을 산출한다. 일 양상에 따라, 영상 기반 타겟 탐지부(150)는 타겟의 존재 여부를 판단할 때 주파수 특성을 분석하거나 하지 않고, 영상의 특정한 영역에 기초하여 판단한다. 활성화 맵은 어떤 영역이 타겟이 존재한다고 판단된 근거로 활용되는 정도를 나타내는 정도값을 모든 영역에 대해 표시한 맵이다. 이러한 활성화 맵에서 값이 높은 영역은 그 영역으로 인해 타겟 위치 산출부(170)가 타겟이 존재한다고 판단하였음을 의미한다. 따라서 활성화 맵에서 높은 값을 나타내는 영역을 분별하면 타겟이 존재하는 위치를 알 수 있다. The target position calculator 170 calculates an activation map of the image-based target detector 150 and calculates a one-dimensional target area therefrom. According to an aspect, the image-based target detector 150 determines based on a specific region of an image, without analyzing a frequency characteristic when determining whether a target exists. The activation map is a map in which degree values indicating the degree to which a certain area is utilized as a basis for determining that the target exists are displayed for all areas. A region having a high value in the activation map means that the target position calculator 170 has determined that the target exists due to the region. Therefore, by discriminating a region showing a high value in the activation map, the location of the target can be known.

추가적인 양상에 따르면, 타겟 위치 산출부는 활성화 맵 산출부(171)와, 1차원 위치 산출부(173)를 포함할 수 있다. 활성화 맵 산출부(171)는 길쌈 신경망 회로의 활성화 맵을 산출한다. 도시된 실시예에서, 활성화 맵 산출부(171)는 GradCAM(Gradient-weighted Class Activation Mapping) 알고리즘에 따라 활성화 맵을 산출한다. 일반적으로 CNN과 같은 딥러닝 알고리즘은 매우 우수한 특성을 나타내지만 그 결과를 설명하지 못한다는 단점이 있었다. 이러한 문제를 해결하고자 XAI (Explainable Aritificial Intelligence) 기술이 개발되고 있다. GradCAM은 CNN의 마지막 레이어의 전체 필터를 추출하여 각 필터들이 결과에 얼마나 영향을 주었는지 가중치를 계산하고 이를 마지막 레이어에 적용한 후 복수 필터를 평균하는 하나의 필터를 통해 양의 값을 출력하도록 변형한다. 그러나 제안된 발명은 이에 한정되지 않으며, 신경망 회로의 활성화 맵을 산출하는 다른 알고리즘을 적용할 수도 있다. According to an additional aspect, the target location calculator may include an activation map calculator 171 and a one-dimensional location calculator 173 . The activation map calculation unit 171 calculates an activation map of the convolutional neural network circuit. In the illustrated embodiment, the activation map calculating unit 171 calculates an activation map according to a GradCAM (Gradient-weighted Class Activation Mapping) algorithm. In general, deep learning algorithms such as CNNs show very good characteristics, but have the disadvantage of not being able to explain the results. To solve this problem, XAI (Explainable Aritificial Intelligence) technology is being developed. GradCAM extracts the entire filter of the last layer of CNN, calculates the weight of how much each filter affects the result, applies it to the last layer, and then transforms it to output a positive value through one filter that averages multiple filters. . However, the proposed invention is not limited thereto, and other algorithms for calculating the activation map of the neural network circuit may be applied.

호흡 검출에 있어서 CNN이 타겟을 식별하는데 영향을 미친 정도가 큰 영역이 해당 영상에서 호흡이 검출된 영역, 즉 타겟이 존재하는 영역이 될 확률이 높다. 도 5의 (b)는 도 5의 (a)의 시간-거리 영상의 Grad-CAM 출력 영상을 원 영상과 동일 스케일로 표시한 것이다. 3.2m 정도 거리에 존재하는 호흡 신호 패턴에 맞추어 활성화 맵이 출력되고 있다. In respiration detection, the area where the CNN has a great influence on identifying the target is highly likely to be the area where the respiration is detected in the image, that is, the area where the target exists. FIG. 5(b) shows the Grad-CAM output image of the time-distance image of FIG. 5(a) in the same scale as the original image. The activation map is output according to the breathing signal pattern that exists at a distance of about 3.2m.

1차원 위치 산출부(173)는 활성화 맵에서 활성화도가 높은 연속된 영역을 추출하여 1차원 타겟 영역으로 산출한다. 예를 들어 활성화 맵에서 활성화도가 일정치 이상인 영역들을 병합하고, 그 연속된 영역의 크기, 즉 영역별 픽셀수가 일정치 이상인 경우에 해당 거리에 사람이 존재한다고 판단할 수 있다. The one-dimensional position calculator 173 extracts a continuous region having a high activation degree from the activation map and calculates it as a one-dimensional target region. For example, when regions having an activation degree equal to or greater than a predetermined value are merged in the activation map, and when the size of the continuous region, that is, the number of pixels per region is equal to or greater than a predetermined value, it may be determined that a person is present in the corresponding distance.

도 1에 도시된 실시예에서, 출력부(190)는 타겟 위치 산출부(170)에서 구해진 1차원 타겟 영역 정보를 출력한다. 예를 들어 출력부(190)는 타겟의 존재 여부를 출력할 수 있다. 또 다른 예로, 출력부(190)는 해당 공간에 존재하는 타겟의 개수를 출력할 수 있다. 또 다른 예로, 출력부(190)는 레이더 센서에서 해당 공간에 존재하는 타겟 까지의 거리를 출력할 수 있다. 또 다른 예로, 출력부(190)는 해당 공간에 존재하는 타겟을 시각화하여 영상으로 출력할 수 있다.In the embodiment shown in FIG. 1 , the output unit 190 outputs the one-dimensional target area information obtained by the target position calculation unit 170 . For example, the output unit 190 may output whether the target exists. As another example, the output unit 190 may output the number of targets existing in the corresponding space. As another example, the output unit 190 may output the distance from the radar sensor to the target existing in the space. As another example, the output unit 190 may visualize a target existing in a corresponding space and output it as an image.

도 2는 또 다른 실시예에 따른 레이더 신호 처리 장치의 구성을 도시한 블록도이다. 도시된 바와 같이, 또 다른 실시예에 따른 레이더 신호 처리 장치는 복수의 1차원 타겟 영역 검출부(160-1,160-2,…,160-n)와, 2차원 영상 생성부(180)를 포함한다. 2 is a block diagram illustrating a configuration of a radar signal processing apparatus according to another embodiment. As shown, the radar signal processing apparatus according to another exemplary embodiment includes a plurality of one-dimensional target area detectors 160-1, 160-2, ..., 160-n and a two-dimensional image generator 180. As shown in FIG.

편의를 위해 도시되지 않았지만, 복수의 1차원 타겟 영역 검출부(160-1,160-2,…,160-n)의 각각은 영상기반 타겟 탐지부(150-1,150-2,…,150-n)와, 타겟 위치 산출부(170-1,170-2,…,170-n)를 포함한다. 영상기반 타겟 탐지부(150-1,150-2,…,150-n)는 펄스 레이더 센서(113-1,113-2,…,113-n)로부터의 펄스 레이더 신호를 펄스 주기별로 버퍼링한 신호를 시간에 따라 누적하여 획득되는 2차원 시간-거리 영상 신호를 입력 받아 타겟을 감지한다. Although not shown for convenience, each of the plurality of one-dimensional target area detection units 160-1, 160-2, ..., 160-n includes an image-based target detection unit 150-1, 150-2, ..., 150-n; and target position calculation units 170-1, 170-2, ..., 170-n. The image-based target detection unit 150-1, 150-2, ..., 150-n buffers the pulse radar signals from the pulse radar sensors 113-1, 113-2, ..., 113-n for each pulse period in time. A target is sensed by receiving a two-dimensional time-distance image signal that is accumulated according to the input.

추가적인 양상에 따르면, 각각의 영상 기반 타겟 탐지부(150)는 시간-거리 영상 신호를 입력 받아 타겟의 존재 여부를 출력하는 길쌈 신경망(CNN : Convolutional Neural Network) 처리부를 포함할 수 있다. 획득한 시간-거리 영상의 특징을 더욱 두드러지도록 하기 위하여 길쌈 신경망 회로에 입력하기 전에 각각 영상 정규화(normalization) 처리를 더 거칠 수 있다. According to an additional aspect, each image-based target detector 150 may include a convolutional neural network (CNN) processing unit that receives a time-distance image signal and outputs whether a target exists. In order to make the characteristics of the acquired time-distance image more prominent, image normalization processing may be further performed before input to the convolutional neural network circuit.

타겟 위치 산출부(170-1,170-2,…,170-n)는 영상기반 타겟 탐지부(150-1,150-2,…,150-n)의 활성화 맵(activation map)을 산출하여 그로부터 1차원 타겟 영역들을 산출한다. 도시된 실시예에서, 활성화 맵 산출부(171)는 GradCAM(Gradient-weighted Class Activation Mapping) 알고리즘에 따라 활성화 맵을 산출한다. 이들의 구성에 대해서는 도 1과 유사하므로 상세한 설명은 생략한다. The target position calculation unit 170-1, 170-2, ..., 170-n calculates an activation map of the image-based target detection unit 150-1, 150-2, ..., 150-n and calculates an activation map therefrom. Count areas. In the illustrated embodiment, the activation map calculating unit 171 calculates an activation map according to a GradCAM (Gradient-weighted Class Activation Mapping) algorithm. Since their configuration is similar to that of FIG. 1 , a detailed description thereof will be omitted.

2차원 영상 생성부(180)는 복수의 1차원 타겟 영역 검출부의 출력들로부터 2차원 타겟 영상을 생성하여 출력한다. 복수의 1차원 타겟 영역 검출부(160-1,160-2,…,160-n)가 출력하는 1차원 타겟 영역들은 대응하는 펄스 레이더 센서로부터 타겟까지의 거리 정보를 포함한다. 동일한 타겟이 복수의 펄스 레이더 센서에서 검출되므로, 이들을 종합하면 타겟의 2차원 위치를 알 수 있다. The 2D image generator 180 generates and outputs a 2D target image from outputs of the plurality of 1D target area detectors. The one-dimensional target areas output by the plurality of one-dimensional target area detection units 160-1, 160-2, ..., 160-n include distance information from the corresponding pulse radar sensor to the target. Since the same target is detected by a plurality of pulsed radar sensors, the two-dimensional position of the target can be known by combining them.

추가적인 양상에 따르면, 2차원 영상 생성부(180)는 복수의 1차원 타겟 영역 검출부(160-1,160-2,…,160-n)에서 산출된 복수의 1차원 타겟 영역들을 후방 투사(back-projection)하여 2차원 타겟 영상을 생성할 수 있다. 예를 들어 각각의 펄스 레이더 센서를 중심으로 산출된 1차원 타겟 영역까지의 거리를 반경으로 하는 원호를 그리고 그 만나는 점들에 타겟이 존재하는 것으로 식별할 수 있다. 이러한 후방 투사에 의해 2차원 영상을 생성하는 방법은 알려져 있으므로 상세한 설명은 생략한다. According to an additional aspect, the 2D image generator 180 is configured to back-project the plurality of 1D target areas calculated by the plurality of 1D target area detectors 160-1, 160-2, ..., 160-n. ) to generate a two-dimensional target image. For example, it is possible to draw an arc having a radius as a radius of the distance to the one-dimensional target area calculated based on each pulse radar sensor, and identify that the target is present at the intersection points. Since a method of generating a two-dimensional image by such a rear projection is known, a detailed description thereof will be omitted.

도 3은 일 실시예에 따른 레이더 신호 처리 방법의 구성을 도시한 흐름도이다. 일 실시예에 따른 레이더 신호 처리 방법은 펄스 레이더 센서(113)로부터 레이더 신호를 입력 받아 처리한다. CMOS 기술에 기반한 UWB 레이더 센서 칩이 상용화되어 이미 제공되고 있다. 일 실시예에 따른 레이더 신호 처리 방법은 영상기반 타겟 탐지 단계(350)와, 타겟 위치 산출 단계(370)를 포함한다. 영상기반 타겟 탐지 단계(350)와 타겟 위치 산출 단계(370)는 UWB 레이더 센서 칩 내부에 구비된 디지털 신호처리기에서 프로그램으로 구현될 수 있다. 또 다른 예로, UWB 레이더 센서 칩에 연결되는 별도의 디지털 신호 처리기 혹은 인공 지능 프로세서에서 전용 하드웨어 및 소프트웨어의 조합으로 구현될 수 있다. 이러한 구현 방법은 다양하게 알려져 있으며, 설계 사양에 따라 적절히 선택될 수 있다. 3 is a flowchart illustrating a configuration of a radar signal processing method according to an embodiment. The radar signal processing method according to an embodiment receives and processes a radar signal from the pulse radar sensor 113 . A UWB radar sensor chip based on CMOS technology has already been commercialized and provided. A radar signal processing method according to an embodiment includes an image-based target detection step 350 and a target position calculation step 370 . The image-based target detection step 350 and the target position calculation step 370 may be implemented as a program in a digital signal processor provided inside the UWB radar sensor chip. As another example, it may be implemented as a combination of dedicated hardware and software in a separate digital signal processor or artificial intelligence processor connected to the UWB radar sensor chip. Various implementation methods are known and may be appropriately selected according to design specifications.

먼저 레이더 신호를 도시되지 않은 메모리 제어기의 제어 하에, 펄스 레이더 센서가 출력하는 디지털 레이더 신호를 버퍼링한 신호를 시간에 따라 누적하여 2차원 시간-거리 영상 신호를 생성한다(단계 330). 영상기반 타겟 탐지 단계(350)에서는 이와 같은 시간-거리 영상 신호를 입력 받아 타겟을 감지한다. 제안된 발명은 레이더 신호의 시간-거리 영상 전체를 입력으로 사용하여 입력 정보의 활용도를 높이고 처리 시간을 줄인다.First, a two-dimensional time-distance image signal is generated by accumulating a signal obtained by buffering a digital radar signal output from a pulse radar sensor over time under the control of a not-shown memory controller (step 330). In the image-based target detection step 350, such a time-distance image signal is received and the target is detected. The proposed invention uses the entire time-distance image of a radar signal as an input to increase utilization of input information and reduce processing time.

추가적인 양상에 따르면, 영상 기반 타겟 탐지 단계(350)에서는 시간-거리 영상 신호를 입력 받아 타겟의 존재 여부를 출력하는 길쌈 신경망(CNN : Convolutional Neural Network) 처리 단계를 포함할 수 있다. 길쌈 신경망 회로는 영상 인식에 효과적으로 사용되는 인공 지능 알고리즘으로 알려져 있다. 제안된 발명은 펄스 레이더 신호를 버퍼링한 신호를 시간에 따라 누적하여 영상 신호의 특성을 가지는 2차원 시간-거리 영상 신호로 구성하고, 이를 이러한 길쌈 신경망 회로로 처리하여 타겟의 존재 여부 혹은 타겟의 개수를 산출할 수 있다. 획득한 시간-거리 영상의 특징을 더욱 두드러지도록 하기 위하여 길쌈 신경망 회로에 입력하기 전에 영상 정규화(normalization) 처리를 더 거칠 수 있다. According to an additional aspect, the image-based target detection step 350 may include a convolutional neural network (CNN) processing step of receiving a time-distance image signal and outputting the presence or absence of a target. Convolutional neural network circuits are known as artificial intelligence algorithms that are effectively used for image recognition. The proposed invention consists of a two-dimensional time-distance image signal having the characteristics of an image signal by accumulating a signal buffered with a pulse radar signal over time, and processing it with such a convolutional neural network circuit to determine whether a target exists or the number of targets can be calculated. In order to make the characteristics of the acquired time-distance image more prominent, image normalization processing may be further performed before input to the convolutional neural network circuit.

길쌈 신경망 회로가 타겟의 존재 여부를 출력하는 경우 시간-거리 영상과 그 타겟 존재 여부로 학습시킬 수 있다. 또 다른 예로, 길쌈 신경망 회로가 타겟의 개수를 출력하는 경우 시간-거리 영상과 그 영상에 존재하는 타겟의 개수로 학습시킬 수 있다.When the convolutional neural network circuit outputs the presence or absence of a target, it can learn from a time-distance image and whether the target exists. As another example, when the convolutional neural network circuit outputs the number of targets, learning may be performed using a time-distance image and the number of targets present in the image.

타겟 위치 산출 단계(370)에서는 영상기반 타겟 탐지 단계(350)에서의 처리의 활성화 맵(activation map)을 산출하여 그로부터 1차원 타겟 영역을 산출한다. 일 양상에 따라, 영상 기반 타겟 탐지 단계(350)는 타겟의 존재 여부를 판단할 때 주파수 특성을 분석하거나 하지 않고, 영상의 특정한 영역에 기초하여 판단한다. 활성화 맵은 어떤 영역이 타겟이 존재한다고 판단된 근거로 활용되는 정도를 나타내는 정도값을 모든 영역에 대해 표시한 맵이다. 이러한 활성화 맵에서 값이 높은 영역은 그 영역으로 인해 타겟 위치 산출 단계(370)가 타겟이 존재한다고 판단하였음을 의미한다. 따라서 활성화 맵에서 높은 값을 나타내는 영역을 분별하면 타겟이 존재하는 위치를 알 수 있다. In the target position calculation step 370 , an activation map of the process in the image-based target detection step 350 is calculated, and a one-dimensional target area is calculated therefrom. According to an aspect, the image-based target detection step 350 determines based on a specific region of an image without analyzing frequency characteristics when determining whether a target exists. The activation map is a map in which degree values indicating the degree to which a certain area is utilized as a basis for determining that the target exists are displayed for all areas. A region having a high value in the activation map means that the target location calculation step 370 determines that the target exists due to the region. Therefore, by discriminating a region showing a high value in the activation map, the location of the target can be known.

추가적인 양상에 따르면, 타겟 위치 산출 단계(370)는 활성화 맵 산출 단계(371)와, 1차원 위치 산출 단계(373)를 포함할 수 있다. 활성화 맵 산출 단계(371)에서는 길쌈 신경망 회로의 활성화 맵을 산출한다. 도시된 실시예에서, 활성화 맵 산출 단계(371)는 GradCAM(Gradient-weighted Class Activation Mapping) 알고리즘에 따라 활성화 맵을 산출한다. 일반적으로 CNN과 같은 딥러닝 알고리즘은 매우 우수한 특성을 나타내지만 그 결과를 설명하지 못한다는 단점이 있었다. 이러한 문제를 해결하고자 XAI (Explainable Aritificial Intelligence) 기술이 개발되고 있다. GradCAM은 CNN의 마지막 레이어의 전체 필터를 추출하여 각 필터들이 결과에 얼마나 영향을 주었는지 가중치를 계산하고 이를 마지막 레이어에 적용한 후 복수 필터를 평균하는 하나의 필터를 통해 양의 값을 출력하도록 변형한다. 그러나 제안된 발명은 이에 한정되지 않으며, 신경망 회로의 활성화 맵을 산출하는 다른 알고리즘을 적용할 수도 있다.According to a further aspect, calculating the target location 370 may include calculating an activation map 371 and calculating a one-dimensional location 373 . In the activation map calculation step 371, an activation map of the convolutional neural network circuit is calculated. In the illustrated embodiment, the activation map calculation step 371 calculates the activation map according to the GradCAM (Gradient-weighted Class Activation Mapping) algorithm. In general, deep learning algorithms such as CNNs show very good characteristics, but have the disadvantage of not being able to explain the results. To solve this problem, XAI (Explainable Aritificial Intelligence) technology is being developed. GradCAM extracts the entire filter of the last layer of CNN, calculates the weight of how much each filter affects the result, applies it to the last layer, and then transforms it to output a positive value through one filter that averages multiple filters. . However, the proposed invention is not limited thereto, and other algorithms for calculating the activation map of the neural network circuit may be applied.

호흡 검출에 있어서 CNN이 타겟을 식별하는데 영향을 미친 정도가 큰 영역이 해당 영상에서 호흡이 검출된 영역, 즉 타겟이 존재하는 영역이 될 확률이 높다. 도 5의 (b)는 도 5의 (a)의 시간-거리 영상의 Grad-CAM 출력 영상을 원 영상과 동일 스케일로 표시한 것이다. 3.2m 정도 거리에 존재하는 호흡 신호 패턴에 맞추어 활성화 맵이 출력되고 있다. In respiration detection, the area where the CNN has a great influence on identifying the target is highly likely to be the area where the respiration is detected in the image, that is, the area where the target exists. FIG. 5(b) shows the Grad-CAM output image of the time-distance image of FIG. 5(a) in the same scale as the original image. The activation map is output according to the breathing signal pattern that exists at a distance of about 3.2m.

1차원 위치 산출 단계(373)에서는 활성화 맵에서 활성화도가 높은 연속된 영역을 추출하여 1차원 타겟 영역으로 산출한다. 예를 들어 활성화 맵에서 활성화도가 일정치 이상인 영역들을 병합하고, 그 연속된 영역의 크기, 즉 영역별 픽셀수가 일정치 이상인 경우에 해당 거리에 사람이 존재한다고 판단할 수 있다. In the one-dimensional position calculation step 373, a continuous region having a high activation degree is extracted from the activation map and calculated as a one-dimensional target region. For example, when regions having an activation degree equal to or greater than a predetermined value are merged in the activation map, and when the size of the continuous region, that is, the number of pixels per region is equal to or greater than a predetermined value, it may be determined that a person is present in the corresponding distance.

도 3에 도시된 실시예에서, 출력 단계(390)에서는 타겟 위치 산출 단계(370)에서 구해진 1차원 타겟 영역 정보를 출력한다. 예를 들어 출력 단계(390)에서 타겟의 존재 여부를 출력할 수 있다. 또 다른 예로, 출력 단계(390)에서 해당 공간에 존재하는 타겟의 개수를 출력할 수 있다. 또 다른 예로, 출력 단계(390)에서 레이더 센서에서 해당 공간에 존재하는 타겟 까지의 거리를 출력할 수 있다. 또 다른 예로, 출력 단계(390)에서 해당 공간에 존재하는 타겟을 시각화하여 영상으로 출력할 수 있다.In the embodiment shown in FIG. 3 , in the output step 390 , the one-dimensional target area information obtained in the target position calculation step 370 is output. For example, in the output step 390, the presence or absence of the target may be output. As another example, in the output step 390 , the number of targets existing in the corresponding space may be output. As another example, in the output step 390, the distance from the radar sensor to the target existing in the space may be output. As another example, in the output step 390 , a target existing in a corresponding space may be visualized and output as an image.

도 4는 또 다른 실시예에 따른 레이더 신호 처리 방법의 구성을 도시한 흐름도이다. 도시된 바와 같이, 또 다른 실시예에 따른 레이더 신호 처리 방법은 복수의 1차원 타겟 영역 검출 단계(360-1,360-2,…,360-n)와, 2차원 영상 생성 단계(380)를 포함한다. 4 is a flowchart illustrating a configuration of a radar signal processing method according to another embodiment. As shown, the radar signal processing method according to another embodiment includes detecting a plurality of one-dimensional target regions (360-1, 360-2, ..., 360-n) and generating a two-dimensional image (380). .

먼저 펄스 레이더 센서들로부터의 펄스 레이더 신호 각각이 버퍼링되면서 2차원 시간-거리 영상 신호로 재배열된다(단계 330-1,330-2,…,330-n). 이후에 각각의 버퍼링된 시간-거리 영상 신호가 1차원 타겟 영역 검출 단계에서 처리되어 각각의 1차원 타겟 영역이 산출된다. 편의를 위해 도시되지 않았지만, 복수의 1차원 타겟 영역 검출 단계(360-1,360-2,…,360-n)의 각각은 영상기반 타겟 탐지 단계(350-1,350-2,…,350-n)와, 타겟 위치 산출 단계(370-1,370-2,…,370-n)를 포함할 수 있다. 영상기반 타겟 탐지 단계(350-1,350-2,…,350-n)에서는 펄스 레이더 센서들로부터의 펄스 레이더 신호를 펄스 주기별로 버퍼링한 신호를 시간에 따라 누적하여 획득되는 2차원 시간-거리 영상 신호를 입력 받아 타겟을 감지한다. First, each of the pulse radar signals from the pulse radar sensors is buffered and rearranged into a two-dimensional time-distance image signal (steps 330-1, 330-2, ..., 330-n). Thereafter, each buffered time-distance image signal is processed in a one-dimensional target region detection step to calculate each one-dimensional target region. Although not shown for convenience, each of the plurality of one-dimensional target area detection steps 360-1, 360-2, ..., 360-n includes an image-based target detection step 350-1, 350-2, ..., 350-n and , target position calculation steps 370-1, 370-2, ..., 370-n may be included. In the image-based target detection step 350-1, 350-2, ..., 350-n, a two-dimensional time-distance image signal obtained by accumulating signals obtained by buffering pulsed radar signals from pulsed radar sensors for each pulse period over time. Detects the target by receiving input.

추가적인 양상에 따르면, 각각의 영상 기반 타겟 탐지 단계(350)는 시간-거리 영상 신호를 입력 받아 타겟의 존재 여부를 출력하는 길쌈 신경망(CNN : Convolutional Neural Network) 처리 단계를 포함할 수 있다. 획득한 시간-거리 영상의 특징을 더욱 두드러지도록 하기 위하여 길쌈 신경망 회로에 입력하기 전에 각각 영상 정규화(normalization) 처리를 더 거칠 수 있다. According to an additional aspect, each image-based target detection step 350 may include a convolutional neural network (CNN) processing step of receiving a time-distance image signal and outputting the presence or absence of a target. In order to make the characteristics of the acquired time-distance image more prominent, image normalization processing may be further performed before input to the convolutional neural network circuit.

타겟 위치 산출 단계(370-1,370-2,…,370-n)에서는 영상기반 타겟 탐지 단계(350-1,350-2,…,350-n)의 활성화 맵(activation map)을 산출하여 그로부터 1차원 타겟 영역들을 산출한다. 도시된 실시예에서, 활성화 맵 산출 단계(371)는 GradCAM(Gradient-weighted Class Activation Mapping) 알고리즘에 따라 활성화 맵을 산출한다. 그러나 제안된 발명은 이에 한정되지 않으며, 신경망 회로의 활성화 맵을 산출하는 다른 알고리즘을 적용할 수도 있다. 이들의 구성에 대해서는 도 1과 유사하므로 상세한 설명은 생략한다. In the target position calculation step (370-1, 370-2, ..., 370-n), an activation map of the image-based target detection step (350-1, 350-2, ..., 350-n) is calculated, and the one-dimensional target is obtained therefrom. Count areas. In the illustrated embodiment, the activation map calculation step 371 calculates the activation map according to the GradCAM (Gradient-weighted Class Activation Mapping) algorithm. However, the proposed invention is not limited thereto, and other algorithms for calculating the activation map of the neural network circuit may be applied. Since their configuration is similar to that of FIG. 1 , a detailed description thereof will be omitted.

2차원 영상 생성 단계(380)에서는 복수의 1차원 타겟 영역 검출부의 출력들로부터 2차원 타겟 영상을 생성하여 출력한다. 복수의 1차원 타겟 영역 검출 단계(360-1,360-2,…,360-n)에서 출력된 1차원 타겟 영역들은 대응하는 펄스 레이더 센서로부터 타겟까지의 거리 정보를 포함한다. 동일한 타겟이 복수의 펄스 레이더 센서에서 검출되므로, 이들을 종합하면 타겟의 2차원 위치를 알 수 있다. In the 2D image generation step 380, a 2D target image is generated and output from the outputs of the plurality of 1D target area detectors. The one-dimensional target areas output in the plurality of one-dimensional target area detection steps 360-1, 360-2, ..., 360-n include distance information from the corresponding pulse radar sensor to the target. Since the same target is detected by a plurality of pulsed radar sensors, the two-dimensional position of the target can be known by combining them.

추가적인 양상에 따르면, 2차원 영상 생성 단계(380)에서는 복수의 1차원 타겟 영역 검출 단계(360-1,360-2,…,360-n)에서 산출된 복수의 1차원 타겟 영역들을 후방 투사(back-projection)하여 2차원 타겟 영상을 생성할 수 있다. 예를 들어 각각의 펄스 레이더 센서를 중심으로 산출된 1차원 타겟 영역까지의 거리를 반경으로 하는 원호를 그리고 그 만나는 점들에 타겟이 존재하는 것으로 식별할 수 있다. 이러한 후방 투사에 의해 2차원 영상을 생성하는 방법은 알려져 있으므로 상세한 설명은 생략한다. According to an additional aspect, in the 2D image generating step 380, the plurality of 1D target areas calculated in the detecting the plurality of 1D target areas 360-1, 360-2, ..., 360-n are back-projected. projection) to generate a two-dimensional target image. For example, it is possible to draw an arc having a radius as a radius of the distance to the one-dimensional target area calculated based on each pulse radar sensor, and identify that the target is present at the intersection points. Since a method of generating a two-dimensional image by such a rear projection is known, a detailed description thereof will be omitted.

이상에서 본 발명을 첨부된 도면을 참조하는 실시예들을 통해 설명하였지만 이에 한정되는 것은 아니며, 이들로부터 당업자라면 자명하게 도출할 수 있는 다양한 변형예들을 포괄하도록 해석되어야 한다. 특허청구범위는 이러한 변형예들을 포괄하도록 의도되었다. Although the present invention has been described above with reference to the accompanying drawings, the present invention is not limited thereto, and it should be construed to encompass various modifications that can be apparent from those skilled in the art. The claims are intended to cover such modifications.

111 : 안테나 113 : 펄스 레이더 센서
130 : 버퍼 150 : 영상 기반 타겟 탐지부
160 : 1차원 타겟 영역 검출부 170 : 타겟 위치 산출부
171 : 활성화 맵 산출부 173 : 1차원 위치 산출부
180 : 1차원 영상 생성부 190 : 출력부
111: antenna 113: pulse radar sensor
130: buffer 150: image-based target detection unit
160: one-dimensional target area detection unit 170: target position calculation unit
171: activation map calculation unit 173: one-dimensional position calculation unit
180: one-dimensional image generating unit 190: output unit

Claims (14)

펄스 레이더 신호를 펄스 주기별로 버퍼링한 신호를 시간에 따라 누적하여 획득되는 2차원 시간-거리 영상 신호를 입력받아 타겟의 존재 여부를 출력하는 길쌈 신경망(CNN : Convolutional Neural Network) 처리부를 포함하는 영상기반 타겟 탐지부;
길쌈 신경망 처리부의 활성화 맵을 산출하는 활성화 맵 산출부와, 활성화 맵에서 활성화도가 일정치보다 높은 연속된 영역을 추출하여 1차원 타겟 영역으로 산출하는 1차원 위치 산출부를 포함하는 타겟 위치 산출부;
를 포함하는 레이더 신호 처리 장치.
Image-based including a convolutional neural network (CNN) processing unit that receives a two-dimensional time-distance image signal obtained by accumulating a pulse radar signal buffered for each pulse period over time and outputs the presence or absence of a target target detection unit;
a target location calculator comprising: an activation map calculator for calculating an activation map of the convolutional neural network processor; and a one-dimensional location calculator for calculating a one-dimensional target region by extracting a continuous region having an activation degree higher than a predetermined value from the activation map;
A radar signal processing device comprising a.
삭제delete 삭제delete 삭제delete 펄스 레이더 신호를 펄스 주기별로 버퍼링한 신호를 시간에 따라 누적하여 획득되는 2차원 시간-거리 영상 신호를 입력 받아 타겟의 존재 여부를 출력하는 길쌈 신경망(CNN : Convolutional Neural Network) 처리부를 각각 포함하는 복수의 영상기반 타겟 탐지부와, 각각이 길쌈 신경망 처리부의 활성화 맵(activation map)을 산출하는 복수의 활성화 맵 산출부와, 각각의 활성화 맵에서 활성화도가 일정치보다 높은 연속된 영역을 추출하여 1차원 타겟 영역으로 산출하는 1차원 위치 산출부를 포함하는 타겟 위치 산출부를 각각 포함하는 복수의 1차원 타겟 영역 검출부와;
상기 복수의 1차원 타겟 영역 검출부의 출력들로부터 2차원 타겟 영상을 생성하여 출력하는 2차원 영상 생성부;
를 포함하는 레이더 신호 처리 장치.
A plurality of convolutional neural network (CNN) processing units each including a convolutional neural network (CNN) processing unit that receives a two-dimensional time-distance image signal obtained by accumulating a pulse radar signal buffered for each pulse period over time and outputs the presence or absence of a target of the image-based target detection unit, a plurality of activation map calculation units each calculating an activation map of the convolutional neural network processing unit, and extracting a continuous region having an activation degree higher than a certain value from each activation map to 1 a plurality of one-dimensional target area detection units each including a target position calculation unit including a one-dimensional position calculation unit for calculating a dimensional target area;
a two-dimensional image generator for generating and outputting a two-dimensional target image from outputs of the plurality of one-dimensional target region detectors;
A radar signal processing device comprising a.
청구항 5에 있어서, 2차원 영상 생성부는 각각의 1차원 타겟 영역 검출부에서 산출된 복수의 1차원 타겟 영역들을 후방 투사(back-projection)하여 2차원 타겟 영상을 생성하는 레이더 신호 처리 장치. The radar signal processing apparatus of claim 5 , wherein the 2D image generator generates a 2D target image by back-projecting the plurality of 1D target areas calculated by each 1D target area detector. 삭제delete 삭제delete 펄스 레이더 신호를 펄스 주기별로 버퍼링한 신호를 시간에 따라 누적하여 획득되는 2차원 시간-거리 영상 신호를 길쌈 신경망(CNN : Convolutional Neural Network)에 의해 처리하여 타겟을 감지하는 영상기반 타겟 탐지 단계와;
길쌈 신경망의 활성화 맵을 산출하는 활성화 맵 산출 단계와;
활성화 맵에서 활성화도가 일정치보다 높은 연속된 영역을 추출하여 1차원 타겟 영역으로 산출하는 1차원 위치 산출 단계;
를 포함하는 레이더 신호 처리 방법.
An image-based target detection step of detecting a target by processing a two-dimensional time-distance image signal obtained by accumulating a signal obtained by buffering a pulse radar signal for each pulse period over time by a convolutional neural network (CNN);
an activation map calculation step of calculating an activation map of the convolutional neural network;
a one-dimensional position calculation step of extracting a continuous region having an activation degree higher than a predetermined value from the activation map and calculating it as a one-dimensional target region;
A radar signal processing method comprising a.
삭제delete 삭제delete 삭제delete 복수의 펄스 레이더 센서로부터의 펄스 레이더 신호들 각각을 펄스 주기별로 버퍼링한 신호를 시간에 따라 누적하여 획득되는 2차원 시간-거리 영상 신호를 길쌈 신경망(CNN : Convolutional Neural Network)에 의해 처리하여 타겟을 감지하는 영상기반 타겟 탐지 단계와, 각각의 길쌈 신경망의 활성화 맵을 산출하는 활성화 맵 산출 단계와, 각각의 활성화 맵에서 활성화도가 일정치보다 높은 연속된 영역을 추출하여 1차원 타겟 영역으로 산출하는 1차원 위치 산출 단계를 포함하는 1차원 타겟 영역 검출 단계와;
각각의 1차원 위치 산출 단계에서 산출된 1차원 타겟 영역들로부터 2차원 타겟 영상을 생성하여 출력하는 2차원 영상 생성 단계;
를 포함하는 레이더 신호 처리 방법.
A two-dimensional time-distance image signal obtained by accumulating signals buffered for each pulse period from each of the pulse radar sensors from a plurality of pulse radar sensors is processed by a convolutional neural network (CNN) to obtain a target. An image-based target detection step of sensing, an activation map calculation step of calculating an activation map of each convolutional neural network, and a one-dimensional target area by extracting a continuous region with an activation degree higher than a certain value from each activation map a one-dimensional target area detection step including a one-dimensional position calculation step;
a two-dimensional image generating step of generating and outputting a two-dimensional target image from the one-dimensional target regions calculated in each one-dimensional position calculation step;
A radar signal processing method comprising a.
청구항 13에 있어서, 2차원 영상 생성 단계는 1차원 타겟 영역 검출 단계에서 산출된 복수의 1차원 타겟 영역들을 후방 투사(back-projection)하여 2차원 타겟 영상을 생성하는 레이더 신호 처리 방법.
The method of claim 13 , wherein the generating of the 2D image comprises back-projecting the plurality of 1D target areas calculated in the step of detecting the 1D target area to generate a 2D target image.
KR1020190095582A 2019-08-06 2019-08-06 Radar Signal Processing Method and Apparatus for Detecting a human inside a room KR102268677B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190095582A KR102268677B1 (en) 2019-08-06 2019-08-06 Radar Signal Processing Method and Apparatus for Detecting a human inside a room

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190095582A KR102268677B1 (en) 2019-08-06 2019-08-06 Radar Signal Processing Method and Apparatus for Detecting a human inside a room

Publications (2)

Publication Number Publication Date
KR20210016998A KR20210016998A (en) 2021-02-17
KR102268677B1 true KR102268677B1 (en) 2021-06-23

Family

ID=74732056

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190095582A KR102268677B1 (en) 2019-08-06 2019-08-06 Radar Signal Processing Method and Apparatus for Detecting a human inside a room

Country Status (1)

Country Link
KR (1) KR102268677B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115880535A (en) * 2023-01-03 2023-03-31 上海轴芯科技有限公司 Unmanned aerial vehicle identification method based on pulse radar signals and applied to unmanned aerial vehicle
KR102701027B1 (en) * 2023-12-05 2024-08-30 한화시스템 주식회사 Method for monitoring for target, adjusting method of firing apparatus, apparatus for controlling naval gun fire and combat system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101460591B1 (en) 2013-05-03 2014-11-12 한남대학교 산학협력단 Method and device for recognizing radar target using combining of feature vectors
JP2019086464A (en) 2017-11-09 2019-06-06 株式会社東芝 Radar device and radar signal processing method thereof

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101984274B1 (en) * 2017-08-30 2019-05-30 주식회사 한화 Apparatus for detecting target and identifying shape in surveillance scout and method thereof

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101460591B1 (en) 2013-05-03 2014-11-12 한남대학교 산학협력단 Method and device for recognizing radar target using combining of feature vectors
JP2019086464A (en) 2017-11-09 2019-06-06 株式会社東芝 Radar device and radar signal processing method thereof

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Matijs Heiligers 외 1명. On the importance of visual explanation and segmentation for SAR ATR using deep learning. In 2018 IEEE Radar Conference. 2018.4.*
Xinyu Li 외 2명. A survey of deep learning-based human activity recognition in radar. Remote Sensing. vol.11, no.9., 2019.5.*

Also Published As

Publication number Publication date
KR20210016998A (en) 2021-02-17

Similar Documents

Publication Publication Date Title
US11412937B2 (en) Multi-person vital signs monitoring using millimeter wave (mm-wave) signals
Liu et al. Automatic fall detection based on Doppler radar motion signature
KR102151195B1 (en) System and method for detecting passenger in vehicle using UWB
CN105190691B (en) Equipment for obtaining the vital sign of object
US8634591B2 (en) Method and system for image analysis
WO2020103409A1 (en) Detection method, detection apparatus, terminal and detection system
CN106066995B (en) A kind of wireless unbundling human body behavioral value algorithm
US20240203227A1 (en) System and Method for Monitoring Life Signs of a Person
US20140266860A1 (en) Method and system for activity detection and classification
KR102268677B1 (en) Radar Signal Processing Method and Apparatus for Detecting a human inside a room
Bosch-Jorge et al. Fall detection based on the gravity vector using a wide-angle camera
CN106456062A (en) Method and system for unattended child detection
WO2013060249A1 (en) Non-contact vital sign detection method and detection system based on video image
US6503197B1 (en) System and method for detecting an action of the head and generating an output in response thereto
JP3922694B2 (en) Monitoring device
Amini et al. A comparison between heuristic and machine learning techniques in fall detection using Kinect v2
Janakaraj et al. STAR: Simultaneous tracking and recognition through millimeter waves and deep learning
FR3009184A1 (en) METHOD AND SYSTEM FOR IDENTIFYING RESPIRATORY ACTIVITY
WO2019136395A1 (en) System and method for monitoring life signs of a person
Li et al. Improving acoustic fall recognition by adaptive signal windowing
KR102177625B1 (en) pulse radar apparatus and signal processing method for the same
Srinivasan et al. Presence detection using wideband audio-ultrasound sensor
US20220028082A1 (en) Movement indication
JP4509654B2 (en) Sensing device
US11986308B2 (en) Biosignal measuring apparatus, method for detecting signal peaks in an electrocardiogram of detecting an effective peak using the complexity value around the peak in the wavelet transformed signals, and a computer program for performing the methods

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant