Nothing Special   »   [go: up one dir, main page]

KR101205800B1 - Wireless video surveillance system for hierarchically detecting event and method thereof - Google Patents

Wireless video surveillance system for hierarchically detecting event and method thereof Download PDF

Info

Publication number
KR101205800B1
KR101205800B1 KR1020120046175A KR20120046175A KR101205800B1 KR 101205800 B1 KR101205800 B1 KR 101205800B1 KR 1020120046175 A KR1020120046175 A KR 1020120046175A KR 20120046175 A KR20120046175 A KR 20120046175A KR 101205800 B1 KR101205800 B1 KR 101205800B1
Authority
KR
South Korea
Prior art keywords
image
event
probability
background model
background
Prior art date
Application number
KR1020120046175A
Other languages
Korean (ko)
Inventor
김태림
Original Assignee
엘아이지넥스원 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘아이지넥스원 주식회사 filed Critical 엘아이지넥스원 주식회사
Priority to KR1020120046175A priority Critical patent/KR101205800B1/en
Application granted granted Critical
Publication of KR101205800B1 publication Critical patent/KR101205800B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/21Intermediate information storage
    • H04N1/2104Intermediate information storage for one or a few pictures
    • H04N1/2112Intermediate information storage for one or a few pictures using still video cameras
    • H04N1/2129Recording in, or reproducing from, a specific memory area or areas, or recording or reproducing at a specific moment
    • H04N1/2133Recording or reproducing at a specific moment, e.g. time interval or time-lapse
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/587Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal sub-sampling or interpolation, e.g. decimation or subsequent interpolation of pictures in a video sequence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

PURPOSE: A wireless image monitoring system and a method thereof are provided to increase the accuracy of event detection by determining generation of an image through a plurality of algorithms. CONSTITUTION: If an event is detected, a wireless image monitoring system obtains an image with the driving of an image sensor(S320). The system detects the event by using a background removing algorithm(S330). The system detects the event by using a body recognition algorithm(S340). The system performs storage and transmission of an image. [Reference numerals] (AA) Start; (BB,DD,FF) No; (CC,EE,GG) Yes; (HH) End; (S310) Event detection by using a infrared ray sensor?; (S320) Obtaining image through an image sensor; (S330) Event detection by using background-removing algorithm?; (S340) Event detection by using a human body-recognizing algorithm?; (S350) Storing and transmitting images

Description

계층적으로 사건을 탐지하기 위한 무선 영상 감시 시스템 및 그 방법{WIRELESS VIDEO SURVEILLANCE SYSTEM FOR HIERARCHICALLY DETECTING EVENT AND METHOD THEREOF}Wireless video surveillance system and method for detecting incidents hierarchically {WIRELESS VIDEO SURVEILLANCE SYSTEM FOR HIERARCHICALLY DETECTING EVENT AND METHOD THEREOF}

본 발명은 영상 감시 시스템에 관한 것으로, 특히, 적외선 센서를 이용하여 사건이 발생됐다고 판단되는 경우에 이미지 센서를 이용하여 획득한 이미지의 사건 발생 유무를 다수의 알고리즘을 이용하여 순차적으로 판단하도록 하는 계층적으로 사건을 탐지하기 위한 무선 영상 감시 시스템 및 그 방법에 관한 것이다.The present invention relates to a video surveillance system, and more particularly, in a case where it is determined that an incident has occurred using an infrared sensor, a hierarchy for sequentially determining whether an incident of an image acquired using the image sensor is generated using a plurality of algorithms. The present invention relates to a wireless video surveillance system for detecting an event and a method thereof.

일반적으로 영상 감시 시스템은 각종 건물이나 공항, 도로, 철도, 군부대 등의 감시대상 지역의 주변에 다수의 카메라를 설치하고, 이들로부터 취득되는 영상정보를 저장함과 아울러 원격지의 표시기기 상에 분할하여 표시하고, 침입이나 사고 등의 이벤트가 발생할 때 그 상황을 즉시 인식하여 표출할 수 있도록 한 시스템을 일컫는다.In general, the video surveillance system installs a plurality of cameras around the monitoring target area of various buildings, airports, roads, railways, military units, etc., stores the image information obtained from them, and displays them separately on a remote display device. And it refers to a system that can recognize and express the situation immediately when an event such as an intrusion or accident occurs.

반도체 분야에서 저전력 기술 및 저비용 기술의 급속한 발전으로 인하여 환경 모니터링(environmental monitoring), 비상 대응(emergency response) 등과 같은 영상 기반 어플리케이션을 위하여 센서가 넓은 범위로 배치되는 무선 영상 감시 시스템이 요구되고 있다.The rapid development of low-power and low-cost technologies in the semiconductor field requires a wireless video surveillance system in which sensors are deployed in a wide range for image-based applications such as environmental monitoring and emergency response.

무선 영상 감시 시스템에서 각 센서 노드의 기능에서 배터리는 전체 시스템 수행을 위해 가장 제한적인 요소이다. CMOS 이미지 센서로부터 촬영된 막대한 양의 영상 데이터는 저장 및 전송되기 전에 고도의 압축 처리가 필요하다. 게다가 무선 영상 감시 시스템은 정확하면서도 효율적으로 이벤트를 검출하고 비이벤트를 걸러내야 한다.In a wireless video surveillance system, the battery in the function of each sensor node is the most limiting factor for the overall system performance. Huge amounts of image data captured from CMOS image sensors require a high degree of compression before they can be stored and transmitted. In addition, wireless video surveillance systems must accurately and efficiently detect and filter out non-events.

따라서 에너지 인식 접근 방식(energy aware approach)은 어플리케이션 요구사항들을 충족시킬 수 있는 이러한 시스템의 수명(lifetime)을 연장시키기 위하여 요구된다. 시스템의 수명은 어플리케이션에 따라 몇 달 또는 몇 년이 될 수 있다.An energy aware approach is therefore required to extend the lifetime of such a system that can meet application requirements. The lifetime of a system can be months or years, depending on the application.

따라서 이러한 종래 기술의 문제점을 해결하기 위한 것으로, 본 발명의 목적은 적외선 센서를 이용하여 사건이 발생됐다고 판단되는 경우에 이미지 센서를 이용하여 획득한 이미지의 사건 발생 유무를 다수의 알고리즘을 이용하여 순차적으로 판단하도록 하는 계층적으로 사건을 탐지하기 위한 무선 영상 감시 시스템 및 그 방법을 제공하는데 있다.Accordingly, to solve the problems of the prior art, an object of the present invention is to sequentially determine whether an event occurs in an image acquired using an image sensor using a plurality of algorithms when it is determined that an event has occurred using an infrared sensor. The present invention provides a wireless video surveillance system and method for detecting an event hierarchically.

그러나 본 발명의 목적은 상기에 언급된 사항으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.However, the objects of the present invention are not limited to those mentioned above, and other objects not mentioned can be clearly understood by those skilled in the art from the following description.

상기 목적들을 달성하기 위하여, 본 발명의 한 관점에 따른 계층적으로 사건을 탐지하기 위한 방법은 (a) 적외선을 이용하여 특정 영역에서 움직이는 사람이 존재하는 상황을 나타내는 사건을 감지하는 단계; (b) 상기 사건이 감지되면, 상기 특정 영역에 대한 이미지를 획득하는 단계; 및 (c) 획득된 상기 이미지에 대한 사건 발생 유무를 배경 제거 알고리즘을 이용하여 1차적으로 판단하는 단계; 및 (d) 상기 판단한 결과로 상기 이미지에 대한 사건이 발생되었으면, 상기 이미지에 대한 사건 발생 유무를 사람 몸체 인식 알고리즘을 이용하여 2차적으로 판단하는 단계를 포함하고, 상기 (c) 단계는 상기 이미지로부터 일정 간격으로 샘플링하여 다수의 배경모델 후보 이미지들을 획득하고, 그 획득한 다수의 배경모델 후보 이미지들 중 어느 하나의 배경모델 후보 이미지를 선택하며, 선택된 상기 배경모델 후보 이미지를 이용하여 상기 이미지로부터 배경 이미지를 제거하고 그 제거한 결과에 따라 상기 이미지에 대한 사건 발생 유무를 판단하는 것을 특징으로 한다.In order to achieve the above objects, a method for detecting an event hierarchically according to an aspect of the present invention comprises the steps of: (a) detecting an event indicating the presence of a moving person in a specific area using infrared; (b) if the event is detected, obtaining an image for the specific area; And (c) primarily determining whether an event occurs in the acquired image using a background removal algorithm; And (d) if an event on the image is generated as a result of the determination, secondly determining whether an event occurs on the image using a human body recognition algorithm, and the step (c) includes the image. Sampling a plurality of background model candidate images at regular intervals, selecting one background model candidate image among the obtained plurality of background model candidate images, and using the selected background model candidate image from the image. The background image may be removed and the occurrence of an event on the image may be determined according to the removed result.

바람직하게, 상기 배경모델 후보 이미지의 개수는 상기 이미지에 대한 사건 탐지 결과로 에러발생 확률이 높아지면 감소되고 상기 에러발생 확률이 낮아지면 증가될 수 있다.Preferably, the number of the background model candidate images may decrease when the probability of error occurrence increases as a result of event detection for the image and increase when the probability of error occurrence decreases.

바람직하게, 상기 (d) 단계는 상기 이미지 내에서 소정 크기의 윈도우를 일정 간격으로 이동시키면서 사람 몸체를 인식하고, 그 인식한 결과에 따라 상기 이미지에 대한 사건 발생 유무를 판단할 수 있다.Preferably, the step (d) may recognize the human body while moving a window having a predetermined size in the image at a predetermined interval, and determine whether or not an event occurs in the image according to the recognition result.

바람직하게, 상기 윈도우가 이동하는 간격은 상기 이미지에 대한 사건 탐지 결과로 에러발생 확률이 높아지면 감소되고 상기 에러발생 확률이 낮아지면 증가될 수 있다.Preferably, the interval at which the window is moved may decrease when the probability of error occurrence increases as a result of event detection for the image and increase when the error probability decreases.

이를 통해, 본 발명은 적외선 센서를 이용하여 사건이 발생됐다고 판단되는 경우에 이미지 센서를 이용하여 획득한 이미지의 사건 발생 유무를 다수의 알고리즘을 이용하여 순차적으로 판단함으로써, 사건 탐지의 정확도를 향상시킬 수 있는 효과가 있다.Through this, the present invention can improve the accuracy of event detection by sequentially determining the occurrence of the event of the image acquired using the image sensor using a plurality of algorithms when it is determined that the event occurred using the infrared sensor. It can be effective.

또한, 본 발명은 적외선 센서를 이용하여 사건이 발생됐다고 판단되는 경우에 이미지 센서를 이용하여 획득한 이미지의 사건 발생 유무를 다수의 알고리즘을 이용하여 순차적으로 판단함으로써, 사건 탐지에 소모되는 에너지를 감소시킬 수 있는 효과가 있다.In addition, in the present invention, when it is determined that an event has occurred by using an infrared sensor, by sequentially determining whether an event occurs in an image acquired by using an image sensor by using a plurality of algorithms, energy consumption for event detection is reduced. It can be effected.

도 1은 본 발명의 실시예에 따른 무선 영상 감시 시스템을 나타내는 예시도이다.
도 2는 본 발명의 실시예에 따른 사건을 탐지하는 동작 원리를 설명하기 위한 예시도이다.
도 3은 본 발명의 실시예에 따른 무선 영상 감시 방법을 나타내는 예시도이다.
도 4는 본 발명의 실시예에 따른 배경 제거 알고리즘을 적용한 시뮬레이션 결과를 나타내는 예시도이다.
도 5는 본 발명의 실시예에 따른 사람 몸체 인식 알고리즘을 적용한 시뮬레이션 결과를 나타내는 예시도이다.
1 is an exemplary view showing a wireless video surveillance system according to an embodiment of the present invention.
2 is an exemplary view for explaining an operation principle of detecting an event according to an embodiment of the present invention.
3 is an exemplary view showing a wireless video surveillance method according to an embodiment of the present invention.
4 is an exemplary view showing a simulation result to which a background removal algorithm according to an embodiment of the present invention is applied.
5 is an exemplary view showing a simulation result to which a human body recognition algorithm according to an embodiment of the present invention is applied.

이하에서는, 본 발명의 실시예에 따른 계층적으로 사건을 탐지하기 위한 무선 영상 감시 시스템 및 그 방법을 첨부한 도 1 내지 도 5를 참조하여 설명한다. 본 발명에 따른 동작 및 작용을 이해하는데 필요한 부분을 중심으로 상세히 설명한다. 명세서 전체를 통하여 각 도면에서 제시된 동일한 참조 부호는 동일한 구성 요소를 나타낸다.Hereinafter, a wireless video surveillance system and method for detecting an event hierarchically according to an embodiment of the present invention will be described with reference to FIGS. 1 to 5. It will be described in detail focusing on the parts necessary to understand the operation and action according to the present invention. Like reference numerals in the drawings denote like elements throughout the specification.

즉, 본 발명에서는 적외선 센서를 이용하여 사건이 발생됐다고 판단되는 경우 이미지 센서를 이용하여 획득한 이미지의 사건 발생 유무를 다수의 알고리즘을 이용하여 순차적으로 판단할 수 있도록 하는 사건 탐지 방법을 제안한다. 다수의 알고리즘으로는 배경 제거 알고리즘, 사람 몸체 인식 알고리즘 등이 사용될 수 있다.That is, in the present invention, when it is determined that an incident has occurred by using an infrared sensor, an event detection method for sequentially determining whether occurrence of an event of an image acquired by using an image sensor using a plurality of algorithms is proposed. As a plurality of algorithms, a background removal algorithm and a human body recognition algorithm may be used.

도 1은 본 발명의 실시예에 따른 무선 영상 감시 시스템을 나타내는 예시도이다.1 is an exemplary view showing a wireless video surveillance system according to an embodiment of the present invention.

도 1에 도시한 바와 같이, 본 발명에 따른 무선 영상 감시 시스템은 적외선 센서(110), 사건 탐지기(event detector)(120), 시스템 제어기(130), 이미지 센서(140), 비디오 인코더(video encoder)(150), 메모리(160), 및 송수신기(transceiver)(170) 등을 포함하여 구성될 수 있다.As shown in FIG. 1, the wireless video surveillance system according to the present invention includes an infrared sensor 110, an event detector 120, a system controller 130, an image sensor 140, and a video encoder. 150), memory 160, transceiver 170, and the like.

적외선 센서(110)는 특정 영역에서 움직이는 사람이 존재하는 상황을 나타내는 사건(event)을 감지할 수 있다. 예컨대, 적외선 센서(110)는 PIR(Passive Infrared) 센서일 수 있다.The infrared sensor 110 may detect an event representing a situation in which a person moving in a specific area exists. For example, the infrared sensor 110 may be a passive infrared (PIR) sensor.

이때, 적외선 센서(110)는 특정 주기로 켜지고 꺼지는 동작이 반복될 수 있다.In this case, the infrared sensor 110 may be repeatedly turned on and off at a specific cycle.

이미지 센서(140)는 적외선 센서(110)에 의해 사건이 감지되면, 구동되어 특정 영역에 대한 이미지를 획득할 수 있다. 즉, 본 발명은 적외선 센서에 의해 사건이 감지된 경우에만 이미지 센서를 통해 이미지를 획득하고자 하는 것이다.When an event is detected by the infrared sensor 110, the image sensor 140 may be driven to acquire an image of a specific area. That is, the present invention intends to acquire an image through the image sensor only when an event is detected by the infrared sensor.

사건 탐지기(120)는 적외선 센서(110)가 사건을 감지하게 되면 이미지 센서(140)를 구동시켜 획득한 이미지를 제공받을 수 있다. 사건 탐지기(120)는 제공받은 이미지에 대한 사건 발생 유무를 판단하게 되는데, 다수의 알고리즘을 적용하게 된다.The event detector 120 may receive an image obtained by driving the image sensor 140 when the infrared sensor 110 detects an event. The event detector 120 determines whether an event has occurred for the received image, and applies a plurality of algorithms.

즉, 사건 탐지기(120)는 이미지에 대한 사건 발생 유무를 배경 제거(background subtraction) 알고리즘을 이용하여 1차적으로 판단하게 된다. 1차적인 판단 결과로 사건이 발생되었으면 사건 탐지기(120)는 그 이미지에 대한 사건 발생 유무를 사람 몸체 인식(human body detection) 알고리즘을 이용하여 판단하게 된다.
That is, the event detector 120 primarily determines whether an event occurs on an image by using a background subtraction algorithm. If an event occurs as a result of the primary judgment, the event detector 120 determines whether an event occurs on the image by using a human body detection algorithm.

도 2는 본 발명의 실시예에 따른 사건을 탐지하는 동작 원리를 설명하기 위한 예시도이다.2 is an exemplary view for explaining an operation principle of detecting an event according to an embodiment of the present invention.

도 2에 도시한 바와 같이, 본 발명에 따른 사건 탐지기(120)는 이미지 센서로부터 획득한 이미지가 시스템에서 가치가 있는지 없는지의 유무를 판단하는 역할을 할 수 있다. 즉, 사건 탐지기는 계층적으로 사건의 유무를 판단하게 된다.As shown in FIG. 2, the event detector 120 according to the present invention may play a role of determining whether or not an image acquired from an image sensor is valuable in a system. That is, the event detector hierarchically determines the existence of an event.

그림 (a)에서는 사건 탐지기(120)의 사건, 비사건 결정을 위한 계층적 판단 구조를 보여주고 있다. 즉, 사건 탐지기는 L1, L2, L3의 3개의 단으로 이루어져 있다.Figure (a) shows the hierarchical decision structure for event and non-event decision of the event detector 120. In other words, the event detector consists of three stages: L1, L2, and L3.

먼저 사건 탐지기는 L1에서 사건이 발생되었는지 아닌지를 판단하며, 사건이 발생되지 않았다고 판단될 경우 L2로 넘어가지 않고 그 이미지는 폐기된다. 반면, 사건 탐지기는 사건이 발생되었다고 판단될 경우 L2로 넘어가게 된다. 마찬가지로 사건 탐지기는 L2에서도 사건이 발생되었다고 판단될 경우 최종단인 L3로 넘어가게 되며 L3에서도 사건이 발생되었다고 판단될 경우에 그 이미지에 대해서 최종적으로 실제 사건이라고 간주되어 백엔드 모듈로 전송되게 된다.First, the event detector determines whether or not an event has occurred at L1. If it is determined that no event has occurred, the image is discarded without going to L2. On the other hand, the event detector goes to L2 if it is determined that an event has occurred. Likewise, if the event detector is determined to have occurred in L2, the event detector goes to the final stage, L3. When the event is detected in L3, the event is finally considered as an actual event and transmitted to the backend module.

이때, 적외선 센서, 이미지 센서, 사건 탐지기, 시스템 컨트롤러 등은 프론트엔드 모듈로, 비디오 인코더, 메모리, 송수신기 등은 백엔드 모듈로 구분될 수 있다.In this case, an infrared sensor, an image sensor, an event detector, a system controller, etc. may be classified as a front end module, and a video encoder, a memory, a transceiver, etc. may be classified as a backend module.

즉, 사건 탐지기는 L1, L2, L3의 3개의 단에서 모두 사건이 발생되었다고 판단되는 경우만 가치 있는 이미지라고 간주하며 3개의 단 중 하나의 단에서라도 사건이 발생되지 않았다고 판단될 경우 그 이미지는 버려지게 된다. 여기서 사건은 이미지 센서로부터 획득한 이미지에 한명 이상의 사람이 나타나는 경우로 정의하며 비사건(non-event)은 사건이 아닌 모든 경우를 정의하게 된다.In other words, the event detector considers the image as a valuable image only when all three stages of L1, L2, and L3 are considered to have occurred, and discards the image when it is determined that no event has occurred in one of the three stages. You lose. In this case, an event is defined as one or more people appearing in an image acquired from an image sensor, and a non-event defines all cases that are not events.

그림 (b)에서는 각 단에서의 에러 확률과 에너지 소모량의 관계를 보여주고 있다. 우선, 각 단을 기준으로 알아보면 사건을 정확하게 판단하지 못하는 에러 확률이 증가함에 따라 에너지 소모량은 감소하게 되며, 이와는 반대로 에러 확률이 감소함에 따라 에너지 소모량은 증가하게 된다. 또한, 전체적인 측면에서 다시 살펴보면 단이 올라갈수록 에러 확률은 줄어드는 대신에 에너지 소모량이 증가하게 된다.Figure (b) shows the relationship between error probability and energy consumption in each stage. First of all, based on the stages, the energy consumption decreases as the error probability of not accurately determining an event increases. On the contrary, the energy consumption increases as the error probability decreases. In addition, as a whole, as the stage increases, the error probability decreases, but the energy consumption increases.

한편, 이러한 계층적 사건 탐지기를 설계하기 위하여 통계학에서 사용되는 가설 검증(hypothesis testing) 방식을 사용하여 확률 모델링을 한다. 가설 검증에 사용되는 경우는 4가지로 구분되며 이는 true positive(tp), false positive(fp), false negative(fn), true negative(tn)이다. 계층적 사건 탐지기의 i단에서 이들의 각각의 경우에 대한 사건 발생 확률은 다음의 [수학식 1]과 같이 정의될 수 있다.Meanwhile, in order to design such a hierarchical event detector, probability modeling is performed using the hypothesis testing method used in statistics. There are four types of hypothesis testing: true positive (tp), false positive (fp), false negative (fn), and true negative (tn). Event occurrence probabilities for each of these cases in step i of the hierarchical event detector may be defined as in Equation 1 below.

[수학식 1][Equation 1]

Figure 112012034980810-pat00001
Figure 112012034980810-pat00001

Figure 112012034980810-pat00002
Figure 112012034980810-pat00002

Figure 112012034980810-pat00003
Figure 112012034980810-pat00003

Figure 112012034980810-pat00004
Figure 112012034980810-pat00004

여기서,

Figure 112012034980810-pat00005
는 i단에서의 실제 사건의 발생 유무에 대한 사실값을 나타내고,
Figure 112012034980810-pat00006
는 i단에서의 사건 탐지기의 판단에 의한 사건 발생 유무의 추정값을 나타낼 수 있다.here,
Figure 112012034980810-pat00005
Represents the fact value for the actual occurrence of event at stage i,
Figure 112012034980810-pat00006
May represent an estimated value of occurrence of an event by the event detector in stage i.

또한, 사건 탐지기는 계층적인 구조를 가지고 있으므로 하위 단의 결과는 상위 단에 영향을 주게 된다. 이에 따라 각 i단에서는 1단에서 i단까지의 누적되는 4가지 경우의 사건 발생 확률을 가지게 되고 이는 다음의 [수학식 2]와 같이 정의될 수 있다.Also, since the event detector has a hierarchical structure, the result of the lower stage affects the upper stage. Accordingly, each i stage has a cumulative probability of occurrence of four cases from 1 stage to i stage, which may be defined as in Equation 2 below.

[수학식 2]&Quot; (2) "

Figure 112012034980810-pat00007
Figure 112012034980810-pat00007

Figure 112012034980810-pat00008
Figure 112012034980810-pat00008

Figure 112012034980810-pat00009
Figure 112012034980810-pat00009

Figure 112012034980810-pat00010
Figure 112012034980810-pat00010

여기서, p(e1)은 사건이 일어날 확률을 나타내고, p(e0)는 비사건이 일어날 확률을 나타낼 수 있으며, p(e1) = 1 - p(e0)의 관계를 갖게 된다.Here, p (e 1 ) represents the probability of occurrence of an event, p (e 0 ) may represent the probability of occurrence of a non-event, and has a relationship of p (e 1 ) = 1-p (e 0 ).

이에 따라 i단에서의 사람이 있다고 판단되는 positive decision과 사람이 없다고 판단되는 negative decision의 확률은 다음의 [수학식 3]과 같이 정의될 수 있다.Accordingly, the probability of a positive decision judged to have a person in stage i and a negative decision judged to have no person may be defined as in Equation 3 below.

[수학식 3]&Quot; (3) "

Figure 112012034980810-pat00011
Figure 112012034980810-pat00011

Figure 112012034980810-pat00012
Figure 112012034980810-pat00012

따라서 각 i단에서는 positive 요소의 합인 Pi PD의 확률로 i+1단으로 데이터를 전송하게 되며 Pi ND의 확률로 데이터를 버리게 된다. Pi PD와 Pi ND는 상보적인 관계를 갖는다.
Therefore, each i-stage transmits data to i + 1 stage with the probability of P i PD which is the sum of positive elements, and discards the data with the probability of P i ND . P i PD and P i ND have a complementary relationship.

비디오 인코더(150)는 이미지 센서(140)로부터 제공받은 이미지를 인코딩하고 그 인코딩된 이미지를 메모리(160)에 저장하거나 송수신기(170)를 통해 다른 노드에 제공할 수 있다.The video encoder 150 may encode an image provided from the image sensor 140 and store the encoded image in the memory 160 or provide it to another node through the transceiver 170.

시스템 컨트롤러(130)는 시스템 내의 각종 장치의 기능 등을 제어할 수 있다.
The system controller 130 may control functions of various devices in the system.

도 3은 본 발명의 실시예에 따른 무선 영상 감시 방법을 나타내는 예시도이다.3 is an exemplary view showing a wireless video surveillance method according to an embodiment of the present invention.

도 3에 도시한 바와 같이, 본 발명에 따른 무선 영상 감시 시스템은 특정 영역에서 적외선 센서를 이용하여 사건이 탐지되었는지를 확인하고(S310), 그 확인한 결과로 사건이 탐지되었으면 이미지 센서를 구동하여 구동된 이미지 센서를 통해 이미지를 획득할 수 있다(S320).As shown in FIG. 3, the wireless video surveillance system according to the present invention checks whether an event is detected using an infrared sensor in a specific area (S310), and if an event is detected as a result of the checking, drives an image sensor to drive the image. An image may be acquired through the image sensor (S320).

다음으로, 무선 영상 감시 시스템은 획득한 이미지에 대한 사건 발생 유무를 다수의 알고리즘을 이용하여 판단할 수 있다. 즉, 무선 영상 감시 시스템은 배경 제거 알고리즘을 이용하여 1차적으로 사건을 탐지할 수 있는데(S330), 그 동작 원리를 설명한다.Next, the wireless video surveillance system may determine whether or not an event occurs for the acquired image using a plurality of algorithms. That is, the wireless video surveillance system may primarily detect an event using a background removal algorithm (S330), and the operation principle thereof will be described.

p라는 위치와 t라는 시간에서 정의되는 배경 모델 Bt(p)는 n개의 배경 모델의 후보들 중에 특정 조건을 최적으로 만족하는 하나가 선택된다. 이 n개의 배경 모델 후보들은 원래의 이미지 중에 ts 간격으로 서브 샘플링하여 얻어지며, S라는 세트에 저장될 수 있다. 배경 모델 Bt(p)는 다음의 [수학식 4]와 같이 정의될 수 잇다.The background model B t (p) defined at the position p and the time t is selected among the candidates of the n background models that satisfies a specific condition optimally. These n background model candidates are obtained by subsampling at intervals of ts in the original image, and can be stored in a set called S. The background model B t (p) can be defined as in Equation 4 below.

[수학식 4]&Quot; (4) "

Bt(p) = xk B t (p) = x k

xk는 S 안의 배경 모델의 후보들 중에 다음의 [수학식 5]를 만족하는 최적의 후보를 선택하게 된다.x k selects an optimal candidate among the candidates of the background model in S that satisfies Equation 5 below.

[수학식 5][Equation 5]

Figure 112012034980810-pat00013
Figure 112012034980810-pat00013

Figure 112012034980810-pat00014
Figure 112012034980810-pat00014

여기서, 배경 모델 후보의 개수 n이 증가할수록 현재의 이미지에 대해서 정확한 배경 모델을 얻을 확률이 증가하게 된다. 이는 기본적인 영상들은 하나의 물체가 계속 움직이므로 특정 위치에 대해서 여러 프레임을 비교해보았을 때 배경이 나오는 경우가 물체로 나오는 경우보다 많기 때문이다.Here, as the number n of background model candidates increases, the probability of obtaining an accurate background model with respect to the current image increases. This is because the basic images are constantly moving, so when comparing several frames for a specific position, the background is more likely than the object.

따라서 배경 모델 후보의 개수가 증가할수록 에러 확률은 감소하게 되는 것이다. 하지만, 이와 동시에 처리해야 할 계산량이 증가히기 때문에 소모되는 에너지도 증가하게 된다. 특히나 배경이 자주 바뀌는 환경 속에서는 정확한 배경 모델을 얻기 위해서 많은 양의 샘플이 필요하게 된다. 반대로 n이 감소할수록 정확한 모델을 얻을 확률은 적어지게 되지만 사건 탐색기에서 소모되는 에너지도 감소하게 된다.
Therefore, as the number of background model candidates increases, the probability of error decreases. At the same time, however, the amount of computation to be processed increases, resulting in an increase in the energy consumed. Especially in environments where the background changes frequently, a large amount of samples are required to obtain an accurate background model. Conversely, as n decreases, the probability of obtaining an accurate model decreases, but also reduces the energy consumed in the event searcher.

도 4는 본 발명의 실시예에 따른 배경 제거 알고리즘을 적용한 시뮬레이션 결과를 나타내는 예시도이다.4 is an exemplary view showing a simulation result to which a background removal algorithm according to an embodiment of the present invention is applied.

도 4에 도시한 바와 같이, PETS(Performance Evaluation of Tracking and Surveillance) 영상에서 배경 모델 후보의 개수 n과 에러 확률과의 관계를 보여주고 있다.As shown in FIG. 4, the relationship between the number n of background model candidates and the error probability is shown in a performance evaluation of tracking and surveillance (PETS) image.

그림 (a)에서는 true foreground인 두 명의 사람이 화면에 있는 것을 보여주고 그림 (b)에서는 n이 3일 때의 배경 모델을 보여주며 그림 (c)에서는 n이 10일 때의 배경 모델을 보여주고 있다. 그림 (b)에서는 충분하지 않은 개수의 배경 모델 후보들 때문에 정확하지 않은 배경 모델을 보여주고 있지만 그림 (c)에서는 충분한 개수의 배경 모델 후보들로 정확한 배경 모델이 생성된 것을 볼 수 있다.Figure (a) shows two people on the screen with true foreground, Figure (b) shows the background model when n is 3, and Figure (c) shows the background model when n is 10. have. Figure (b) shows an inaccurate background model because of an insufficient number of background model candidates, but in Figure (c) it can be seen that an accurate background model has been created with a sufficient number of background model candidates.

그림 (d)와 (e)는 생성된 이들 그림 (b)와 (c)의 배경 모델을 각각 이용하여 만들어진 차 프레임(difference frame)을 보여주고 있다. 여기서, 차 프레임이란 현재 프레임에서 배경 모델 프레임을 뺀 프레임을 나타낼 수 있다. 그림 (d)의 경우에는 부정확한 배경 모델로 인하여 두 개의 true foreground 뿐만 아니라 두 개의 false foreground도 발생하는 것을 볼 수 있다. 하지만, 그림 (e)의 경우에는 정확한 배경 모델로 인하여 정확히 두 개의 true foreground만 발생하는 것을 볼 수 있다.Figures (d) and (e) show the difference frames created using the generated background models of these figures (b) and (c), respectively. Here, the difference frame may indicate a frame obtained by subtracting the background model frame from the current frame. In the case of Figure (d), we can see that not only two true foregrounds but also two false foregrounds are caused by the incorrect background model. However, in Figure (e), we can see that only two true foregrounds occur because of the exact background model.

이처럼 배경 모델 후보의 개수 n과 에러 확률과의 관계를 확인할 수 있다. 즉, 배경 모델 후보의 개수 n이 증가할수록 정확한 true foreground만을 얻을 수 있고 반대로 n이 감소할수록 false foreground가 생길 확률이 증가한다. 물론, n의 변화에 따라 이에 동반하여 임베디드 시스템에서 소모되는 에너지량도 변화를 보이게 된다.
As such, the relationship between the number n of background model candidates and the error probability can be confirmed. That is, as the number n of background model candidates increases, only a true true foreground can be obtained. On the contrary, as n decreases, the probability of generating a false foreground increases. Of course, as the n changes, the amount of energy consumed in the embedded system also changes.

*다음으로, 무선 영상 감시 시스템은 사람 몸체 인식 알고리즘을 이용하여 2차적으로 사건을 탐지할 수 있는데(S340), 그 동작 원리를 설명한다. 여기서 사람 몸체 인식 알고리즘은 oriented gradient descriptor의 히스토그램을 이용하여 사람의 몸체를 인식할 수 있다.Next, the wireless video surveillance system may detect an incident secondly using a human body recognition algorithm (S340), and the operation principle thereof will be described. Here, the human body recognition algorithm can recognize a human body using a histogram of an oriented gradient descriptor.

특정 크기의 윈도우를 가지고 하나의 프레임 또는 이미지를 스캐닝하면서 사람의 몸체를 찾게 되는데 이때 움직이는 윈도우의 폭을 스트라이드라고 한다. 따라서 스트라이드를 작게하여 스캐닝을 하면 사람을 정확하게 찾을 확률이 증가하게 되지만 계산량이 증가하기 때문에 사건 탐지기에서 소모되는 에너지도 증가하게 된다. 반대로 스트라이드를 크게하여 스캐닝을 하게 되면 한 프레임에 대하여 듬성하게 사람을 찾기 때문에 사람을 찾을 확률은 감소하게 되지만 이에 따라 소모쇠는 에너지도 적어지게 된다.
When you scan a frame or image with a window of a certain size, you find the human body. The width of the moving window is called stride. Therefore, scanning with a smaller stride increases the probability of finding a person accurately, but increases the amount of computation, which also increases the energy consumed by the event detector. On the other hand, if you scan with a large stride, you will find a person in a frame, which reduces the probability of finding a person, but consumes less energy.

도 5는 본 발명의 실시예에 따른 사람 몸체 인식 알고리즘을 적용한 시뮬레이션 결과를 나타내는 예시도이다.5 is an exemplary view showing a simulation result to which a human body recognition algorithm according to an embodiment of the present invention is applied.

도 5에 도시한 바와 같이, 스트라이더와 에러 확률과의 관계를 보여주고 있다. 사람 몸체 인식을 위해 제공하는 이 그림에는 7명의 아이들이 있음을 알 수 있다.As shown in Fig. 5, the relationship between the strider and the error probability is shown. You can see that there are seven children in this picture, which provide for human body recognition.

그림 (a), (b), (c)는 스트라이드가 각각 16, 8, 4일 때의 그림으로 사람으로 인식되는 수가 1, 3, 6이다. 이처럼 스트라이드가 감소할수록 사람을 인식하는 확률이 증가하게 된다.
Figures (a), (b), and (c) show that the strides are 16, 8, and 4, respectively. As the stride decreases, the probability of recognizing a person increases.

다음으로, 무선 영상 감시 시스템은 사건이 발생되었다고 판단되는 이미지를 저장 및 송신할 수 있다(S350).
Next, the wireless video surveillance system may store and transmit an image that is determined to have occurred (S350).

또한, 사건 탐지기는 계층적으로 설계되어 있으며 이에 따라 Li가 동작하기 때문에서는 Li -1에서 positive decision이 발생해야 한다. 이에 따라 사건 탐지기에서 평균적으로 소모되는 에너지 Eed는 다음의 [수학식 6]과 같이 정의될 수 있다.In addition, since the event detector is hierarchically designed, accordingly, since L i operates, a positive decision must occur at L i -1 . Accordingly, the average energy consumed by the event detector E ed can be defined as shown in Equation 6 below.

[수학식 6]&Quot; (6) "

Figure 112012034980810-pat00015
Figure 112012034980810-pat00015

여기서, Ei는 i단에서 소모되는 에너지를 의미하며, Pi×ti com으로 계산될 수 있다. Pi와 ti com는 i단에서의 소모 전력과 해당 알고리즘을 돌리는데 소모되는 프로세서에서의 계산 시간을 나타낼 수 있다. 좀더 구체적으로, i단에서의 소모 전력은 적외선 센서의 경우 센서가 켜지고 꺼지는 동작을 반복하는 과정동안 소모되는 에너지를 의미하고, 배경 제거 알고리즘 또는 사람 몸체 인식 알고리즘의 경우에는 하나의 프레임 또는 이미지를 처리되는데 소모되는 에너지를 의미할 수 있다.Here, E i means energy consumed at stage i , and may be calculated as P i × t i com . P i and t i com can represent the power consumption at stage i and the computation time spent on running the algorithm. More specifically, the power consumption in the i stage means energy consumed during the process of repeatedly turning on and off the sensor in the infrared sensor, and processes one frame or image in the case of a background removal algorithm or a human body recognition algorithm. It may mean energy consumed.

사건 탐지기는 전체 시스템의 에너지를 최소화하는 방향으로 동작하여야 하며 시스템의 에너지를 최소화하는 조건을 찾기 위해서는 몇 가지의 모델 및 제약사항이 필요하다. 첫 번째는 계층적 사건 탐지기의 확률 모델, 두 번째는 시스템 주변에서 발생하는 사건의 특성 모델, 세 번째는 프론트엔드 모듈들과 백엔드 모듈들의 전력 모델, 마지막으로 시스템의 제약사항이다. 이렇게 입력이 주어지면 시스템에서의 에러 확률 제약사항

Figure 112012034980810-pat00016
을 만족하면서 시스템에서 소모되는 에너지 Esys를 최소화하게 되는데 이를 다음의 [수학식 7]과 같이 정의할 수 있다.Event detectors should operate in the direction of minimizing the energy of the whole system, and several models and constraints are needed to find the conditions that minimize the energy of the system. The first is the probabilistic model of the hierarchical event detector, the second is the characteristic model of events occurring around the system, the third is the power model of the front-end and back-end modules, and finally the system constraints. Given this input, error probability constraints in the system
Figure 112012034980810-pat00016
To minimize the energy Esys consumed in the system while satisfying this can be defined as [Equation 7].

[수학식 7][Equation 7]

Figure 112012034980810-pat00017
Figure 112012034980810-pat00017

Figure 112012034980810-pat00018
Figure 112012034980810-pat00018

여기서, Esys와 계층적 사건 탐지기가 잘못된 판단을 할 확률 Pinaccs는 다음의 수학식 [8]과 같이 정의될 수 있다.Here, the probability P inaccs that Esys and the hierarchical event detector make a wrong decision may be defined as in Equation [8].

[수학식 8][Equation 8]

Esys = Eed + Eback E sys = E ed + E back

= Eed + Eback (1) + Eback (0) = E ed + E back (1) + E back (0)

= Eed + p3 PD × (Eenc + Etx / mem)= E ed + p 3 PD × (E enc + E tx / mem )

= E1 + p1 PD × E2 × p2 PD × E3 + p3 PD × (Penc × tenc + Ptx / mem × ttx / mem)= E 1 + p 1 PD × E 2 × p 2 PD × E 3 + p 3 PD × (P enc × t enc + P tx / mem × t tx / mem )

Figure 112012034980810-pat00019
Figure 112012034980810-pat00019

백엔드 모듈들에서 소모되는 에너지 Eback은 Eback (1)과 Eback (0)로 구분될 수 있다. Eback (1)은 실제 사건을 백엔드 모듈들에서 처리될 때 소모되는 에너지이며, Eback(0)은 실제 비사건을 백엔드 모듈들에서 처리될 때 소모되는 에너지를 의미할 수 있다. 이상적인 사건 탐지기의 경우 Eback (0)은 0이 될 것이다. 또한 위의 [수학식 8]에서 tenc, ttx, tmem은 비디오 인코더, 송수신기, 메모리가 데이터 등을 처리하는데 걸리는 시간을 의미할 수 있다. 또한, Pinaccs는 p3 FP

Figure 112012034980810-pat00020
의 false 확률로 구성될 수 있다.The energy E back consumed by the backend modules may be divided into E back (1) and E back (0) . E back (1) is the energy consumed when the actual event is processed in the backend modules, and E back (0) may mean energy consumed when the actual non-event is processed in the backend modules. For an ideal event detector, E back (0) would be zero. In addition, in [Equation 8], t enc , t tx , and t mem may mean a time taken for the video encoder, the transceiver, and the memory to process data. In addition, P inaccs and p 3 FP
Figure 112012034980810-pat00020
It may consist of a false probability of.

마찬가지로, 계층적 사건 탐지기자 정확한 판단을 할 확률 Pacc은 true 확률로 구성되며 다음의 [수학식 9]와 같이 정의될 수 있다.Similarly, the probability P acc of the hierarchical event detector to make an accurate judgment is composed of a true probability and may be defined as in Equation 9 below.

[수학식 9]&Quot; (9) "

Figure 112012034980810-pat00021
Figure 112012034980810-pat00021

한편, 소모되는 에너지 Eback (1)과 Eback (0) 사이에는 사건 탐지기의 계산량에 따른 트레이드오프(tradeoff)가 존재하게 된다. 사건 탐지기가 많은 계산량을 처리하게 된다면 실제 사건을 실제 사건으로 판단하고 백엔드 모듈로 전송되어 처리될 확률이 증가하기 때문에 Eback (1)는 증가하게 된다. 마찬가지로 Eback (0)는 실제 비사건을 실제 비사건으로 판단하여 백엔드 모듈로 전송하지 않기 때문에 감소하게 된다. 이와는 반대로 사건 탐지기가 적은 계산량을 처리하게 된다면 실제 사건을 실제 사건으로 판단하지 못할 확률이 증가하여 백엔드 모듈에서 처리되는 데이터 양이 적어지기 때문에 Eback (1)는 감소하게 된다. 또한 실제 비사건을 사건인 것으로 오판하게 되어 백엔드 모듈에서 처리될 확률도 증가하기 때문에 Eback (0)는 증가하게 된다.
On the other hand, between the energy consumed E back (1) and E back (0) there is a tradeoff according to the calculation amount of the event detector. If the event detector handles a large amount of computation, E back (1) increases because the probability of the actual event being considered as an actual event and transmitted to the backend module increases. Similarly, E back (0) is reduced because it determines that the actual non-event is a real non-event and does not transmit it to the backend module. On the contrary, if the event detector handles a small amount of computation, E back (1) decreases because the probability of failing to judge a real event as a real event increases and the amount of data processed in the backend module is reduced. E back (0) also increases because the actual non-event is misinterpreted as an event, increasing the probability that it will be processed in the backend module.

본 발명에 의한 계층적으로 사건을 탐지하기 위한 무선 영상 감시 시스템 및 그 방법이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.Those skilled in the art will be able to make various modifications and variations without departing from the essential features of the present invention. Therefore, the embodiments disclosed in the present invention are intended to illustrate rather than limit the scope of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments. The protection scope of the present invention should be interpreted by the following claims, and all technical ideas within the equivalent scope should be interpreted as being included in the scope of the present invention.

110: 적외선 센서
120: 사건 탐지기
130: 시스템 컨트롤러
140: 이미지 센서
150: 비디오 인코더
160: 메모리
170: 송수신기
110: infrared sensor
120: event detector
130: system controller
140: image sensor
150: video encoder
160: memory
170: transceiver

Claims (4)

(a) 적외선을 이용하여 특정 영역에서 움직이는 사람이 존재하는 상황을 나타내는 사건을 감지하는 단계;
(b) 상기 사건이 감지되면, 상기 특정 영역에 대한 이미지를 획득하는 단계; 및
(c) 획득된 상기 이미지에 대한 사건 발생 유무를 배경 제거 알고리즘을 이용하여 1차적으로 판단하는 단계; 및
(d) 상기 판단한 결과로 상기 이미지에 대한 사건이 발생되었으면, 상기 이미지에 대한 사건 발생 유무를 사람 몸체 인식 알고리즘을 이용하여 2차적으로 판단하는 단계;
를 포함하고, 상기 (c) 단계는,
상기 이미지로부터 일정 간격으로 샘플링하여 다수의 배경모델 후보 이미지들을 획득하고, 그 획득한 다수의 배경모델 후보 이미지들 중 어느 하나의 배경모델 후보 이미지를 선택하며, 선택된 상기 배경모델 후보 이미지를 이용하여 상기 이미지로부터 배경 이미지를 제거하고 그 제거한 결과에 따라 상기 이미지에 대한 사건 발생 유무를 판단하며,
상기 (d) 단계는 상기 이미지 내에서 소정 크기의 윈도우를 일정 간격으로 이동시키면서 사람 몸체를 인식하고, 그 인식한 결과에 따라 상기 이미지에 대한 사건 발생 유무를 판단하는 것을 특징으로 하는 계층적으로 사건을 탐지하기 위한 방법.
(a) detecting an event indicating a situation in which a moving person exists in a specific area by using infrared rays;
(b) if the event is detected, obtaining an image for the specific area; And
(c) primarily determining whether an event occurs in the acquired image using a background removal algorithm; And
(d) if an event on the image is generated as a result of the determination, secondly determining whether an event occurs on the image by using a human body recognition algorithm;
To include, the step (c),
Sampling a plurality of background model candidate images from the image at predetermined intervals, selecting one of the background model candidate images among the obtained plurality of background model candidate images, and using the selected background model candidate image. Removing a background image from the image and judging whether an event has occurred for the image based on the result of the removal;
In the step (d), the human body is recognized while moving a window having a predetermined size in the image at a predetermined interval, and the event is hierarchically characterized by determining whether an event occurs in the image according to the recognized result. Method for Detecting
제1 항에 있어서,
상기 배경모델 후보 이미지의 개수는,
상기 이미지에 대한 사건 탐지 결과로 에러발생 확률이 높아지면 감소되고 상기 에러발생 확률이 낮아지면 증가되는 것을 특징으로 하는 계층적으로 사건을 탐지하기 위한 방법.
The method according to claim 1,
The number of candidate background model images is
And decreasing the probability of error occurrence as a result of the event detection on the image and increasing the probability of error occurrence.
삭제delete 제1 항에 있어서,
상기 윈도우가 이동하는 간격은,
상기 이미지에 대한 사건 탐지 결과로 에러발생 확률이 높아지면 감소되고 상기 에러발생 확률이 낮아지면 증가되는 것을 특징으로 하는 계층적으로 사건을 탐지하기 위한 방법.
The method according to claim 1,
The interval at which the window moves,
And decreasing the probability of error occurrence as a result of the event detection on the image and increasing the probability of error occurrence.
KR1020120046175A 2012-05-02 2012-05-02 Wireless video surveillance system for hierarchically detecting event and method thereof KR101205800B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120046175A KR101205800B1 (en) 2012-05-02 2012-05-02 Wireless video surveillance system for hierarchically detecting event and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120046175A KR101205800B1 (en) 2012-05-02 2012-05-02 Wireless video surveillance system for hierarchically detecting event and method thereof

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020110077838A Division KR101165671B1 (en) 2011-08-04 2011-08-04 Wireless video surveillance system for hierarchically detecting event and method thereof

Publications (1)

Publication Number Publication Date
KR101205800B1 true KR101205800B1 (en) 2012-11-29

Family

ID=47565527

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120046175A KR101205800B1 (en) 2012-05-02 2012-05-02 Wireless video surveillance system for hierarchically detecting event and method thereof

Country Status (1)

Country Link
KR (1) KR101205800B1 (en)

Similar Documents

Publication Publication Date Title
US11263751B2 (en) Method and apparatus for image segmentation using an event sensor
US20090195382A1 (en) Video sensor and alarm system and method with object and event classification
KR102478335B1 (en) Image Analysis Method and Server Apparatus for Per-channel Optimization of Object Detection
JP5904069B2 (en) Image processing apparatus, object detection method, and object detection program
CN102074095A (en) System and method for monitoring infant behaviors
KR102002812B1 (en) Image Analysis Method and Server Apparatus for Detecting Object
CN109815787B (en) Target identification method and device, storage medium and electronic equipment
Rabiee et al. IVOA: Introspective vision for obstacle avoidance
US11935378B2 (en) Intrusion detection methods and devices
KR20160086605A (en) Method of recognizing object and apparatus thereof
KR102584708B1 (en) System and Method for Crowd Risk Management by Supporting Under and Over Crowded Environments
KR101454644B1 (en) Loitering Detection Using a Pedestrian Tracker
WO2020248543A1 (en) Abnormal target detection method and device, and storage medium
KR101651410B1 (en) Violence Detection System And Method Based On Multiple Time Differences Behavior Recognition
WO2019155727A1 (en) Information processing device, tracking method, and tracking program
KR101205800B1 (en) Wireless video surveillance system for hierarchically detecting event and method thereof
KR101165671B1 (en) Wireless video surveillance system for hierarchically detecting event and method thereof
KR20040018586A (en) Motion detecting device using face characteristics and monitoring system adapting it
CN116403162B (en) Airport scene target behavior recognition method and system and electronic equipment
JP4925942B2 (en) Image sensor
CN112926445B (en) Parabolic behavior recognition method, model training method and related devices
KR101240924B1 (en) Apparatus and method for motion detecting sensor using camera
EP4198817B1 (en) System, method, and computer program for retraining a pre-trained object classifier
CN111225178A (en) Video monitoring method and system based on object detection
US20220400206A1 (en) Apparatus, method, and storage medium

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20150911

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20170911

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20191024

Year of fee payment: 8