KR102122859B1 - Method for tracking multi target in traffic image-monitoring-system - Google Patents
Method for tracking multi target in traffic image-monitoring-system Download PDFInfo
- Publication number
- KR102122859B1 KR102122859B1 KR1020200026315A KR20200026315A KR102122859B1 KR 102122859 B1 KR102122859 B1 KR 102122859B1 KR 1020200026315 A KR1020200026315 A KR 1020200026315A KR 20200026315 A KR20200026315 A KR 20200026315A KR 102122859 B1 KR102122859 B1 KR 102122859B1
- Authority
- KR
- South Korea
- Prior art keywords
- traffic
- image
- vehicle
- feature
- surveillance system
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 81
- 238000012544 monitoring process Methods 0.000 claims abstract description 34
- 238000004458 analytical method Methods 0.000 claims description 38
- 238000013135 deep learning Methods 0.000 claims description 28
- 230000002159 abnormal effect Effects 0.000 claims description 16
- 230000033001 locomotion Effects 0.000 claims description 14
- 238000000605 extraction Methods 0.000 claims description 11
- 238000010586 diagram Methods 0.000 claims description 10
- 238000012545 processing Methods 0.000 claims description 9
- 230000008859 change Effects 0.000 claims description 7
- 230000000694 effects Effects 0.000 claims description 7
- 239000011159 matrix material Substances 0.000 claims description 6
- 238000012937 correction Methods 0.000 claims description 4
- 238000013473 artificial intelligence Methods 0.000 abstract description 4
- 238000001514 detection method Methods 0.000 description 19
- 230000006870 function Effects 0.000 description 19
- 238000004891 communication Methods 0.000 description 16
- 238000005516 engineering process Methods 0.000 description 16
- 230000002093 peripheral effect Effects 0.000 description 14
- 239000000284 extract Substances 0.000 description 13
- 238000003384 imaging method Methods 0.000 description 11
- 238000013527 convolutional neural network Methods 0.000 description 9
- 239000000428 dust Substances 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- CURLTUGMZLYLDI-UHFFFAOYSA-N Carbon dioxide Chemical compound O=C=O CURLTUGMZLYLDI-UHFFFAOYSA-N 0.000 description 6
- 230000007613 environmental effect Effects 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 5
- 230000010365 information processing Effects 0.000 description 5
- 230000005856 abnormality Effects 0.000 description 4
- 230000001965 increasing effect Effects 0.000 description 4
- 102100024405 GPI-linked NAD(P)(+)-arginine ADP-ribosyltransferase 1 Human genes 0.000 description 3
- 101000981252 Homo sapiens GPI-linked NAD(P)(+)-arginine ADP-ribosyltransferase 1 Proteins 0.000 description 3
- 229910002092 carbon dioxide Inorganic materials 0.000 description 3
- 239000001569 carbon dioxide Substances 0.000 description 3
- 238000010191 image analysis Methods 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 238000007781 pre-processing Methods 0.000 description 3
- 230000002265 prevention Effects 0.000 description 3
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000013480 data collection Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 230000001934 delay Effects 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 230000000877 morphologic effect Effects 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 230000011664 signaling Effects 0.000 description 2
- 238000000638 solvent extraction Methods 0.000 description 2
- 230000009897 systematic effect Effects 0.000 description 2
- 102100034112 Alkyldihydroxyacetonephosphate synthase, peroxisomal Human genes 0.000 description 1
- 101000799143 Homo sapiens Alkyldihydroxyacetonephosphate synthase, peroxisomal Proteins 0.000 description 1
- 101000746134 Homo sapiens DNA endonuclease RBBP8 Proteins 0.000 description 1
- 101000969031 Homo sapiens Nuclear protein 1 Proteins 0.000 description 1
- 206010021703 Indifference Diseases 0.000 description 1
- 102100021133 Nuclear protein 1 Human genes 0.000 description 1
- 238000000848 angular dependent Auger electron spectroscopy Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- QVFWZNCVPCJQOP-UHFFFAOYSA-N chloralodol Chemical compound CC(O)(C)CC(C)OC(O)C(Cl)(Cl)Cl QVFWZNCVPCJQOP-UHFFFAOYSA-N 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000010924 continuous production Methods 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 238000012806 monitoring device Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/017—Detecting movement of traffic to be counted or controlled identifying vehicles
- G08G1/0175—Detecting movement of traffic to be counted or controlled identifying vehicles by photographing vehicles, e.g. when violating traffic rules
-
- G06T5/002—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/292—Multi-camera tracking
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Quality & Reliability (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
본 명세서에 개시된 내용은 데이터 처리 기술 분야에 관한 것으로, 도로 상의 차량 또는 사람 등의 영상감시시스템에 있어서, 복수의 표적을 실시간으로 추적하는 기술에 관한 것이다.The present disclosure relates to the field of data processing technology, and relates to a technology for tracking a plurality of targets in real time in an image surveillance system such as a vehicle or a person on a road.
본 명세서에서 달리 표시되지 않는 한, 이 섹션에 설명되는 내용들은 이 출원의 청구항들에 대한 종래 기술이 아니며, 이 섹션에 포함된다고 하여 종래 기술이라고 인정되는 것은 아니다.Unless otherwise indicated herein, the content described in this section is not prior art to the claims of this application and is not admitted to be prior art by inclusion in this section.
일반적으로, 예를 들어 교통 신호 제어 시스템은 교차로에서 상충되는 교통류의 이동 우선권을 통제함으로 안전과 소통효율을 증가시키는 중요한 시스템이다. 하지만 잘못된 현황파악 및 신호운영은 오히려 소통효율을 악화시켜 정체를 가중시키고 운전자의 무리한 운전패턴을 유도하여 위험을 초래하는 계기가 된다. In general, a traffic signal control system, for example, is an important system that increases safety and communication efficiency by controlling movement priority of traffic flows that conflict at intersections. However, erroneous status and signal operation deteriorate communication efficiency, increasing congestion and inducing excessive driving patterns of the driver, which is a trigger for danger.
현재 서울시를 포함한 광역시 및 중소도시 21개 지자체에서 교통 신호 제어 시스템이 구축되어 있으나, 교통정보 수집체계인 루프검지기의 관리 및 운영상의 한계로 감응식으로 운영하지 못하고 대부분의 교차로를 TOD 방식으로 운영되고 있다.Currently, traffic signal control systems have been established in 21 metropolitan and small and medium-sized cities, including Seoul, but due to the limitations in the management and operation of the loop detector, which is a traffic information collection system, most of the intersections are operated in TOD. have.
그리고, 고정식은 해당교차로의 대략적인 교통량을 근거로 신호시간을 계획하고, TOD방식은 교통량이 크게 급변하는 출퇴근 시간, 교통량이 일정한 낮 시간대와 새벽시간대의 교통량을 전수조사하여 파악된 교통량을 근거로 신호시간을 계산하게 된다. In addition, the fixed type plans the signaling time based on the approximate traffic volume of the corresponding intersection, and the TOD method is based on the traffic volume identified by conducting a total survey of the traffic hours during the commuting time and traffic during the daytime and early morning hours when traffic volume is rapidly changing. Signal time is calculated.
또한, 유지보수 측면에서 통행패턴이 일정하게 유지되는 교차로는 고정식 또는 TOD 신호방식이 유리하겠지만, 도시내 도로의 운영방식의 변화 등 환경적인 요인으로 교통패턴이 변화하기 때문에 기 계획된 신호시간이 변화된 패턴에 반응하지 못하여 비효율적으로 운영되기도 하고, 이를 위해 교차로의 교통량을 모니터링하거나 매번 조사할 수 없는 실정이다.In addition, a fixed or TOD signaling method would be advantageous for intersections where traffic patterns are kept constant in terms of maintenance, but the traffic signal pattern is changed due to environmental factors such as changes in the operation method of roads in the city. It may not be able to respond to it and thus operate inefficiently. To this end, it is not possible to monitor traffic at intersections or to inspect them every time.
한편, 최근 무렵에는 불법 주정차 단속장치, 차량속도 감시장치, 건물의 차량출입 시스템, CCTV 보안시스템 등에 차량번호인식 시스템이 활용되고 있다. 차량번호인식 시스템은 촬영장치인 카메라 및 카메라를 통해 촬영된 이미지를 분석하여 차량번호를 인식하는 정보처리부를 포함한다. 카메라는 고정식 또는 이동식으로 설치될 수 있다.On the other hand, in recent years, an illegal parking control device, a vehicle speed monitoring device, a vehicle entry/exit system of a building, and a CCTV security system have been used in vehicle number recognition systems. The vehicle number recognition system includes an information processing unit that recognizes a vehicle number by analyzing a camera, which is a photographing apparatus, and an image photographed through the camera. The camera can be installed either stationary or mobile.
이러한 차량 번호판은 식별을 목적으로 자동차에 부착하는 금속 또는 플라스틱으로 된 판이다. 차량 번호판에는 문자, 숫자, 또는 이들의 조합이 기재되어 있고, 차량 번호판의 형상은 국가 또는 행정 구역마다 정책적으로 결정된다.Such a license plate is a metal or plastic plate attached to a vehicle for identification purposes. The vehicle license plate has letters, numbers, or a combination thereof, and the shape of the vehicle license plate is determined policy by country or administrative region.
기존의 차량의 번호판을 검출하는 방식에는 문자 기반의 검출 방식, 에지 기반의 검출 방식, 색깔 기반의 검출방식, 텍스처 기반의 검출 방식 등이 있다. 문자 기반의 검출 방식은 처리 속도가 느리며 문자 영역을 설정해야하고, 에지 기반의 검출 방식은 경험적 변수(예컨대, 종횡비 등)에 의존적이고, 색깔 기반의 검출 방식은 조명 또는 그림자의 변화에 민감하고, 텍스처 기반의 검출 방식는 처리 속도가 느린 문제가 있다.Conventional vehicle license plate detection methods include character-based detection, edge-based detection, color-based detection, and texture-based detection. The character-based detection method has a low processing speed and requires setting a character area, the edge-based detection method is dependent on empirical variables (e.g., aspect ratio, etc.), and the color-based detection method is sensitive to changes in lighting or shadows, The texture-based detection method has a problem that processing speed is slow.
그리고, 더 나아가서 차량 번호판 인식 기술은 교통 단속 시스템 및 주차 관제 시스템, 운전보조장치(ADAS) 시스템 등에 사용되는 지능형교통체계(ITS) 분야의 핵심 기술이다. 최근에는 딥러닝 (Deep Learning) 기술을 통해 차량 번호판 인식 기능이 증대되어 임베디드 환경에서도 효과적으로 동작하고 있으므로 차량 번호판 인식 기술의 다각화를 모색할 수 있다.In addition, vehicle license plate recognition technology is a core technology in the field of intelligent traffic systems (ITS) used in traffic control systems, parking control systems, and ADAS systems. Recently, through the deep learning (Deep Learning) technology, the license plate recognition function has been increased, and it is effectively operating in an embedded environment, so it is possible to seek diversification of the license plate recognition technology.
한편, 최근의 뉴스에서 보도된 바와 같이, 화재가 발생될 시 화재현장 주변의 주차된 차량으로 인해 2차 피해와, 소방차 진입도로 주변 주차 차량으로 인해 화재 진압시간 지연 등의 문제가 발생된다. On the other hand, as reported in the recent news, when a fire occurs, there are problems such as secondary damage due to parked vehicles around the fire site and delays in fire extinguishing time due to parked vehicles around the entrance road of the fire engine.
예를 들어, 제천 스포츠센터 화재(2017년 12월)에서와 같이 건물 주변 진입로에 불법 주정차 차량으로 소방차 진입이 지연되는 경우이다. 여기서는 화재 당시 소방차가 7분만에 현장에 도착했으나, 불법 주정차 차량으로 인해 사다리차가 진입하지 못하여 30분 동안 구조작업 불가 및 인명피해가 증가하였다. 그리고, 화재 사건 이후에도 인근 도로 불법 주정차 차량이 다량 존재하고, 시민들의 안전의식 부재로 인해 관련된 문제가 발생되었다.For example, as in the Jecheon Sports Center fire (December 2017), the entrance to a fire engine is delayed by an illegal parking vehicle on the driveway around the building. In this case, the fire truck arrived at the site in 7 minutes at the time of the fire. In addition, even after the fire, there were a large number of illegally parked vehicles on nearby roads, and a related problem occurred due to the lack of safety awareness among citizens.
이와 관련하여, 한편 태풍, 집중호우로 인한 피해가 발생될 시 관리가 난해한 하천 고수부지 주차장 차량 침수 피해가 지속적으로 발생된다.In this regard, on the other hand, when the damage is caused by typhoons or heavy rains, the flooding of the parking lot in the river highland parking lot, which is difficult to manage, continues to occur.
그리고, 또한 다른 한편으로는 재난 발생시 주변 차량 소유주의 즉각적인 대응을 위한 알림 서비스가 부재하다. 부가적으로, 현행 행정안전부의 긴급재난문자방송(CBS:Cell Broadcasting Service)은 해당지역의 기지국 반경 내에 속해있는 모든 휴대폰으로 메시지를 일괄 전송하는 방식으로, 불특정 다수에게 재난문자가 전송되는 실정이다.And, on the other hand, in the event of a disaster, there is no notification service for immediate response of the owners of the surrounding vehicles. Additionally, the current Ministry of Public Administration and Security's Emergency Disaster Message Broadcasting (CBS) is a method of sending a message to all mobile phones belonging to the base station radius of a local area, and thus, disaster messages are transmitted to an unspecified number of people.
그래서, 자동차량번호인식 기술(License Plate Recognition)을 활용한 휴대용 인식 및 정보 전송 단말과 행정정보 공동이용시스템 등이 결합된 경보 알림 시스템 개발이 필요하다. 그리고, 이에 맞는 차량번호인식 기술도 아울러 필요하다.Therefore, it is necessary to develop an alarm notification system that combines a portable identification and information transmission terminal using a vehicle plate number recognition technology and a shared administrative information system. In addition, a vehicle number recognition technology suitable for this is also required.
이러한 배경의 선행기술문헌은 관련 선행기술을 살펴볼 경우, 특허문헌으로부터 선행기술을 조사해서 관련 선행기술로서 직접적으로 관련된 국내선행기술이 검색되지 않고 참고할만한 아래의 특허문헌이 나올 정도일 뿐이다.When looking at the related prior art, the prior art literature with such a background is only searched for the prior art from the patent literature and does not search for the related domestic precedent technology directly as the related prior art, but only the following patent literature for reference.
(특허문헌 1) KR1020190143548 A(Patent Document 1) KR1020190143548 A
참고적으로, 이러한 특허문헌 1의 기술은 차량번호, 종류, 및 색상 학습을 통한 번호판 인식률이 향상되고, 실시간 학습이 가능한 차량 인식 시스템에 관한 기술 정도이다.For reference, the technology of Patent Document 1 improves the license plate recognition rate through vehicle number, type, and color learning, and is a degree of technology regarding a vehicle recognition system capable of real-time learning.
이와 관련하여, 특히나 교통 영상감시시스템에 있어서 멀티 표적을 추적하는 기능을 요구하고 있으며, 이 기능이 효과적으로 작동하기 위해서는 복수의 객체에 대한 정확한 위치의 확보 및 실시간 추적이 따라야 된다.In this regard, in particular, in a traffic image surveillance system, a function of tracking a multi-target is required, and in order to effectively operate this function, it is necessary to secure accurate positions for a plurality of objects and follow real-time tracking.
개시된 내용은, 교통 영상감시시스템에 있어서, 복수의 객체를 시스템적으로 효과적이면서 신속히 추적할 수 있도록 하는 교통 영상감시시스템의 멀티 표적 추적 방법을 제공하고자 한다.The disclosed content is to provide a multi-target tracking method of a traffic video surveillance system that enables a system to effectively and quickly track a plurality of objects in a traffic video surveillance system.
실시예에 따른 교통 영상감시시스템의 멀티 표적 추적 방법은,The multi-target tracking method of the traffic surveillance system according to the embodiment,
교통감시시에 다수의 상이한 교통감시영역마다 각기 설치된 카메라장치별로 교통환경정보를 수집한다.During traffic monitoring, traffic environment information is collected for each camera device installed in each of a number of different traffic monitoring areas.
그리고 나서, 이렇게 수집된 교통환경정보에서 객체 피처 메타데이터를 추출하고, 이러한 객체 피처 메타데이터에 따라 영상 패치의 피처값을 추출하는 미리 설정된 AI 포맷으로부터 객체 피처를 추출한다.Then, the object feature metadata is extracted from the collected traffic environment information, and the object feature is extracted from a preset AI format that extracts a feature value of an image patch according to the object feature metadata.
그래서, 상기 추출된 객체 피처로부터 객체 전체의 크기와 위치를 추정하는 미리 설정된 AI 포맷에 의해서 객체를 인식함으로써, 각각의 객체별로 추적하여 멀티 표적을 추적하는 것을 특징으로 한다.Thus, by recognizing an object by a preset AI format that estimates the size and position of the entire object from the extracted object feature, it is characterized in that it tracks each target and tracks multiple targets.
실시예들에 의하면, 교통 영상감시시스템에 있어서, 시스템적으로 효과적이면서 신속히 멀티 표적을 추적한다.According to embodiments, in a traffic surveillance system, it is systematically effective and quickly tracks multiple targets.
부가적으로, 인공 지능 교통 분석 기술을 적용함으로써, 교통 분석이 체계적이고 신뢰성이 있으며, 교통 환경의 변화에 따라 적합한 교통 분석과 교통 운영 등이 이루어진다.Additionally, by applying artificial intelligence traffic analysis technology, traffic analysis is systematic and reliable, and appropriate traffic analysis and traffic operation are made according to changes in the traffic environment.
그리고, 차량의 번호판을 인식하는 영상감시시스템에 있어서, 이러한 일실시예에 따른 신규 딥 러닝 기반의 차량번호 인식을 통해 차량번호를 인식함으로써, 기존보다 시스템적으로 효과적이면서 신속히 차량번호가 인식된다.And, in the video surveillance system for recognizing the license plate of the vehicle, by recognizing the vehicle number through the new deep learning-based vehicle number recognition according to this embodiment, the system number is recognized more quickly and systemically more effectively than before.
또한, 차량 이미지의 특징을 추출하여 객체화를 통해 차량 특정률을 향상시킬 수 있다.In addition, it is possible to improve a vehicle specific rate through objectification by extracting features of a vehicle image.
도 1은 일실시예에 따른 교통 영상감시시스템의 멀티 표적 추적 방법이 적용된 개념도
도 2는 일실시예에 따른 교통 영상감시시스템의 멀티 표적 추적 방법이 적용된 시스템을 전체적으로 도시한 도면
도 3은 일실시예에 따른 교통 영상감시시스템의 멀티 표적 추적 방법이 적용된 카메라 장치의 구성을 도시한 블록도
도 4는 일실시예에 따른 교통 영상감시시스템의 멀티 표적 추적 방법을 순서대로 도시한 플로우 차트
도 5는 일실시예에 따른 교통 영상감시시스템의 멀티 표적 추적 방법에 적용된 일실시예에 따른 객체 메타데이터 추출 동작을 예를 들어 보다 상세하게 설명하기 위한 도면
도 6은 일실시예에 따른 교통 영상감시시스템의 멀티 표적 추적 방법에 적용된 일실시예에 따른 CNN 기반 객체 분류 동작을 설명하기 위한 도면
도 7과 도 8은 일실시예에 따른 교통 영상감시시스템의 멀티 표적 추적 방법에 적용된 이상 감지 동작을 보다 상세하게 설명하기 위한 도면 1 is a conceptual diagram to which a multi-target tracking method of a traffic image surveillance system according to an embodiment is applied.
FIG. 2 is a view showing a system to which a multi-target tracking method of a traffic image surveillance system according to an embodiment is applied.
3 is a block diagram showing the configuration of a camera device to which a multi-target tracking method of a traffic image surveillance system according to an embodiment is applied.
Figure 4 is a flow chart showing a multi-target tracking method in sequence in a traffic video surveillance system according to an embodiment
5 is a view for explaining in detail, for example, an object metadata extraction operation according to an embodiment applied to a multi-target tracking method of a traffic image surveillance system according to an embodiment
6 is a view for explaining a CNN-based object classification operation according to an embodiment applied to a multi-target tracking method of a traffic image surveillance system according to an embodiment
7 and 8 are views for explaining in more detail the abnormality detection operation applied to the multi-target tracking method of the traffic image surveillance system according to an embodiment
도 1은 일실시예에 따른 교통 영상감시시스템의 멀티 표적 추적 방법이 적용된 개념도이다.1 is a conceptual diagram to which a multi-target tracking method of a traffic image surveillance system according to an embodiment is applied.
도 1에 도시된 바와 같이, 일실시예에 따른 방법은 기본적으로 도로 등에서 차량이 주행할 경우, 각 도로 상에 설치된 카메라 장치(100)에서 주변의 교통환경정보를 수집하여 중앙관제센터로 전달함으로써, 교통분석을 위한 기초정보를 획득한다.As shown in FIG. 1, the method according to one embodiment basically collects traffic environment information from the
그러면, 일실시예에 따른 교통 영상감시시스템의 멀티 표적 추적 방법은 중앙관제센터에서 이러한 교통환경정보를 학습하여 교통분석을 한다.Then, the multi-target tracking method of the traffic image surveillance system according to an embodiment performs traffic analysis by learning such traffic environment information in the central control center.
그래서, 이러한 교통분석 결과를 바탕으로 해당되는 지역의 신호정책 등에 관한 교통정책을 도출하거나 교통이상징후를 예측하기도 한다.Therefore, based on the results of the traffic analysis, traffic policies related to the traffic signal policies of the region are derived or traffic abnormal signs are predicted.
이러한 상태에서, 이러한 교통 영상감시시스템의 멀티 표적 추적 방법은 일실시예에 따라 상기 카메라 장치(100)에 의해 수집된 교통환경정보를 기반으로 멀티 표적을 추적한다. In this state, the multi-target tracking method of the traffic image surveillance system tracks multi-targets based on traffic environment information collected by the
상기 카메라 장치(100)는 다수의 상이한 교통감시영역마다 예를 들어, 주요 교차로, 진입로 등에 각기 설치된 것으로, 자신의 교통감시영역의 교통환경정보를 수집하여 교통분석을 위한 기초정보로서 상기 중앙관제센터에 제공하는 것이다. 이러한 경우, 상기 교통환경정보는 차량속도, 교통량, 차량 점유율, 미세먼지상태, 행인의 직접조작에 의한 횡단보도 신호등 상태변경여부, 이산화탄소농도, 공공기관 예를 들어, 소방서 또는 경찰서 등의 소방차 혹은 경찰차 등의 정차상태, 노점상의 도로점유상태 등으로서, 종합적인 교통과 관련된 환경정보이다.The
도 2는 일실시예에 따른 교통 영상감시시스템의 멀티 표적 추적 방법이 적용된 시스템을 전체적으로 도시한 도면이다.FIG. 2 is a view showing a system to which a multi-target tracking method of a traffic image surveillance system according to an embodiment is applied.
도 2에 도시된 바와 같이, 일실시예에 따른 교통 영상감시시스템의 멀티 표적 추적 방법이 적용된 시스템은 카메라 장치(100-1, 100-2, ... 100-m, 100-n, ... )와, 중앙관제센터(200)를 포함한다.As shown in Figure 2, the system to which the multi-target tracking method of the traffic image surveillance system according to an embodiment is applied is a camera device (100-1, 100-2, ... 100-m, 100-n, .. .) And the
상기 카메라 장치(100-1, 100-2, ... 100-m, 100-n, ... )는 다수의 상이한 교통감시영역별로 예를 들어, 주요 교차로, 진입로, 나들목, 우범교통지역 등에 각기 설치된 것으로, 자신의 교통감시영역의 종합적인 교통환경정보를 수집하여 교통분석을 위한 기초정보로서 자가망을 통해 상기 중앙관제센터(200)에 제공한다.The camera device (100-1, 100-2, ... 100-m, 100-n, ...) is, for example, a major intersection, an access road, a pedestrian crossing, a rainy traffic area, etc. for a number of different traffic monitoring areas Each installed, it collects comprehensive traffic environment information of its traffic monitoring area and provides it to the
상기 중앙관제센터(200)는 기본적으로 상기 카메라 장치(100-1, 100-2, ... 100-m, 100-n, ... )로부터 이러한 종합적인 교통환경정보 등을 수집하고 학습하여 교통분석을 해서, 관련된 분석결과 등을 방재관리실 혹은 외부연계기관에 제공한다. 이때, 상기 외부연계기관은 경찰서 정보처리장치와, 교통기관 정보처리장치 또는, 긴급구조 정보처리장치, 소방서 정보처리장치 등이다. 이러한 경우, 상기 중앙관제센터(200)는 일실시예에 따라 멀티 표적을 추적한다. 구체적으로는 아래와 같다. 상기 중앙관제센터(200)는 먼저 교통감시시에 다수의 상이한 교통감시영역마다 각기 설치된 카메라장치별로 교통환경정보를 수집하고, 이러한 교통환경정보에서 객체 피처 메타데이터를 추출한다. 그리고 나서, 중앙관제센터(200)는 이러한 객체 피처 메타데이터에 따라 영상 패치의 피처값을 추출하는 미리 설정된 AI 포맷으로부터 객체 피처를 추출한다. 그래서, 중앙관제센터(200)는 이러한 객체 피처로부터 객체 전체의 크기와 위치를 추정하는 미리 설정된 AI 포맷에 의해서 객체를 인식해서, 각 객체별로 추적하여 멀티 표적을 추적한다.The
부가적으로, 전술한 기본적인 교통분석 동작은 보다 상세하게 아래와 같다.Additionally, the above-described basic traffic analysis operation is as follows in more detail.
즉, 상기한 중앙관제센터(200)는 카메라장치별로 교통환경정보를 수집하여 빅데이터화하고, 미리 설정된 딥 러닝 기반으로 학습하여, 이렇게 나온 딥 러닝 기반의 교통환경학습 결과를 적용해서 다수의 상이한 주변 환경 조건별로 예를 들어, 시간대별 또는, 날씨별, 온도별 등으로 교통분석을 한다.That is, the above-described
이에 더하여, 이러한 중앙관제센터(200)는 교통분석되어 나온 주변 환경 조건별 교통분석 결과를 바탕으로 다수의 상이한 교통요소별로 예를 들어, 신호등 등의 교통정책을 도출한다. 또는, 그렇게 교통분석된 주변 환경 조건별 교통분석 결과를 바탕으로 교통이상징후 등도 예측한다.In addition, the
추가적으로, 이러한 중앙관제센터는 실시예에 따라 상기한 수집된 교통환경정보에서 차량 피처 메타데이터와 차량 피처를 추출하여서, 이러한 차량 피처로부터 차량 전체의 크기와 위치를 추정해서 차량을 인식함으로써, 차량번호도 인식한다.Additionally, the central control center extracts vehicle feature metadata and vehicle features from the collected traffic environment information according to an embodiment, and recognizes vehicles by estimating the size and position of the entire vehicle from these vehicle features, thereby identifying the vehicle number. Also recognize.
도 3은 일실시예에 따른 교통 영상감시시스템의 멀티 표적 추적 방법이 적용된 카메라 장치의 구성을 도시한 블록도이다.3 is a block diagram showing the configuration of a camera device to which a multi-target tracking method of a traffic image surveillance system according to an embodiment is applied.
도 3에 도시된 바와 같이, 일실시예에 따른 교통 영상감시시스템의 멀티 표적 추적 방법이 적용된 카메라 장치(100)는 카메라 모듈(110)과, DSP부(120), 센서부(130) 및 PLC(140)를 포함한다.As shown in FIG. 3, the
이러한 경우, 일실시예에 따른 카메라 장치(100)는 상기 PLC(140)가 기본적으로 센서부로부터 신호를 입력받는 입력모듈과, 중앙제어부인 CPU모듈, 제어대상으로 제어신호를 출력하는 출력모듈을 포함한다.In this case, the
그리고, 상기 PLC(140)는 이때 PLC 자체에서 IOT 기능을 수행하는 IOT모듈을 구비해서, 상기 CPU모듈이 이러한 IOT모듈에 의해 상기 입/출력 모듈과 연동하여 해당되는 제어로직으로부터 IOT 기능을 수행하도록 한다.In addition, the
상기 카메라 모듈(110)은 미리 설정된 교통감시영역의 영상을 촬영하여 상기 DSP부(120)로 전달한다.The
상기 DSP부(120)는 상기 촬영된 영상을 디지털 신호 처리하여 상기 PLC(140)로 제공한다.The
상기 센서부(130)는 상기 교통감시영역의 주변 환경 정보를 감지한다. 이러한 센서부(130)는 예를 들어, 교통감시영역의 미세 먼지를 감지하는 아날로그 센서와, 행인의 조작에 의한 횡단보도 신호등 상태변경여부 등을 감지하는 디지털 스위치 또는, 각종 디지털 센서 등으로 구성된다.The
상기 PLC(140)는 상기 DSP부(120)에 의해 처리된 결과를 미리 등록된 중앙관제센서(200)로 제공하도록 하고, 상기 센서부(130)에 의해 감지된 교통감시영역의 주변 환경 정보를 통합적으로 I/O처리하여 상기 중앙관제센터(200)로 제공하도록 하고, 미리 등록된 제어대상에 전달한다. 그리고, 이러한 경우 상기 PLC(140)는 자체 IOT모듈을 구비하여 상기 IOT모듈에 의해서 상기 제공된 DSP부의 처리된 결과와 교통감시영역의 주변 환경 정보를 상기 중앙관제센터로 제공한다.The
부가적으로, 이와 관련하여 부연설명을 하면 다양한 환경에서 사용되는 기존의 PLC 시스템에 대해서는 여러 기능을 가진 모듈이 필요하며, 이에 따라서 PLC 제조 업체는 사용자의 요구사항을 만족하는 다양한 모듈을 제공한다. 예를 들어, 디지털 입출력 모듈, 아날로그 입출력모듈, 통신 모듈 등 여러 기능을 가진 모듈이 PLC 시스템에 사용되고, 이러한 다양한 모듈을 통해서 사용자가 원하는 시스템이 구축된다.In addition, if this is explained in detail, a module having various functions is required for the existing PLC system used in various environments, and accordingly, the PLC manufacturer provides various modules satisfying user requirements. For example, modules having various functions such as digital input/output modules, analog input/output modules, and communication modules are used in the PLC system, and through these various modules, a system desired by the user is constructed.
예를 들어, 특허문헌 KR101778333 Y1의 기술은 이러한 기술로서 등록받은 발명이며, 구체적으로는 PLC의 출력모듈의 동작상 결함 여부를 진단하기 위한 진단모듈을 구비하는 PLC 시스템에 관한 것이다.For example, the technology of patent document KR101778333 Y1 is a registered invention as such a technology, and specifically, relates to a PLC system having a diagnostic module for diagnosing an operational defect of the output module of the PLC.
일실시예에 따른 전술한 IOT 모듈은 이러한 점들을 이용해서, 그 IOT모듈로부터 IOT 기능을 제공하는 PLC를 제공하고, 이를 통해 더 나아가 사용자에 의해 쉽게 감시와 제어 등이 이루어지도록 한 것이다.The above-described IOT module according to an embodiment uses these points to provide a PLC that provides an IOT function from the IOT module, and furthermore, allows monitoring and control to be easily performed by the user.
이에 따라, 일실시예에 의해 상기 PLC(140)는 센서부로부터 신호를 입력받는 입력모듈과, 중앙제어부인 CPU모듈, 제어대상으로 제어신호를 출력하는 출력모듈을 포함한다.Accordingly, according to an embodiment, the
그리고, 상기 PLC(140)는 이때 추가적으로 PLC 자체에서 IOT 기능을 수행하는 IOT모듈을 구비해서, 상기 CPU모듈이 이러한 IOT모듈에 의해 상기 입/출력 모듈과 연동하여 해당되는 제어로직으로부터 IOT 기능을 수행하도록 한다.In addition, the
참고적으로, 여기에서 상기 입력모듈은 교통환경정보와 관련된 아날로그 교통환경정보와 디지털 교통환경정보를 입력받는다. 예를 들어, 상기 입력모듈은 상기 센서부 예를 들어, 미세 먼지 센서로부터 카메라 장치가 설치된 주변의 미세 먼지 정보를 아날로그 교통환경정보로서 입력받는다. 또는 D/I 모듈을 통해 상기 센서부 예를 들어, 횡단보도 신호등 변경 스위치로부터 카메라 장치가 설치된 주변의 횡단보도 신호등 변경에 관한 행인조작정보를 디지털 교통환경정보로서 입력받는다. 이러한 경우, 상기 입력모듈은 PLC의 입력모듈로서 I/O카드를 포함하는 것으로 정의한다.For reference, the input module receives analog traffic environment information and digital traffic environment information related to traffic environment information. For example, the input module receives, as analog traffic environment information, fine dust information around a camera device from the sensor unit, for example, a fine dust sensor. Or, through the D/I module, the sensor unit, for example, receives pedestrian control information regarding a pedestrian crossing traffic light change around the camera device from the pedestrian traffic light change switch as digital traffic environment information. In this case, the input module is defined to include an I/O card as an input module of the PLC.
그리고, 상기 출력모듈은 상기 입력모듈을 통해 신호가 입력되어 CPU 모듈에 의해 제어신호가 발생될 시, 제어대상으로 예를 들어, 카메라 장치의 주변에 설치된 미세 먼지 저감 장치 또는 신호등 등으로 상기 제어신호를 전달한다.In addition, when a signal is input through the input module and a control signal is generated by the CPU module, the output module is a control target, for example, the control signal with a fine dust reduction device or a traffic light installed around the camera device. To pass.
이에 더하여, 상기 IOT모듈은 일실시예에 따라 이러한 경우, PLC 자체에서 IOT 기능을 수행하는 것이다, 구체적으로 상기 IOT 기능은 먼저 전술한 바와 같이 교통환경정보가 수집될 경우, 자체 유/무선 통신모듈을 예를 들어, LoRa 모듈을 구비하여 외부의 중앙관제센터로 교통환경정보를 제공한다.In addition to this, the IOT module performs an IOT function in the PLC itself in this case according to an embodiment. Specifically, when the traffic environment information is collected as described above, the IOT function first has its own wired/wireless communication module. For example, a LoRa module is provided to provide traffic environment information to an external central control center.
또한, 상기 CPU 모듈은 입력모듈에 의해 신호가 입력될 시, 미리 설정된 제어 로직에 따라 입력된 신호를 프로세싱하여 상이한 제어신호를 발생한다. 그리고, 또한 일실시예에 따라 상기 CPU모듈은 전술한 IOT모듈에 의해 데이터가 수집될 시, 미리 설정된 제어 로직에 따라 수집된 데이터를 프로세싱하여 상이한 제어신호를 발생함으로써 IOT 데이터에 따라 상이하게 제어한다.In addition, when a signal is input by the input module, the CPU module processes the input signal according to a preset control logic to generate a different control signal. In addition, according to an embodiment, when data is collected by the aforementioned IOT module, the CPU module processes data collected according to a preset control logic to generate different control signals to control differently according to IOT data. .
추가적으로, 이러한 PLC(140)는 전술한 바에 더해, 상기한 PLC의 I/O 카드로부터 수집된 데이터에 대해 지정된 음성으로 알람 등을 한다.Additionally, in addition to the above, the
이를 위해, 상기 IOT모듈은 자체 TTS엔진을 구비하여 PLC의 입력모듈로부터 수집된 데이터에 대해 미리 설정된 데이터별 음성정보에 따라 예를 들어, 음성멘트에 따라 상이하게 음성으로 알람한다.To this end, the IOT module has its own TTS engine and alarms the voice collected differently according to the voice information for each data set in advance for data collected from the input module of the PLC.
구체적으로는, 상기 IOT모듈은 자체 TTS엔진을 구비하여 상기 교통감시영역의 주변 환경 정보별로 대응하는 음성정보에 따라 음성 알람을 한다.Specifically, the IOT module has its own TTS engine to perform a voice alarm according to the voice information corresponding to the surrounding environment information of the traffic monitoring area.
이러한 경우, 상기 음성멘트는 예를 들어, IOT 모듈 자체에 구비된 플래시 음성메모리에 등록함으로써 된다.In this case, the voice message may be registered, for example, in a flash voice memory provided in the IOT module itself.
그래서, 이를 통해 PLC의 I/O 카드로부터 수집된 데이터 등에 대해 지정된 음성으로 알람을 한다.Thus, through this, an alarm is made with a designated voice for data collected from the PLC's I/O card.
또한, 추가적으로 이러한 PLC(140)는 외부 음성에 대해 노이즈 캔슬링 기능을 수행한다.In addition, the
구체적으로, 상기 IOT모듈은 외부 음성을 입력받아 노이즈 캔슬링을 수행하고 오디오 출력을 함으로써 오디오 IOT기능을 수행한다.Specifically, the IOT module performs an audio IOT function by performing noise canceling by receiving an external voice and outputting an audio.
예를 들어, 이러한 경우 외부 오디오 입력을 받아 노이즈 캔슬링을 수행하고 IOT 모듈 자체에 구비된 오디오 앰프를 통해 오디오 출력을 함으로써 오디오 IOT기능을 수행한다.For example, in this case, an external audio input is received to perform noise canceling, and an audio IOT function is performed by outputting audio through an audio amplifier provided in the IOT module itself.
도 4는 일실시예에 따른 교통 영상감시시스템의 멀티 표적 추적 방법을 순서대로 도시한 플로우 차트이다.4 is a flow chart showing a multi-target tracking method in order of a traffic image surveillance system according to an embodiment.
도 4에 도시된 바와 같이, 일실시예에 따른 교통 영상감시시스템의 멀티 표적 추적 방법은 먼저 중앙관제센터에 의한 교통 영상감시시스템의 멀티 표적 추적 방법을 전제로 한다.4, the multi-target tracking method of the traffic image surveillance system according to an embodiment is premised on the multi-target tracking method of the traffic image surveillance system by the central control center.
우선적으로, 일실시예에 따른 교통 영상감시시스템의 멀티 표적 추적 방법은 교통감시시에 다수의 상이한 교통감시영역마다 각기 설치된 카메라장치별로 교통환경정보를 수집한다(S401).First, in the multi-target tracking method of the traffic image surveillance system according to an embodiment, traffic environment information is collected for each camera device installed in each of a plurality of different traffic surveillance areas in traffic monitoring (S401).
참고적으로, 상기 교통환경정보는 차량속도, 교통량, 차량 점유율, 미세먼지상태, 행인의 직접조작에 의한 횡단보도 신호등 상태변경여부, 이산화탄소농도, 공공기관 예를 들어, 소방서 또는 경찰서 등의 소방차 혹은 경찰차 등의 정차상태, 노점상의 도로점유상태, 기상정보 등으로서, 종합적인 교통과 관련된 환경정보이다. For reference, the traffic environment information includes vehicle speed, traffic volume, vehicle occupancy, fine dust status, whether the pedestrian crossing traffic light is changed by direct manipulation of the pedestrian, carbon dioxide concentration, fire engines such as fire departments or police stations, or This is the environment information related to comprehensive transportation, such as the stop status of a police car, the road occupancy status on the street, and weather information.
다음, 이렇게 수집된 교통환경정보에서 객체 피처 메타데이터를 추출한다(S402).Next, object feature metadata is extracted from the collected traffic environment information (S402).
이러한 경우, 상기 객체 피처 메타데이터는 객체 예를 들어, 차량의 속성 또는 특징을 나타내는 메타데이터를 의미한다.In this case, the object feature metadata refers to an object, for example, metadata indicating a property or characteristic of a vehicle.
그리고 나서, 이렇게 추출된 객체 피처 메타데이터에 따라 영상 패치의 피처값을 추출하는 미리 설정된 AI 포맷으로부터 객체 피처를 추출한다(S403).Then, according to the extracted object feature metadata, the object feature is extracted from a preset AI format that extracts a feature value of an image patch (S403).
이러한 경우, 상기 AI 포맷은 예를 들어, GLCM(Grey Level Co-occurence Matrix)의 융합머신러닝 AI 포맷으로 된다.In this case, the AI format is, for example, a fusion machine learning AI format of a Gray Level Co-occurence Matrix (GLCM).
이때, 상기 GLCM은 기본적으로 텍스쳐 영상에 대한 정의는 여러 가지가 있지만 대상이 되는 감시영상 내에 포함되어 있는 공간적 특성을 부각하는 영상을 나타낸다.At this time, the GLCM basically has a variety of definitions for a texture image, but represents an image that highlights the spatial characteristics included in the target surveillance image.
이러한 경우, 상기 GLCM은 현재의 화소와 그 이웃하는 화소의 밝기 값의 평균, 대비, 상관관계 등과 같은 기본적인 통계량을 계산한다. 그래서, 다시 그 계산 값을 커널내의 중심 화소에 새로운 밝기 값으로 할당하여 표현하고 입력 감시영상에 대해서 부분적인 텍스쳐 특징으로 표현하는 것이다.In this case, the GLCM calculates basic statistics such as average, contrast, correlation, etc. of brightness values of the current pixel and its neighboring pixels. So, the calculated value is assigned to the central pixel in the kernel as a new brightness value and expressed as a partial texture feature for the input surveillance image.
이때, GLCM은 Homogenity와, Contrast, Dissimiliarity를 포함한다.At this time, the GLCM includes Homogenity, Contrast, and Dissimiliarity.
상기 Homogenity는 행렬 내 각 화소들의 균일한 정도를 나타낸다. 그리고, Contrast와 Dissimiliarity는 화소간 명암차이를 구분하여 표현하기 위한 개념으로 대각선으로부터 멀리 떨어져 있는 화소의 경우 높은 가중치가 적용된다. ASM과 에너지는 명암의 균일함을 측정한다. 화소간의 밝기 변화가 없으며 각 화소의 값이 비슷한 값이 된다.The Homogenity represents the uniformity of each pixel in the matrix. In addition, Contrast and Dissimiliarity are concepts for distinguishing contrast between pixels, and high weight is applied to pixels far away from the diagonal. ASM and energy measure the uniformity of contrast. There is no change in brightness between pixels, and each pixel has a similar value.
또 다른 한편으로, 객체 피처를 추출할 시, 딥러닝 클러스터를 적용한다.On the other hand, when extracting object features, a deep learning cluster is applied.
상기 딥러닝 클러스터는 객체로부터 인식을 위한 객체인식용 특징정보를 추출한다. 추출된 객체인식용 특징정보는 학습된 모델 빅 데이터 저장부에 저장된다. 이러한 딥 러닝 클러스터에 의해 추출된 객체인식용 특징정보에는, 예를 들면, 영상 이름(예를 들면, 오브젝트 이름, 영상 프레임 정보 및 시간), 딥 차량 번호가 포함된 이미지, 객체의 종류 예를 들어, 차량 등과, 객체의 색깔 등이 포함되어 있을 수 있다.The deep learning cluster extracts feature information for object recognition for recognition from an object. The extracted feature information for object recognition is stored in the learned model big data storage unit. The feature information for object recognition extracted by such a deep learning cluster includes, for example, an image name (eg, object name, image frame information and time), an image including a deep vehicle number, and the type of object, for example. , Vehicle, etc., may include the color of the object.
다음, 이렇게 추출된 객체 피처로부터 객체 전체의 크기와 위치를 추정하는 미리 설정된 AI 포맷에 의해서 객체를 인식한다(S404).Next, the object is recognized by a preset AI format that estimates the size and position of the entire object from the extracted object feature (S404 ).
이러한 경우, 상기 AI 포맷은 예를 들어, YOLO 포맷으로 된다.In this case, the AI format is, for example, YOLO format.
보다 구체적으로, 상기 YOLO 포맷은 다수의 상이한 객체 피처별로 각 객체의 전체 크기와 위치를 추정하여 조합함으로써 객체 전체의 크기와 위치를 추정하여 된다.More specifically, the YOLO format estimates the size and position of the entire object by estimating and combining the total size and position of each object for each of a plurality of different object features.
그래서, 상기 인식된 객체별로 추적하여 멀티 표적을 추적한다(S405).Thus, the multi-target is tracked by tracking each recognized object (S405).
따라서, 이를 통해 교통 영상감시시스템에 있어서, 시스템적으로 효과적이면서 신속히 멀티 표적을 추적한다.Accordingly, through this, in the traffic surveillance system, it is systematically effective and quickly tracks multiple targets.
이상과 같이, 일실시예는 교통감시시에 다수의 상이한 교통감시영역마다 각기 설치된 카메라장치별로 교통환경정보를 수집한다.As described above, one embodiment collects traffic environment information for each camera device installed in each of a plurality of different traffic monitoring areas during traffic monitoring.
그리고 나서, 이렇게 수집된 교통환경정보에서 객체 피처 메타데이터를 추출하고, 이러한 객체 피처 메타데이터에 따라 영상 패치의 피처값을 추출하는 미리 설정된 AI 포맷으로부터 객체 피처를 추출한다.Then, the object feature metadata is extracted from the collected traffic environment information, and the object feature is extracted from a preset AI format that extracts a feature value of an image patch according to the object feature metadata.
그래서, 상기 추출된 객체 피처로부터 객체 전체의 크기와 위치를 추정하는 미리 설정된 AI 포맷에 의해서 객체를 인식함으로써, 각각의 객체별로 추적하여 멀티 표적을 추적한다.Thus, by recognizing an object by a preset AI format that estimates the size and position of the entire object from the extracted object feature, the multi-target is tracked by tracking each object.
따라서, 이를 통해 교통 영상감시시스템에 있어서, 시스템적으로 효과적이면서 신속히 멀티 표적을 추적한다.Accordingly, through this, in the traffic surveillance system, it is systematically effective and quickly tracks multiple targets.
부가적으로, 이때 이러한 교통 영상감시시스템의 멀티 표적 추적 방법은 아래의 교통분석 동작과 병행하여 이루어진다.Additionally, in this case, the multi-target tracking method of the traffic image surveillance system is performed in parallel with the following traffic analysis operation.
구체적인 동작은 아래와 같다.The specific operation is as follows.
먼저, 각각의 교통감시영역별로 설치된 카메라 장치에서 종합적인 교통환경정보를 수집함으로써 교통분석한다.First, traffic analysis is performed by collecting comprehensive traffic environment information from camera devices installed for each traffic monitoring area.
이를 위해, 우선적으로 교통감시시에 다수의 상이한 교통감시영역마다 각기 설치된 카메라장치별로 교통환경정보를 수집한다(S401).To this end, traffic environment information is first collected for each camera device installed in each of a plurality of different traffic monitoring areas during traffic monitoring (S401).
이때, 상기 교통환경정보는 차량속도, 교통량, 차량 점유율, 미세먼지상태, 행인의 직접조작에 의한 횡단보도 신호등 상태변경여부, 이산화탄소농도, 공공기관 예를 들어, 소방서 또는 경찰서 등의 소방차 혹은 경찰차 등의 정차상태, 노점상의 도로점유상태, 기상정보 등으로서, 종합적인 교통과 관련된 환경정보이다.At this time, the traffic environment information includes vehicle speed, traffic volume, vehicle occupancy, fine dust status, whether or not the state of the pedestrian crossing traffic light is changed by direct manipulation of pedestrians, carbon dioxide concentration, fire engines or police cars such as fire departments or police stations, etc. It is the environmental information related to comprehensive traffic, such as the stop status, the road occupancy status on the street, and weather information.
그리고 나서, 상기 수집된 교통환경정보를 각 카메라장치별로 빅데이터화하고(S406), 미리 설정된 딥 러닝 기반으로 학습한다(S407).Then, the collected traffic environment information is converted into big data for each camera device (S406), and learning is performed based on a preset deep learning (S407).
이때, 기존의 CCTV 표출 및 알람에서 사용하는 지능형과 달리 여기에서는 영상 내에서 특정 조건을 만족하기 위한 가상 영역, 선 등의 설정을 하지 않고, 규칙과 빅데이터 패턴과 움직임 패턴을 중심으로 분석을 진행한다.At this time, unlike the intelligent used in the existing CCTV expression and alarm, the analysis here focuses on rules, big data patterns, and movement patterns without setting virtual areas, lines, etc. to satisfy specific conditions in the video. do.
이러한 규칙분석은 객체 정보(사람, 차량 등), 목적별 정보(어린이보호, 방범, 교통 등), 개소별 정보(특정 감시지역), 시간대별 정보(일정)에 따라서 복합적으로 이루어진다.This rule analysis is performed according to object information (person, vehicle, etc.), purpose-specific information (child protection, crime prevention, traffic, etc.), location-specific information (specific monitoring area), and time-of-day information (schedule).
그리고, 상기 빅데이터 패턴 분석은 객체에 대한 수많은 정보를 가지며, 객체의 속성값 중 객체분류(사람, 차 등), 영역, 날짜, 시간 등의 데이터를 이용하여 데이터 분포를 작성한다. 그리고 화면 내에서 객체의 활동영역을 특정화하여 객체가 출몰하는 지역과 출몰하지 않는 지역을 구분, 사용자는 특정화된 데이터 그룹에 대하여 감시 여부(정상, 비정상)를 설정함으로써 이루어지는 것을 특징으로 한다.In addition, the big data pattern analysis has a lot of information about an object, and creates a data distribution using data such as object classification (person, car, etc.), area, date, and time among the property values of the object. Also, it is characterized by specifying the activity area of the object within the screen to distinguish the area where the object appears and does not appear, and the user sets whether to monitor (normal or abnormal) for the specified data group.
또한, 상기 움직임 패턴 분석은 객체를 추적하여 고유 객체의 움직임 패턴, 속도 패턴을 이용하여 평소 객체의 움직임, 속도를 분석하거나 또는, 그에 대한 감지 여부(정상, 비정상)를 설정함으로써 이루어진다.In addition, the movement pattern analysis is performed by tracking the object and analyzing the movement and speed of the normal object using the movement pattern and velocity pattern of the unique object, or by setting whether or not to detect (normal or abnormal).
그래서, 상기 학습된 딥 러닝 기반의 교통환경학습 결과를 적용해서 다수의 상이한 주변 환경 조건별로 예를 들어, 시간대별 또는, 날씨별, 온도별 등으로 교통분석을 한다(S408).So, by applying the learned deep learning-based traffic environment learning results, traffic analysis is performed for a number of different environmental conditions, for example, by time zone, weather, temperature, etc. (S408).
따라서, 이를 통해 인공 지능 교통 분석 기술을 적용함으로써, 교통 분석이 체계적이고 신뢰성이 있으며, 교통 환경의 변화에 따라 적합한 교통 분석과 교통 운영 등이 이루어진다.Therefore, by applying artificial intelligence traffic analysis technology through this, traffic analysis is systematic and reliable, and appropriate traffic analysis and traffic operation are made according to changes in the traffic environment.
한편, 부가적으로 일실시예에 따른 교통 영상감시시스템의 멀티 표적 추적 방법은 이러한 경우, 이러한 교통분석 결과를 바탕으로 해당되는 지역의 신호정책 등에 관한 교통정책을 도출하거나 교통이상징후를 예측하기도 한다.On the other hand, in the case of the multi-target tracking method of the traffic image surveillance system according to an embodiment, in this case, based on the result of the traffic analysis, a traffic policy for a traffic signal policy or the like in a corresponding region may be derived or a traffic anomaly may be predicted. .
1) 교통정책 도출1) Derivation of transportation policy
이를 위해, 일실시예에 따른 교통 영상감시시스템의 멀티 표적 추적 방법은 상기 교통분석된 주변 환경 조건별 교통분석 결과를 미리 설정된 교통정책설립포맷에 적용해서 다수의 상이한 교통요소별로 교통정책을 도출한다(S409).To this end, the multi-target tracking method of the traffic image surveillance system according to an embodiment derives traffic policies for a number of different traffic elements by applying the traffic analysis results according to the traffic conditions to the preset traffic policy establishment format. (S409).
예를 들어, 도로요금정책을 결정함에 있어서는 잦은 지체 및 정체 구간은 요금을 인상한다거나, 소통이 원활한 구간의 요금은 감액하는 등의 방법을 통해 효율적인 도로이용을 유도할 수 있다.For example, in determining the road fare policy, it is possible to induce efficient road use through methods such as increasing the fare for frequent delays and congestion sections or reducing the fare for sections with good communication.
그리고, 도로의 지체 및 정체가 특정시간대에 집중된 경우, 해당시간대에 변동적인 추가 요금을 적용하거나, 같은 시간대의 다른 구간에 비해 소통이 원활한 구간의 요금은 감액하는 등의 방법을 통해 효율적인 도로이용을 유도하는 도로요금정책에 대한 구체적 정보로 활용할 수 있다. 특별수송기간 및 주말 연휴기간의 경우, 교통정보가 필요한 지역에 대한 과거 해당기간의 도로이용 실태를 매시간별로 제공받음으로써 배송 및 나들이를 위한 최적의 시간대를 파악할 수 있어 도로이용에 대한 의사결정에 도움을 준다. 또한, 이를 통하여 도로 이용의 효율성이 증대되어 연간 업무생산성이 향상되는 효과가 있다.In addition, if the delay and congestion of the road is concentrated in a specific time period, efficient road use can be applied by applying a variable additional fee in the corresponding time period, or by reducing the fare in a section with better communication compared to other sections in the same time period. It can be used as specific information on the road fare policy to induce. In the case of special transportation periods and weekend holidays, it is possible to grasp the optimal time zone for delivery and outing by receiving the hourly usage of roads in the past relevant period for areas requiring traffic information, thereby helping to make decisions on road use. Gives In addition, through this, the efficiency of road use is increased, thereby improving annual productivity.
2) 교통이상징후 예측2) Traffic anomaly prediction
또한, 상기 교통분석된 주변 환경 조건별 교통분석 결과를 미리 설정된 교통이상패턴포맷에 적용해서 교통이상징후를 예측한다(S410).In addition, the traffic anomaly is predicted by applying the traffic analysis result for each traffic condition to the preset traffic anomaly pattern format (S410).
이러한 경우, 예를 들어 상기 교통분석된 주변 환경 조건별 교통분석 결과를 상기 교통이상패턴포맷의 객체별 예를 들어, 차량, 공공기관 건물, 신호등 등의 영상분포도에 의해 이상패턴을 감지함으로써, 교통이상징후 예측이 된다.In this case, for example, by detecting the traffic analysis result by the traffic analysis surrounding environment conditions, for example, by detecting an abnormal pattern by an image distribution diagram of a vehicle, a public institution building, a traffic light, etc. for each object of the traffic abnormal pattern format, traffic Prediction of abnormal signs.
구체적으로는, 상기 교통분석된 주변 환경 조건별 교통분석 결과에서 객체 메타데이터를 추출한다.Specifically, the object metadata is extracted from the traffic analysis result for each traffic condition.
그리고, 상기 추출된 객체 메타데이터를 CNN 기반으로 객체분류한다.Then, the extracted object metadata is classified as an object based on CNN.
그래서, 상기 객체분류된 결과를 상기 교통이상패턴포맷의 객체별 영상분포도에 적용해서 이상패턴을 감지한다.Therefore, the abnormality pattern is detected by applying the result of the object classification to the image distribution map for each object in the traffic abnormal pattern format.
도 5는 일실시예에 따른 교통 영상감시시스템의 멀티 표적 추적 방법에 적용된 일실시예에 따른 객체 메타데이터 추출 동작을 예를 들어 보다 상세하게 설명하기 위한 도면이다.FIG. 5 is a diagram for explaining, in detail, an object metadata extraction operation according to an embodiment applied to a multi-target tracking method of a traffic image surveillance system according to an embodiment.
도 5에 도시된 바와 같이, 일실시예에 따른 객체 메타데이터 추출 동작은 먼저, 객체 추출을 수행한다.As illustrated in FIG. 5, the object metadata extraction operation according to an embodiment first performs object extraction.
이를 위해 우선적으로 전경 배경을 분리한다. 보다 상세하게는, 먼저 연속하여 입력되는 영상을 누적하여 배경 영상을 생성한다. 그리고, 입력된 영상과 배경 영상을 비교하여 차이가 나는 화소를 계산한다. 그리고 나서, 차이 값이 임계치 이상인 영역을 전경 영상으로 출력한다.For this, the foreground background is separated first. In more detail, first, successively inputted images are accumulated to generate a background image. Then, a pixel having a difference is calculated by comparing the input image with the background image. Then, a region in which the difference value is greater than or equal to the threshold is output as a foreground image.
다음, 노이즈 제거 및 객체 추출, 객체 결합을 수행한다. 구체적으로는, 모폴로지 필터를 통해서 전경 영상의 노이즈를 제거한다. 그리고, 노이즈가 제거된 전경 영상에서 차량 피처의 윤곽을 추출한다. 그리고 나서, 최소 크기 이하의 윤곽을 인접한 윤곽과 결합하여 단일 객체로 처리함으로써, 차량 피처를 추출한다.Next, noise removal, object extraction, and object combining are performed. Specifically, noise of a foreground image is removed through a morphology filter. Then, the contour of the vehicle feature is extracted from the foreground image from which noise is removed. Then, a vehicle feature is extracted by combining a contour having a minimum size or less with an adjacent contour as a single object.
한편으로, 이에 더하여 다중객체 추출 및 보정을 수행한다.Meanwhile, in addition to this, multi-object extraction and correction are performed.
구체적으로는, KCF(Kernelized Correlation Filters)는 처리속도를 향상시키기 위해 순환 행렬의 특성을 이용하는 새로운 추적 프레임워크를 구성한다. 그리고, 이러한 경우 KCF Tracker는 색상 특징을 이용하여 명도 변화에 강인한 객체의 특징을 추출하는 방법으로 객체를 추적한다.Specifically, KCF (Kernelized Correlation Filters) constitutes a new tracking framework that uses the characteristics of the cyclic matrix to improve processing speed. And, in this case, the KCF Tracker tracks the object by extracting the feature of the object robust to the change in brightness using the color feature.
다음, 객체 추출 결과와 KCF Tracker의 예측 결과를 비교하여 객체의 영역과 위치를 보정한다.Next, the object extraction result is compared with the prediction result of the KCF Tracker to correct the region and position of the object.
그리고 나서, 보정 가중치를 객체 추출 결과와 KCF Tracker 예측 결과를 예를 들어, 4대 1로 하여 객체를 보정한다. 참고적으로, 그리고 나서 아래의 도 6에 따른 동작을 수행한다.Then, the object is corrected using the correction weight as the object extraction result and the KCF Tracker prediction result, for example, 4 to 1. For reference, then, the operation according to FIG. 6 below is performed.
도 6은 일실시예에 따른 교통 영상감시시스템의 멀티 표적 추적 방법에 적용된 일실시예에 따른 CNN 기반 객체 분류 동작을 설명하기 위한 도면이다.6 is a view for explaining a CNN-based object classification operation according to an embodiment applied to a multi-target tracking method of a traffic image surveillance system according to an embodiment.
도 6에 도시된 바와 같이, 일실시예에 따른 CNN 기반 객체 분류 동작은 객체 메타데이터가 추출될 시, 특징 추출 네트워크(Feature Extraction Network)와 분류 네트워크(Classification Network)의 기본 구조로 된 CNN 기반의 객체분류를 수행함으로써, 딥 러닝 기반의 객체 분류를 수행한다.As shown in FIG. 6, the CNN-based object classification operation according to an embodiment is based on CNN as a basic structure of a feature extraction network and a classification network when object metadata is extracted. By performing object classification, object classification based on deep learning is performed.
구체적으로는, 일실시예에 따른 CNN 기반 객체 분류 동작은 상기한 바와 같이 감시영상이 입력될 경우, 입력된 감시영상에서 객체 메타데이터를 추출함으로써, 딥 러닝 기반의 영상분석 기초데이터를 획득한다.Specifically, in the CNN-based object classification operation according to an embodiment, when the surveillance image is input as described above, object metadata is extracted from the input surveillance image, thereby obtaining deep learning-based image analysis basic data.
그리고, 상기 객체 메타데이터가 추출될 시, 추출된 객체 메타데이터로부터 CNN 기반의 객체를 다수의 상이한 객체별로 분류함으로써, 딥 러닝 기반을 통해 객체별로 분류한다.In addition, when the object metadata is extracted, CNN-based objects are classified according to a plurality of different objects from the extracted object metadata, thereby classifying each object through a deep learning basis.
추가적으로, 일실시예에 따른 CNN 기반 객체 분류 동작은 객체가 등장한 영상을 분류하고 메타데이터 생성을 수행한다.Additionally, the CNN-based object classification operation according to an embodiment classifies an image in which an object appears and performs metadata generation.
그리고, CNN을 활용하여 딥 러닝 프레임워크인 Caffe로 구성 및 학습하여 객체 예를 들어, 차량 등을 분류한다. 그리고 나서, 차량의 각 객체의 색상, 시간 등의 일반정보를 포함한 각 객체의 메타데이터를 생성한다.Then, by using CNN and constructing and learning with Caffe, which is a deep learning framework, objects such as vehicles are classified. Then, metadata of each object including general information such as color and time of each object of the vehicle is generated.
도 7과 도 8은 일실시예에 따른 교통 영상감시시스템의 멀티 표적 추적 방법에 적용된 이상 감지 동작을 보다 상세하게 설명하기 위한 도면이다.7 and 8 are diagrams for explaining an abnormality detection operation applied to a multi-target tracking method of a traffic image surveillance system according to an embodiment in more detail.
구체적으로, 도 7은 이러한 이상 감지 동작에 따른 규칙분석 동작을 보여주는 도면이고, 도 8은 이러한 이상 감지 동작에 따른 빅데이터 패턴 분석 동작을 보여주는 도면이다.Specifically, FIG. 7 is a diagram illustrating a rule analysis operation according to the anomaly detection operation, and FIG. 8 is a diagram showing a big data pattern analysis operation according to the anomaly detection operation.
도 7과 도 8에 도시된 바와 같이, 일실시예에 따른 이상 감지 동작은 먼저 멀티 표적을 추적한 후, 규칙기반과, 빅데이터 패턴, 움직임 패턴에 의해 영상 분석을 진행한다.As illustrated in FIGS. 7 and 8, an abnormality detection operation according to an embodiment first tracks a multi-target, and then analyzes images based on a rule-based, big data pattern, and motion pattern.
즉, 기존의 CCTV 표출 및 알람에서 기 지능형과 달리 영상 내에서 특정 조건을 만족하기 위한 가상 영역, 선 등의 설정을 하지 않고. 실시예에서는 규칙과 빅데이터 패턴, 움직임 패턴을 중심으로 분석 진행을 한다.In other words, unlike the existing intelligent in the CCTV display and alarm, without setting the virtual area, line, etc. to satisfy specific conditions within the video. In the embodiment, analysis is performed mainly on rules, big data patterns, and movement patterns.
예를 들어, 상기 멀티 표적에 해당하는 객체에 대한 이상여부를 객체별 영상분포도에 의해 이상패턴을 감지하는 미리 설정된 객체이상패턴포맷에 의해 감지한다.For example, whether an object corresponding to the multi-target is abnormal is detected by a preset object abnormal pattern format that detects an abnormal pattern by an image distribution map for each object.
구체적인 예로는, 객체가 등장한 영상의 영역을 예컨대 25*25등분으로 진행(625 block)한다. 그리고, 객체가 매칭되는 영역에 일부라도 해당되면 등장 영역을 누적한다. 그리고 나서, 누적된 데이터를 활용하여 빈번히 등장하는 영역(heat map)을 중심으로 오버레이(Overlay) 표시를 한다. 그래서, 누적된 영역 외 다른 영역에 유사속성의 객체가 등장하면 알림한다. 그리고, 객체의 움직임이 일반적이지 않을 때 알림한다. 예를 들어, 사람만 움직였던 부분에 갑자기 차가 들어오는 부분, 사람, 차가 움직이던 패턴이 갑자기 변화하는 부분인 경우 알림한다.As a specific example, the area of the image in which the object appeared is, for example, divided into 25*25 equal parts (625 blocks). Then, if any part of the region to which the object matches is matched, the appearance region is accumulated. Then, the accumulated data is used to display an overlay based on a frequently occurring heat map. Therefore, it is notified when an object of similar properties appears in a region other than the accumulated region. Then, it is notified when the movement of the object is not normal. For example, if the part where only the person has moved suddenly comes in, the part that the person and the car have moved in is a sudden change.
이러한 규칙분석은 객체 정보(사람, 차량 등), 목적별 정보(어린이보호, 방범, 교통 등), 개소별 정보(특정 감시지역), 시간대별 정보(일정)에 따라서 복합적으로 우선순위를 정하는 방법이다.This rule analysis is based on object information (person, vehicle, etc.), purpose-specific information (child protection, crime prevention, traffic, etc.), location-specific information (specific monitoring area), and time-based information (schedule). to be.
그리고, 빅데이터 패턴 분석은 분석된 영상의 메타데이터는 객체에 대한 수많은 정보를 가지며 객체의 속성값 중 객체분류(사람, 차 등), 영역, 날짜, 시간 등의 데이터를 이용하여 데이터 분포를 작성한다. 그리고 화면 내에서 객체의 활동영역을 특정화하여 객체가 출몰하는 지역과 출몰하지 않는 지역을 구분, 사용자는 특정화된 데이터 그룹에 대하여 감시 여부(정상, 비정상)를 설정함으로써 이루어진다.And, in the big data pattern analysis, the metadata of the analyzed image has a lot of information about the object, and data distribution is created using data such as object classification (person, car, etc.), area, date, and time among the property values of the object. do. In addition, the activity area of the object is specified in the screen to distinguish the area where the object appears and does not appear, and the user sets whether to monitor (normal or abnormal) for the specified data group.
또한, 움직임 패턴 분석은 영상에서 객체를 추적하여 고유 객체의 움직임 패턴, 속도 패턴을 이용하여 평소 객체의 움직임, 속도를 분석하여 감지 여부(정상, 비정상)를 설정함으로써 이루어진다.In addition, the movement pattern analysis is performed by setting the detection (normal, abnormal) by tracking the object in the image and analyzing the movement and speed of the usual object using the movement pattern and velocity pattern of the unique object.
다른 한편으로, 일실시예에 따른 교통 영상감시시스템의 멀티 표적 추적 방법은 다음으로, 중앙관제센터에서 각각의 교통감시영역별로 설치된 카메라 장치에서 종합적인 교통환경정보를 수집하여 차번 인식을 한다(도 2 참조).On the other hand, in the multi-target tracking method of the traffic image surveillance system according to an embodiment, the central control center collects comprehensive traffic environment information from camera devices installed for each traffic surveillance area and recognizes the next turn (FIG. 2).
먼저, 카메라 장치로부터 수집된 교통환경정보에서 차량 피처 메타데이터를 추출한다. 이러한 경우, 상기 차량 피처 메타데이터는 차량의 속성 또는 특징을 나타내는 메타데이터를 의미한다.First, vehicle feature metadata is extracted from traffic environment information collected from a camera device. In this case, the vehicle feature metadata refers to metadata representing a property or characteristic of the vehicle.
그리고, 이렇게 차량 피처 메타데이터가 추출될 경우, 차량 피처 메타데이터에 따라 차량 영상 패치의 피처값을 추출하는 미리 설정된 AI 포맷으로부터 차량의 피처를 추출한다.Then, when vehicle feature metadata is extracted, vehicle features are extracted from a preset AI format that extracts feature values of a vehicle image patch according to vehicle feature metadata.
이러한 경우, 상기 AI 포맷은 예를 들어, GLCM(Grey Level Co-occurence Matrix)의 융합머신러닝 AI 포맷으로 된다.In this case, the AI format is, for example, a fusion machine learning AI format of a Gray Level Co-occurence Matrix (GLCM).
이때, 상기 GLCM은 기본적으로 텍스쳐 영상에 대한 정의는 여러 가지가 있지만 대상이 되는 감시영상 내에 포함되어 있는 공간적 특성을 부각하는 영상을 나타낸다.At this time, the GLCM basically has a variety of definitions for a texture image, but represents an image that highlights the spatial characteristics included in the target surveillance image.
이러한 경우, 상기 GLCM은 현재의 화소와 그 이웃하는 화소의 밝기 값의 평균, 대비, 상관관계 등과 같은 기본적인 통계량을 계산한다. 그래서, 다시 그 계산 값을 커널내의 중심 화소에 새로운 밝기 값으로 할당하여 표현하고 입력 감시영상에 대해서 부분적인 텍스쳐 특징으로 표현하는 것이다.In this case, the GLCM calculates basic statistics such as average, contrast, correlation, etc. of brightness values of the current pixel and its neighboring pixels. So, the calculated value is assigned to the central pixel in the kernel as a new brightness value and expressed as a partial texture feature for the input surveillance image.
이때, GLCM은 Homogenity와, Contrast, Dissimiliarity를 포함한다.At this time, the GLCM includes Homogenity, Contrast, and Dissimiliarity.
상기 Homogenity는 행렬 내 각 화소들의 균일한 정도를 나타낸다. 그리고, Contrast와 Dissimiliarity는 화소간 명암차이를 구분하여 표현하기 위한 개념으로 대각선으로부터 멀리 떨어져 있는 화소의 경우 높은 가중치가 적용된다. ASM과 에너지는 명암의 균일함을 측정한다. 화소간의 밝기 변화가 없으며 각 화소의 값이 비슷한 값이 된다.The Homogenity represents the uniformity of each pixel in the matrix. In addition, Contrast and Dissimiliarity are concepts for distinguishing contrast between pixels, and high weight is applied to pixels far away from the diagonal. ASM and energy measure the uniformity of contrast. There is no change in brightness between pixels, and each pixel has a similar value.
또 다른 한편으로, 차량 피처를 추출할 시, 딥러닝 클러스터를 적용한다. 상기 딥러닝 클러스터는 객체로부터 인식을 위한 객체인식용 특징정보를 추출한다. 추출된 객체인식용 특징정보는 학습된 모델 빅 데이터 저장부에 저장된다. 러닝 클러스터에 의해 추출된 객체인식용 특징정보에는, 예를 들면, 영상 이름(예를 들면, 오브젝트 이름, 영상 프레임 정보 및 시간), 딥 차량 번호가 포함된 이미지, 차량의 종류, 차량의 색깔 등이 포함되어 있을 수 있다.On the other hand, when extracting vehicle features, a deep learning cluster is applied. The deep learning cluster extracts feature information for object recognition for recognition from an object. The extracted feature information for object recognition is stored in the learned model big data storage unit. The feature information for object recognition extracted by the running cluster includes, for example, an image name (for example, an object name, image frame information and time), an image including a deep vehicle number, a vehicle type, and a vehicle color. This may be included.
다음, 이렇게 추출된 차량 피처로부터 차량 전체의 크기와 위치를 추정하는 미리 설정된 AI 포맷에 의해서 차량을 인식한다.Next, the vehicle is recognized by a preset AI format that estimates the size and position of the entire vehicle from the extracted vehicle features.
이러한 경우, 상기 AI 포맷은 예를 들어, 차량 YOLO 포맷으로 된다.In this case, the AI format is, for example, the vehicle YOLO format.
보다 구체적으로, 상기 차량 YOLO 포맷은 다수의 상이한 차량 피처별로 각 피처의 전체 크기와 위치를 추정하여 조합함으로써 차량 전체의 크기와 위치를 추정하여 된다.More specifically, the vehicle YOLO format estimates the size and location of the entire vehicle by estimating and combining the overall size and location of each feature for each of a plurality of different vehicle features.
그래서, 이렇게 차량이 추정될 경우, 미리 설정된 Lpr(License Plate Recognition)Net에 의해서 차량번호를 문자인식하고 차량번호를 추론함으로써, 차량번호를 인식한다.So, when the vehicle is estimated in this way, the vehicle number is recognized by text recognition of the vehicle number and inferring the vehicle number by a preset License Plate Recognition (Lpr) Net.
즉, 이미지화된 차량 전체 영역에서 차량 번호판 영역 이미지(형태)를 검출한다.That is, a vehicle license plate area image (shape) is detected in the entire area of the imaged vehicle.
이때, 차량 번호판 검출은 HOG 방식과 같은 차량의 형태적 특징을 추출하고, SVM 또는 AdaBoost와 같은 차량/배경 분류기 학습을 통하여 차량 번호판 영역 이미지를 검출할 수 있다.At this time, the vehicle license plate detection can extract the morphological features of the vehicle, such as the HOG method, and detect the vehicle license plate area image through learning the vehicle/background classifier such as SVM or AdaBoost.
참고적으로, 이러한 상기 LprNet은 종래 기술에 속하는 것으로서, 여기서는 그에 대한 상세한 설명을 생략한다.For reference, the LprNet belongs to the prior art, and a detailed description thereof is omitted here.
이때, 차량번호를 인식할 시, 차량번호인식 딥러닝을 적용할 수 있다.In this case, when recognizing the vehicle number, deep learning of vehicle number recognition may be applied.
이러한 경우, 상기 차량번호인식 딥러닝은 차량이미지를 수집하여 설정된 딥러닝을 통해 차량번호인식패턴을 도출한다. 이때, 차량번호인식 딥러닝은 차량번호인식패턴의 딥러닝으로, 수집된 CCTV영상이 프레임별로 입력이 되면, 각 프레임별로 입력되는 이미지는 분리작업을 거쳐 수정된 이미지를 학습된 신경망에 넣고 최적화된 결과의 이미지를 추출한 후, 해당 이미지를 받아 전처리과정을 수행한다. 즉, 전처리과정은 컬러이미지를 2진 영상으로 변환한 후 가장자리를 검출하되, 스레숄드(Threshold)를 적용하여 가장자리를 추출하며, 각 윤곽(Contour)의 배열에 접근하여 노이즈 영역을 지운다.In this case, the vehicle number recognition deep learning collects a vehicle image to derive a vehicle number recognition pattern through a set deep learning. At this time, vehicle number recognition deep learning is deep learning of the vehicle number recognition pattern. When the collected CCTV images are input by frame, the images input for each frame are separated and put into the trained neural network to optimize the images. After extracting the resulting image, it receives the image and performs pre-processing. That is, the pre-processing process converts a color image into a binary image, detects the edges, extracts the edges by applying a threshold, and approaches the arrangement of each contour to erase the noise region.
그리고 모든 전처리가 끝나면 남은 윤곽을 한 쪽에서부터 정렬된 순서로 윤곽을 확인하여 일정 거리가 지나면 초기화시키고, 원하는 윤곽이 나타나면 이를 번호판으로 인식한다. 또한, 인식된 번호판을 기준으로 차량번호를 텍스트(Text)로 인식하는 과정을 반복적으로 수행함으로써 차량번호를 인식한다.And after all the pre-processing, the remaining contours are checked in a sorted order from one side and initialized after a certain distance. When the desired contour appears, it is recognized as a license plate. In addition, the vehicle number is recognized by repeatedly performing a process of recognizing the vehicle number as text based on the recognized license plate.
따라서 차량번호인식 딥러닝은 반복적이고 지속적인 과정으로 딥러닝에 의한 누적된 학습으로 차량번호의 인식이 어려운 이미지로부터 차량번호의 추출이 이루어진다.Therefore, deep learning of vehicle number recognition is an iterative and continuous process, and accumulated learning by deep learning is used to extract vehicle numbers from images that are difficult to recognize.
따라서, 이를 통해 일실시예는 차량의 번호판을 인식하는 영상감시시스템에 있어서, 이러한 일실시예에 따른 신규 딥 러닝 기반의 차량번호 인식을 통해 차량번호를 인식함으로써, 기존보다 시스템적으로 효과적이면서 신속히 차량번호가 인식된다.Therefore, through this, in one embodiment, in the video surveillance system that recognizes the license plate of the vehicle, the vehicle number is recognized through the new deep learning-based vehicle number recognition according to this embodiment, thereby being more systematically effective and faster than the existing one. Vehicle number is recognized.
그리고, 차량 이미지의 특징을 추출하여 객체화를 통해 차량 특정률을 향상시킬 수 있다. In addition, it is possible to improve a vehicle specific rate through objectification by extracting features of a vehicle image.
이상과 같이, 일실시예는 카메라 장치에서 수집한 교통환경정보에서 차량 피처 메타데이터를 추출함으로써, 머신 러닝 기반으로 차량의 피처별로 영상분석 기초데이터를 획득한다.As described above, according to an embodiment of the present invention, by extracting vehicle feature metadata from traffic environment information collected by the camera device, image analysis basic data is acquired for each feature of the vehicle based on machine learning.
그리고, 이렇게 차량 피처 메타데이터가 추출될 경우, 차량 피처 메타데이터에 따라 차량 영상 패치의 피처값을 추출하는 미리 설정된 AI 포맷으로부터 차량의 피처를 추출함으로써, 머신 러닝 기반의 차량 피처를 추출한다.Then, when the vehicle feature metadata is extracted, vehicle features based on vehicle learning are extracted by extracting vehicle features from a preset AI format that extracts feature values of a vehicle image patch according to vehicle feature metadata.
다음, 상기 차량 피처가 추출될 경우, 추출된 차량 피처로부터 차량 전체의 크기와 위치를 추정하는 미리 설정된 AI 포맷에 의해서 차량을 인식한다.Next, when the vehicle feature is extracted, the vehicle is recognized by a preset AI format that estimates the size and position of the entire vehicle from the extracted vehicle feature.
그래서, 이렇게 상기 차량이 추정될 경우, 미리 설정된 LprNet에 의해서 차량번호를 문자인식하고 차량번호를 추론함으로써, 차량번호를 인식한다.So, when the vehicle is estimated in this way, the vehicle number is recognized by text recognition of the vehicle number by the preset LprNet and inference of the vehicle number.
따라서, 이를 통해 일실시예는 차량의 번호판을 인식하는 영상감시시스템에 있어서, 이러한 일실시예에 따른 신규 딥 러닝 기반의 차량번호 인식을 통해 차량번호를 인식함으로써, 기존보다 시스템적으로 효과적이면서 신속히 차량번호가 인식된다.Therefore, through this, in one embodiment, in the video surveillance system that recognizes the license plate of the vehicle, the vehicle number is recognized through the new deep learning-based vehicle number recognition according to this embodiment, thereby being more systematically effective and faster than the existing one. Vehicle number is recognized.
한편, 추가적으로 일실시예에 따른 교통 영상감시시스템의 멀티 표적 추적 방법은 전술한 바와 같이, 객체 예를 들어, 차량이 추종될 시, 3차원 모델을 통해 차량을 재현함으로써, 보다 효과적으로 차량번호가 인식되도록 한다.On the other hand, the multi-target tracking method of the traffic image surveillance system according to an embodiment, as described above, by reproducing the vehicle through a three-dimensional model when an object, for example, a vehicle is followed, recognizes the vehicle number more effectively. As much as possible.
이를 위해, 일실시예에 따른 교통 영상감시시스템의 멀티 표적 추적 방법은 상기한 바와 같이 차량이 인식될 경우, 미리 설정된 차량 3차원 모델링 포맷에 의해서 상기 인식된 차량을 3차원 모델링함으로써, 차량을 재현한다.To this end, in the multi-target tracking method of the traffic image surveillance system according to an embodiment, when a vehicle is recognized as described above, the vehicle is reproduced by three-dimensional modeling the recognized vehicle by a preset vehicle 3D modeling format. do.
그리고, 이때 상기 3차원 모델링의 동작은 아래와 같이 구체적으로 이루어진다.And, at this time, the operation of the 3D modeling is specifically performed as follows.
먼저, 상기 3차원 모델링의 동작은 상기한 바와 같이 차량이 인식될 경우, 미리 설정된 차량 3차원 모델링 포맷에 의해서 차량의 피처를 3차원 모델링함으로써, 차량의 피처별로 3차원 모델을 획득한다.First, in the operation of the 3D modeling, when a vehicle is recognized as described above, 3D modeling of a vehicle feature by a preset vehicle 3D modeling format is performed to obtain a 3D model for each feature of the vehicle.
그리고 나서, 상기 차량내에서 피처 이외의 주변영역을 설정해서, 차량표면의 곡면에 대한 모델링 기반의 미리 설정된 주변영역 3차원 모델 포맷에 의해 상기 주변영역을 3차원 곡면화하여 재현함으로써, 3차원모델로서 획득한다.Then, by setting a peripheral area other than the feature in the vehicle, a 3D model is obtained by reproducing the peripheral area in 3D by using a preset 3D model format of a peripheral area based on modeling of the curved surface of the vehicle surface. To acquire.
다음, 상기 차량의 피처별 3차원 모델과 차량 피처 이외의 주변영역에 대한 3차원모델이 획득된 경우, 획득된 차량 피처 이외의 주변영역에 대한 3차원 곡면화로부터 차량의 피처별 3차원 모델을 정합함으로써, 차량재현을 한다.Next, when a 3D model for each feature of the vehicle and a 3D model for a peripheral region other than the vehicle feature are obtained, the 3D model for each feature of the vehicle is obtained from the 3D curved surface for the peripheral region other than the acquired vehicle feature. By matching, the vehicle is reproduced.
그래서, 이를 통해 일실시예에 따른 딥 러닝 기반의 차량번호 인식 방법은 전술한 바와 같이, 차량이 추종될 시, 이러한 일실시예에 따른 3차원 모델을 통해 차량을 재현함으로써, 보다 효과적으로 차량번호가 인식된다.Thus, through this, the deep learning-based vehicle number recognition method according to an embodiment, as described above, when the vehicle is followed, reproduces the vehicle through the three-dimensional model according to this embodiment, thereby more effectively Is recognized.
다른 한편으로, 일실시예에 따른 교통 영상감시시스템의 멀티 표적 추적 방법은 전술한 바와 같은 차량의 3차원모델을 획득할 시, 차량 피처 이외의 차량 내에서의 주변영역을 3차원 곡면화하여 재현함으로써, 보다 효과적으로 3차원모델로서 획득한다.On the other hand, in the multi-target tracking method of the traffic image surveillance system according to an embodiment, when acquiring the three-dimensional model of the vehicle as described above, the surrounding area in the vehicle other than the vehicle feature is reproduced by three-dimensional curvature. By doing so, it is obtained more effectively as a three-dimensional model.
구체적으로는, 일실시예에 따른 교통 영상감시시스템의 멀티 표적 추적 방법은 상기 차량의 피처별로 3차원 모델이 획득된 경우, 미리 설정된 주변영역 곡면형 분할 포맷에 의해 차량내에서 피처 이외의 주변영역을 시스템적으로 분절화함으로써, 상기 주변영역을 시스템적으로 설정한다.Specifically, in the multi-target tracking method of the traffic image surveillance system according to an embodiment, when a 3D model is obtained for each feature of the vehicle, a peripheral region other than the feature in the vehicle is set by a preset peripheral region curved partitioning format. By segmenting the system systematically, the peripheral area is systematically set.
그래서, 이렇게 주변영역이 설정될 경우, 상기 차량표면의 곡면에 대한 모델링 기반의 미리 설정된 주변영역 3차원 모델 포맷에 의해 상기 설정된 주변영역을 3차원 곡면화하여 재현함으로써, 3차원모델로서 획득한다.Thus, when the peripheral area is set as described above, the preset peripheral area is 3D curved and reproduced by a 3D model format based on a preset peripheral area 3D modeling model for the curved surface of the vehicle surface, thereby obtaining a 3D model.
그리고, 부가하여 일실시예에 따른 곡면형 분할방법은 차량 피처 이외의 주변 형태를 시스템적으로 분절화함으로써, 해당되는 부위를 시스템적으로 설정하는 것이다.In addition, the curved partitioning method according to an embodiment is to systematically segment a peripheral shape other than a vehicle feature, thereby systematically setting a corresponding portion.
이러한 경우, 상기 곡면형 분할방법은 곡면형 분할 포맷으로 되어지고, 또한 레벨 세트를 사용하고, 이러한 레벨 세트는 종종 다른 이름으로 표시되는 많은 응용 프로그램에 이용된다. 암시적 곡선은 수준 곡선으로 인접 곡선과는 독립적으로 고려되며 이러한 곡선은 암시적 방정식으로 정의된다.In this case, the curved segmentation method is in a curved segmentation format, and also uses a level set, and this level set is often used in many applications indicated by different names. Implicit curves are level curves and are considered independent of adjacent curves, and these curves are defined by implicit equations.
마찬가지로, 평평한 표면은 암시적 표면 또는 등면 표면이라고도 하고 또는 isocontour라는 이름으로도 정의한다. 이것은 동일한 높이의 등고선을 의미하며, 다양한 응용 분야에서 사용되는 isocontour는 무차별 곡선과 같이 함수 값의 특성을 나타낸다. 이러한 레벨 셋 함수를 적용하여 최적의 분할이 가능하다.Likewise, a flat surface is also referred to as an implicit or isosurface or is defined by the name isocontour. This means the contours of the same height, and isocontour used in various applications shows the characteristics of the function value, such as indifference curves. Optimal division is possible by applying this level set function.
그래서, 이렇게 분할이 된 후, 해당영역의 표면에 대한 모델링 기반의 미리 설정된 주변정보 3차원 모델 포맷으로부터 주변 형태 곡면 정보를 3차원으로 재현함으로써, 주변정보를 3차원 모델링한다.Thus, after the division, the peripheral information is 3D modeled by reproducing the peripheral surface information in 3D from a preset 3D model format of surrounding information based on modeling of the surface of the corresponding region.
또한, 일실시예의 교통 영상감시시스템의 멀티 표적 추적 방법은 상기와 같이 차량이 인식될 경우, 미리 설정된 차량의 등가화 형상 모델(Equalization Contour Model)의 형태분석 AI 포맷으로부터 차량 이미지를 시스템적으로 분할함으로써, 다수의 상이한 차량별로 대응하여 차량 이미지를 분할한다.In addition, in the multi-target tracking method of the traffic image surveillance system of one embodiment, when the vehicle is recognized as described above, the vehicle image is systematically divided from the morphological analysis AI format of the Equalization Contour Model of the preset vehicle. By doing so, a vehicle image is divided corresponding to a plurality of different vehicles.
이러한 경우, 참고적으로 관련된 ‘deformable model’은 구속 조건과 이미지 힘에 의해 영향을 받는 에너지를 최소화하고 변경 가능한 스플라인으로, 오브젝트 윤곽과 변형에 저항하는 내부 힘을 향해 끌어 당긴다. 상기 ‘deformable model’은 에너지 최소화를 통해 변형 가능 모델을 이미지에 매치하는 일반적인 기술의 특별한 경우로 이해될 수 있다. 2차원에서 활성 형상 모델은 이 접근법의 이산 버전을 나타내며, 점 분포 모델을 활용하여 형상 범위를 교육 세트에서 학습한 명시적인 영역을 제한한다.In this case, the referenced'deformable model' is a deformable spline that minimizes the energy affected by constraints and image forces, and pulls it toward internal forces that resist object contours and deformation. The'deformable model' may be understood as a special case of a general technique of matching a deformable model to an image through energy minimization. In 2D, the active shape model represents a discrete version of this approach and utilizes a point distribution model to limit the explicit area learned from the training range to the shape range.
다른 한편으로, 추가적으로 일실시예에 따른 교통 영상감시시스템의 멀티 표적 추적 방법은 전술한 바와 같이 차량 피처 메타데이터를 추출할 시, 메타모델정보에 의해 차량의 피처별 메타데이터를 추출함으로써, 보다 효율적으로 관련메타데이터 추출이 된다.On the other hand, in the multi-target tracking method of the traffic image surveillance system according to an embodiment, when extracting vehicle feature metadata as described above, by extracting metadata for each feature of the vehicle by meta-model information, it is more efficient. The related metadata is extracted.
이를 위해, 일실시예의 교통 영상감시시스템의 멀티 표적 추적 방법은 상기 감시영상이 입력될 경우, 다수의 상이한 차량 피처별로 미리 설정된 메타모델로부터 입력된 감시영상에서의 차량 피처 메타데이터를 추출함으로써, 머신 러닝 기반으로 차량의 피처별 영상분석 기초데이터를 획득한다.To this end, in the multi-target tracking method of the traffic image surveillance system of an embodiment, when the surveillance image is input, by extracting vehicle feature metadata from the input surveillance image from a preset metamodel for each of a plurality of different vehicle features, the machine Based on running, we acquire basic image analysis data for each feature of the vehicle.
또 다른 한편으로는, 부가적으로 일실시예에 따른 교통 영상감시시스템의 멀티 표적 추적 방법은 하나의 줌카메라모듈을 통해 소형 다차선 촬영영역모델링, 중형 다차선 촬영영역모델링, 대형 다차선 촬영영역모델링에 따라 다차선 상에 설정된 다차선 촬영영역을 줌조절하면서, 줌조절된 다차선 촬영영역에 위치한 복수개의 이동객체를 촬영시켜서, 다차선에 위치한 차량의 번호판을 동시에 촬영한다. 그리고, 또한 다차선 영상촬영데이터에 대하여 딥러닝 방식과 패턴정합, 영상처리기술을 결합하여 번호판을 추출하고 인식시킬 수 있도록 한다.On the other hand, additionally, the multi-target tracking method of the traffic image surveillance system according to an embodiment is modeled by a small multi-lane photographing area through a single zoom camera module, a medium multi-lane photographing area modeling, and a large multi-lane photographing area. According to the modeling, while zooming the multi-lane photographing area set on the multi-lane, photographing a plurality of moving objects located in the zoom-adjusted multi-lane photographing area to simultaneously photograph the license plate of the vehicle located in the multi-lane. In addition, it is possible to extract and recognize license plates by combining deep learning, pattern matching, and image processing technology for multi-lane image recording data.
이를 위해, 일실시예에 따른 교통 영상감시시스템의 멀티 표적 추적 방법은 원샷카메라모듈 하단에 위치되어, 스마트제어부의 제어신호에 따라 촬영영역줌카메라모듈, 이미지센서모듈, 라이다센서모듈, 다차선 촬영영역 생성모듈을 팬틸트구동시켜, 다차선상에 기준촬영영역을 설정시킨다.To this end, the multi-target tracking method of the traffic video surveillance system according to an embodiment is located at the bottom of the one-shot camera module, and according to the control signal of the smart control unit, the zoom area camera module, image sensor module, lidar sensor module, multi-lane By pan-tilting the imaging area creation module, a reference imaging area is set on the multi-lane line.
그리고, 다차선 촬영영역 생성모듈로부터 전달된 소형 다차선 촬영영역모델링, 중형 다차선 촬영영역모델링, 대형 다차선 촬영영역모델링에 따라 다차선 상에 설정된 다차선 촬영영역을 줌조절하면서, 줌조절된 다차선 촬영영역에 위치한 복수개의 이동객체를 영상촬영시킨다.In addition, zoom control is performed while zooming the multi-lane imaging area set on the multi-lane according to the small multi-lane imaging area modeling, the medium multi-lane imaging area modeling, and the large multi-lane imaging area modeling transmitted from the multi-lane imaging area generation module. Multiple moving objects located in the multi-lane imaging area are photographed.
다음, 줌카메라모듈에서 촬영된 빛의 정보를 전기적 신호로 변환시켜 다차선 영상촬영데이터를 생성시킨다.Next, multi-lane image photographing data is generated by converting information of light photographed by the zoom camera module into an electrical signal.
그리고 나서, 줌카메라모듈의 하부 일측에 위치되어, 특정파장의 레이저펄스를 다차선상에 출력시켜, 다차선 이동객체 탐지구간에 이동하는 이동객체를 탐지한 후, 탐지한 다차선 이동객체 탐지구간 데이터를 다차선 촬영영역 생성모듈로 전달시킨다.Then, it is located on the lower side of the zoom camera module, outputs a laser pulse of a specific wavelength on a multi-lane, detects a moving object moving in a multi-lane moving object detection section, and then detects the detected multi-lane moving object detection section data Is transferred to the multi-lane imaging area generation module.
그리고, 다차선상에 기준촬영영역을 설정시킨 후, 전달된 다차선 이동객체 탐지구간 데이터를 기반으로 다차선 위치한 이동객체에 매칭되는 소형 다차선 촬영영역모델링, 중형 다차선 촬영영역모델링, 대형 다차선 촬영영역모델링 중 어느 하나를 선택하여 기준촬영영역을 변경시켜 줌카메라모듈로 전달시킨다.Then, after setting the reference photographing area on the multi-lane, based on the transmitted multi-lane moving object detection section data, small multi-lane imaging area modeling, medium-sized multi-lane imaging area modeling, and large multi-lane matching the moving object located in the multi-lane By selecting one of the shooting area modeling, the reference shooting area is changed and transferred to the zoom camera module.
그래서, 이미지센서모듈로부터 전달된 다차선 영상촬영데이터를 입력받아 다차선에 위치한 복수개의 이동객체에 관한 차량번호를 동시에 검출시켜 번호인식시키도록 제어함으로서 달성된다.Thus, it is achieved by receiving multi-lane image photographing data transmitted from an image sensor module and controlling to recognize and recognize a vehicle number for a plurality of moving objects located in the multi-lane at the same time.
또 다른 한편으로, 부가하여 일반적으로 차량 번호판의 인식은 영상의 획득, 번호판 영역의 검출, 문자 인식의 3단계 과정으로 진행된다.On the other hand, in addition, in general, the recognition of the vehicle license plate proceeds in a three-step process of acquiring an image, detecting a license plate area, and recognizing a character.
이에 따라, 여기에서는 영상의 획득 단계에서, 여러 장의 연속된 입력 영상을 합성하는 방법을 사용하여 영상 입력 단계에서 발생되는 잡음을 없애고 선명도를 높인다.Accordingly, here, in the step of acquiring an image, a method of synthesizing several consecutive input images is used to remove noise generated in the image input step and to increase the clarity.
그 다음 입력 영상에서 문자로 판단되는 부분들의 위치가 번호판 규격에 명시된 문자들의 상대적 위치와 일치하는 정도를 확인하고, 위치가 일치한다고 판단되면 그 문자들이 존재하는 부분에 번호판이 존재한다고 판단하여 해당 영역을 번호판 영역으로 검출한다.Then, confirm the degree to which the positions of the parts judged as characters in the input image match the relative positions of the characters specified in the license plate specification. Is detected as the license plate area.
마지막으로 ART2 신경망에 문자의 윤곽선 패턴을 학습하여 번호판 내부의 문자를 인식하도록 한다.Lastly, by learning the outline pattern of letters in the ART2 neural network, the letters inside the license plate are recognized.
구체적으로는, ART2 신경회로망을 이용한 문자인식은 차량의 번호판이 영상의 촬영 각도나, 밝기, 주위 조명 등의 영향에 의해 동일한 번호판이라도 여러 가지 색상으로 보이거나 번호판 내부 문자가 변형되어 보이게 되므로 여러 가지 상황에 적응적으로 대응할 수 있다. 그리고, 스스로 계속적인 학습을 하는 신경회로망을 이용하여 문자를 인식한다.Specifically, the character recognition using the ART2 neural network is different because the license plate of the vehicle is displayed in various colors or the characters inside the license plate are deformed even if the same license plate is affected by the angle, brightness, and ambient lighting of the image. Can adaptively respond to the situation. Then, the character is recognized using a neural network that continuously learns by itself.
여기서는, 문자의 윤곽선 형태를 ART2 신경망의 입력 패턴으로 인식한다. 각 문자들은 문자를 둘러싸고 있는 사각형의 좌/우변에서부터의 거리를 연속적인 신호패턴으로 변경했을 때 서로 상이하다는 특징이 있다.Here, the outline shape of the character is recognized as the input pattern of the ART2 neural network. Each character is different from each other when the distance from the left/right sides of the rectangle surrounding the character is changed to a continuous signal pattern.
그래서, 문자의 중심을 세로로 반으로 나눈다. 그 다음 중심선과 문자의 좌측 외곽선 부분의 점들을 지난 수선의 거리를 문자의 상단부터 연속된 패턴으로 추출한다. 그 다음 문자의 우측 외곽선을 이루는 점들과 중심선들의 거리를 연속된 패턴으로 추출한다. 이렇게 추출된 윤곽선들은 서로 상이한 패턴의 아날로그 그래프 형태를 나타내게 된다.So, we divide the center of the text in half vertically. Then, the distance between the center line and the point of the left outline of the text and the line of the vertical line is extracted as a continuous pattern from the top of the text. Then, the distance between the points forming the right outline of the character and the center lines is extracted as a continuous pattern. The contours extracted in this way represent analog graphs of different patterns.
추가적으로, 일실시예에 따른 교통 영상감시시스템의 멀티 표적 추적 방법은 전술한 PLC와는 다른 형태로서, 외부 입출력 포트, 즉, 디지털 입력(Digital Input), 디지털 출력(Digital Output), 아날로그 입력(Analoge Input:4-20mA입력 등) 통신포트를 RS-485 통신포트, RS-232 통신포트, 랜(LAN)포트, 오디오포트 등을 카메라부에서 직접 처리할 수 있는 영상 감시 시스템을 제공할 수 있도록 한다.Additionally, the multi-target tracking method of the traffic image surveillance system according to an embodiment is different from the aforementioned PLC, and has an external input/output port, that is, a digital input, digital output, and analog input. : 4-20mA input, etc.) It is possible to provide a video surveillance system that can directly handle the communication port of the RS-485 communication port, RS-232 communication port, LAN port, audio port, etc. in the camera unit.
이를 위해, 일실시예에 따른 교통 영상감시시스템의 멀티 표적 추적 방법은 외부 계측 기기로부터 각각 아날로그 데이터와 디지털 데이터를 수신하는 데이터 수집부와, 이에 따른 상용의 CPU를 포함한다.To this end, the multi-target tracking method of the traffic image surveillance system according to an embodiment includes a data collection unit that receives analog data and digital data from external measurement devices, and a commercially available CPU.
상기 데이터 수집부는 아날로그 센서의 신호를 디지털 신호로 변환하는 ADC 컨버터와, 뷰어소프트웨어와 연동되어 전기적 입력을 받거나 출력으로 외부 센서를 제어하기 위한 GPIO 포트와, 상기 외부 계측기기로부터 디지털 데이터를 수신하기 위한 RS485 포트와, 상기 데이터 처리부와의 통신과 상기 뷰어소프트웨어와의 통신을 위한 RS232 포트 및 상기 ADC 컨버터, GPIO 포트, RS485 포트, RS232 포트와 연결되어 데이터를 처리하고 뷰어소프트웨어의 제어 명령을 수행하는 MCU를 포함할 수 있다.The data collection unit is an ADC converter that converts an analog sensor signal into a digital signal, a GPIO port for receiving an electrical input or controlling an external sensor as an output in conjunction with a viewer software, and for receiving digital data from the external measurement device. An MCU that is connected to the RS485 port, the RS232 port for communication with the data processing unit and the viewer software, and the ADC converter, GPIO port, RS485 port, and RS232 port to process data and perform control commands of the viewer software. It may include.
따라서, 이를 통해 외부 입출력 포트, 즉, 디지털 입력(Digital Input), 디지털 출력(Digital Output), 아날로그 입력(Analoge Input:4-20mA입력 등), RS-485 통신포트, RS232 통신포트, 랜(LAN)포트, 오디오(Audio) 포트 등을 카메라부에서 직접 처리하도록 하여 NVR회사마다 다른 사양을 협의할 필요가 없는 효과가 있다.Therefore, through this, an external input/output port, that is, digital input, digital output, analog input (4-20mA input, etc.), RS-485 communication port, RS232 communication port, LAN (LAN ) There is an effect that it is not necessary to negotiate different specifications for each NVR company by directly processing the camera port and audio port.
또한, 외부 계측 기기를 제어하기 위한 데이터출력(D/O(data out)), 접점 출력, 알람 등을 제어하기 위한 포트, 데이터 입력(D/I(data in)), 아날로그 입력(Analog Input:4-20mA입력 등)은 MCU에서 전처리하여 CPU에 전달하고, RS-485 통신 포트, 랜(LAN)포트, 오디오 포트 등을 두고, 다양한 포트에서 받아들인 외부 입력 데이터를 카In addition, data output (D/O (data out)) for controlling external measurement equipment, ports for controlling contact output, alarms, etc., data input (D/I (data in)), analog input (Analog Input: 4-20mA input, etc.) is pre-processed by the MCU and transmitted to the CPU, and puts RS-485 communication port, LAN port, audio port, etc., and receives external input data received from various ports.
메라에서 직접 데이터 트렌드화 하여 관리자가 쉽게 수위, 압력, 온도와 같은 데이터를 파악할 수 있으며, 이를 통하여 외부 시스템를 효율적으로 제어하는 방법을 제공하는 효과가 있다.By trending data directly from Mera, administrators can easily grasp data such as water level, pressure, and temperature, and this has the effect of providing a method for efficiently controlling external systems.
그리고, 이러한 경우 일실시예에 따른 교통 영상감시시스템의 멀티 표적 추적 방법은 외부 입출력 포트에 입력된 데이터를 카메라부의 메모리에 직접적으로 데이터베이스(DATABASE)화하여 이를 모니터에 영상으로 표출시 그래프 형식의 데이터 트렌드가 함께 표출되도록 한다.In this case, in the multi-target tracking method of the traffic image surveillance system according to an embodiment, the data input to the external input/output port is directly database (DATABASE) in the memory of the camera unit, and when it is displayed as an image on the monitor, graph-type data is displayed. Let the trends come together.
이를 위해, 일실시예에 따른 교통 영상감시시스템의 멀티 표적 추적 방법은 감시구역의 수집된 영상과 함께 처리된 수위, 온도, 압력 등의 아날로그 또는 디지털 데이터는 SD에 데이터베이스로 저장되어 영상과 함께 데이터베이스가 문자 또는 그래프 형식의 데이터 트렌드로 중앙관제센터의 화면에 표시될 수 있다.To this end, in the multi-target tracking method of the traffic image surveillance system according to an embodiment, analog or digital data such as water level, temperature, pressure, etc. processed together with the collected image of the surveillance area is stored in a database as a database in SD. A can be displayed on the screen of the central control center as a data trend in text or graph format.
화면에 표시되는 내용은 수위, 온도, 압력 등의 각종 상황에 대한 데이터베이The content displayed on the screen is a database for various situations such as water level, temperature, pressure, etc.
스가 영상과 함께 표출되며, 영상에 문자가 표출 될 시 글자의 문구, 문구 값의 단위, 문구의 화면 상 위치, 폰트, 색상 등으로 설정될 수 있으며, 경고 시, 표출 문구는 지정된 색으로 깜빡 깜빡거리거나, 글자는 지정된 색으로 가만히 있고 화면 전체가 컬러 또는 흑백의 지정된 색으로 깜빡 깜빡거리는 플리커링(flickering)의 경우 중 어느 하나로 표시되며, 영상에 각종 상황에 대한 데이터베이스를 그래프 형식의 데이터 트렌드로 표출 할 시 데이터의 문구, 단위, 색깔을 관리자가 설정한대로 표출할 수 있다. 또한 영상에 표출된 트렌드의 바를 원하는 시간에 이동하면 이동된 바가 위치한 트렌드의 시간의 값이 나타나고, 데이터의 확인 후 이동바 위에 위치한 데이터 값은 자동으로 사라지며, 경고 시, 표출 문구는 지정된 색으로 깜빡 깜빡거리거나, 글자는 지정된 색으로 가만히 있고 화면 전체가 컬러 또는 흑백의 지정된 색으로 깜빡 깜빡거리는 플리커링(flickering)의 경우 중 어느 하나로 표시되는 기능을 포함한다.Suga is displayed along with the video, and when text is displayed on the video, it can be set to the text of the text, the unit of the text value, the position of the text on the screen, font, color, etc. When the warning, the displayed text blinks in the specified color Distance or text is displayed in either of the flickering cases where the designated color remains in the specified color and the entire screen blinks in the specified color in color or black and white, and the database of various situations is displayed as a data trend in graph format on the image. When expressing, you can express the phrase, unit, and color of the data as set by the administrator. In addition, if the bar of the trend displayed on the image is moved at the desired time, the time value of the trend where the moved bar is located appears, and after checking the data, the data value located on the moving bar disappears automatically. It includes a function that is displayed in either flickering or flickering in which the text remains in a designated color and the entire screen flickers in a specified color in color or black and white.
상기 영상에 데이터 문자 및 그래프 형식의 데이터 트렌트를 표출 시 표출 방법을 설정하는 프로그램의 방법은 제너럴, 데이터아날로그(Data Analog), 데이터 디지털 입력(Digital Input), 디지털 출력(Digital Output)으로 구성된다.The method of the program for setting the display method when displaying data text and graph data trends in the image includes general, data analog, digital input, and digital output.
제너럴에서 일반적인 설정을 하며, 카메라부는 연결된 카메라부의 종류를 선택하는 것이고, 주소(Address)는 선택된 카메라부의 네트워크 주소, 프로토콜(Protocol)은 LS산전, 모드버스(Modbus), 프로피버스(Profibus) 등 카메라부(50)와 맞는 것으로 선택할 수 있으며, 통신(Communication)은 RS-232, RS485, 랜 통신 중 선택을 할 수 있으며 통신포트(Comm. Port)는 통신포트(Common Port) 단자 선택(COM1, COM2, ... , COM10), IP주소는 카메라의 IP 주소, 히스토리(History)의 트렌드(Trend)는 Live 또는 저장된 이전 데이터를 검색할 히스토리(History) 중 선택, 히스토리는 이전 데이터 검색의 날짜 선택, 주기(Period)는 검색 날짜 기간을General settings are made in general, and the camera part selects the type of the connected camera part, the address is the network address of the selected camera part, and the protocol is LS Industrial Systems, Modbus, Profibus, etc. It can be selected to match the unit 50, and communication can be selected among RS-232, RS485, and LAN communication, and the communication port (Comm. Port) selects the common port terminal (COM1, COM2) , ..., COM10), IP address is the camera's IP address, History's Trend is selected from Live or History to search for the previous data stored, History selects the date of the previous data search, Period means the search date period
선택할 수 있다.You can choose.
Analog에서는, 인에이블(Enable)은 표출 데이터의 사용 유무, 스트링(String)은 데이터 명칭, 메저(Measure)은 데이터 단위, X축은 화면에 문자를 표시할 X축의 좌표, Y축은 화면에 문자를 표시할 Y축의 좌표, 사이즈(Size)는 문자의 크기, 컬러(Color)는 문자의 색깔, 디스플레이상태(Display Status)는 Text 또는 트렌드(Trend) 중 선택, 최소범위(Range Min)은 데이터의 최소 수치, 최대범위(Range Max)는 데이터의 최고 수치, 디스플레이시간(Display Time)은 트렌드(Trend) 표출 시 트렌드(Trend) 좌표 중 시간 영역 X좌표를 설정한 시간으로 표출한다.In Analog, Enable is the presence or absence of display data, String is the data name, Measure is the data unit, X axis is the coordinate of the X axis to display characters on the screen, and Y axis is displaying characters on the screen. The coordinates of the Y-axis to be done, the size is the size of the text, the color is the color of the text, the display status is selected from Text or Trend, and the range Min is the minimum number of data. , Maximum range (Range Max) is the highest value of data, and display time (Trend) is displayed as the set time of the time domain X coordinate when displaying Trend.
디지털 입력(Digital Input)의 인에이블(Enable)은 표출 데이터의 사용 유무, 스트링(String)은 데이터 명칭, X축은 화면에 문자를 표시할 X축의 좌표, Y축은 화면에 문자를 표시할 Y축의 좌표, 사이즈(Size)는 문자의 크기, 컬러(Color)는 문자의 색깔, 이펙트(Effect)는 경보의 방법(글자의 빠른 깜빡임, 느린 깜빡임, 화면 깜빡임)을Enable of Digital Input is the use of display data, String is the data name, X axis is the coordinates of X axis to display characters on the screen, Y axis is the coordinates of Y axis to display characters on the screen. , Size is the size of the text, Color is the color of the text, Effect is the alarm method (Fast flashing of characters, Slow flashing, Screen flashing)
설정하고, 디스플레이상태(Display Status)는 Text 또는 트렌드(Trend) 중 선택, 디스플레이시간(DisplayTime)은 트렌드(Trend) 표출 시 트렌드(Trend) 좌표 중 시간 영역 X좌표를 설정한 시간으로 표출한다.Set, Display Status is selected from Text or Trend, and DisplayTime is displayed at the set time of the time domain X coordinate among Trend coordinates when displaying Trend.
디지털 출력(Digital Output)의 인에이블(Enable)은 표출 데이터의 사용 유무, 스트링(String)은 데이터 명칭, X축은 화면에 문자를 표시할 X축의 좌표, Y축은 화면에 문자를 표시할 Y축의 좌표, 사이즈(Size)는 문자의 크기, 컬러(Color)는 문자의 색깔, 이펙트(Effect)는 경보의 방법(글자의 빠른 깜빡임, 느린 깜빡임, 화면 깜빡임)을 설정하고, 제어상태(Control Status)는 제어시스템의 제어를 온/오프(ON/OFF) 중 선택하는 프로그램을 관리자 임의로 설정할 수 있는 기능을 포함한다.Enable of digital output is enable/disable of display data, string is data name, X axis is the coordinate of X axis to display characters on the screen, Y axis is the coordinate of Y axis to display characters on the screen , Size is the size of the text, Color is the color of the text, Effect is the alarm method (Fast flashing of characters, Slow flashing, Screen flashing), and Control Status Includes a function that allows the administrator to arbitrarily set a program for selecting control on/off (ON/OFF) of the control system.
100 : 카메라 장치 200 : 중앙관제센터
110 : 카메라 모듈 120 : DSP부
130 : 센서부 140 : PLC100: camera device 200: central control center
110: camera module 120: DSP unit
130: sensor unit 140: PLC
Claims (10)
교통감시시에 다수의 상이한 교통감시영역마다 각기 설치된 카메라장치별로 교통환경정보를 수집하는 제 1 단계;
상기 수집된 교통환경정보에서 객체 피처 메타데이터를 추출하는 제 2 단계;
상기 추출된 객체 피처 메타데이터에 따라 영상 패치의 피처값을 추출하는 미리 설정된 AI 포맷으로부터 객체 피처를 추출하는 제 3 단계;
상기 추출된 객체 피처로부터 객체 전체의 크기와 위치를 추정하는 미리 설정된 AI 포맷에 의해서 객체를 인식하는 제 4 단계; 및
상기 인식된 객체별로 추적하여 멀티 표적을 추적하는 제 5 단계; 를 포함하고,
상기 제 5 단계 후에,
상기 멀티 표적에 해당하는 객체에 대한 이상여부를 객체별 영상분포도에 의해 이상패턴을 감지하는 미리 설정된 객체이상패턴포맷에 의해 감지하는 제 6 단계; 를 더 포함하고,
상기 제 6 단계 후에,
상기 이상패턴이 감지된 후, 객체 정보, 목적별 정보, 개소별 정보, 시간대별 정보를 통합적으로 고려하여 객체마다 상이한 우선순위를 부여해서 이벤트 알림하는 제 7 단계; 를 더 포함하는 것을 특징으로 하는 교통 영상감시시스템의 멀티 표적 추적 방법.In the multi-target tracking method of the traffic surveillance system by the central control center,
A first step of collecting traffic environment information for each camera device installed in each of a plurality of different traffic monitoring areas during traffic monitoring;
A second step of extracting object feature metadata from the collected traffic environment information;
A third step of extracting an object feature from a preset AI format for extracting a feature value of an image patch according to the extracted object feature metadata;
A fourth step of recognizing an object by a preset AI format that estimates the size and position of the entire object from the extracted object feature; And
A fifth step of tracking multi-targets by tracking each recognized object; Including,
After the fifth step,
A sixth step of detecting whether an object corresponding to the multi-target is abnormal by a preset object abnormal pattern format that detects an abnormal pattern by an image distribution diagram for each object; Further comprising,
After the sixth step,
After the abnormal pattern is detected, a seventh step of notifying an event by assigning different priority to each object by collectively considering object information, information for each purpose, information for each location, and information for each time zone; Multi-target tracking method of the traffic surveillance system, characterized in that it further comprises.
상기 제 2 단계는
상기 수집된 교통환경정보에서 연속하여 입력되는 영상을 누적해서 배경 영상을 생성하는 제 2-1 단계;
상기 입력된 영상과 배경 영상을 비교하여 미리 설정된 값만큼의 차이가 나는 화소를 산출하는 제 2-2 단계;
상기 차이 값이 임계치 이상인 영역을 전경 영상으로 출력하여 획득하는 제 2-3 단계;
상기 전경 영상의 노이즈를 모폴로지 필터를 통해 삭제함으로써 제거하는 제 2-4 단계;
상기 노이즈가 제거된 전경 영상에서 객체 피처의 윤곽을 추출하는 제 2-5 단계;
미리 설정된 최소 크기 이하의 윤곽을 인접한 윤곽과 결합하여 단일 객체로 처리하는 제 2-6 단계;
상기 단일 객체를 순환 행렬의 특성을 이용하는 추적 프레임워크로 구성된 KCF 트래커로부터 색상 특징을 이용하여 명도 변화에 강인한 객체의 특징으로서 추적하는 제 2-7 단계;
상기 객체 추출 결과와 KCF 트래커의 예측 결과를 비교하여 객체의 영역과 위치를 보정하는 제 2-8 단계;
상기 보정은 보정 가중치를 객체 추출 결과와 KCF 트래커 예측 결과를 미리 설정된 N대 1로 하여 객체를 보정하는 제 2-9 단계;
CNN을 활용하여 딥 러닝 프레임워크로 구성 및 학습하여 객체를 분류하는 제 2-10 단계; 및
상기 분류된 객체에서의 피처 메타데이터를 생성함으로써 추출하는 제 2-11 단계; 를 포함하는 것을 특징으로 하는 교통 영상감시시스템의 멀티 표적 추적 방법.The method according to claim 1,
The second step
A 2-1 step of accumulating images continuously input from the collected traffic environment information to generate a background image;
A 2-2 step of comparing the input image and the background image and calculating pixels having a difference by a preset value;
A second 2-3 step of obtaining an area in which the difference value is greater than or equal to a threshold as a foreground image;
2-4 steps of removing noise of the foreground image by deleting it through a morphology filter;
2-5 steps of extracting an outline of an object feature from the noise-free foreground image;
Steps 2-6 of combining a contour having a predetermined minimum size or less with an adjacent contour as a single object;
Steps 2-7 of tracking the single object as a characteristic of an object robust to a change in brightness by using a color feature from a KCF tracker composed of a tracking framework that uses the characteristics of a circular matrix;
Steps 2-8 of correcting the region and position of the object by comparing the object extraction result with the prediction result of the KCF tracker;
The correction comprises the steps 2-9 of correcting the object by setting the correction weight as the object extraction result and the KCF tracker prediction result as a preset N to 1;
2-10 steps of classifying objects by constructing and learning into a deep learning framework using CNN; And
2-11, extracting by generating feature metadata in the classified object; Multi-target tracking method of the traffic surveillance system, characterized in that it comprises a.
상기 제 2-10 단계는
관제할 객체분류, 영역, 일시의 데이터를 포함한 객체의 메타데이터에 의해 데이터 분포를 작성하고 화면 내에서 객체의 활동영역을 특정화하여 감시 여부를 설정함으로써, 빅데이터 패턴을 분석하는 제 2-10-1 단계; 및
상기 빅데이터 패턴의 분석 후, CCTV의 영상에서 객체를 추적하여 고유 객체의 움직임 패턴, 속도 패턴에 의해 상시 객체의 움직임, 속도를 분석해서 감지 여부를 설정함으로써, 움직임 패턴을 분석하는 제 2-10-2 단계; 를 포함하는 것을 특징으로 하는 교통 영상감시시스템의 멀티 표적 추적 방법.The method according to claim 2,
Steps 2-10 are
2-10- Analyzing Big Data Patterns by Creating Data Distribution Based on Object Metadata including Object Classification, Area, and Date to Control and Setting Whether to Monitor by Specifying the Object's Activity Area on the Screen Step 1; And
After analyzing the big data pattern, 2-10 to analyze the motion pattern by tracking the object in the CCTV image and setting whether to detect it by analyzing the motion and speed of the object at all times based on the motion pattern and speed pattern of the unique object -2 steps; Multi-target tracking method of the traffic surveillance system, characterized in that it comprises a.
상기 제 4 단계는
상기 AI 포맷이 다수의 상이한 차량 피처별로 각 피처의 전체 크기와 위치를 추정하여 조합함으로써 차량 전체의 크기와 위치를 추정하여 된 것; 을 특징으로 하는 교통 영상감시시스템의 멀티 표적 추적 방법.The method according to claim 1,
The fourth step
The AI format is obtained by estimating the overall size and position of each feature for a plurality of different vehicle features and estimating and combining the entire vehicle size; Multi-target tracking method of the traffic surveillance system, characterized in that.
상기 카메라 장치는
미리 설정된 교통감시영역의 영상을 촬영하는 카메라 모듈;
상기 촬영된 영상을 디지털 신호 처리하는 DSP부;
상기 교통감시영역의 주변 환경 정보를 감지하는 센서부;
상기 DSP부에 의해 처리된 결과를 미리 등록된 중앙관제센터로 제공하도록 하고, 상기 센서부에 의해 감지된 교통감시영역의 주변 환경 정보를 통합적으로 I/O처리하여 상기 중앙관제센터로 제공하도록 하고, 미리 등록된 제어대상에 전달하는 PLC; 를 포함하고 있으며,
상기 PLC는
자체 IOT모듈을 구비하여 상기 IOT모듈에 의해서 상기 제공된 DSP부의 처리된 결과와 교통감시영역의 주변 환경 정보를 상기 중앙관제센터로 제공하는 것; 을 특징으로 하는 교통 영상감시시스템의 멀티 표적 추적 방법.The method according to claim 1,
The camera device
A camera module for photographing an image of a preset traffic monitoring area;
DSP unit for digitally processing the photographed image;
A sensor unit that detects surrounding environment information of the traffic monitoring area;
The result processed by the DSP unit is provided to a pre-registered central control center, and the surrounding environment information of the traffic monitoring area detected by the sensor unit is integrated and processed to be provided to the central control center. , PLC to be transmitted to a pre-registered control target; It contains,
The PLC
Providing its own IOT module and providing processed results of the DSP unit provided by the IOT module and surrounding environment information of a traffic monitoring area to the central control center; Multi-target tracking method of the traffic surveillance system, characterized in that.
상기 IOT모듈은
자체 TTS엔진을 구비하여 상기 교통감시영역의 주변 환경 정보별로 대응하는 음성정보에 따라 음성 알람을 하는 것; 을 특징으로 하는 교통 영상감시시스템의 멀티 표적 추적 방법.The method according to claim 8,
The IOT module
Equipped with its own TTS engine to perform a voice alarm according to the voice information corresponding to the surrounding environment information of the traffic monitoring area; Multi-target tracking method of the traffic surveillance system, characterized in that.
상기 IOT모듈은
교통분석 또는 차량번호 인식과 관련된 외부 음성을 입력받아 노이즈 캔슬링을 수행하고 오디오 출력을 하는 것; 을 특징으로 하는 교통 영상감시시스템의 멀티 표적 추적 방법.The method according to claim 8 or claim 9,
The IOT module
Receiving an external voice related to traffic analysis or vehicle number recognition to perform noise canceling and audio output; Multi-target tracking method of the traffic surveillance system, characterized in that.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200026315A KR102122859B1 (en) | 2020-03-03 | 2020-03-03 | Method for tracking multi target in traffic image-monitoring-system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200026315A KR102122859B1 (en) | 2020-03-03 | 2020-03-03 | Method for tracking multi target in traffic image-monitoring-system |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102122859B1 true KR102122859B1 (en) | 2020-06-15 |
Family
ID=71081720
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200026315A KR102122859B1 (en) | 2020-03-03 | 2020-03-03 | Method for tracking multi target in traffic image-monitoring-system |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102122859B1 (en) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113092807A (en) * | 2021-04-21 | 2021-07-09 | 上海浦江桥隧运营管理有限公司 | Urban elevated road vehicle speed measuring method based on multi-target tracking algorithm |
KR102282800B1 (en) * | 2021-03-30 | 2021-07-28 | (주)케이에스아이 | Method for trackig multi target employing ridar and camera |
CN113516068A (en) * | 2021-07-07 | 2021-10-19 | 智能移动机器人(中山)研究院 | Obstacle detection and personnel following algorithm based on binocular vision |
CN113674321A (en) * | 2021-08-25 | 2021-11-19 | 燕山大学 | Cloud-based multi-target tracking method under surveillance video |
KR20210158037A (en) * | 2020-06-23 | 2021-12-30 | 동명대학교산학협력단 | Method for tracking multi target in traffic image-monitoring-system |
KR102345798B1 (en) * | 2021-03-18 | 2022-01-04 | (주)에이아이매틱스 | Intersection signal violation recognition and image storage device |
CN114333097A (en) * | 2021-12-16 | 2022-04-12 | 上海海神机器人科技有限公司 | Linkage type camera shooting security protection warning system and monitoring method |
KR20220145123A (en) * | 2021-04-21 | 2022-10-28 | 국방과학연구소 | Method and apparatus for tracking multiple targets using artificial neural networks |
US11669565B2 (en) | 2021-02-22 | 2023-06-06 | Si Analytics Co., Ltd. | Method and apparatus for tracking object |
CN116665188A (en) * | 2023-07-20 | 2023-08-29 | 南京博融汽车电子有限公司 | Bus image system data analysis method |
CN118015844A (en) * | 2024-04-10 | 2024-05-10 | 成都航空职业技术学院 | Traffic dynamic control method and system based on deep learning network |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20050005324A (en) * | 2003-07-01 | 2005-01-13 | 이철주 | a unit provide with information of traffic situation |
KR20050114916A (en) * | 2004-06-02 | 2005-12-07 | (주)에이직뱅크 | Network camera apparatus having a traffic information collection and addition function and the traffic information process method |
JP2018190082A (en) * | 2017-04-28 | 2018-11-29 | 株式会社東芝 | Vehicle model discrimination device, vehicle model discrimination method, and vehicle model discrimination system |
JP2020035091A (en) * | 2018-08-28 | 2020-03-05 | 株式会社Nttドコモ | Traffic situation prediction device |
-
2020
- 2020-03-03 KR KR1020200026315A patent/KR102122859B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20050005324A (en) * | 2003-07-01 | 2005-01-13 | 이철주 | a unit provide with information of traffic situation |
KR20050114916A (en) * | 2004-06-02 | 2005-12-07 | (주)에이직뱅크 | Network camera apparatus having a traffic information collection and addition function and the traffic information process method |
JP2018190082A (en) * | 2017-04-28 | 2018-11-29 | 株式会社東芝 | Vehicle model discrimination device, vehicle model discrimination method, and vehicle model discrimination system |
JP2020035091A (en) * | 2018-08-28 | 2020-03-05 | 株式会社Nttドコモ | Traffic situation prediction device |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210158037A (en) * | 2020-06-23 | 2021-12-30 | 동명대학교산학협력단 | Method for tracking multi target in traffic image-monitoring-system |
KR102434154B1 (en) * | 2020-06-23 | 2022-08-18 | 동명대학교산학협력단 | Method for tracking multi target in traffic image-monitoring-system |
US11669565B2 (en) | 2021-02-22 | 2023-06-06 | Si Analytics Co., Ltd. | Method and apparatus for tracking object |
WO2022197042A1 (en) * | 2021-03-18 | 2022-09-22 | (주)에이아이매틱스 | Illegal intersection entry recognition and image storage device |
KR102345798B1 (en) * | 2021-03-18 | 2022-01-04 | (주)에이아이매틱스 | Intersection signal violation recognition and image storage device |
KR102282800B1 (en) * | 2021-03-30 | 2021-07-28 | (주)케이에스아이 | Method for trackig multi target employing ridar and camera |
KR102630236B1 (en) * | 2021-04-21 | 2024-01-29 | 국방과학연구소 | Method and apparatus for tracking multiple targets using artificial neural networks |
CN113092807A (en) * | 2021-04-21 | 2021-07-09 | 上海浦江桥隧运营管理有限公司 | Urban elevated road vehicle speed measuring method based on multi-target tracking algorithm |
KR20220145123A (en) * | 2021-04-21 | 2022-10-28 | 국방과학연구소 | Method and apparatus for tracking multiple targets using artificial neural networks |
CN113092807B (en) * | 2021-04-21 | 2024-05-14 | 上海浦江桥隧运营管理有限公司 | Urban overhead road vehicle speed measuring method based on multi-target tracking algorithm |
CN113516068A (en) * | 2021-07-07 | 2021-10-19 | 智能移动机器人(中山)研究院 | Obstacle detection and personnel following algorithm based on binocular vision |
CN113674321A (en) * | 2021-08-25 | 2021-11-19 | 燕山大学 | Cloud-based multi-target tracking method under surveillance video |
CN113674321B (en) * | 2021-08-25 | 2024-05-17 | 燕山大学 | Cloud-based method for multi-target tracking under monitoring video |
CN114333097A (en) * | 2021-12-16 | 2022-04-12 | 上海海神机器人科技有限公司 | Linkage type camera shooting security protection warning system and monitoring method |
CN116665188A (en) * | 2023-07-20 | 2023-08-29 | 南京博融汽车电子有限公司 | Bus image system data analysis method |
CN116665188B (en) * | 2023-07-20 | 2023-10-10 | 南京博融汽车电子有限公司 | Bus image system data analysis method |
CN118015844A (en) * | 2024-04-10 | 2024-05-10 | 成都航空职业技术学院 | Traffic dynamic control method and system based on deep learning network |
CN118015844B (en) * | 2024-04-10 | 2024-06-11 | 成都航空职业技术学院 | Traffic dynamic control method and system based on deep learning network |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102122859B1 (en) | Method for tracking multi target in traffic image-monitoring-system | |
CN109686109B (en) | Parking lot safety monitoring management system and method based on artificial intelligence | |
KR102122850B1 (en) | Solution for analysis road and recognition vehicle license plate employing deep-learning | |
KR102131716B1 (en) | Method for image monotoring employing car number recognition technology | |
US6985172B1 (en) | Model-based incident detection system with motion classification | |
KR102174556B1 (en) | Apparatus for monitoring image to control traffic information employing Artificial Intelligence and vehicle number | |
KR101877294B1 (en) | Smart cctv system for crime prevention capable of setting multi situation and recognizing automatic situation by defining several basic behaviors based on organic relation between object, area and object's events | |
KR102095685B1 (en) | vehicle detection method and device | |
CN103069434B (en) | For the method and system of multi-mode video case index | |
CN107705574A (en) | A kind of precisely full-automatic capturing system of quick road violation parking | |
KR102282800B1 (en) | Method for trackig multi target employing ridar and camera | |
CN111629181B (en) | Fire-fighting life passage monitoring system and method | |
US20030053659A1 (en) | Moving object assessment system and method | |
KR102434154B1 (en) | Method for tracking multi target in traffic image-monitoring-system | |
US11587327B2 (en) | Methods and systems for accurately recognizing vehicle license plates | |
KR102403170B1 (en) | Apparatus for monitoring image employing to detect of vehicle number and cotrolling device | |
EP1399889A1 (en) | Method for monitoring a moving object and system regarding same | |
Kulkarni et al. | Real time vehicle detection, tracking and counting using Raspberry-Pi | |
CN102867417A (en) | Taxi anti-forgery system and taxi anti-forgery method | |
CN104134067A (en) | Road vehicle monitoring system based on intelligent visual Internet of Things | |
CN112084892B (en) | Road abnormal event detection management device and method thereof | |
CN112257683A (en) | Cross-mirror tracking method for vehicle running track monitoring | |
Munasinghe et al. | Smart Traffic Light Control System Based on Traffic Density and Emergency Vehicle Detection | |
Faraj et al. | Intelligent traffic congestion control system using machine learning and wireless network | |
Neto et al. | Computer-vision-based surveillance of intelligent transportation systems |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |