Nothing Special   »   [go: up one dir, main page]

KR102600303B1 - Monitoring system and operating method thereof - Google Patents

Monitoring system and operating method thereof Download PDF

Info

Publication number
KR102600303B1
KR102600303B1 KR1020180154314A KR20180154314A KR102600303B1 KR 102600303 B1 KR102600303 B1 KR 102600303B1 KR 1020180154314 A KR1020180154314 A KR 1020180154314A KR 20180154314 A KR20180154314 A KR 20180154314A KR 102600303 B1 KR102600303 B1 KR 102600303B1
Authority
KR
South Korea
Prior art keywords
sub
vehicle
wake
signal
monitoring system
Prior art date
Application number
KR1020180154314A
Other languages
Korean (ko)
Other versions
KR20200067447A (en
Inventor
한태곤
Original Assignee
현대모비스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대모비스 주식회사 filed Critical 현대모비스 주식회사
Priority to KR1020180154314A priority Critical patent/KR102600303B1/en
Publication of KR20200067447A publication Critical patent/KR20200067447A/en
Application granted granted Critical
Publication of KR102600303B1 publication Critical patent/KR102600303B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • B60R21/0134Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to imminent contact with an obstacle, e.g. using radar systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R25/00Fittings or systems for preventing or indicating unauthorised use or theft of vehicles
    • B60R25/10Fittings or systems for preventing or indicating unauthorised use or theft of vehicles actuating a signalling device
    • B60R25/102Fittings or systems for preventing or indicating unauthorised use or theft of vehicles actuating a signalling device a signal being sent to a remote location, e.g. a radio signal being transmitted to a police station, a security company or the owner
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/008Registering or indicating the working of vehicles communicating information to a remotely located station
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • G07C5/0841Registering performance data
    • G07C5/085Registering performance data using electronic data carriers
    • G07C5/0866Registering performance data using electronic data carriers the electronic data carrier being a digital video recorder in combination with video camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • B60W2420/42
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/50Magnetic or electromagnetic sensors
    • B60W2420/506Inductive sensors, i.e. passive wheel sensors
    • B60W2420/62
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • Transportation (AREA)
  • Multimedia (AREA)
  • Mathematical Physics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 발명은 차량 주변의 물체 출현을 모니터링하고 이벤트 발생 시 물체를 저장하고 사용자 단말기에 전송하는 모니터링 시스템 및 그의 동작 방법에 관한 것이다.
본 발명의 일 실시 예에 따른 모니터링 시스템은, 차량 주변의 물체 출현을 감지하는 제1 서브장치와, 제1 서브장치로부터의 제1 웨이크업 신호 수신에 의해 동작을 개시하여 물체를 추적하고, 물체의 출현 시간을 카운트하는 제2 서브장치와, 제2 서브장치로부터의 제2 웨이크업 신호 수신에 의해 동작을 개시하여 물체를 촬영하여 저장하는 메인장치를 포함한다.
The present invention relates to a monitoring system and operating method for monitoring the appearance of objects around a vehicle, storing the objects when an event occurs, and transmitting the objects to a user terminal.
The monitoring system according to an embodiment of the present invention includes a first sub-device that detects the appearance of an object around the vehicle, initiates operation by receiving a first wake-up signal from the first sub-device, and tracks the object. It includes a second sub-device that counts the appearance time of the object, and a main device that starts operation upon receiving a second wake-up signal from the second sub-device and photographs and stores the object.

Description

모니터링 시스템 및 그의 동작 방법{MONITORING SYSTEM AND OPERATING METHOD THEREOF}Monitoring system and operating method thereof {MONITORING SYSTEM AND OPERATING METHOD THEREOF}

본 발명은 차량 주변의 물체 출현을 모니터링하고 이벤트 발생 시 물체를 저장하고 사용자 단말기에 전송하는 모니터링 시스템 및 그의 동작 방법에 관한 것이다.The present invention relates to a monitoring system and operating method for monitoring the appearance of objects around a vehicle, storing the objects when an event occurs, and transmitting the objects to a user terminal.

일반적으로 블랙박스는 주차 중일 때, 차량 주변의 충격이나 움직임이 감지되면 영상을 촬영하여 저장하는 방식으로 구현되어 있다. 최근 개발된 블랙박스는 레이다 또는 라이다를 사용하여 특정 거리를 감지하고, 특정 거리 내에 들어오면 블랙박스에서 영상을 촬영하여 저장하는 방식을 사용하고 있다.In general, black boxes are implemented in a way that captures and stores images when an impact or movement around the vehicle is detected while the vehicle is parked. The recently developed black box uses radar or lidar to detect a specific distance, and when it comes within a certain distance, the black box captures and stores images.

전술한 배경기술은 발명자가 본 발명의 도출을 위해 보유하고 있었거나, 본 발명의 도출 과정에서 습득한 기술 정보로서, 반드시 본 발명의 출원 전에 일반 공중에게 공개된 공지기술이라 할 수는 없다.The above-mentioned background technology is technical information that the inventor possessed for deriving the present invention or acquired in the process of deriving the present invention, and cannot necessarily be said to be known art disclosed to the general public before filing the application for the present invention.

국내 공개특허공보 제2015-0029139호Domestic Patent Publication No. 2015-0029139

본 발명은 전술한 문제점 및/또는 한계를 해결하기 위해 안출된 것으로, 일 측면에 따른 본 발명의 목적은 레이더 또는 라이다와 같은 감지부를 이용하여 차량을 관리하고 외부 위험을 미리 감지하여 운전자에게 통보하는데 있다.The present invention was made to solve the above-mentioned problems and/or limitations, and the purpose of the present invention according to one aspect is to manage the vehicle using a detection unit such as radar or LiDAR, detect external hazards in advance, and notify the driver. I'm doing it.

또한 기존 레이다 또는 라이다 감지 또는 모션 감지는 사람이 많이 다니는 길일 경우 수시로 카메라가 작동되므로 차량 배터리가 빨리 소모되었으나, 다른 측면에 따른 본 발명의 목적은 수상한 행동이 감지된 경우 카메라를 작동하여 영상을 촬영하여 배터리 소모를 줄이는데 있다.In addition, in the case of existing radar or lidar detection or motion detection, the camera is activated from time to time on a road with many people, so the vehicle battery is drained quickly. However, the purpose of the present invention according to another aspect is to operate the camera when suspicious activity is detected to record the image. The aim is to reduce battery consumption by taking pictures.

본 발명의 일 실시 예에 따른 모니터링 시스템은, 차량 주변의 물체 출현을 감지하는 제1 서브장치; 상기 제1 서브장치로부터의 제1 웨이크업 신호 수신에 의해 동작을 개시하여 상기 물체를 추적하고, 상기 물체의 출현 시간을 카운트하는 제2 서브장치; 및 상기 제2 서브장치로부터의 제2 웨이크업 신호 수신에 의해 동작을 개시하여 상기 물체를 촬영하여 저장하는 메인장치;를 포함할 수 있다.A monitoring system according to an embodiment of the present invention includes a first sub-device that detects the appearance of objects around a vehicle; a second sub-device that starts operation upon receiving a first wake-up signal from the first sub-device to track the object and counts the appearance time of the object; and a main device that starts operation upon receiving a second wake-up signal from the second sub-device and photographs and stores the object.

상기 제1 서브장치는, 상기 차량의 주변에 물체가 출현하면 상기 제1 웨이크업 신호를 생성하여 상기 제2 서브장치로 전송할 수 있다.The first sub-device may generate the first wake-up signal and transmit it to the second sub-device when an object appears around the vehicle.

상기 제2 서브장치는, 상기 물체의 추적 결과 및 상기 물체의 출현 시간 카운트 결과가 이벤트 생성 조건을 만족하는 경우 상기 제2 웨이크업 신호를 생성하여 상기 메인장치로 전송할 수 있다.The second sub-device may generate the second wake-up signal and transmit it to the main device when the tracking result of the object and the count result of the appearance time of the object satisfy event generation conditions.

상기 메인장치는, 상기 제2 웨이크업 신호에 의해 동작을 개시하여 촬영한 상기 물체의 영상을 사용자 단말기로 전송할 수 있다.The main device may initiate operation by the second wake-up signal and transmit the captured image of the object to the user terminal.

본 발명의 일 실시 예에 따른 모니터링 시스템의 동작 방법은, 제1 서브장치에 의해, 차량 주변의 물체 출현을 감지하는 단계; 제2 서브장치에 의해, 상기 제1 서브장치로부터의 제1 웨이크업 신호 수신에 의해 동작을 개시하여 상기 물체를 추적하고, 상기 물체의 출현 시간을 카운트하는 단계; 및 상기 제2 서브장치로부터의 제2 웨이크업 신호 수신에 의해 동작을 개시하여 상기 물체를 촬영하여 저장하는 단계;를 포함할 수 있다.A method of operating a monitoring system according to an embodiment of the present invention includes detecting the appearance of an object around a vehicle by a first sub-device; Initiating an operation by a second sub-device upon receiving a first wake-up signal from the first sub-device to track the object and counting the appearance time of the object; and initiating an operation by receiving a second wake-up signal from the second sub-device to photograph and store the object.

상기 방법은, 상기 제1 서브장치에 의해, 상기 차량의 주변에 물체가 출현하면 상기 제1 웨이크업 신호를 생성하여 상기 제2 서브장치로 전송하는 단계;를 더 포함할 수 있다.The method may further include generating, by the first sub-device, the first wake-up signal when an object appears around the vehicle and transmitting the first wake-up signal to the second sub-device.

상기 방법은, 상기 제2 서브장치에 의해, 상기 물체의 추적 결과 및 상기 물체의 출현 시간 카운트 결과가 이벤트 생성 조건을 만족하는 경우 상기 제2 웨이크업 신호를 생성하여 상기 메인장치로 전송하는 단계;를 더 포함할 수 있다.The method includes generating, by the second sub-device, the second wake-up signal and transmitting it to the main device when the tracking result of the object and the count result of the appearance time of the object satisfy event generation conditions; It may further include.

상기 방법에서, 상기 메인장치는 상기 제2 웨이크업 신호에 의해 동작을 개시하여 촬영한 상기 물체의 영상을 사용자 단말기로 전송하는 단계;를 더 포함할 수 있다.In the method, the main device may further include starting an operation by the second wake-up signal and transmitting the captured image of the object to the user terminal.

이 외에도, 본 발명을 구현하기 위한 다른 방법, 다른 시스템 및 상기 방법을 실행하기 위한 컴퓨터 프로그램이 더 제공될 수 있다.In addition to this, other methods for implementing the present invention, other systems, and computer programs for executing the methods may be further provided.

전술한 것 외의 다른 측면, 특징, 이점이 이하의 도면, 특허청구범위 및 발명의 상세한 설명으로부터 명확해질 것이다.Other aspects, features and advantages in addition to those described above will become apparent from the following drawings, claims and detailed description of the invention.

실시 예들에 따르면, 레이더 또는 라이다와 같은 감지부를 이용하여 차량을 관리하고 외부 위험을 미리 감지하여 운전자에게 통보할 수 있다.According to embodiments, the vehicle can be managed using a detection unit such as radar or LiDAR, and external risks can be detected in advance and notified to the driver.

또한 수상한 행동이 감지된 경우 카메라를 작동하여 영상을 촬영하여 배터리 소모를 줄일 수 있다.Additionally, when suspicious activity is detected, the camera can be activated to record video to reduce battery consumption.

본 발명의 효과는 이상에서 언급된 것들에 한정되지 않으며, 언급되지 아니한 다른 효과들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to those mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description below.

도 1은 본 발명의 일 실시 예에 따른 모니터링 시스템을 개략적으로 설명하기 위하여 도시한 도면이다.
도 2는 도 1의 개인 모니터링 시스템 중 메인장치의 동작을 개시하는 이벤트 발생 조건을 개략적으로 설명하기 위하여 도시한 도면이다.
도 3은 도 1의 모니터링 시스템에서 각 장치에 사용되는 배터리 소모량을 개략적으로 설명하기 위하여 도시한 도면이다.
도 4는 본 발명의 일 실시 예에 따른 모니터링 시스템의 동작 방법을 설명하기 위한 흐름도이다.
1 is a diagram schematically illustrating a monitoring system according to an embodiment of the present invention.
FIG. 2 is a diagram schematically illustrating the event occurrence conditions that initiate the operation of the main device in the personal monitoring system of FIG. 1.
FIG. 3 is a diagram schematically illustrating the battery consumption used for each device in the monitoring system of FIG. 1.
Figure 4 is a flowchart for explaining a method of operating a monitoring system according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 설명되는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 아래에서 제시되는 실시 예들로 한정되는 것이 아니라, 서로 다른 다양한 형태로 구현될 수 있고, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 아래에 제시되는 실시 예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.The advantages and features of the present invention and methods for achieving them will become clear by referring to the embodiments described in detail together with the accompanying drawings. However, the present invention is not limited to the embodiments presented below, but may be implemented in various different forms, and should be understood to include all conversions, equivalents, and substitutes included in the spirit and technical scope of the present invention. . The embodiments presented below are provided to ensure that the disclosure of the present invention is complete and to fully inform those skilled in the art of the scope of the invention. In describing the present invention, if it is determined that a detailed description of related known technologies may obscure the gist of the present invention, the detailed description will be omitted.

본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.The terms used in this application are only used to describe specific embodiments and are not intended to limit the invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this application, terms such as “comprise” or “have” are intended to designate the presence of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification, but are not intended to indicate the presence of one or more other features. It should be understood that this does not exclude in advance the possibility of the existence or addition of elements, numbers, steps, operations, components, parts, or combinations thereof. Terms such as first, second, etc. may be used to describe various components, but the components should not be limited by these terms. The above terms are used only for the purpose of distinguishing one component from another.

이하, 본 발명에 따른 실시 예들을 첨부된 도면을 참조하여 상세히 설명하기로 하며, 첨부 도면을 참조하여 설명함에 있어, 동일하거나 대응하는 구성 요소는 동일한 도면번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, embodiments according to the present invention will be described in detail with reference to the accompanying drawings. In the description with reference to the accompanying drawings, identical or corresponding components are assigned the same drawing numbers and duplicate descriptions thereof are omitted. I decided to do it.

도 1은 본 발명의 일 실시 예에 따른 모니터링 시스템을 개략적으로 설명하기 위하여 도시한 도면이다. 도 1을 참조하면, 모니터링 시스템(1)은 제1 서브장치(100), 제2 서브장치(200) 및 메인장치(300)를 포함할 수 있다.1 is a diagram schematically illustrating a monitoring system according to an embodiment of the present invention. Referring to FIG. 1, the monitoring system 1 may include a first sub-device 100, a second sub-device 200, and a main device 300.

제1 서브장치(100)는 차량 주변의 물체 출현을 감지할 수 있다. 일 실시 예로 제1 서브장치(100)는 레이저 센서(미도시) 또는 레이더 센서(미도시) 또는 라이다 장치(미도시) 등을 포함할 수 있다. 레이저 센서는 여러 분야에서 다양하게 이용되고 있고, 보안시스템에 많이 사용되며, 조립라인에서 움직이는 물체의 위치와 방향을 측정하는데 사용되기도 한다. 또한, 레이저 센서는 센서에서 물체까지의 거리를 측정하는데 사용되기도 하며, 물체가 존재하는지의 여부, 존재한다면 그 거리 등과 같은 정보를 획득할 수 있다. 레이저 센서는 홈/빌딩 시큐리티, 관공서/문화재 침입 감시, 지하철 등 공공시설의 비가시 펜스, 공사 측량 등 다양한 분야에 사용되며, 최근 차량에 탑재되어 운전환경(도로, 다른 차량 등)을 센싱하는 라이다(LIDAR: light detection and ranging) 장치에 사용되고 있다. 레이더 센서는 마이크로파(극초단파, 10cm-100cm 파장) 정도의 전자기파를 물체에 송신하고 그 물체로부터 반사되는 전자기파를 수신하여 물체와의 거리, 방향, 고도 등을 측정할 수 있다.The first sub-device 100 can detect the appearance of objects around the vehicle. As an example, the first sub-device 100 may include a laser sensor (not shown), a radar sensor (not shown), or a LiDAR device (not shown). Laser sensors are widely used in various fields, are widely used in security systems, and are also used to measure the position and direction of moving objects on assembly lines. Additionally, a laser sensor can be used to measure the distance from the sensor to an object, and can obtain information such as whether the object exists and, if so, the distance. Laser sensors are used in various fields such as home/building security, monitoring of intrusion into government offices/cultural properties, invisible fences in public facilities such as subways, and construction surveying. Recently, they have been installed in vehicles to sense the driving environment (roads, other vehicles, etc.). It is used in LIDAR (light detection and ranging) devices. A radar sensor transmits electromagnetic waves of the order of microwaves (microwaves, 10cm-100cm wavelength) to an object and receives electromagnetic waves reflected from the object to measure the distance, direction, altitude, etc. from the object.

라이다 장치는 발광부(미도시)에서 광원에서 레이저가 출발한 때부터 물체에 반사되어 수신부(미도시)로 입사되는 때까지의 시간(즉, 비행시간: time of flight)을 측정하여 물체와의 거리를 산출할 수 있으며, 수신부에서 얼마나 정밀하게 비행시간을 측정하느냐에 따라 센서의 정밀도가 달라질 수 있다. 또한, 물체가 원거리에 위치하거나 반사계수가 매우 적을 경우, 물체에 반사되어 수신부에 입사하는 레이저의 세기가 약하므로 물체의 반사계수 차이에 따라 물체와 센서 사이의 측정거리에 오차가 발생할 수 있으며, 이러한 오차는 차량에 적용되는 라이다 장치와 같이 높은 신뢰도를 필요로 하는 분야에서 반드시 제거되어야 한다.The LiDAR device measures the time (i.e., time of flight) from the time the laser departs from the light source in the light emitting unit (not shown) until it is reflected by the object and enters the receiving unit (not shown). The distance can be calculated, and the sensor's precision can vary depending on how precisely the receiver measures the flight time. In addition, if the object is located at a long distance or the reflection coefficient is very small, the intensity of the laser reflected by the object and incident on the receiver is weak, so an error may occur in the measurement distance between the object and the sensor depending on the difference in the reflection coefficient of the object. These errors must be eliminated in fields that require high reliability, such as lidar devices applied to vehicles.

제2 서브장치(200)는 제1 서브장치(100)로부터의 제1 웨이크업 신호 수신에 의해 동작을 개시하여 물체를 추적하고, 물체 출현 시간을 카운트할 수 있는, 예를 들어, 서브 제어부를 포함할 수 있다. 여기서 제1 웨이크업 신호는 물체가 출현하는 경우 제1 서브장치(100)에서 생성하여 제2 서브장치(200)로 전송되는 신호를 포함할 수 있다. 예를 들어, 제1 서브장치(100)는 제2 서브장치(200)로 물체의 출현 여부에 관계없이 감지신호를 전송하는데, 물체가 출현하지 않았을 때의 감지신호와, 물체가 출현했을 때의 감지신호(제1 웨이크업 신호)가 서로 다르기 때문에 제2 서브장치(200)는 제1 서브장치(100)로부터의 감지신호로부터 물체 출현여부를 감지하고 동작을 개시할 수 있다. 제2 서브장치(200)는 평상 시에는 슬립모드로 동작을 대기하고 있다가 제1 서브장치(100)로부터 제1 웨이크업 신호가 수신되면 활성화모드로 변환되어 물체를 추적하고, 물체의 출현시간을 카운트할 수 있다.The second sub-device 200 starts operation by receiving the first wake-up signal from the first sub-device 100, tracks the object, and has a sub-controller capable of counting the object appearance time. It can be included. Here, the first wake-up signal may include a signal generated by the first sub-device 100 and transmitted to the second sub-device 200 when an object appears. For example, the first sub-device 100 transmits a detection signal to the second sub-device 200 regardless of whether an object appears, including a detection signal when the object does not appear and a detection signal when the object appears. Since the detection signals (first wake-up signals) are different from each other, the second sub-device 200 can detect whether an object appears from the detection signal from the first sub-device 100 and start the operation. The second sub-device 200 normally waits for operation in sleep mode, but when the first wake-up signal is received from the first sub-device 100, it is converted to active mode to track the object and the appearance time of the object. can be counted.

메인장치(300)는 제2 서브장치(200)로부터의 제2 웨이크업 신호 수신에 의해 동작을 개시하여 물체를 촬영하여 저장하거나, 통신망(미도시)을 통하여 물체 촬영 영상을 사용자 단말기에 전송하여 사용자가 자신의 차량 주변에 발생한 상황을 인식할 수 있다. 여기서 제2 웨이크업 신호는 물체의 추적 결과 및 물체의 출현 시간 카운트 결과가 이벤트 생성 조건을 만족하는 경우 제2 서브장치(200)에서 생성하여 메인장치(300)로 전송되는 신호를 포함할 수 있다.The main device 300 starts operation by receiving a second wake-up signal from the second sub-device 200, photographs and stores the object, or transmits the object photographed image to the user terminal through a communication network (not shown). Users can recognize situations occurring around their vehicle. Here, the second wake-up signal may include a signal generated by the second sub-device 200 and transmitted to the main device 300 when the object tracking result and the object appearance time count result satisfy the event generation conditions. .

본 실시 예에서 이벤트 생성 조건을 만족하는 경우는, 차량 주변을 소정 거리 이내에서 물체의 움직임이 소정 시간 동안 지속되는 경우를 포함할 수 있으며, 이와 같은 경우 차량 절도의 위험이 있을 수 있다. 또한, 이벤트 생성 조건을 만족하는 경우는, 물체가 차량 주변의 소정 거리 이내로 진입하여 소정 시간 움직이지 않는 경우를 포함할 수 있으며, 이와 같은 경우는 차량 주변에 위험물이 존재하는 위험이 있을 수 있다. 또한, 이벤트 생성 조건을 만족하는 경우는, 물체가 차량 주변으로 아주 가까이 진입한 후 추가 물체의 움직임이 발생한 경우를 포함할 수 있으며, 이와 같은 경우는 접촉사고 후 운전자가 내리는 경우를 포함할 수 있다. 또한, 이벤트 생성 조건을 만족하는 경우는, 물체가 차량으로 빠르게 접근하여 갑자기 멈춘 경우를 포함할 수 있으며, 이와 같은 경우는 차량에 충돌한 경우를 포함할 수 있다. 메인장치(300)는 평상 시에는 슬립모드로 동작을 대기하고 있다가 제2 서브장치(200)로부터 제2 웨이크업 신호가 수신되면 활성화모드로 변환되어 물체를 촬영하여 저장하거나, 물체 촬영 영상을 통신망을 통하여 사용자 단말기에 전송할 수 있다. In this embodiment, cases where the event creation conditions are met may include cases where the movement of an object within a predetermined distance around the vehicle continues for a predetermined time, and in this case, there may be a risk of vehicle theft. In addition, cases where the event creation conditions are met may include cases where an object enters within a predetermined distance around the vehicle and does not move for a predetermined period of time, and in such cases, there may be a risk of dangerous substances existing around the vehicle. In addition, cases that satisfy the event creation conditions may include cases where movement of an additional object occurs after an object enters very close to the vehicle, and such cases may include cases where the driver gets off after a contact accident. . Additionally, cases where the event creation conditions are met may include a case where an object approaches the vehicle quickly and suddenly stops, and such a case may include a case where the object collides with the vehicle. The main device 300 normally waits for operation in sleep mode, but when a second wake-up signal is received from the second sub-device 200, it is converted to active mode to capture and store an object or capture a captured image of an object. It can be transmitted to the user terminal through a communication network.

본 실시 예에서 메인장치(300)는 메인 제어부(310), 카메라(320), 메모리(330) 및 통신부(340)를 포함할 수 있다.In this embodiment, the main device 300 may include a main control unit 310, a camera 320, a memory 330, and a communication unit 340.

메인 제어부(310)는 슬립모드로 메인장치(300)를 동작시키다가 제2 서브장치(200)로부터 제2 웨이크업 신호를 수신하면 메인장치(300)를 활성화 모드로 동작시키고, 카메라(320), 메모리(330) 및 통신부(340)의 동작을 제어할 수 있다.The main control unit 310 operates the main unit 300 in sleep mode, and when receiving a second wake-up signal from the second sub-unit 200, operates the main unit 300 in active mode, and the camera 320 , the operations of the memory 330 and the communication unit 340 can be controlled.

메인 제어부(310)는 일종의 중앙처리장치로서 내부 메모리(미도시)에 탑재된 제어 소프트웨어를 구동하여 다양한 기능을 제공할 수 있다. 메인 제어부(310)는, 예를 들어 프로그램 내에 포함된 코드 또는 명령으로 표현된 기능을 수행하기 위해 물리적으로 구조화된 회로를 갖는, 하드웨어에 내장된 데이터 처리 장치를 의미할 수 있다. 이와 같이 하드웨어에 내장된 데이터 처리 장치의 일 예로써, 마이크로프로세서(microprocessor), 중앙처리장치(central processing unit: CPU), 프로세서 코어(processor core), 멀티프로세서(multiprocessor), ASIC(application-specific integrated circuit), FPGA(field programmable gate array) 등의 처리 장치를 망라할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다The main control unit 310 is a type of central processing unit and can provide various functions by running control software mounted on an internal memory (not shown). The main control unit 310 may mean, for example, a data processing device built into hardware that has a physically structured circuit to perform a function expressed as a code or command included in a program. Examples of data processing devices built into hardware include a microprocessor, central processing unit (CPU), processor core, multiprocessor, and application-specific integrated (ASIC). circuit) and FPGA (field programmable gate array), but the scope of the present invention is not limited thereto.

카메라(320)는 메인 제어부(310)의 제어에 의해 동작하여 차량 주변의 영상을 촬영할 수 있도록 상/하/좌/우에 배치된 하나 이상의 카메라를 포함할 수 있다. 여기서, 카메라(320)는 예컨대 COMS(complementary metal-oxide semiconductor) 모듈(미도시) 또는 CCD(charge coupled device) 모듈(미도시) 등을 이용하여 촬영영역 내의 피사체를 촬영할 수 있으며, 입력되는 영상 프레임은 렌즈(미도시)를 통해 COMS 모듈 또는 CCD 모듈로 제공되고, COMS 모듈 또는 CCD 모듈은 렌즈를 통과한 피사체의 광신호를 전기적 신호로 변환하여 출력할 수 있다. 이와 같은 카메라(320) 내부에는 영상 신호 처리부(미도시)가 구비되어 있어서, 촬영한 영상 프레임에 대하여 노이즈를 저감하고, 감마 보정(gamma correction), 색필터 배열보간(color filter array interpolation), 색 매트릭스(color matrix), 색보정(color correction), 색 향상(color enhancement) 등의 화질 개선을 위한 영상 신호 처리를 수행할 수 있다. 또한, 영상 신호 처리부는 기능적으로 색채 처리, 블러 처리, 에지 강조 처리, 영상 해석 처리, 영상 인식 처리, 영상 이펙트 처리 등도 수행할 수 있다. 영상 인식 처리로 얼굴 인식, 장면 인식 처리 등을 행할 수 있다. 예를 들어, 휘도 레벨 조정, 색 보정, 콘트라스트 조정, 윤곽 강조 조정, 화면 분할 처리, 캐릭터 영상 등 생성 및 영상의 합성 처리 등을 수행할 수 있다.The camera 320 may operate under the control of the main control unit 310 and include one or more cameras arranged on the top/bottom/left/right side to capture images around the vehicle. Here, the camera 320 can photograph a subject within the shooting area using, for example, a complementary metal-oxide semiconductor (COMS) module (not shown) or a charge coupled device (CCD) module (not shown), and input video frames. It is provided as a COMS module or CCD module through a lens (not shown), and the COMS module or CCD module can convert the optical signal of the subject that has passed through the lens into an electrical signal and output it. The camera 320 is equipped with an image signal processor (not shown) to reduce noise in captured image frames, perform gamma correction, color filter array interpolation, and color processing. Image signal processing to improve image quality, such as color matrix, color correction, and color enhancement, can be performed. In addition, the image signal processing unit can functionally perform color processing, blur processing, edge emphasis processing, image analysis processing, image recognition processing, and image effect processing. Face recognition, scene recognition processing, etc. can be performed through image recognition processing. For example, luminance level adjustment, color correction, contrast adjustment, outline emphasis adjustment, screen splitting processing, creation of character images, etc., and image compositing processing can be performed.

메모리(330)는 메인 제어부(310)의 제어에 의해 동작하여 카메라(320)가 촬영한 물체 영상을 저장하거나 출력할 수 있다. 이러한 메모리(330)는 내장 메모리 및/또는 외장 메모리를 포함할 수 있으며, DRAM, SRAM, 또는 SDRAM 등과 같은 휘발성 메모리, OTPROM(one time programmable ROM), PROM, EPROM, EEPROM, mask ROM, flash ROM, NAND 플래시 메모리, 또는 NOR 플래시 메모리 등과 같은 비휘발성 메모리, SSD. CF(compact flash) 카드, SD 카드, Micro-SD 카드, Mini-SD 카드, Xd 카드, 또는 메모리 스틱(memory stick) 등과 같은 플래시 드라이브, 또는 HDD와 같은 저장 장치를 포함할 수 있다.The memory 330 operates under the control of the main control unit 310 to store or output an object image captured by the camera 320. This memory 330 may include internal memory and/or external memory, volatile memory such as DRAM, SRAM, or SDRAM, one time programmable ROM (OTPROM), PROM, EPROM, EEPROM, mask ROM, flash ROM, Non-volatile memory, such as NAND flash memory, or NOR flash memory, SSD. It may include a flash drive such as a compact flash (CF) card, SD card, Micro-SD card, Mini-SD card, Xd card, or memory stick, or a storage device such as an HDD.

통신부(340)는 통신망과 연동하여 메인장치(300)가 촬영한 물체 영상을 사용자 단말기로 제공하는데 필요한 통신 인터페이스를 제공할 수 있다. 여기서, 통신망은 메인장치(300)가 사용자 단말기에 접속한 후 소정의 정보 송수신할 수 있도록 접속 경로를 제공하는 통신망을 의미할 수 있다. 통신망은 예컨대 LANs(Local Area Networks), WANs(Wide Area Networks), MANs(Metropolitan Area Networks), ISDNs(Integrated Service Digital Networks) 등의 유선 네트워크나, 무선 LANs, CDMA, 블루투스, 위성 통신 등의 무선 네트워크를 망라할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다. 또한 통신망(500)은 근거리 통신 및/또는 원거리 통신을 이용하여 정보를 송수신할 수 있다. 여기서 근거리 통신은 블루투스(bluetooth), RFID(radio frequency identification), 적외선 통신(IrDA, infrared data association), UWB(ultra-wideband), ZigBee, Wi-Fi (wireless fidelity) 기술을 포함할 수 있고, 원거리 통신은 CDMA(code division multiple access), FDMA(frequency division multiple access), TDMA(time division multiple access), OFDMA(orthogonal frequency division multiple access), SC-FDMA(single carrier frequency division multiple access) 기술을 포함할 수 있다.The communication unit 340 may provide a communication interface necessary to provide an object image captured by the main device 300 to a user terminal in conjunction with a communication network. Here, the communication network may mean a communication network that provides a connection path so that the main device 300 can transmit and receive certain information after connecting to the user terminal. Communication networks include, for example, wired networks such as LANs (Local Area Networks), WANs (Wide Area Networks), MANs (Metropolitan Area Networks), and ISDNs (Integrated Service Digital Networks), or wireless networks such as wireless LANs, CDMA, Bluetooth, and satellite communications. may encompass, but the scope of the present invention is not limited thereto. Additionally, the communication network 500 can transmit and receive information using short-distance communication and/or long-distance communication. Here, short-range communication may include Bluetooth, RFID (radio frequency identification), infrared communication (IrDA, infrared data association), UWB (ultra-wideband), ZigBee, and Wi-Fi (wireless fidelity) technology, and long-distance communication may include Communications may include code division multiple access (CDMA), frequency division multiple access (FDMA), time division multiple access (TDMA), orthogonal frequency division multiple access (OFDMA), and single carrier frequency division multiple access (SC-FDMA) technologies. You can.

또한 메인장치(300)는 통신부(340)를 통하여 사용자 단말기의 요청에 의해 임의로 동작을 개시하여 메인장치(300)가 촬영한 차량 주변 영상 또는 메모리(330)에 저장되어 있는 물체 촬영 영상을 사용자 단말기로 전송할 수도 있다. 사용자 단말기의 요청 신호를 수신하는 경우, 제1 서브장치(100) 및 제2 서브장치(200)는 슬립모드 상태를 유지하고 메인장치(300)만 활성화모드 상태가 될 수 있다.In addition, the main device 300 randomly starts operation at the request of the user terminal through the communication unit 340 and sends the image around the vehicle captured by the main device 300 or the object captured image stored in the memory 330 to the user terminal. You can also send it to . When receiving a request signal from the user terminal, the first sub-device 100 and the second sub-device 200 may maintain the sleep mode state and only the main device 300 may enter the active mode state.

본 실시 예에서 사용자 단말기라 함은, 도시되지 않았으나, 사용자가 조작하는 데스크 탑 컴퓨터, 스마트폰, 노트북, 태블릿 PC, 스마트 TV, 휴대폰, PDA(personal digital assistant), 랩톱, 미디어 플레이어, 마이크로 서버, GPS(global positioning system) 장치, 전자책 단말기, 디지털방송용 단말기, 네비게이션, 키오스크, MP3 플레이어, 디지털 카메라, 가전기기 및 기타 모바일 또는 비모바일 컴퓨팅 장치일 수 있으나, 이에 제한되지 않는다. 또한, 사용자 단말기는 통신 기능 및 데이터 프로세싱 기능을 구비한 시계, 안경, 헤어 밴드 및 반지 등의 웨어러블 단말기 일 수 있다. 사용자 단말기는 상술한 내용에 제한되지 아니하며, 웹 브라우징이 가능한 단말기는 제한 없이 차용될 수 있다. 본 실시 예에서 사용자 단말기는 모니터링 시스템(1)을 제어하는 어플리케이션 및/또는 프로그램이 탑재되어 있을 수 있다.In this embodiment, the user terminal refers to a desktop computer, smartphone, laptop, tablet PC, smart TV, mobile phone, PDA (personal digital assistant), laptop, media player, micro server, etc., which are not shown but are operated by the user. It may be, but is not limited to, a global positioning system (GPS) device, e-reader, digital broadcasting terminal, navigation, kiosk, MP3 player, digital camera, home appliance, and other mobile or non-mobile computing devices. Additionally, the user terminal may be a wearable terminal such as a watch, glasses, hair band, or ring equipped with a communication function and data processing function. The user terminal is not limited to the above, and any terminal capable of web browsing can be used without limitation. In this embodiment, the user terminal may be equipped with an application and/or program that controls the monitoring system 1.

선택적 실시 예로 제2 서브장치(200)는 제1 서브장치(100)로부터 제1 웨이크업 신호가 일정 시간 수신되지 않은 경우 슬립 모드로 진입할 수 있고, 메인장치(300)는 제2 서브장치(200)로부터 제2 웨이크업 신호가 일정 시간 수신되지 않은 경우 슬립 모드로 진입할 수 있다.In an optional embodiment, the second sub-device 200 may enter sleep mode when the first wake-up signal is not received from the first sub-device 100 for a certain period of time, and the main device 300 may enter the sleep mode ( If the second wake-up signal is not received from 200) for a certain period of time, the device may enter sleep mode.

도 2는 도 1의 개인 모니터링 시스템 중 메인장치의 동작을 개시하는 이벤트 발생 조건을 개략적으로 설명하기 위하여 도시한 도면이다. 도 2a를 참조하면, 제2 서브장치(200)의 물체 추적 결과 차량 주변 소정 거리 이내로 물체가 진입하여 소정 시간 이상 차량 주변에서 움직임이 발생한 경우, 일정 시간 경과 시점에서 제2 서브장치(200)가 제2 웨이크업 신호를 생성하여 메인장치(300)로 전송하고, 메인장치(300)가 제2 웨이크업 수신에 대응하여 동작을 개시하여 영상 촬영, 저장 및/또는 전송을 수행할 수 있다. 도 2b를 참조하면, 제2 서브장치(200)의 물체 추적 결과 물체가 차량 주변으로 아주 가까이 진입한 후 추가 물체의 움직임이 발생한 경우를 포함할 수 있으며, 이와 같은 경우는 접촉사고 후 운전자가 내리는 경우를 포함할 수 있다. 이러한 경우 추가 물체가 감지된 시점에서 제2 서브장치(200)가 제2 웨이크업 신호를 생성하여 메인장치(300)로 전송하고, 메인장치(300)가 제2 웨이크업 수신에 대응하여 동작을 개시하여 영상 촬영, 저장 및/또는 전송을 수행할 수 있다.FIG. 2 is a diagram schematically illustrating the event occurrence conditions that initiate the operation of the main device in the personal monitoring system of FIG. 1. Referring to FIG. 2A, as a result of the object tracking by the second sub-device 200, when an object enters within a predetermined distance around the vehicle and movement occurs around the vehicle for more than a predetermined period of time, the second sub-device 200 A second wake-up signal may be generated and transmitted to the main device 300, and the main device 300 may initiate an operation in response to receiving the second wake-up and perform image capture, storage, and/or transmission. Referring to FIG. 2b, the object tracking result of the second sub-device 200 may include a case in which movement of an additional object occurs after the object enters very close to the vehicle, and this case may include a case where the driver gets off after a contact accident. Cases may be included. In this case, when an additional object is detected, the second sub-device 200 generates a second wake-up signal and transmits it to the main device 300, and the main device 300 operates in response to receiving the second wake-up. You can start to capture, store, and/or transmit images.

도 3은 도 1의 모니터링 시스템에서 각 장치에 사용되는 배터리 소모량을 개략적으로 설명하기 위하여 도시한 도면이다. 도 3을 참조하면, 평상시에는 모니터링 시스템(1) 중 제1 서브장치(100)만 동작을 개시하여 차량 주변을 감시할 수 있다(감시단계). 제1 서브장치(100)가 물체 출현을 감지하는 경우 제1 웨이크업 신호를 제2 서브장치(200)로 전송하여 제2 서브장치(200)가 동작을 개시하고, 물체를 추적하며 시간을 카운트할 수 있다(물체추적단계). 제2 서브장치(200) 물체 추적 결과 이벤트 생성 조건을 만족하는 경우 제2 웨이크업 신호를 메인장치(300)로 전송하여 메인장치(300)가 동작을 개시하고, 물체 영상을 촬영, 저장 및/또는 전송할 수 있다(영상저장단계). 도 3으로부터 감시단계, 물체추적단계, 영상저장단계 순으로 배터리 소모량을 알 수 있으며, 이벤트 생성 조건을 만족하는 경우에만 메인장치(300)의 동작을 개시하여 영상을 촬영하므로 배터리 소모를 줄일 수 있다. FIG. 3 is a diagram schematically illustrating the battery consumption used for each device in the monitoring system of FIG. 1. Referring to FIG. 3, in normal times, only the first sub-device 100 of the monitoring system 1 can start operation to monitor the surroundings of the vehicle (monitoring phase). When the first sub-device 100 detects the appearance of an object, it transmits the first wake-up signal to the second sub-device 200, so that the second sub-device 200 starts operation, tracks the object, and counts time. It can be done (object tracking stage). If the second sub-device 200 satisfies the event generation conditions as a result of object tracking, a second wake-up signal is transmitted to the main device 300, so that the main device 300 starts operation, and captures, stores, and/or images of the object. Or it can be transmitted (video storage stage). From Figure 3, the battery consumption can be seen in the order of the monitoring phase, object tracking phase, and image storage phase. Battery consumption can be reduced by starting the operation of the main device 300 and recording images only when the event creation conditions are met. .

도 4는 본 발명의 일 실시 예에 따른 모니터링 시스템의 동작 방법을 설명하기 위한 흐름도이다. 이하의 설명에서 도 1 내지 도 3에 대한 설명과 중복되는 부분은 그 설명을 생략하기로 한다.Figure 4 is a flowchart for explaining a method of operating a monitoring system according to an embodiment of the present invention. In the following description, parts that overlap with the description of FIGS. 1 to 3 will be omitted.

도 4를 참조하면, S410단계에서, 제1 서브장치(100)는 차량 주변의 물체 출현 감시한다. 여기서 제1 서브장치(100)는 레이더 센서 또는 라이다 장치를 포함할 수 있다. 여기서, 제1 서브장치(100)만 동작 중이고, 제2 서브장치(200) 및 메인장치(300)는 슬립모드 상태이다.Referring to FIG. 4, in step S410, the first sub-device 100 monitors the appearance of objects around the vehicle. Here, the first sub-device 100 may include a radar sensor or LiDAR device. Here, only the first sub-device 100 is operating, and the second sub-device 200 and the main device 300 are in sleep mode.

S420단계에서, 제1 서브장치(100)는 차량 주변에 물체가 출현한 경우 제1 웨이크업 신호를 생성하여 제2 서브장치(200)로 전송한다.In step S420, when an object appears around the vehicle, the first sub-device 100 generates a first wake-up signal and transmits it to the second sub-device 200.

S430단계에서, 제2 서브장치(200)는 제1 서브장치(100)로부터 제1 웨이크업 신호를 수신하면 동작을 개시한다.In step S430, the second sub-device 200 starts operation when it receives the first wake-up signal from the first sub-device 100.

S440단계에서, 제2 서브장치(200)는 차량 주변에서 물체를 추적하고 시간을 카운팅한다.In step S440, the second sub-device 200 tracks objects around the vehicle and counts time.

S450단계에서, 제2 서브장치(200)는 이벤트 생성 조건을 만족하는 경우 제1 웨이크업 신호를 생성하여 메인장치(300)로 전송한다. 본 실시 예에서 이벤트 생성 조건을 만족하는 경우는, 차량 주변을 소정 거리 이내에서 물체의 움직임이 소정 시간 동안 지속되는 경우를 포함할 수 있으며, 이와 같은 경우 차량 절도의 위험이 있을 수 있다. 또한, 이벤트 생성 조건을 만족하는 경우는, 물체가 차량 주변의 소정 거리 이내로 진입하여 소정 시간 움직이지 않는 경우를 포함할 수 있으며, 이와 같은 경우는 차량 주변에 위험물이 존재하는 위험이 있을 수 있다. 또한, 이벤트 생성 조건을 만족하는 경우는, 물체가 차량 주변으로 아주 가까이 진입한 후 추가 물체의 움직임이 발생한 경우를 포함할 수 있으며, 이와 같은 경우는 접촉사고 후 운전자가 내리는 경우를 포함할 수 있다. 또한, 이벤트 생성 조건을 만족하는 경우는, 물체가 차량으로 빠르게 접근하여 갑자기 멈춘 경우를 포함할 수 있으며, 이와 같은 경우는 차량에 충돌한 경우를 포함할 수 있다.In step S450, if the event generation condition is satisfied, the second sub-device 200 generates a first wake-up signal and transmits it to the main device 300. In this embodiment, cases where the event creation conditions are met may include cases where the movement of an object within a predetermined distance around the vehicle continues for a predetermined time, and in this case, there may be a risk of vehicle theft. In addition, cases where the event creation conditions are met may include cases where an object enters within a predetermined distance around the vehicle and does not move for a predetermined period of time, and in such cases, there may be a risk of dangerous substances existing around the vehicle. In addition, cases that satisfy the event creation conditions may include cases where movement of an additional object occurs after an object enters very close to the vehicle, and such cases may include cases where the driver gets off after a contact accident. . Additionally, cases where the event creation conditions are met may include a case where an object approaches the vehicle quickly and suddenly stops, and such a case may include a case where the object collides with the vehicle.

S460단계에서, 메인장치(300)는 제2 서브장치(200)로부터 제2 웨이크업 신호를 수신하면 동작을 개시한다.In step S460, the main device 300 starts operation when receiving the second wake-up signal from the second sub-device 200.

S470단계에서, 메인장치(300)는 물체 영상을 촬영하여 저장하거나, 물체 영상을 사용자 단말기로 전송한다.In step S470, the main device 300 captures and stores an object image or transmits the object image to the user terminal.

이상 설명된 본 발명에 따른 실시 예는 컴퓨터 상에서 다양한 구성요소를 통하여 실행될 수 있는 컴퓨터 프로그램의 형태로 구현될 수 있으며, 이와 같은 컴퓨터 프로그램은 컴퓨터로 판독 가능한 매체에 기록될 수 있다. 이때, 매체는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등과 같은, 프로그램 명령어를 저장하고 실행하도록 특별히 구성된 하드웨어 장치를 포함할 수 있다.Embodiments according to the present invention described above may be implemented in the form of a computer program that can be executed through various components on a computer, and such a computer program may be recorded on a computer-readable medium. At this time, the media includes magnetic media such as hard disks, floppy disks, and magnetic tapes, optical recording media such as CD-ROMs and DVDs, magneto-optical media such as floptical disks, and ROM. , RAM, flash memory, etc., may include hardware devices specifically configured to store and execute program instructions.

한편, 상기 컴퓨터 프로그램은 본 발명을 위하여 특별히 설계되고 구성된 것이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수 있다. 컴퓨터 프로그램의 예에는, 컴파일러에 의하여 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함될 수 있다.Meanwhile, the computer program may be designed and configured specifically for the present invention, or may be known and available to those skilled in the art of computer software. Examples of computer programs may include not only machine language code such as that created by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like.

본 발명의 명세서(특히 특허청구범위에서)에서 "상기"의 용어 및 이와 유사한 지시 용어의 사용은 단수 및 복수 모두에 해당하는 것일 수 있다. 또한, 본 발명에서 범위(range)를 기재한 경우 상기 범위에 속하는 개별적인 값을 적용한 발명을 포함하는 것으로서(이에 반하는 기재가 없다면), 발명의 상세한 설명에 상기 범위를 구성하는 각 개별적인 값을 기재한 것과 같다. In the specification (particularly in the claims) of the present invention, the use of the term “above” and similar referential terms may refer to both the singular and the plural. In addition, when a range is described in the present invention, the invention includes the application of individual values within the range (unless there is a statement to the contrary), and each individual value constituting the range is described in the detailed description of the invention. It's the same.

본 발명에 따른 방법을 구성하는 단계들에 대하여 명백하게 순서를 기재하거나 반하는 기재가 없다면, 상기 단계들은 적당한 순서로 행해질 수 있다. 반드시 상기 단계들의 기재 순서에 따라 본 발명이 한정되는 것은 아니다. 본 발명에서 모든 예들 또는 예시적인 용어(예들 들어, 등등)의 사용은 단순히 본 발명을 상세히 설명하기 위한 것으로서 특허청구범위에 의해 한정되지 않는 이상 상기 예들 또는 예시적인 용어로 인해 본 발명의 범위가 한정되는 것은 아니다. 또한, 당업자는 다양한 수정, 조합 및 변경이 부가된 특허청구범위 또는 그 균등물의 범주 내에서 설계 조건 및 팩터에 따라 구성될 수 있음을 알 수 있다.Unless there is an explicit order or statement to the contrary regarding the steps constituting the method according to the invention, the steps may be performed in any suitable order. The present invention is not necessarily limited by the order of description of the above steps. The use of any examples or illustrative terms (e.g., etc.) in the present invention is merely to describe the present invention in detail, and unless limited by the claims, the scope of the present invention is limited by the examples or illustrative terms. It doesn't work. Additionally, those skilled in the art will recognize that various modifications, combinations and changes may be made depending on design conditions and factors within the scope of the appended claims or their equivalents.

따라서, 본 발명의 사상은 상기 설명된 실시 예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 또는 이로부터 등가적으로 변경된 모든 범위는 본 발명의 사상의 범주에 속한다고 할 것이다.Therefore, the spirit of the present invention should not be limited to the above-described embodiments, and the scope of the patent claims described below as well as all scopes equivalent to or equivalently changed from the scope of the claims are within the scope of the spirit of the present invention. It will be said to belong to

1: 모니터링 시스템
100: 제1 서브장치
200: 제2 서브장치
300: 메인장치
1: Monitoring system
100: first sub-device
200: second sub device
300: Main device

Claims (9)

차량 주변의 물체 출현을 감지하는 제1 서브장치;
상기 제1 서브장치로부터의 제1 웨이크업 신호 수신에 의해 동작을 개시하여 상기 물체를 추적하고, 상기 물체의 출현 시간을 카운트하는 제2 서브장치; 및
상기 제2 서브장치로부터의 제2 웨이크업 신호 수신에 의해 동작을 개시하여 상기 물체를 촬영하여 저장하는 메인장치;를 포함하고,
상기 제2 서브장치는,
상기 물체의 추적 결과 및 상기 물체의 출현 시간 카운트 결과가 이벤트 생성 조건을 만족하는 경우 상기 제2 웨이크업 신호를 생성하여 상기 메인장치로 전송하고,
상기 차량으로부터 소정 거리 내로 진입한 상기 물체의 움직임 및 상기 물체의 진입속도에 대응하여 상기 이벤트 생성 조건을 만족하는지 판단하는 모니터링 시스템.
A first sub-device that detects the appearance of objects around the vehicle;
a second sub-device that starts operation upon receiving a first wake-up signal from the first sub-device to track the object and counts the appearance time of the object; and
A main device that starts operation upon receiving a second wake-up signal from the second sub-device to photograph and store the object,
The second sub-device,
If the tracking result of the object and the count result of the appearance time of the object satisfy event generation conditions, the second wake-up signal is generated and transmitted to the main device,
A monitoring system that determines whether the event generation conditions are satisfied in response to the movement of the object and the entry speed of the object that has entered a predetermined distance from the vehicle.
제 1항에 있어서, 상기 제1 서브장치는,
상기 차량의 주변에 물체가 출현하면 상기 제1 웨이크업 신호를 생성하여 상기 제2 서브장치로 전송하는, 모니터링 시스템.
The method of claim 1, wherein the first sub-device:
A monitoring system that generates the first wake-up signal and transmits it to the second sub-device when an object appears around the vehicle.
제 1항에 있어서, 상기 제2 서브장치는,
상기 차량으로부터 소정 거리 이내에서 상기 물체의 움직임이 소정 시간 동안 지속되는 경우, 상기 물체가 상기 차량으로부터 소정 거리 이내로 진입한 후 소정 시간 움직이지 않는 경우, 상기 물체가 상기 차량으로부터 상기 소정 거리 보다 근접한 후 추가 움직임이 발생한 경우, 및 상기 물체가 상기 차량으로 소정시간 내에 소정 거리 이내로 접근한 후 멈춘 경우 중 적어도 하나의 경우 상기 이벤트 생성 조건을 만족하는 것으로 판단하는, 모니터링 시스템.
The method of claim 1, wherein the second sub-device:
When the movement of the object continues for a predetermined time within a predetermined distance from the vehicle, when the object does not move for a predetermined time after entering within a predetermined distance from the vehicle, after the object moves closer than the predetermined distance from the vehicle A monitoring system that determines that the event generation conditions are satisfied in at least one of the following cases: when additional movement occurs and when the object approaches the vehicle within a predetermined distance within a predetermined time and then stops.
제 1항에 있어서, 상기 메인장치는,
상기 제2 웨이크업 신호에 의해 동작을 개시하여 촬영한 상기 물체의 영상을 사용자 단말기로 전송하는, 모니터링 시스템.
The method of claim 1, wherein the main device:
A monitoring system that starts operation by the second wake-up signal and transmits the captured image of the object to the user terminal.
제1 서브장치에 의해, 차량 주변의 물체 출현을 감지하는 단계;
제2 서브장치에 의해, 상기 제1 서브장치로부터의 제1 웨이크업 신호 수신에 의해 동작을 개시하여 상기 물체를 추적하고, 상기 물체의 출현 시간을 카운트하는 단계;
상기 제2 서브장치에 의해, 상기 물체의 추적 결과 및 상기 물체의 출현 시간 카운트 결과가 이벤트 생성 조건을 만족하는 경우 제2 웨이크업 신호를 생성하여 메인장치로 전송하는 단계; 및
상기 제2 서브장치로부터의 상기 제2 웨이크업 신호 수신에 의해 동작을 개시하여 상기 물체를 촬영하여 저장하는 단계;를 포함하고,
상기 제2 서브장치에 의해, 상기 차량으로부터 소정 거리 내로 진입한 상기 물체의 움직임 및 상기 물체의 진입속도에 대응하여 상기 이벤트 생성 조건을 만족하는지 판단하는, 모니터링 시스템의 동작 방법.
Detecting, by a first sub-device, the appearance of an object around the vehicle;
Initiating an operation by a second sub-device upon receiving a first wake-up signal from the first sub-device to track the object and counting the appearance time of the object;
Generating, by the second sub-device, a second wake-up signal and transmitting it to the main device when the tracking result of the object and the count result of the appearance time of the object satisfy event generation conditions; and
Initiating an operation upon receiving the second wake-up signal from the second sub-device to photograph and store the object,
A method of operating a monitoring system that determines, by the second sub-device, whether the event generation condition is satisfied in response to the movement of the object that has entered a predetermined distance from the vehicle and the entry speed of the object.
제 5항에 있어서,
상기 제1 서브장치에 의해, 상기 차량의 주변에 물체가 출현하면 상기 제1 웨이크업 신호를 생성하여 상기 제2 서브장치로 전송하는 단계;를 더 포함하는, 모니터링 시스템의 동작 방법.
According to clause 5,
A method of operating a monitoring system further comprising: generating, by the first sub-device, the first wake-up signal when an object appears around the vehicle and transmitting the first wake-up signal to the second sub-device.
제 5항에 있어서,
상기 제2 서브장치에 의해, 상기 차량으로부터 소정 거리 이내에서 상기 물체의 움직임이 소정 시간 동안 지속되는 경우, 상기 물체가 상기 차량으로부터 소정 거리 이내로 진입한 후 소정 시간 움직이지 않는 경우, 상기 물체가 상기 차량으로부터 상기 소정 거리 보다 근접한 후 추가 움직임이 발생한 경우, 및 상기 물체가 상기 차량으로 소정시간 내에 소정 거리 이내로 접근한 후 멈춘 경우 중 적어도 하나의 경우 상기 이벤트 생성 조건을 만족하는 것으로 판단하는, 모니터링 시스템의 동작 방법.
According to clause 5,
When the movement of the object continues for a predetermined time within a predetermined distance from the vehicle by the second sub-device, and the object does not move for a predetermined time after entering within a predetermined distance from the vehicle, the object is A monitoring system that determines that the event generation conditions are satisfied in at least one of the following cases: when additional movement occurs after getting closer to the vehicle than the predetermined distance, and when the object stops after approaching the vehicle within a predetermined distance within a predetermined time. How it works.
제 5항에 있어서,
상기 메인장치는 상기 제2 웨이크업 신호에 의해 동작을 개시하여 촬영한 상기 물체의 영상을 사용자 단말기로 전송하는 단계;를 더 포함하는, 모니터링 시스템의 동작 방법.
According to clause 5,
The method of operating a monitoring system further comprising: the main device starting operation in response to the second wake-up signal and transmitting the captured image of the object to a user terminal.
컴퓨터를 이용하여 제 5항 내지 제 8항의 방법 중 어느 한 항의 방법을 실행시키기 위하여 상기 컴퓨터로 판독 가능한 기록매체에 저장된 컴퓨터 프로그램.A computer program stored in the computer-readable recording medium to execute the method of any one of claims 5 to 8 using a computer.
KR1020180154314A 2018-12-04 2018-12-04 Monitoring system and operating method thereof KR102600303B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180154314A KR102600303B1 (en) 2018-12-04 2018-12-04 Monitoring system and operating method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180154314A KR102600303B1 (en) 2018-12-04 2018-12-04 Monitoring system and operating method thereof

Publications (2)

Publication Number Publication Date
KR20200067447A KR20200067447A (en) 2020-06-12
KR102600303B1 true KR102600303B1 (en) 2023-11-09

Family

ID=71088378

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180154314A KR102600303B1 (en) 2018-12-04 2018-12-04 Monitoring system and operating method thereof

Country Status (1)

Country Link
KR (1) KR102600303B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102468693B1 (en) * 2020-10-15 2022-11-21 (주)디 넷 System for sensing and alarming a parking vehicle access and a remainer in vehicle

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005014669A (en) * 2003-06-24 2005-01-20 Denso Corp Antitheft device for vehicle
JP2009280109A (en) * 2008-05-22 2009-12-03 Toyota Industries Corp Vehicle vicinity monitoring system

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101671414B1 (en) 2013-09-09 2016-11-01 주식회사 엘지화학 Device for Electrolyte Injection Comprising Unique Nozzle and Battery Cell Prepared by Using the Same

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005014669A (en) * 2003-06-24 2005-01-20 Denso Corp Antitheft device for vehicle
JP2009280109A (en) * 2008-05-22 2009-12-03 Toyota Industries Corp Vehicle vicinity monitoring system

Also Published As

Publication number Publication date
KR20200067447A (en) 2020-06-12

Similar Documents

Publication Publication Date Title
US11115646B2 (en) Exposure coordination for multiple cameras
RU2637838C2 (en) Method to control unmanned air vehicle and device for it
CN112598700B (en) Neuromorphic Vision and Frame-Rate Imaging for Object Detection and Tracking
US20180286239A1 (en) Image data integrator for addressing congestion
US10825310B2 (en) 3D monitoring of sensors physical location in a reduced bandwidth platform
US20180137607A1 (en) Processing apparatus, imaging apparatus and automatic control system
KR101458136B1 (en) Video processing method, video processing server performing the same, monitoring server performing the same, system performing the same and storage medium storing the same
US10708496B2 (en) Analytics based power management for cameras
US10914960B2 (en) Imaging apparatus and automatic control system
US10867495B1 (en) Device and method for adjusting an amount of video analytics data reported by video capturing devices deployed in a given location
US11748991B1 (en) IP security camera combining both infrared and visible light illumination plus sensor fusion to achieve color imaging in zero and low light situations
US10922826B1 (en) Digital twin monitoring systems and methods
US11226414B2 (en) Combining laser pulse transmissions in LiDAR
KR102600303B1 (en) Monitoring system and operating method thereof
KR102421043B1 (en) Apparatus for Processing Images and Driving Method Thereof
US11349927B2 (en) Smart-device communication in response to event
US20220084379A1 (en) Video pre-recording method, video camera and electronic device
US10929678B2 (en) Dynamic control of communication connections for computing devices based on detected events
WO2015093687A1 (en) Data processing system
US20210331648A1 (en) Tracking and video information for detecting vehicle break-in
KR20200140723A (en) Apparatus and method for tracking unmanned aerial vehicle
US11837069B2 (en) Vehicle and method of controlling the same
KR102631324B1 (en) Systems and methods for providing user services through intelligent vision robots
JP2022136534A (en) Image recording device
KR102734763B1 (en) System for analyzing intersection and operating method thereof

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20181204

PG1501 Laying open of application
PA0201 Request for examination

Patent event code: PA02012R01D

Patent event date: 20211201

Comment text: Request for Examination of Application

Patent event code: PA02011R01I

Patent event date: 20181204

Comment text: Patent Application

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20230330

Patent event code: PE09021S01D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20231027

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20231106

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20231107

End annual number: 3

Start annual number: 1

PG1601 Publication of registration