Nothing Special   »   [go: up one dir, main page]

KR20210001777A - Video recording apparatus and operating method thereof - Google Patents

Video recording apparatus and operating method thereof Download PDF

Info

Publication number
KR20210001777A
KR20210001777A KR1020190078349A KR20190078349A KR20210001777A KR 20210001777 A KR20210001777 A KR 20210001777A KR 1020190078349 A KR1020190078349 A KR 1020190078349A KR 20190078349 A KR20190078349 A KR 20190078349A KR 20210001777 A KR20210001777 A KR 20210001777A
Authority
KR
South Korea
Prior art keywords
vehicle
image
vehicles
unit
information
Prior art date
Application number
KR1020190078349A
Other languages
Korean (ko)
Other versions
KR102296213B1 (en
Inventor
변승규
정기영
Original Assignee
주식회사대성엘텍
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사대성엘텍 filed Critical 주식회사대성엘텍
Priority to KR1020190078349A priority Critical patent/KR102296213B1/en
Publication of KR20210001777A publication Critical patent/KR20210001777A/en
Application granted granted Critical
Publication of KR102296213B1 publication Critical patent/KR102296213B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D41/00Fittings for identifying vehicles in case of collision; Fittings for marking or recording collision areas
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01DMEASURING NOT SPECIALLY ADAPTED FOR A SPECIFIC VARIABLE; ARRANGEMENTS FOR MEASURING TWO OR MORE VARIABLES NOT COVERED IN A SINGLE OTHER SUBCLASS; TARIFF METERING APPARATUS; MEASURING OR TESTING NOT OTHERWISE PROVIDED FOR
    • G01D9/00Recording measured values
    • G01D9/02Producing one or more recordings of the values of a single variable
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • G07C5/0841Registering performance data
    • G07C5/085Registering performance data using electronic data carriers
    • G07C5/0866Registering performance data using electronic data carriers the electronic data carrier being a digital video recorder in combination with video camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • H04N5/2257
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)
  • Time Recorders, Dirve Recorders, Access Control (AREA)

Abstract

According to an embodiment of the present invention, a video recording apparatus can comprise: a camera which is attached to a vehicle and captures a video; a display which displays the captured video; and a control unit which recognizes lanes and vehicles within the captured video, obtains movement directions of each vehicle based on the movement speed and the lane of each vehicle, and displays the movement speed and movement direction of each vehicle through the display. According to an embodiment of the present invention, the video recording apparatus can provide an objective index capable of determining the share of fault for a traffic accident by displaying the movement speed and the movement direction of each vehicle in the video taken of the road condition.

Description

영상 기록 장치 및 그 동작 방법{VIDEO RECORDING APPARATUS AND OPERATING METHOD THEREOF}Video recording apparatus and its operation method {VIDEO RECORDING APPARATUS AND OPERATING METHOD THEREOF}

본 출원에 의해 개시되는 발명은 영상 기록 장치 및 그 동작 방법에 관한 것으로, 보다 상세하게는 영상 내 교통 상황을 인식할 수 있는 영상 기록 장치 및 그 동작 방법에 관한 것이다.The invention disclosed by the present application relates to an image recording apparatus and a method of operating the same, and more particularly, to an image recording apparatus capable of recognizing a traffic condition in an image, and an operation method thereof.

블랙박스는 차량에 탑재되어 차량의 운행 상태에 관한 정보들을 수집한다. 블랙박스가 수집한 운행 정보들은, 교통 사고의 발생 시 사고 원인 및 과실 부담을 판단하기 위한 결정적 증거로 사용될 수 있다.The black box is mounted on the vehicle and collects information on the driving state of the vehicle. The driving information collected by the black box can be used as conclusive evidence to determine the cause of the accident and the burden of negligence in the event of a traffic accident.

그런데, 교통 사고 현장을 촬영한 영상에서, 육안으로 과실 부담을 판단하기 어려운 경우가 있다. 과실 부담 비율을 판단하기 위해서는 차량의 주행 상태 및 교통 상황 등에 대한 정밀한 측정이 필요한데, 육안에 의존한 판단은 주관적인 요소에 의해 영향을 받을 수 있기 때문이다. 따라서, 교통 사고 현장에서 과실 부담 비율에 대해 보다 객관적인 판단을 제공하는 방법이 필요한 실정이다.However, it is sometimes difficult to determine the burden of negligence with the naked eye in a video of a traffic accident scene. In order to determine the ratio of the burden of negligence, it is necessary to precisely measure the driving state and traffic conditions of the vehicle, because the judgment dependent on the naked eye can be influenced by subjective factors. Therefore, there is a need for a method of providing a more objective judgment on the ratio of negligence burden at the site of a traffic accident.

일 실시예에 따르면, 영상 기록 장치는 도로 상황을 촬영한 영상에서 각 차량들의 이동 속도 및 이동 방향을 표시함으로써, 교통 사고에 대한 과실 분담율을 결정할 수 있는 객관적 지표를 제공할 수 있다.According to an exemplary embodiment, the image recording apparatus may provide an objective indicator for determining the share of negligence for a traffic accident by displaying the moving speed and the moving direction of each vehicle in an image of a road condition.

해결하고자 하는 과제가 상술한 과제로 제한되는 것은 아니며, 언급되지 아니한 과제들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The problem to be solved is not limited to the above-described problems, and problems that are not mentioned will be clearly understood by those of ordinary skill in the art from the present specification and the accompanying drawings.

일 양상에 따르면, 차량에 부착되고, 영상을 촬영하는 카메라, 촬영한 영상을 표시하는 디스플레이 및 상기 촬영한 영상 내에서 차선 및 차량들을 인식하고, 차량들의 이동 속도 및 차선을 기준으로 차량들의 이동 방향을 획득하고, 디스플레이를 통해 차량들의 이동 속도 및 이동 방향을 표시하는 제어부를 포함하는 영상 기록 장치가 제공될 수 있다.According to an aspect, a camera attached to a vehicle and photographing an image, a display displaying the photographed image, and a lane and vehicles within the photographed image are recognized, and the movement direction of the vehicles based on the moving speed and lane of the vehicles An image recording apparatus including a controller for acquiring and displaying a moving speed and a moving direction of vehicles through a display may be provided.

제어부는 차량들의 이동 속도 및 이동 방향에 기초하여, 사고에 대한 과실 비율을 획득할 수 있다. The control unit may obtain an error rate for an accident based on the moving speed and direction of movement of the vehicles.

제어부는 촬영한 영상 내에서 차로 정보 및 신호 정보 중 적어도 하나를 인식하고, 차로 정보 및 신호 정보 중 적어도 하나에 기초하여 사고에 대한 과실 비율을 획득할 수 있다.The controller may recognize at least one of lane information and signal information in the captured image, and obtain an error rate for an accident based on at least one of lane information and signal information.

제어부는 과실 비율을 산정하기 위한 규칙들을 저장하는 메모리를 더 포함할 수 있다.The control unit may further include a memory storing rules for calculating the fruit ratio.

또, 영상 기록 장치는 외부 기기와 통신할 수 있는 통신부를 더 포함하고, 제어부는 통신부를 통해 차량들의 이동 속도 및 이동 방향에 관한 정보들을 외부 기기에 전송할 수 있다.In addition, the image recording apparatus further includes a communication unit capable of communicating with an external device, and the control unit may transmit information on a moving speed and a moving direction of vehicles to the external device through the communication unit.

다른 양상에 따르면, 차량에 부착된 카메라를 통해, 영상을 촬영하는 단계, 촬영한 영상 내에서 차선 및 차량들을 인식하는 단계, 차량들의 이동 속도 및 차선을 기준으로 차량들의 이동 방향을 획득하는 단계, 디스플레이를 통해 차량들의 이동 속도 및 이동 방향을 표시하는 단계를 포함하는 영상 기록 방법이 제공될 수 있다.According to another aspect, the steps of capturing an image through a camera attached to the vehicle, recognizing lanes and vehicles within the captured image, acquiring a moving direction of vehicles based on a moving speed and lane of the vehicles, An image recording method including displaying a moving speed and a moving direction of vehicles through a display may be provided.

또, 영상 기록 방법은 각 차량들의 이동 속도 및 이동 방향에 기초하여, 사고에 대한 과실 비율을 획득하는 단계를 더 포함할 수 있다.In addition, the image recording method may further include obtaining an error rate for an accident based on a moving speed and a moving direction of each vehicle.

일 실시예에 따르면, 영상 기록 장치가 제공하는 각 차량들의 이동 속도 및 이동 방향은 과실 부담 비율을 결정할 수 있는 객관적인 지표로 활용될 수 있어, 사고 현장에서 소모적인 분쟁의 소지가 감소될 수 있다.According to an embodiment, the moving speed and the moving direction of each vehicle provided by the video recording apparatus may be used as an objective indicator for determining the ratio of the burden of negligence, so that the possibility of a wasteful dispute at the accident site may be reduced.

실시예들에 따른 효과가 상술한 효과들로 제한되는 것은 아니며, 언급되지 아니한 효과들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확히 이해될 수 있을 것이다.Effects according to the embodiments are not limited to the above-described effects, and effects not mentioned will be clearly understood by those of ordinary skill in the art from the present specification and the accompanying drawings.

도 1은, 일 실시예에 따른 영상 기록 장치의 블록도이다.
도 2는, 일 실시예에 따른 영상 기록 장치가 연결되는 차량의 내부 블록도이다.
도 3은, 일 실시예에 따른 영상 기록 장치의 동작 방법에 관한 순서도이다.
도 4는, 일 실시예에 따른 영상 기록 장치가 동작하는 도로 상황에 관한 도면이다.
도 5는, 도 4의 도로 상황을 촬영한 영상 기록 장치의 화면의 일 실시예에 관한 도면이다.
1 is a block diagram of an image recording apparatus according to an exemplary embodiment.
2 is an internal block diagram of a vehicle to which an image recording device is connected according to an exemplary embodiment.
3 is a flowchart illustrating a method of operating an image recording apparatus according to an exemplary embodiment.
4 is a diagram illustrating a road condition in which an image recording apparatus according to an exemplary embodiment operates.
FIG. 5 is a diagram of a screen of an image recording apparatus photographing a road situation of FIG.

실시예들에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.The terms used in the embodiments have selected general terms that are currently widely used as possible while considering functions in the present invention, but this may vary depending on the intention or precedent of a technician working in the field, the emergence of new technologies, and the like. In addition, in certain cases, there are terms arbitrarily selected by the applicant, and in this case, the meaning of the terms will be described in detail in the description of the corresponding invention. Therefore, the terms used in the present invention should be defined based on the meaning of the term and the overall contents of the present invention, not a simple name of the term.

명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "…부", "…모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.When a part of the specification is said to "include" a certain component, it means that other components may be further included rather than excluding other components unless otherwise stated. In addition, terms such as "... unit" and "... module" described in the specification mean a unit that processes at least one function or operation, which may be implemented as hardware or software or a combination of hardware and software.

본 개시의 일부 실시 예는 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들의 일부 또는 전부는, 특정 기능들을 실행하는 다양한 개수의 하드웨어 및/또는 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 본 개시의 기능 블록들은 하나 이상의 마이크로프로세서들에 의해 구현되거나, 소정의 기능을 위한 회로 구성들에 의해 구현될 수 있다. 또한, 예를 들어, 본 개시의 기능 블록들은 다양한 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능 블록들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 본 개시는 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. “메커니즘”, “요소”, “수단” 및 “구성” 등과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다.Some embodiments of the present disclosure may be represented by functional block configurations and various processing steps. Some or all of these functional blocks may be implemented with various numbers of hardware and/or software components that perform specific functions. For example, the functional blocks of the present disclosure may be implemented by one or more microprocessors, or may be implemented by circuit configurations for a predetermined function. In addition, for example, the functional blocks of the present disclosure may be implemented in various programming or scripting languages. The functional blocks may be implemented as an algorithm executed on one or more processors. In addition, the present disclosure may employ conventional techniques for electronic environment setting, signal processing, and/or data processing. Terms such as “mechanism”, “element”, “means” and “composition” may be used widely, and are not limited to mechanical and physical configurations.

또한, 도면에 도시된 구성 요소들 간의 연결 선 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것일 뿐이다. 실제 장치에서는 대체 가능하거나 추가된 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들에 의해 구성 요소들 간의 연결이 나타내어질 수 있다.In addition, the connecting lines or connecting members between the components illustrated in the drawings are merely illustrative of functional connections and/or physical or circuit connections. In an actual device, connections between components may be represented by various functional connections, physical connections, or circuit connections that can be replaced or added.

아래에서는 첨부한 도면을 참고하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art may easily implement the present invention. However, the present invention may be implemented in various different forms and is not limited to the embodiments described herein.

도 1은, 일 실시예에 따른 영상 기록 장치의 블록도이다. 도 1에 도시된 바와 같이, 일 실시예에 따른 영상 기록 장치(200)는 센싱부(230), 제어부(260), 출력부(210), 입력부(220) 및 메모리(240)를 더 포함할 수 있다. 그러나 도시된 구성요소 모두가 필수구성요소인 것은 아니다. 도시된 구성요소보다 많은 구성요소에 의해 영상 기록 장치(200)가 구현될 수도 있고, 그보다 적은 구성요소에 의해서도 영상 기록 장치(200)는 구현될 수 있다.1 is a block diagram of an image recording apparatus according to an exemplary embodiment. As shown in FIG. 1, the image recording apparatus 200 according to an embodiment further includes a sensing unit 230, a control unit 260, an output unit 210, an input unit 220, and a memory 240. I can. However, not all of the illustrated components are essential components. The image recording apparatus 200 may be implemented by more elements than the illustrated elements, or the image recording apparatus 200 may be implemented by fewer elements than the illustrated elements.

영상 기록 장치(200)는 차량(100)에 탑재되어 차량(100) 외부의 영상을 기록 및 표시할 수 있다. 영상 기록 장치(200)는 배치되는 방향에 따라 차량(100) 전방의 영상 또는 후방의 영상을 기록 및 표시할 수 있다. 영상 기록 장치(200)는 이 밖에도 차량(100)의 운행 정보 등을 기록할 수 있다. 영상 기록 장치(200)는 획득한 영상을 통신부(250)를 통해 외부의 전자 기기와 공유할 수 있다. 예를 들면, 영상 기록 장치(200)는 사고 시 영상 및 운행 정보의 기록을 위한 차량용 블랙박스일 수 있다.The image recording device 200 may be mounted on the vehicle 100 to record and display an image outside the vehicle 100. The image recording apparatus 200 may record and display an image of a front or a rear of the vehicle 100 according to an arrangement direction. In addition, the image recording apparatus 200 may record driving information of the vehicle 100 and the like. The image recording apparatus 200 may share the acquired image with an external electronic device through the communication unit 250. For example, the image recording apparatus 200 may be a vehicle black box for recording images and driving information in case of an accident.

출력부(210)는, 제어부(260)에서 결정된 동작을 수행하기 위한 것으로, 이에는 디스플레이부(212) 및 음향 출력부(214) 등이 포함될 수 있다. The output unit 210 is for performing an operation determined by the control unit 260, and may include a display unit 212 and an audio output unit 214.

디스플레이부(212)는 사용자 인터페이스를 표시할 수 있다. 또한, 일 실시예에 따른 디스플레이부(212)는 사용자 인터페이스를 통해 획득된 사용자 입력을 기초로 수행한 동작의 실행 결과를 표시할 수도 있다. The display unit 212 may display a user interface. In addition, the display unit 212 according to an embodiment may display an execution result of an operation performed based on a user input acquired through a user interface.

디스플레이부(212)는 제어부(260)에서 처리되는 정보를 표시할 수 있다. 예를 들면, 디스플레이부(212)는 촬영한 영상 정보 및 차량 관련 정보를 표시할 수 있다. The display unit 212 may display information processed by the controller 260. For example, the display unit 212 may display photographed image information and vehicle-related information.

여기서, 촬영한 영상 정보는 카메라(224)를 통해 획득한 차량(100)의 전방, 후방 또는 카메라(224)의 방향에 따른 영상이다. 차량 관련 정보는, 현재 차량(100)의 상태를 알려주는 차량 상태 정보 또는 차량의 운행과 관련되는 차량 운행 정보를 포함할 수 있다. 예를 들어, 디스플레이부(212)는 현재 차량의 속도(또는 속력), 주변 차량의 속도(또는 속력), 현재 차량과 주변 차량 간의 거리 정보 및 현재 차량과 주변 차량의 운동 방향 등을 표시할 수 있다.Here, the captured image information is an image obtained through the camera 224 in the front or rear of the vehicle 100 or according to the direction of the camera 224. The vehicle-related information may include vehicle state information indicating the current state of the vehicle 100 or vehicle operation information related to the operation of the vehicle. For example, the display unit 212 may display the current vehicle speed (or speed), the speed (or speed) of the surrounding vehicle, distance information between the current vehicle and the surrounding vehicle, and the movement direction of the current vehicle and the surrounding vehicle. have.

음향 출력부(214)는 오디오 데이터를 출력한다. 또한, 음향 출력부(214)는 영상 기록 장치(200)에서 수행되는 기능(예를 들어, 알림음)과 관련된 음향 신호를 출력한다. 이러한 음향 출력부(214)에는 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다. 음향 출력부(214)는 차량 내부 뿐만 아니라 차량 외부로 알림음을 출력할 수 있다. The sound output unit 214 outputs audio data. In addition, the sound output unit 214 outputs an sound signal related to a function (eg, a notification sound) performed by the image recording apparatus 200. The sound output unit 214 may include a speaker, a buzzer, and the like. The sound output unit 214 may output a notification sound not only inside the vehicle but also outside the vehicle.

입력부(220)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(224)와 마이크로폰(222) 등이 포함될 수 있다. The input unit 220 is for inputting an audio signal or a video signal, and may include a camera 224 and a microphone 222.

카메라(224)는 화상 통화모드 또는 촬영 모드에서 이미지 센서를 통해 정지영상 또는 동영상 등의 화상 프레임을 얻을 수 있다. 이미지 센서를 통해 캡쳐된 이미지는 제어부(260) 또는 별도의 이미지 처리부(미도시)를 통해 처리될 수 있다. The camera 224 may obtain an image frame such as a still image or a video through an image sensor in a video call mode or a photographing mode. The image captured through the image sensor may be processed by the controller 260 or a separate image processing unit (not shown).

카메라(224)에서 처리된 화상 프레임은 메모리(240)에 저장되거나 통신부(250)를 통하여 외부로 전송될 수 있다. 카메라(224)는 영상 기록 장치(200)의 구성 태양에 따라 2개 이상이 구비되어 각각 상이한 방향을 촬영할 수 있다.The image frame processed by the camera 224 may be stored in the memory 240 or transmitted to the outside through the communication unit 250. Two or more cameras 224 may be provided depending on the configuration aspect of the image recording apparatus 200 to take pictures in different directions.

카메라(224)는 렌즈, 이미지 센서 및 프로세서를 포함할 수 있다. 프로세서는, 촬영되는 영상을 컴퓨터 처리하여, 데이터 또는 정보를 생성하고, 생성된 데이터 또는 정보를 제어부(260)에 전달할 수 있다. 카메라(224)에 포함되는 프로세서는, 제어부(260)의 제어를 받을 수 있다.The camera 224 may include a lens, an image sensor, and a processor. The processor may computer-process the captured image to generate data or information, and transmit the generated data or information to the controller 260. The processor included in the camera 224 may be controlled by the controller 260.

카메라(224)는 스테레오 카메라(224)를 포함할 수 있다. 이 경우, 카메라(224)의 프로세서는, 스테레오 영상에서 검출된 디스페리티(disparity) 차이를 이용하여, 오브젝트와의 거리, 영상에서 검출된 오브젝트와의 상대 속도, 복수의 오브젝트 간의 거리를 검출할 수 있다.The camera 224 may include a stereo camera 224. In this case, the processor of the camera 224 uses the difference in disparity detected in the stereo image to detect the distance to the object, the relative speed with the object detected in the image, and the distance between a plurality of objects. I can.

카메라(224)는 TOF(Time of Flight) 카메라(224)를 포함할 수 있다. 이 경우, 카메라(224)는, 광원(예를 들면, 적외선 또는 레이저) 및 수신부를 포함할 수 있다. 이 경우, 카메라(224)의 프로세서는, 광원에서 발신되는 적외선 또는 레이저가 오브젝트에 반사되어 수신될 때까지의 시간(TOF)에 기초하여 오브젝트와의 거리, 오브젝트와의 상대 속도, 복수의 오브젝트 간의 거리를 검출할 수 있다.The camera 224 may include a Time of Flight (TOF) camera 224. In this case, the camera 224 may include a light source (eg, infrared or laser) and a receiver. In this case, the processor of the camera 224 is based on the distance to the object, the relative speed with the object, and between a plurality of objects based on the time until the infrared ray or laser emitted from the light source is reflected and received by the object (TOF). The distance can be detected.

제어부(260)는 카메라(224)로부터 전달받은 영상을 통신부(250)를 통해 외부의 전자기기에 전송할 수 있다. 외부의 전자기기는 다른 차량에 탑재된 영상 기록 장치(200)일 수 있고, 또는 다른 차량에 탑재된 영상 기록 장치(200)와 통신할 수 있는 서버(300)일 수 있다. 제어부(260)는 통신부를 통해 차량들의 이동 속도 및 이동 방향에 관한 정보들을 외부 기기에 전송할 수 있다.The controller 260 may transmit the image transmitted from the camera 224 to an external electronic device through the communication unit 250. The external electronic device may be an image recording device 200 mounted on another vehicle, or may be a server 300 capable of communicating with the image recording device 200 mounted on another vehicle. The controller 260 may transmit information on the moving speed and direction of movement of the vehicles to the external device through the communication unit.

마이크로폰(222)은, 차량(100) 내에서 발생하는 음성 신호를 감지할 수 있다. 마이크로폰(222)은 외부의 음향 신호를 입력 받아 전기적인 음성 데이터로 처리한다. 예를 들어, 마이크로폰(222)은 사용자의 음성 입력을 수신할 수 있다. 마이크로폰(222)은 외부의 음향 신호를 입력 받는 과정에서 발생 되는 잡음(noise)를 제거하기 위한 다양한 잡음 제거 알고리즘을 이용할 수 있다. The microphone 222 may detect a voice signal generated in the vehicle 100. The microphone 222 receives an external sound signal and processes it as electrical voice data. For example, the microphone 222 may receive a user's voice input. The microphone 222 may use various noise removal algorithms to remove noise generated in the process of receiving an external sound signal.

마이크로폰(222)은 복수일 수 있고, 각 마이크로폰(222)이 음성 신호를 감지하는 위치는 상이하게 배치될 수 있다.There may be a plurality of microphones 222, and positions at which each microphone 222 senses a voice signal may be differently disposed.

센싱부(230)는 차량(100) 내에 위치한 사용자의 입력을 감지한다. 예를 들어, 센싱부(230)는 기 설정된 감지 범위 내의 사용자의 움직임을 감지할 수 있다. 센싱부(230)는 사용자의 입력이 감지됨에 따라, 차량(100) 내에서의 사용자의 위치 정보 및 차량(100)의 주행 상태 정보를 획득한다. The sensing unit 230 detects an input of a user located in the vehicle 100. For example, the sensing unit 230 may detect a user's movement within a preset detection range. The sensing unit 230 acquires location information of the user in the vehicle 100 and driving state information of the vehicle 100 as the user's input is sensed.

센싱부(230)는 사용자의 차량 및 사용자 차량의 주변에 위치하는 차량들의 주행 상태 정보를 획득할 수 있다. 차량 주행 상태 정보는 차량의 이동 속도 및 이동 방향 등을 포함할 수 있다.The sensing unit 230 may acquire driving state information of the user's vehicle and vehicles located around the user's vehicle. The vehicle driving state information may include a moving speed and a moving direction of the vehicle.

센싱부(230)는, 지자기 센서(Magnetic sensor), 가속도 센서(Acceleration sensor), 온/습도 센서, 적외선 센서, 자이로스코프 센서, 위치 센서(예컨대, GPS), 기압 센서, 근접 센서, RGB 센서(illuminance sensor) 및 충격을 감지하는 충격 감지 센서 중 적어도 하나를 포함할 수 있으나, 이에 한정되는 것은 아니다. 충격 감지 센서는, 예를 들면 차량(100)의 급정거 시 또는 급발진 시 발생하는 충격을 감지할 수 있다. 충격 감지 센서는 자이로스코프 센서와 기능적으로 구분되나 물리적으로 동일한 구성일 수 있다. 각 센서들의 기능은 그 명칭으로부터 당업자가 직관적으로 추론할 수 있으므로, 구체적인 설명은 생략하기로 한다. 각 센싱부(230)를 통해 감지된 정보들은 메모리(240)에 기록된다. 제어부는 각 센싱부(230)를 통해 감지한 정보들로부터 차량(100)의 운행 상태를 판단할 수 있다. The sensing unit 230 includes a magnetic sensor, an acceleration sensor, a temperature/humidity sensor, an infrared sensor, a gyroscope sensor, a position sensor (eg, GPS), an atmospheric pressure sensor, a proximity sensor, an RGB sensor ( illuminance sensor) and at least one of an impact detection sensor that detects an impact, but is not limited thereto. The impact detection sensor may detect, for example, an impact that occurs when the vehicle 100 stops suddenly or when the vehicle 100 starts suddenly. The shock sensor is functionally separated from the gyroscope sensor, but may have the same physical configuration. Since the function of each sensor can be intuitively inferred by a person skilled in the art from its name, a detailed description will be omitted. Information sensed through each sensing unit 230 is recorded in the memory 240. The control unit may determine a driving state of the vehicle 100 from information sensed through each sensing unit 230.

제어부(260)는 통상적으로 영상 기록 장치(200)의 전반적인 동작을 제어한다. 예를 들어, 제어부(260)는, 메모리(240)에 저장된 프로그램들을 실행함으로써, 센싱부(230), 출력부(210), 입력부(220) 및 메모리(240) 등을 전반적으로 제어할 수 있다. The control unit 260 generally controls the overall operation of the image recording apparatus 200. For example, the controller 260 may generally control the sensing unit 230, the output unit 210, the input unit 220, and the memory 240 by executing programs stored in the memory 240. .

제어부(260)는 사용자의 위치 정보 및 차량(100)의 주행 상태 정보를 기초로 화면 구성 및 입력 수단 중 적어도 하나에 따라 분류되는 복수의 사용자 인터페이스들 중 어느 하나를 선택한다.The controller 260 selects any one of a plurality of user interfaces classified according to at least one of a screen configuration and input means based on the user's location information and the driving state information of the vehicle 100.

제어부(260)는 영상 처리부(262) 및 사고 과실 분석부(264)를 포함할 수 있다. 영상 처리부(262) 및 사고 과실 분석부(264)는 기능적으로 분류된 제어부(260)의 구성이며, 물리적으로는 하나의 구성일 수 있고, 또는 각각 기능이 분담된 독립적인 구성일 수도 있다. 명세서 전반에 걸쳐서 제어부(260)가 수행하는 것으로 서술된 동작들은 각각 영상 처리부(262) 또는 사고 과실 분석부(264)에서 수행될 수 있다.The control unit 260 may include an image processing unit 262 and an accidental error analysis unit 264. The image processing unit 262 and the accidental error analysis unit 264 are components of the control unit 260 classified functionally, and may be physically a single component, or can be independent components in which functions are shared. Operations described as being performed by the controller 260 throughout the specification may be performed by the image processing unit 262 or the accidental error analysis unit 264, respectively.

영상 처리부(262)는 촬영한 영상 내에서 차선 및 차량들을 인식할 수 있다. 이를 위해 영상 처리부(262)는 전처리 과정으로서, median filtering, sharpening, Gaussian filtering 등의 노이즈 제거 기법을 수행할 수 있다. 이후 영상 처리부(262)는 사물 또는 영역의 윤곽을 찾기 위한 edge detection을 수행할 수 있다. 이후 영상 처리부(262)는 Hough transform 등과 같은 수학적 처리를 통해, edge detection을 통해 찾은 윤곽들 중 차선 및 차량의 윤곽을 판단할 수 있다. 상술한 영상 처리부(262)의 알고리즘 등은 일 예시일 뿐이며, 영상 처리부(262)는 영상 내 차선 및 차량 등을 인식하기 위한 다양한 알고리즘 등을 수행할 수 있다.The image processing unit 262 may recognize lanes and vehicles within the captured image. To this end, the image processing unit 262 may perform noise removal techniques such as median filtering, sharpening, and Gaussian filtering as a preprocessing process. Thereafter, the image processing unit 262 may perform edge detection to find an outline of an object or region. Thereafter, the image processing unit 262 may determine a lane line and an outline of a vehicle among outlines found through edge detection through mathematical processing such as Hough transform. The algorithm of the image processing unit 262 described above is only an example, and the image processing unit 262 may perform various algorithms for recognizing lanes and vehicles within an image.

또, 영상 처리부(262)는 각 차량들의 이동 속도 및 차선을 기준으로 하는 각 차량들의 이동 방향을 획득할 수 있다. 과실 분석을 위해서, 차선에 대한 각 차량들의 이동 방향이 중요하기 때문에, 영상 처리부(262)는 차선을 기준으로 하여 각 차량들의 이동 방향을 획득할 수 있다. 예를 들어, 영상 처리부(262)는 곧게 연장되는 차선을 따라서 차량이 직진 주행하는 경우, 차선을 기준으로 하는 차량의 이동 방향은 0°으로 판단할 수 있다. 또 다른 예를 들어, 영상 처리부(262)는 곧게 연장되는 차선에 수직 방향으로 차량이 침범한 경우, 차선을 기준으로 하는 차량의 이동 방향은 90°으로 판단할 수 있다.In addition, the image processing unit 262 may obtain a moving speed of each vehicle and a moving direction of each vehicle based on a lane. For error analysis, since the moving direction of each vehicle with respect to the lane is important, the image processing unit 262 may obtain the moving direction of each vehicle based on the lane. For example, when the vehicle travels straight along a lane extending straight, the image processing unit 262 may determine a movement direction of the vehicle based on the lane as 0°. For another example, when a vehicle invades in a direction perpendicular to a lane extending straight, the image processing unit 262 may determine a movement direction of the vehicle based on the lane as 90°.

또, 영상 처리부(262)는 촬영한 영상 내에서 차로 정보 및 신호 정보 중 적어도 하나를 인식할 수 있다. 이 때 상술한 알고리즘 등이 수행될 수 있음은 물론이다. 차로 정보는 차로의 개수, 종류, 차로의 폭, 차선의 종류 및 차로의 곧은 정도 등을 포함할 수 있다. 신호 정보는 신호의 유무, 신호의 종류 및 신호등의 색깔 등을 포함할 수 있다.Also, the image processing unit 262 may recognize at least one of lane information and signal information within the captured image. In this case, it goes without saying that the above-described algorithm or the like may be performed. The lane information may include the number and type of lanes, the width of the lane, the type of lane, and the straightness of the lane. The signal information may include the presence or absence of a signal, a type of signal, and a color of a traffic light.

사고 과실 분석부(264)는 각 차량들의 이동 속도 및 이동 방향에 기초하여, 사고에 대한 과실 비율을 획득할 수 있다. 또, 사고 과실 분석부(264)는 차로 정보 및 신호 정보 중 적어도 하나에 기초하여 사고에 대한 과실 비율을 획득할 수 있다. 사고 과실 분석부(264)는 메모리에 저장된 사고 과실을 판단하기 위한 규칙들에 따라, 과실 비율을 산정할 수 있다. The accident error analysis unit 264 may obtain an error rate for an accident based on the movement speed and movement direction of each vehicle. In addition, the accidental error analysis unit 264 may obtain an error rate for an accident based on at least one of lane information and signal information. The accidental error analysis unit 264 may calculate the error rate according to rules for determining the accidental error stored in the memory.

메모리(240)는 제어부(260)의 처리 및 제어를 위한 프로그램을 저장할 수도 있고, 입/출력되는 데이터들을 저장할 수도 있다. The memory 240 may store a program for processing and control of the controller 260 or may store input/output data.

메모리(240)는 사고 과실을 판단하기 위한 규칙들을 저장할 수 있다. 사고 과실 판단을 위한 규칙들은 메모리(240)에 미리 저장되거나, 또는 외부 서버와의 통신을 통해 업데이트될 수도 있다.The memory 240 may store rules for determining the fault of an accident. Rules for determining the fault of an accident may be stored in advance in the memory 240 or may be updated through communication with an external server.

메모리(240)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory) 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 전자기기(100)는 인터넷(internet)상에서 메모리(240)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다.The memory 240 is a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, SD or XD memory), and RAM. (Random Access Memory, RAM), SRAM (Static Random Access Memory), ROM (Read-Only Memory, ROM), EEPROM (Electrically Erasable Programmable Read-Only Memory), PROM (Programmable Read-Only Memory) magnetic memory, magnetic disk And at least one type of storage medium among optical disks. The electronic device 100 may operate in connection with a web storage that performs a storage function of the memory 240 over the Internet.

메모리(240)는 카메라를 통해 촬영한 영상을 저장할 수 있다. 카메라를 통해 촬영된 영상은 자동으로 메모리(240)에 저장될 수 있다. The memory 240 may store an image captured by the camera. An image captured by the camera may be automatically stored in the memory 240.

일 실시예에 따른 메모리(240)는 복수의 운영체제를 저장할 수 있다. 또한, 메모리(240)는 복수의 운영체제 각각에서 실행되는 애플리케이션을 저장할 수 있다. The memory 240 according to an embodiment may store a plurality of operating systems. Also, the memory 240 may store applications that are executed in each of a plurality of operating systems.

메모리(240)에 저장된 프로그램들은 그 기능에 따라 복수 개의 모듈들로 분류할 수 있는데, 예를 들어, UI 모듈(242) 및 터치 스크린 모듈(244) 등으로 분류될 수 있다. Programs stored in the memory 240 may be classified into a plurality of modules according to their functions, for example, a UI module 242 and a touch screen module 244.

UI 모듈(242)은, 복수의 사용자 인터페이스들 중 선택된 사용자 인터페이스 및 그래픽 사용자 인터페이스 등을 제공할 수 있다. 터치 스크린 모듈(244) 은 사용자의 터치 스크린 상의 터치 제스처를 감지하고, 터치 제스처에 관한 정보를 제어부(260)로 전달할 수 있다. 본 발명의 일 실시예에 따른 터치 스크린 모듈(244)은 터치 코드를 인식하고 분석할 수 있다. 터치 스크린 모듈(244)은 컨트롤러를 포함하는 별도의 하드웨어로 구성될 수도 있다.The UI module 242 may provide a user interface and a graphic user interface selected from among a plurality of user interfaces. The touch screen module 244 may detect a user's touch gesture on the touch screen and transmit information on the touch gesture to the controller 260. The touch screen module 244 according to an embodiment of the present invention may recognize and analyze a touch code. The touch screen module 244 may be configured with separate hardware including a controller.

터치스크린의 터치 또는 근접 터치를 감지하기 위해 터치스크린의 내부 또는 근처에 다양한 센서가 구비될 수 있다. 터치스크린의 터치를 감지하기 위한 센서의 일례로 촉각 센서가 있다. 촉각 센서는 사람이 느끼는 정도로 또는 그 이상으로 특정 물체의 접촉을 감지하는 센서를 말한다. 촉각 센서는 접촉면의 거칠기, 접촉 물체의 단단함, 접촉 지점의 온도 등의 다양한 정보를 감지할 수 있다. 또한, 터치스크린의 터치를 감지하기 위한 센서의 일례로 근접 센서가 있다.Various sensors may be provided inside or near the touch screen to sense a touch or a proximity touch of the touch screen. As an example of a sensor for sensing a touch on a touch screen, there is a tactile sensor. The tactile sensor refers to a sensor that detects contact with a specific object to the extent that a person feels it or more. The tactile sensor can detect various information such as roughness of a contact surface, hardness of a contact object, and temperature of a contact point. In addition, as an example of a sensor for sensing a touch of a touch screen, there is a proximity sensor.

도 2는, 일 실시예에 따른 영상 기록 장치가 연결되는 차량의 내부 블록도이다.2 is an internal block diagram of a vehicle to which an image recording device is connected according to an exemplary embodiment.

차량(100)은, 통신부(110), 입력부(120), 센싱부(125) 메모리(130), 출력부(140), 차량 구동부(150), 차량 운전 보조 시스템(ADAS, 160), 제어부(170), 인터페이스부(180) 및 전원 공급부(190)를 포함할 수 있다.The vehicle 100 includes a communication unit 110, an input unit 120, a sensing unit 125, a memory 130, an output unit 140, a vehicle driving unit 150, a vehicle driving assistance system (ADAS, 160), and a control unit ( 170), an interface unit 180 and a power supply unit 190 may be included.

통신부(110)는, 근거리 통신 모듈, 위치 정보 모듈, 광통신 모듈 및 V2X 통신 모듈을 포함할 수 있다.The communication unit 110 may include a short-range communication module, a location information module, an optical communication module, and a V2X communication module.

입력부(120)는, 운전 조작 수단, 카메라, 마이크로폰 및 사용자 입력부를 포함할 수 있다.The input unit 120 may include a driving operation means, a camera, a microphone, and a user input unit.

운전 조작 수단은, 차량(100) 운전을 위한 사용자 입력을 수신한다. 운전 조작 수단은 조향 입력 수단, 쉬프트 입력 수단, 가속 입력 수단, 브레이크 입력 수단을 포함할 수 있다.The driving operation means receives a user input for driving the vehicle 100. The driving operation means may include a steering input means, a shift input means, an acceleration input means, and a brake input means.

가속 입력 수단은, 사용자로부터 차량(100)의 가속을 위한 입력을 수신한다. 브레이크 입력 수단은, 사용자로부터 차량(100)의 감속을 위한 입력을 수신한다.The acceleration input means receives an input for acceleration of the vehicle 100 from a user. The brake input means receives an input for deceleration of the vehicle 100 from a user.

카메라는, 이미지 센서와 영상 처리 모듈을 포함할 수 있다. 카메라는 이미지 센서(예를 들면, CMOS 또는 CCD)에 의해 얻어지는 정지영상 또는 동영상을 처리할 수 있다. 영상 처리 모듈은 이미지 센서를 통해 획득된 정지영상 또는 동영상을 가공하여, 필요한 정보를 추출하고, 추출된 정보를 제어부(170)에 전달할 수 있다.The camera may include an image sensor and an image processing module. The camera can process still or moving images obtained by an image sensor (eg CMOS or CCD). The image processing module may process a still image or a moving image acquired through an image sensor, extract necessary information, and transmit the extracted information to the controller 170.

일 실시예에 따르면, 카메라는 획득한 영상들을 영상 기록 장치(200)에 전송할 수 있다. 이 때 영상 기록 장치(200)는 별도의 카메라(224)를 포함하지 않을 수 있다.According to an embodiment, the camera may transmit the acquired images to the image recording apparatus 200. In this case, the image recording apparatus 200 may not include a separate camera 224.

한편, 차량(100)은 차량 전방 영상을 촬영하는 전방 카메라, 차량 주변 영상을 촬영하는 어라운드 뷰 카메라 및 차량 후방 영상을 촬영하는 후방카메라를 포함할 수 있다. 각각의 카메라는 렌즈, 이미지 센서 및 프로세서를 포함할 수 있다. 프로세서는, 촬영되는 영상을 컴퓨터 처리하여, 데이터 또는 정보를 생성하고, 생성된 데이터 또는 정보를 제어부(170)에 전달할 수 있다. 카메라에 포함되는 프로세서는, 제어부(170)의 제어를 받을 수 있다.Meanwhile, the vehicle 100 may include a front camera for capturing an image in front of the vehicle, an around view camera for capturing an image around the vehicle, and a rear camera for capturing a rear image of the vehicle. Each camera may include a lens, an image sensor and a processor. The processor may computer-process the captured image to generate data or information, and transmit the generated data or information to the controller 170. The processor included in the camera may be controlled by the controller 170.

카메라는 스테레오 카메라를 포함할 수 있다. 이 경우, 카메라의 프로세서는, 스테레오 영상에서 검출된 디스페리티(disparity) 차이를 이용하여, 오브젝트와의 거리, 영상에서 검출된 오브젝트와의 상대 속도, 복수의 오브젝트 간의 거리를 검출할 수 있다.The camera may comprise a stereo camera. In this case, the processor of the camera may detect a distance to an object, a relative speed with an object detected in the image, and distances between a plurality of objects using a difference in disparity detected in the stereo image.

카메라는 TOF(Time of Flight) 카메라를 포함할 수 있다. 이 경우, 카메라는, 광원(예를 들면, 적외선 또는 레이저) 및 수신부를 포함할 수 있다. 이 경우, 카메라의 프로세서는, 광원에서 발신되는 적외선 또는 레이저가 오브젝트에 반사되어 수신될 때까지의 시간(TOF)에 기초하여 오브젝트와의 거리, 오브젝트와의 상대 속도, 복수의 오브젝트 간의 거리를 검출할 수 있다.The camera may include a Time of Flight (TOF) camera. In this case, the camera may include a light source (eg, infrared or laser) and a receiver. In this case, the processor of the camera detects the distance to the object, the relative speed with the object, and the distance between a plurality of objects based on the time until the infrared or laser emitted from the light source is reflected and received (TOF). can do.

한편, 후방 카메라는, 후방 번호판 또는 트렁크 또는 테일 게이트 스위치 부근에 배치될 수 있으나, 후방 카메라가 배치되는 위치는 이에 제한되지 않는다.Meanwhile, the rear camera may be disposed near the rear license plate or the trunk or the tail gate switch, but the position at which the rear camera is disposed is not limited thereto.

복수의 카메라에서 촬영된 각각의 이미지는, 카메라의 프로세서에 전달되고, 프로세서는 각각의 이미지를 합성하여, 차량 주변 영상을 생성할 수 있다. 이때, 차량 주변 영상은 탑뷰 이미지 또는 버드 아이 이미지로 디스플레이부를 통해 표시될 수 있다.Each image captured by the plurality of cameras is transmitted to a processor of the camera, and the processor synthesizes each image to generate an image around the vehicle. In this case, the image around the vehicle may be displayed as a top view image or a bird eye image through the display unit.

센싱부(125)는, 차량(100)의 각종 상황을 센싱한다. 이를 위해, 센싱부(125)는, 충돌 센서, 휠 센서(wheel sensor), 속도 센서, 경사 센서, 중량 감지 센서, 헤딩 센서(heading sensor), 요 센서(yaw sensor), 자이로 센서(gyro sensor), 포지션 모듈(position module), 차량 전진/후진 센서, 배터리 센서, 연료 센서, 타이어 센서, 핸들 회전에 의한 스티어링 센서, 차량 내부 온도 센서, 차량 내부 습도 센서, 초음파 센서, 조도 센서, 레이더, 라이더 등을 포함할 수 있다.The sensing unit 125 senses various situations of the vehicle 100. To this end, the sensing unit 125 includes a collision sensor, a wheel sensor, a speed sensor, a tilt sensor, a weight detection sensor, a heading sensor, a yaw sensor, and a gyro sensor. , Position module, vehicle forward/reverse sensor, battery sensor, fuel sensor, tire sensor, steering sensor by steering wheel rotation, vehicle interior temperature sensor, vehicle interior humidity sensor, ultrasonic sensor, illumination sensor, radar, rider, etc. It may include.

일 실시예에 따르면, 센싱부(125)는 획득한 정보들을 영상 기록 장치(200)에 전송할 수 있다. 이 때 영상 기록 장치(200)는 별도의 센싱부(230)를 포함하지 않을 수 있다.According to an embodiment, the sensing unit 125 may transmit the acquired information to the image recording apparatus 200. In this case, the image recording apparatus 200 may not include a separate sensing unit 230.

이에 의해, 센싱부(125)는, 차량 충돌 정보, 차량 방향 정보, 차량 위치 정보(GPS 정보), 차량 각도 정보, 차량 속도 정보, 차량 가속도 정보, 차량 기울기 정보, 차량 전진/후진 정보, 배터리 정보, 연료 정보, 타이어 정보, 차량 램프 정보, 차량 내부 온도 정보, 차량 내부 습도 정보, 스티어링 휠 회전 각도, 차량 외부 조도 등에 대한 센싱 신호를 획득할 수 있다.Accordingly, the sensing unit 125 includes vehicle collision information, vehicle direction information, vehicle position information (GPS information), vehicle angle information, vehicle speed information, vehicle acceleration information, vehicle inclination information, vehicle forward/reverse information, and battery information. , Fuel information, tire information, vehicle lamp information, vehicle internal temperature information, vehicle internal humidity information, steering wheel rotation angle, vehicle external illumination, and the like may be acquired.

메모리(130)는, 제어부(170)와 전기적으로 연결된다. 메모리(130)는 유닛에 대한 기본데이터, 유닛의 동작제어를 위한 제어데이터, 입출력되는 데이터를 저장할 수 있다. 메모리(130)는, 하드웨어적으로, ROM, RAM, EPROM, 플래시 드라이브, 하드 드라이브 등과 같은 다양한 저장기기 일 수 있다. 메모리(130)는 제어부(170)의 처리 또는 제어를 위한 프로그램 등, 차량(100) 전반의 동작을 위한 다양한 데이터를 저장할 수 있다.The memory 130 is electrically connected to the control unit 170. The memory 130 may store basic data for a unit, control data for controlling the operation of the unit, and input/output data. In terms of hardware, the memory 130 may be various storage devices such as ROM, RAM, EPROM, flash drive, and hard drive. The memory 130 may store various data for overall operation of the vehicle 100, such as a program for processing or controlling the controller 170.

출력부(140)는, 제어부(170)에서 처리된 정보를 출력하기 위한 것으로, 디스플레이부, 음향 출력부 및 햅틱 출력부를 포함할 수 있다.The output unit 140 is for outputting information processed by the control unit 170 and may include a display unit, an audio output unit, and a haptic output unit.

디스플레이부는 제어부(170)에서 처리되는 정보를 표시할 수 있다. 예를 들면, 디스플레이부는 차량 관련 정보를 표시할 수 있다. 여기서, 차량 관련 정보는, 현재 차량의 상태를 알려주는 차량 상태 정보 또는 차량의 운행과 관련되는 차량 운행 정보를 포함할 수 있다. 예를 들어, 디스플레이부는 현재 차량의 속도(또는 속력), 주변차량의 속도(또는 속력) 및 현재 차량과 주변차량 간의 거리 정보를 표시할 수 있다.The display unit may display information processed by the controller 170. For example, the display unit may display vehicle-related information. Here, the vehicle-related information may include vehicle state information indicating the current state of the vehicle or vehicle operation information related to the operation of the vehicle. For example, the display unit may display current vehicle speed (or speed), speed (or speed) of surrounding vehicles, and distance information between the current vehicle and surrounding vehicles.

한편, 디스플레이부는 운전자가 운전을 함과 동시에 차량 상태 정보 또는 차량 운행 정보를 확인할 수 있도록 클러스터(cluster)를 포함할 수 있다. 클러스터는 대시보드 위에 위치할 수 있다. 이 경우, 운전자는, 시선을 차량 전방에 유지한 채로 클러스터에 표시되는 정보를 확인할 수 있다.Meanwhile, the display unit may include a cluster so that the driver can check vehicle status information or vehicle operation information while driving. Clusters can be placed on the dashboard. In this case, the driver can check information displayed on the cluster while keeping his gaze in front of the vehicle.

음향 출력부는 제어부(170)로부터의 전기 신호를 오디오 신호로 변환하여 출력한다. 이를 위해, 음향 출력부는 스피커 등을 구비할 수 있다.The sound output unit converts the electrical signal from the control unit 170 into an audio signal and outputs it. To this end, the sound output unit may include a speaker or the like.

차량 구동부(150)는, 차량 각종 장치의 동작을 제어할 수 있다. 차량 구동부(150)는 동력원 구동부, 조향 구동부, 브레이크 구동부, 램프 구동부, 공조 구동부, 윈도우 구동부, 에어백 구동부, 썬루프 구동부 및 서스펜션 구동부를 포함할 수 있다.The vehicle driving unit 150 may control operations of various vehicle devices. The vehicle driving unit 150 may include a power source driving unit, a steering driving unit, a brake driving unit, a lamp driving unit, an air conditioning driving unit, a window driving unit, an airbag driving unit, a sunroof driving unit, and a suspension driving unit.

동력원 구동부는, 차량(100) 내의 동력원에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 화석 연료 기반의 엔진(미도시)이 동력원인 경우, 동력원 구동부는, 엔진에 대한 전자식 제어를 수행할 수 있다. 이에 의해, 엔진의 출력 토크 등을 제어할 수 있다. 동력원 구동부가 엔진인 경우, 제어부(170)의 제어에 따라, 엔진 출력 토크를 제한하여 차량의 속도를 제한할 수 있다.The power source driving unit may perform electronic control on the power source in the vehicle 100. For example, when a fossil fuel-based engine (not shown) is a power source, the power source driving unit may perform electronic control on the engine. Thereby, it is possible to control the output torque of the engine and the like. When the power source driver is an engine, the speed of the vehicle may be limited by limiting the engine output torque according to the control of the controller 170.

브레이크 구동부는, 차량(100) 내의 브레이크 장치(brake apparatus)(미도시)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 바퀴에 배치되는 브레이크의 동작을 제어하여, 차량(100)의 속도를 줄일 수 있다. 다른 예로, 좌측 바퀴와 우측 바퀴에 각각 배치되는 브레이크의 동작을 달리하여, 차량(100)의 진행 방향을 좌측, 또는 우측으로 조정할 수 있다.The brake driving unit may perform electronic control of a brake apparatus (not shown) in the vehicle 100. For example, it is possible to reduce the speed of the vehicle 100 by controlling the operation of the brake disposed on the wheel. As another example, the driving direction of the vehicle 100 may be adjusted to the left or to the right by different operations of the brakes disposed on the left and right wheels.

램프 구동부는, 차량 내, 외부에 배치되는 램프의 턴 온/턴 오프를 제어할 수 있다. 또한, 램프의 빛의 세기, 방향 등을 제어할 수 있다. 예를 들면, 방향 지시 램프, 브레이크 램프 등의 대한 제어를 수행할 수 있다.The lamp driver may control turning on/off of lamps disposed inside or outside the vehicle. In addition, it is possible to control the light intensity and direction of the lamp. For example, it is possible to control a direction indicator lamp, a brake lamp, and the like.

제어부(170)는, 차량(100) 내의 각 유닛의 전반적인 동작을 제어할 수 있다. 제어부(170)는 ECU(Electronic Contol Unit)로 명명될 수 있다. 상술한 추돌 방지 장치는 제어부(170)에 의해 구동될 수 있다.The controller 170 may control the overall operation of each unit in the vehicle 100. The control unit 170 may be referred to as an ECU (Electronic Control Unit). The above-described collision preventing device may be driven by the control unit 170.

제어부(170)는, 하드웨어적으로, ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로프로세서(microprocessors), 기타 기능 수행을 위한 전기적 유닛 중 적어도 하나를 이용하여 구현될 수 있다.In hardware, the control unit 170 includes application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs), and processors. processors), controllers, micro-controllers, microprocessors, and electrical units for performing other functions.

일 실시 예에서 제어부(170)는 차량의 주행 중 ADAS 카메라를 이용하여 도로 영상을 촬영하고, 촬영된 도로 영상으로부터 도로의 수평 데이터를 획득하고, 차량의 주행 중 차량의 센서를 이용하여 차체 기울기를 측정한 기울기 데이터를 획득하고, 획득된 수평 데이터 및 기울기 데이터를 기초로 ADAS 카메라의 위치를 보정한다.In an embodiment, the control unit 170 captures a road image using an ADAS camera while the vehicle is driving, acquires horizontal data of the road from the photographed road image, and calculates a body inclination using a vehicle sensor while the vehicle is driving. The measured tilt data is acquired, and the position of the ADAS camera is corrected based on the acquired horizontal data and tilt data.

인터페이스부(180)는, 차량(100)에 연결되는 다양한 종류의 외부 기기와의 통로 역할을 수행할 수 있다. 예를 들면, 인터페이스부(180)는 이동 단말기(미도시)와 연결 가능한 포트를 구비할 수 있고, 포트를 통해, 이동 단말기(미도시)와 연결할 수 있다. 이 경우, 인터페이스부(180)는 이동 단말기와 데이터를 교환할 수 있다.The interface unit 180 may serve as a passage for various types of external devices connected to the vehicle 100. For example, the interface unit 180 may include a port that can be connected to a mobile terminal (not shown), and can be connected to a mobile terminal (not shown) through the port. In this case, the interface unit 180 may exchange data with the mobile terminal.

전원 공급부(190)는, 제어부(170)의 제어에 따라, 각 구성요소들의 동작에 필요한 전원을 공급할 수 있다. 특히, 전원 공급부(190)는, 차량 내부의 배터리(미도시) 등으로부터 전원을 공급받을 수 있다.The power supply unit 190 may supply power required for operation of each component under the control of the controller 170. In particular, the power supply unit 190 may receive power from a battery (not shown) inside the vehicle.

도 3은, 일 실시예에 따른 영상 기록 장치의 동작 방법에 관한 순서도이다. 도 4는, 일 실시예에 따른 영상 기록 장치가 동작하는 도로 상황에 관한 도면이고, 도 5는, 도 4의 도로 상황을 촬영한 영상 기록 장치의 화면의 일 실시예에 관한 도면이다.3 is a flowchart illustrating a method of operating an image recording apparatus according to an exemplary embodiment. FIG. 4 is a diagram illustrating a road condition in which the image recording apparatus operates according to an exemplary embodiment, and FIG. 5 is a diagram illustrating a screen of an image recording apparatus photographing the road condition of FIG. 4.

도 3을 참조하면, 영상 기록 장치(200)는 차량에 부착된 카메라를 통해, 영상을 촬영할 수 있다(S1100). 영상 기록 장치(200)는 카메라(224) 또는 차량에 내장된 카메라가 촬영하는 영상을 획득할 수 있다. Referring to FIG. 3, the image recording apparatus 200 may capture an image through a camera attached to a vehicle (S1100). The image recording apparatus 200 may acquire an image photographed by the camera 224 or a camera built into the vehicle.

영상 기록 장치(200)는 차량의 주행 시 주행 상태에 따라 촬영 방향을 설정할 수 있다. 예를 들면, 영상 기록 장치(200)는 차량이 전진 주행하는 경우, 차량의 전방을 촬영할 수 있고, 차량이 후진하는 경우에는 차량의 후방을 촬영할 수 있다. 또는, 영상 기록 장치(200)는 차량이 주행하지 않는 경우에도 차량의 주변을 촬영할 수 있다.The image recording apparatus 200 may set a photographing direction according to a driving state while the vehicle is driving. For example, the image recording apparatus 200 may photograph the front of the vehicle when the vehicle travels forward, and photograph the rear of the vehicle when the vehicle travels backward. Alternatively, the image recording apparatus 200 may photograph the surroundings of the vehicle even when the vehicle is not traveling.

도 4를 참조하면, 제1 차량(2100)에 부착된 영상 기록 장치(200)는 카메라를 통해, 제2 차로(1200)를 주행하는 제1 차량(2100)과, 제3 차로를 주행하는 제3 차량(1300) 간 발생한 추돌 사고 현장을 촬영할 수 있다. 도 5를 참조하면, 영상 기록 장치(200)는 촬영한 영상을 디스플레이부를 통해 표시할 수 있다.Referring to FIG. 4, the image recording apparatus 200 attached to the first vehicle 2100 includes a first vehicle 2100 driving a second lane 1200 and a third driving vehicle 2100 driving a third lane through a camera. 3 It is possible to photograph the scene of a collision between the vehicles 1300. Referring to FIG. 5, the image recording apparatus 200 may display a captured image through a display unit.

이후, 영상 기록 장치(200)는 촬영한 영상 내에서 차선 및 차량들을 인식할 수 있다(S1200). 영상 기록 장치(200)의 영상 처리부(262)는 촬영 영상을 분석함으로써 차선 및 차량 등을 인식할 수 있다. 또, 영상 처리부(262)는 촬영 영상으로부터 차로 정보 또는 신호 정보 등을 획득할 수도 있다. 이 때 영상 처리부(262)는 상술한 바와 같이, 노이즈 제거를 위한 전처리 과정, 윤곽 추출 과정, 윤곽으로부터 물체 인식 과정 등을 수행할 수 있다.Thereafter, the image recording apparatus 200 may recognize lanes and vehicles within the captured image (S1200). The image processing unit 262 of the image recording apparatus 200 may recognize a lane and a vehicle by analyzing the captured image. Also, the image processing unit 262 may obtain lane information or signal information from the captured image. In this case, as described above, the image processing unit 262 may perform a pre-processing process for removing noise, a contour extraction process, and an object recognition process from the outline.

도 5를 참조하면, 영상 처리부(262)는 제1 차로(1100), 제2 차로(1200), 제3 차로(1300) 및 각 차로를 따라 주행하는 제1 차량(2100), 제2 차량(2200) 및 제3 차량(2300)을 인식할 수 있다.Referring to FIG. 5, the image processing unit 262 includes a first lane 1100, a second lane 1200, a third lane 1300, and a first vehicle 2100 and a second vehicle driving along each lane. 2200) and the third vehicle 2300 may be recognized.

영상 기록 장치(200)는 각 차량들의 이동 속도 및 차선을 기준으로 각 차량들의 이동 방향을 획득할 수 있다(S1300). 도 5를 참조하면, 영상 처리부(262)는 제2 차량(2200)의 이동 속도가 70km/h 임을 영상 분석을 통해 획득할 수 있다. 또는 영상 기록 장치(200)는, 센싱부(230) 또는 차량 내장 센싱부(125)를 통해 차량의 이동 속도를 획득할 수도 있다.The image recording apparatus 200 may obtain a moving direction of each vehicle based on a moving speed and a lane of each vehicle (S1300). Referring to FIG. 5, the image processing unit 262 may obtain that the moving speed of the second vehicle 2200 is 70 km/h through image analysis. Alternatively, the image recording apparatus 200 may acquire the moving speed of the vehicle through the sensing unit 230 or the in-vehicle sensing unit 125.

또, 영상 기록 장치(200)는 제2 차량(2200)의 주행 차로인 제1 차로(1100)를 기준으로 한 제2 차량(2200)의 이동 방향 5°를 획득할 수 있다. 또는 영상 기록 장치(200)는, 센싱부(230) 또는 차량 내장 센싱부(125)를 통해 제2 차량(2200)의 이동 방향을 획득할 수도 있다.In addition, the image recording apparatus 200 may acquire a moving direction 5° of the second vehicle 2200 based on the first lane 1100, which is a driving lane of the second vehicle 2200. Alternatively, the image recording apparatus 200 may acquire the moving direction of the second vehicle 2200 through the sensing unit 230 or the in-vehicle sensing unit 125.

마찬가지로, 영상 기록 장치(200)는 제1 차량(2100)의 이동 속도 60km/h 및 제2 차로(1200)를 기준으로 한 이동 방향 20°를 획득할 수 있다. 또, 영상 기록 장치(200)는 제3 차량(2300)의 이동 속도 80km/h 및 제3 차로(1300)를 기준으로 한 이동 방향 75°를 획득할 수 있다.Likewise, the image recording apparatus 200 may acquire a moving speed of 60 km/h of the first vehicle 2100 and a moving direction of 20° based on the second lane 1200. In addition, the image recording apparatus 200 may acquire a movement speed of 80 km/h of the third vehicle 2300 and a movement direction of 75° based on the third lane 1300.

영상 기록 장치(200)는 디스플레이를 통해 각 차량들의 이동 속도 및 이동 방향을 표시할 수 있다(S1400). 영상 기록 장치(200)는 각 차량들에 대하여 획득한 이동 속도 및 차로를 기준으로 한 이동 방향을 디스플레이부에 표시할 수 있다. 이로써, 사용자는 사고 발생에 대한 과실 여부를 판단하는 근거로서 이동 속도 및 이동 방향을 활용할 수 있다. 일 실시예에 따르면, 영상 기록 장치(200)는 획득한 이동 속도 및 차로를 기준으로 한 이동 방향을 통신부를 통해 외부 기기에 전송할 수 있다.The image recording apparatus 200 may display a moving speed and a moving direction of each vehicle through a display (S1400). The image recording apparatus 200 may display a moving speed obtained for each vehicle and a moving direction based on a lane on the display unit. Accordingly, the user can use the moving speed and the moving direction as a basis for determining whether or not the accident has occurred. According to an embodiment, the image recording apparatus 200 may transmit the acquired moving speed and a moving direction based on a lane to an external device through a communication unit.

또, 영상 기록 장치(200)는 각 차량들의 이동 속도 및 이동 방향에 기초하여, 사고에 대한 과실 비율을 획득할 수 있다(S1500). 실시예에 따르면, 영상 기록 장치(200)는 과실 비율을 산정하기 위한 규칙들을 메모리(240)로부터 참조할 수 있다. 실시예에 따르면, 영상 기록 장치(200)는 과실 비율을 산정하기 위한 규칙들을 외부 서버로부터 수신할 수 있다. 외부 서버는 예를 들면, 도로교통안전관리공단의 서버일 수 있다.In addition, the image recording apparatus 200 may obtain an error ratio for an accident based on the moving speed and the moving direction of each vehicle (S1500). According to an embodiment, the video recording apparatus 200 may refer to rules for calculating the fruit ratio from the memory 240. According to an embodiment, the video recording apparatus 200 may receive rules for calculating the fruit ratio from an external server. The external server may be, for example, a server of the Road Traffic Safety Management Corporation.

일 실시 예에 따른 장치는 프로세서, 프로그램 데이터를 저장하고 실행하는 메모리, 디스크 드라이브와 같은 영구 저장부(permanent storage), 외부 장치와 통신하는 통신 포트, 터치 패널, 키(key), 버튼 등과 같은 사용자 인터페이스 장치 등을 포함할 수 있다. 소프트웨어 모듈 또는 알고리즘으로 구현되는 방법들은 상기 프로세서상에서 실행 가능한 컴퓨터가 읽을 수 있는 코드들 또는 프로그램 명령들로서 컴퓨터가 읽을 수 있는 기록 매체 상에 저장될 수 있다. 여기서 컴퓨터가 읽을 수 있는 기록 매체로 마그네틱 저장 매체(예컨대, ROM(read-only memory), RAM(random-access memory), 플로피 디스크, 하드 디스크 등) 및 광학적 판독 매체(예컨대, 시디롬(CD-ROM), 디브이디(DVD: Digital Versatile Disc)) 등이 있다. 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템들에 분산되어, 분산 방식으로 컴퓨터가 판독 가능한 코드가 저장되고 실행될 수 있다. 매체는 컴퓨터에 의해 판독가능하며, 메모리에 저장되고, 프로세서에서 실행될 수 있다. A device according to an embodiment includes a processor, a memory for storing and executing program data, a permanent storage such as a disk drive, a communication port for communicating with an external device, a touch panel, a user such as a key, a button, etc. It may include an interface device or the like. Methods implemented as software modules or algorithms may be stored on a computer-readable recording medium as computer-readable codes or program instructions executable on the processor. Here, as a computer-readable recording medium, a magnetic storage medium (e.g., read-only memory (ROM), random-access memory (RAM), floppy disk, hard disk, etc.) and optical reading medium (e.g., CD-ROM ) And DVD (Digital Versatile Disc). The computer-readable recording medium is distributed over network-connected computer systems, so that computer-readable codes can be stored and executed in a distributed manner. The medium is readable by a computer, stored in memory, and executed on a processor.

도면에 도시된 실시 예들에서 참조 부호를 기재하였으며, 실시 예들을 설명하기 위하여 특정 용어들을 사용하였으나, 특정 용어에 의해 본 발명이 한정되는 것은 아니며, 실시 예는 당업자에 있어서 통상적으로 생각할 수 있는 모든 구성 요소들을 포함할 수 있다. Reference numerals are described in the embodiments shown in the drawings, and specific terms are used to describe the embodiments, but the present invention is not limited by specific terms, and the embodiments are all configurations commonly conceived by those skilled in the art. It can contain elements.

실시 예는 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들은 특정 기능들을 실행하는 다양한 개수의 하드웨어 또는/및 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 실시 예는 하나 이상의 마이크로프로세서들의 제어 또는 다른 제어 장치들에 의해서 다양한 기능들을 실행할 수 있는, 메모리, 프로세싱, 로직(logic), 룩 업 테이블(look-up table) 등과 같은 직접 회로 구성들을 채용할 수 있다. 본 발명에의 구성 요소들이 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있는 것과 유사하게, 실시 예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 실시 예는 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. “매커니즘”, “요소”, “수단”, “구성”과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다. 상기 용어는 프로세서 등과 연계하여 소프트웨어의 일련의 처리들(routines)의 의미를 포함할 수 있다.An embodiment may be represented by functional block configurations and various processing steps. These functional blocks may be implemented with various numbers of hardware or/and software configurations that perform specific functions. For example, the embodiment is an integrated circuit configuration such as memory, processing, logic, a look-up table, etc., capable of executing various functions by controlling one or more microprocessors or other control devices Can be hired. Similar to how the components of the present invention can be implemented with software programming or software elements, embodiments include various algorithms implemented with a combination of data structures, processes, routines or other programming components, including C, C++. , Java, assembler, or the like may be implemented in a programming or scripting language. Functional aspects can be implemented with an algorithm running on one or more processors. In addition, the embodiments may employ conventional techniques for electronic environment setting, signal processing, and/or data processing. Terms such as “mechanism”, “element”, “means”, and “composition” can be used widely, and are not limited to mechanical and physical configurations. The term may include the meaning of a series of routines of software in connection with a processor or the like.

실시 예에서 설명하는 특정 실행들은 일 실시 예들로서, 어떠한 방법으로도 실시 예의 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다. 또한, 도면에 도시된 구성 요소들 간의 선들의 연결 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것으로서, 실제 장치에서는 대체 가능하거나 추가의 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들로서 나타내어질 수 있다. 또한, “필수적인”, “중요하게” 등과 같이 구체적인 언급이 없다면 본 발명의 적용을 위하여 반드시 필요한 구성 요소가 아닐 수 있다.Specific implementations described in the embodiments are examples, and do not limit the scope of the embodiments in any way. For brevity of the specification, descriptions of conventional electronic configurations, control systems, software, and other functional aspects of the systems may be omitted. In addition, the connection or connection members of the lines between the components shown in the drawings exemplarily represent functional connections and/or physical or circuit connections. Connections, or circuit connections, may be represented. In addition, if there is no specific mention such as “essential” or “importantly”, it may not be an essential component for the application of the present invention.

실시 예의 명세서(특히 특허청구범위에서)에서 “상기”의 용어 및 이와 유사한 지시 용어의 사용은 단수 및 복수 모두에 해당하는 것일 수 있다. 또한, 실시 예에서 범위(range)를 기재한 경우 상기 범위에 속하는 개별적인 값을 적용한 발명을 포함하는 것으로서(이에 반하는 기재가 없다면), 상세한 설명에 상기 범위를 구성하는 각 개별적인 값을 기재한 것과 같다. 마지막으로, 실시 예에 따른 방법을 구성하는 단계들에 대하여 명백하게 순서를 기재하거나 반하는 기재가 없다면, 상기 단계들은 적당한 순서로 행해질 수 있다. 반드시 상기 단계들의 기재 순서에 따라 실시 예들이 한정되는 것은 아니다. 실시 예에서 모든 예들 또는 예시적인 용어(예들 들어, 등등)의 사용은 단순히 실시 예를 상세히 설명하기 위한 것으로서 특허청구범위에 의해 한정되지 않는 이상 상기 예들 또는 예시적인 용어로 인해 실시 예의 범위가 한정되는 것은 아니다. 또한, 당업자는 다양한 수정, 조합 및 변경이 부가된 특허청구범위 또는 그 균등물의 범주 내에서 설계 조건 및 팩터에 따라 구성될 수 있음을 알 수 있다.In the specification of the embodiment (especially in the claims), the use of the term "above" and a similar term may correspond to both the singular and the plural. In addition, when a range is described in an embodiment, the invention to which individual values falling within the range are applied (unless otherwise stated), it is the same as describing each individual value constituting the range in the detailed description. . Finally, if there is no clearly stated or contrary to the order of steps constituting the method according to the embodiment, the steps may be performed in an appropriate order. The embodiments are not necessarily limited according to the order of description of the steps. The use of all examples or illustrative terms (for example, etc.) in the embodiments is merely for describing the embodiments in detail, and the scope of the embodiments is limited by the above examples or illustrative terms, unless limited by the claims. It is not. In addition, those skilled in the art can recognize that various modifications, combinations, and changes may be configured according to design conditions and factors within the scope of the appended claims or their equivalents.

100 영상 기록 장치
200 차량
1100 제1 차로
2100 제1 차량
100 video recorder
200 vehicles
1100 primary lane
2100 first vehicle

Claims (7)

차량에 부착되고, 영상을 촬영하는 카메라;
촬영한 영상을 표시하는 디스플레이; 및
상기 촬영한 영상 내에서 차선 및 차량들을 인식하고,
상기 차량들의 이동 속도 및 상기 차선을 기준으로 상기 차량들의 이동 방향을 획득하고,
상기 디스플레이를 통해 상기 차량들의 상기 이동 속도 및 상기 이동 방향을 표시하는 제어부;를 포함하는
영상 기록 장치.
A camera attached to the vehicle and taking an image;
A display for displaying the captured image; And
Recognize lanes and vehicles within the captured image,
Acquiring a moving direction of the vehicles based on the moving speed of the vehicles and the lane,
A control unit for displaying the moving speed and the moving direction of the vehicles through the display;
Video recording device.
제1 항에 있어서,
상기 제어부는
상기 차량들의 상기 이동 속도 및 상기 이동 방향에 기초하여, 사고에 대한 과실 비율을 획득하는
영상 기록 장치.
The method of claim 1,
The control unit
Based on the moving speed and the moving direction of the vehicles, obtaining an error rate for an accident
Video recording device.
제1 항에 있어서,
상기 제어부는
상기 촬영한 영상 내에서 차로 정보 및 신호 정보 중 적어도 하나를 인식하고,
상기 차로 정보 및 신호 정보 중 적어도 하나에 기초하여 사고에 대한 과실 비율을 획득하는
영상 기록 장치.
The method of claim 1,
The control unit
Recognize at least one of lane information and signal information in the captured image,
Obtaining an error rate for an accident based on at least one of the lane information and signal information
Video recording device.
제1 항에 있어서,
상기 제어부는 과실 비율을 산정하기 위한 규칙들을 저장하는 메모리를 더 포함하는,
영상 기록 장치.
The method of claim 1,
The control unit further comprises a memory storing rules for calculating the fruit ratio,
Video recording device.
제1 항에 있어서,
외부 기기와 통신할 수 있는 통신부를 더 포함하고,
상기 제어부는 상기 통신부를 통해 상기 차량들의 이동 속도 및 이동 방향에 관한 정보들을 상기 외부 기기에 전송할 수 있는
영상 기록 장치.
The method of claim 1,
Further comprising a communication unit capable of communicating with an external device,
The control unit is capable of transmitting information on the moving speed and direction of movement of the vehicles to the external device through the communication unit.
Video recording device.
차량에 부착된 카메라를 통해, 영상을 촬영하는 단계;
상기 촬영한 영상 내에서 차선 및 차량들을 인식하는 단계;
상기 차량들의 이동 속도 및 상기 차선을 기준으로 상기 차량들의 이동 방향을 획득하는 단계;
디스플레이를 통해 상기 차량들의 상기 이동 속도 및 상기 이동 방향을 표시하는 단계;를 포함하는
영상 기록 방법.
Capturing an image through a camera attached to the vehicle;
Recognizing lanes and vehicles within the captured image;
Obtaining a moving direction of the vehicles based on the moving speed of the vehicles and the lane;
Including; displaying the moving speed and the moving direction of the vehicles through a display
Video recording method.
제7 항에 있어서,
상기 각 차량들의 상기 이동 속도 및 상기 이동 방향에 기초하여, 사고에 대한 과실 비율을 획득하는 단계를 더 포함하는
영상 기록 방법.
The method of claim 7,
Based on the moving speed and the moving direction of each of the vehicles, further comprising the step of obtaining an error rate for the accident
Video recording method.
KR1020190078349A 2019-06-28 2019-06-28 Video recording apparatus and operating method thereof KR102296213B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190078349A KR102296213B1 (en) 2019-06-28 2019-06-28 Video recording apparatus and operating method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190078349A KR102296213B1 (en) 2019-06-28 2019-06-28 Video recording apparatus and operating method thereof

Publications (2)

Publication Number Publication Date
KR20210001777A true KR20210001777A (en) 2021-01-06
KR102296213B1 KR102296213B1 (en) 2021-09-01

Family

ID=74128865

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190078349A KR102296213B1 (en) 2019-06-28 2019-06-28 Video recording apparatus and operating method thereof

Country Status (1)

Country Link
KR (1) KR102296213B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140007709A (en) * 2012-07-10 2014-01-20 삼성전자주식회사 Transparent display apparatus for displaying an information of danger element and method thereof
JP2015210775A (en) * 2014-04-30 2015-11-24 三菱電機株式会社 Information processing apparatus, information processing method, and information processing system
KR20170056789A (en) * 2015-11-13 2017-05-24 (주)캠시스 Around view monitoring system having function of black box and operating method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140007709A (en) * 2012-07-10 2014-01-20 삼성전자주식회사 Transparent display apparatus for displaying an information of danger element and method thereof
JP2015210775A (en) * 2014-04-30 2015-11-24 三菱電機株式会社 Information processing apparatus, information processing method, and information processing system
KR20170056789A (en) * 2015-11-13 2017-05-24 (주)캠시스 Around view monitoring system having function of black box and operating method

Also Published As

Publication number Publication date
KR102296213B1 (en) 2021-09-01

Similar Documents

Publication Publication Date Title
US20240181961A1 (en) Vehicle system and vehicle
KR101579100B1 (en) Apparatus for providing around view and Vehicle including the same
KR20160142167A (en) Display apparatus for vhhicle and vehicle including the same
CN105966311B (en) Method for calibrating a camera, device for a vehicle and computer program product
JP7222216B2 (en) Driving support device
CN110171357B (en) Vehicle and control method thereof
CN110462702B (en) Travel route providing system, control method thereof, and medium
US20180162274A1 (en) Vehicle side-rear warning device and method using the same
CN105793909B (en) The method and apparatus for generating warning for two images acquired by video camera by vehicle-periphery
KR102094405B1 (en) Method and apparatus for determining an accident using an image
JP7234614B2 (en) Anomaly detection device, anomaly detection system and anomaly detection program
KR102296213B1 (en) Video recording apparatus and operating method thereof
JP7043795B2 (en) Driving support device, driving status information acquisition system, driving support method and program
KR102389728B1 (en) Method and apparatus for processing a plurality of images obtained from vehicle 's cameras
KR20200082463A (en) Video recording apparatus and operating method for the same
JP2022140026A (en) Image processing device, image processing method and program
KR102217973B1 (en) Lane guide apparatus and method for guiding lane
KR102219339B1 (en) Driving assistance and driving assistance method thereof
KR102202638B1 (en) Driving assistance and driving assistance method thereof
KR102541416B1 (en) Method and apparatus for displaying a HUD image based on realtime traffic information
KR102244027B1 (en) Vehicle information sharing system comprising vehicle terminal and server
KR102559534B1 (en) Method and apparatus for supporting driving lines of vehicle in bad weather
US20210321062A1 (en) Image processing device in moving object, imaging device, image processing method, and recording medium
JP7294483B2 (en) Driving support device, driving support method and program
JP2021165766A (en) Information processing apparatus, information processing method, program, and movable body

Legal Events

Date Code Title Description
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant