KR20210001777A - Video recording apparatus and operating method thereof - Google Patents
Video recording apparatus and operating method thereof Download PDFInfo
- Publication number
- KR20210001777A KR20210001777A KR1020190078349A KR20190078349A KR20210001777A KR 20210001777 A KR20210001777 A KR 20210001777A KR 1020190078349 A KR1020190078349 A KR 1020190078349A KR 20190078349 A KR20190078349 A KR 20190078349A KR 20210001777 A KR20210001777 A KR 20210001777A
- Authority
- KR
- South Korea
- Prior art keywords
- vehicle
- image
- vehicles
- unit
- information
- Prior art date
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B62—LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
- B62D—MOTOR VEHICLES; TRAILERS
- B62D41/00—Fittings for identifying vehicles in case of collision; Fittings for marking or recording collision areas
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01D—MEASURING NOT SPECIALLY ADAPTED FOR A SPECIFIC VARIABLE; ARRANGEMENTS FOR MEASURING TWO OR MORE VARIABLES NOT COVERED IN A SINGLE OTHER SUBCLASS; TARIFF METERING APPARATUS; MEASURING OR TESTING NOT OTHERWISE PROVIDED FOR
- G01D9/00—Recording measured values
- G01D9/02—Producing one or more recordings of the values of a single variable
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07C—TIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
- G07C5/00—Registering or indicating the working of vehicles
- G07C5/08—Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
- G07C5/0841—Registering performance data
- G07C5/085—Registering performance data using electronic data carriers
- G07C5/0866—Registering performance data using electronic data carriers the electronic data carrier being a digital video recorder in combination with video camera
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/57—Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
-
- H04N5/2257—
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/765—Interface circuits between an apparatus for recording and another apparatus
- H04N5/77—Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Traffic Control Systems (AREA)
- Time Recorders, Dirve Recorders, Access Control (AREA)
Abstract
Description
본 출원에 의해 개시되는 발명은 영상 기록 장치 및 그 동작 방법에 관한 것으로, 보다 상세하게는 영상 내 교통 상황을 인식할 수 있는 영상 기록 장치 및 그 동작 방법에 관한 것이다.The invention disclosed by the present application relates to an image recording apparatus and a method of operating the same, and more particularly, to an image recording apparatus capable of recognizing a traffic condition in an image, and an operation method thereof.
블랙박스는 차량에 탑재되어 차량의 운행 상태에 관한 정보들을 수집한다. 블랙박스가 수집한 운행 정보들은, 교통 사고의 발생 시 사고 원인 및 과실 부담을 판단하기 위한 결정적 증거로 사용될 수 있다.The black box is mounted on the vehicle and collects information on the driving state of the vehicle. The driving information collected by the black box can be used as conclusive evidence to determine the cause of the accident and the burden of negligence in the event of a traffic accident.
그런데, 교통 사고 현장을 촬영한 영상에서, 육안으로 과실 부담을 판단하기 어려운 경우가 있다. 과실 부담 비율을 판단하기 위해서는 차량의 주행 상태 및 교통 상황 등에 대한 정밀한 측정이 필요한데, 육안에 의존한 판단은 주관적인 요소에 의해 영향을 받을 수 있기 때문이다. 따라서, 교통 사고 현장에서 과실 부담 비율에 대해 보다 객관적인 판단을 제공하는 방법이 필요한 실정이다.However, it is sometimes difficult to determine the burden of negligence with the naked eye in a video of a traffic accident scene. In order to determine the ratio of the burden of negligence, it is necessary to precisely measure the driving state and traffic conditions of the vehicle, because the judgment dependent on the naked eye can be influenced by subjective factors. Therefore, there is a need for a method of providing a more objective judgment on the ratio of negligence burden at the site of a traffic accident.
일 실시예에 따르면, 영상 기록 장치는 도로 상황을 촬영한 영상에서 각 차량들의 이동 속도 및 이동 방향을 표시함으로써, 교통 사고에 대한 과실 분담율을 결정할 수 있는 객관적 지표를 제공할 수 있다.According to an exemplary embodiment, the image recording apparatus may provide an objective indicator for determining the share of negligence for a traffic accident by displaying the moving speed and the moving direction of each vehicle in an image of a road condition.
해결하고자 하는 과제가 상술한 과제로 제한되는 것은 아니며, 언급되지 아니한 과제들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The problem to be solved is not limited to the above-described problems, and problems that are not mentioned will be clearly understood by those of ordinary skill in the art from the present specification and the accompanying drawings.
일 양상에 따르면, 차량에 부착되고, 영상을 촬영하는 카메라, 촬영한 영상을 표시하는 디스플레이 및 상기 촬영한 영상 내에서 차선 및 차량들을 인식하고, 차량들의 이동 속도 및 차선을 기준으로 차량들의 이동 방향을 획득하고, 디스플레이를 통해 차량들의 이동 속도 및 이동 방향을 표시하는 제어부를 포함하는 영상 기록 장치가 제공될 수 있다.According to an aspect, a camera attached to a vehicle and photographing an image, a display displaying the photographed image, and a lane and vehicles within the photographed image are recognized, and the movement direction of the vehicles based on the moving speed and lane of the vehicles An image recording apparatus including a controller for acquiring and displaying a moving speed and a moving direction of vehicles through a display may be provided.
제어부는 차량들의 이동 속도 및 이동 방향에 기초하여, 사고에 대한 과실 비율을 획득할 수 있다. The control unit may obtain an error rate for an accident based on the moving speed and direction of movement of the vehicles.
제어부는 촬영한 영상 내에서 차로 정보 및 신호 정보 중 적어도 하나를 인식하고, 차로 정보 및 신호 정보 중 적어도 하나에 기초하여 사고에 대한 과실 비율을 획득할 수 있다.The controller may recognize at least one of lane information and signal information in the captured image, and obtain an error rate for an accident based on at least one of lane information and signal information.
제어부는 과실 비율을 산정하기 위한 규칙들을 저장하는 메모리를 더 포함할 수 있다.The control unit may further include a memory storing rules for calculating the fruit ratio.
또, 영상 기록 장치는 외부 기기와 통신할 수 있는 통신부를 더 포함하고, 제어부는 통신부를 통해 차량들의 이동 속도 및 이동 방향에 관한 정보들을 외부 기기에 전송할 수 있다.In addition, the image recording apparatus further includes a communication unit capable of communicating with an external device, and the control unit may transmit information on a moving speed and a moving direction of vehicles to the external device through the communication unit.
다른 양상에 따르면, 차량에 부착된 카메라를 통해, 영상을 촬영하는 단계, 촬영한 영상 내에서 차선 및 차량들을 인식하는 단계, 차량들의 이동 속도 및 차선을 기준으로 차량들의 이동 방향을 획득하는 단계, 디스플레이를 통해 차량들의 이동 속도 및 이동 방향을 표시하는 단계를 포함하는 영상 기록 방법이 제공될 수 있다.According to another aspect, the steps of capturing an image through a camera attached to the vehicle, recognizing lanes and vehicles within the captured image, acquiring a moving direction of vehicles based on a moving speed and lane of the vehicles, An image recording method including displaying a moving speed and a moving direction of vehicles through a display may be provided.
또, 영상 기록 방법은 각 차량들의 이동 속도 및 이동 방향에 기초하여, 사고에 대한 과실 비율을 획득하는 단계를 더 포함할 수 있다.In addition, the image recording method may further include obtaining an error rate for an accident based on a moving speed and a moving direction of each vehicle.
일 실시예에 따르면, 영상 기록 장치가 제공하는 각 차량들의 이동 속도 및 이동 방향은 과실 부담 비율을 결정할 수 있는 객관적인 지표로 활용될 수 있어, 사고 현장에서 소모적인 분쟁의 소지가 감소될 수 있다.According to an embodiment, the moving speed and the moving direction of each vehicle provided by the video recording apparatus may be used as an objective indicator for determining the ratio of the burden of negligence, so that the possibility of a wasteful dispute at the accident site may be reduced.
실시예들에 따른 효과가 상술한 효과들로 제한되는 것은 아니며, 언급되지 아니한 효과들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확히 이해될 수 있을 것이다.Effects according to the embodiments are not limited to the above-described effects, and effects not mentioned will be clearly understood by those of ordinary skill in the art from the present specification and the accompanying drawings.
도 1은, 일 실시예에 따른 영상 기록 장치의 블록도이다.
도 2는, 일 실시예에 따른 영상 기록 장치가 연결되는 차량의 내부 블록도이다.
도 3은, 일 실시예에 따른 영상 기록 장치의 동작 방법에 관한 순서도이다.
도 4는, 일 실시예에 따른 영상 기록 장치가 동작하는 도로 상황에 관한 도면이다.
도 5는, 도 4의 도로 상황을 촬영한 영상 기록 장치의 화면의 일 실시예에 관한 도면이다.1 is a block diagram of an image recording apparatus according to an exemplary embodiment.
2 is an internal block diagram of a vehicle to which an image recording device is connected according to an exemplary embodiment.
3 is a flowchart illustrating a method of operating an image recording apparatus according to an exemplary embodiment.
4 is a diagram illustrating a road condition in which an image recording apparatus according to an exemplary embodiment operates.
FIG. 5 is a diagram of a screen of an image recording apparatus photographing a road situation of FIG.
실시예들에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.The terms used in the embodiments have selected general terms that are currently widely used as possible while considering functions in the present invention, but this may vary depending on the intention or precedent of a technician working in the field, the emergence of new technologies, and the like. In addition, in certain cases, there are terms arbitrarily selected by the applicant, and in this case, the meaning of the terms will be described in detail in the description of the corresponding invention. Therefore, the terms used in the present invention should be defined based on the meaning of the term and the overall contents of the present invention, not a simple name of the term.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "…부", "…모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.When a part of the specification is said to "include" a certain component, it means that other components may be further included rather than excluding other components unless otherwise stated. In addition, terms such as "... unit" and "... module" described in the specification mean a unit that processes at least one function or operation, which may be implemented as hardware or software or a combination of hardware and software.
본 개시의 일부 실시 예는 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들의 일부 또는 전부는, 특정 기능들을 실행하는 다양한 개수의 하드웨어 및/또는 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 본 개시의 기능 블록들은 하나 이상의 마이크로프로세서들에 의해 구현되거나, 소정의 기능을 위한 회로 구성들에 의해 구현될 수 있다. 또한, 예를 들어, 본 개시의 기능 블록들은 다양한 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능 블록들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 본 개시는 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. “메커니즘”, “요소”, “수단” 및 “구성” 등과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다.Some embodiments of the present disclosure may be represented by functional block configurations and various processing steps. Some or all of these functional blocks may be implemented with various numbers of hardware and/or software components that perform specific functions. For example, the functional blocks of the present disclosure may be implemented by one or more microprocessors, or may be implemented by circuit configurations for a predetermined function. In addition, for example, the functional blocks of the present disclosure may be implemented in various programming or scripting languages. The functional blocks may be implemented as an algorithm executed on one or more processors. In addition, the present disclosure may employ conventional techniques for electronic environment setting, signal processing, and/or data processing. Terms such as “mechanism”, “element”, “means” and “composition” may be used widely, and are not limited to mechanical and physical configurations.
또한, 도면에 도시된 구성 요소들 간의 연결 선 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것일 뿐이다. 실제 장치에서는 대체 가능하거나 추가된 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들에 의해 구성 요소들 간의 연결이 나타내어질 수 있다.In addition, the connecting lines or connecting members between the components illustrated in the drawings are merely illustrative of functional connections and/or physical or circuit connections. In an actual device, connections between components may be represented by various functional connections, physical connections, or circuit connections that can be replaced or added.
아래에서는 첨부한 도면을 참고하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art may easily implement the present invention. However, the present invention may be implemented in various different forms and is not limited to the embodiments described herein.
도 1은, 일 실시예에 따른 영상 기록 장치의 블록도이다. 도 1에 도시된 바와 같이, 일 실시예에 따른 영상 기록 장치(200)는 센싱부(230), 제어부(260), 출력부(210), 입력부(220) 및 메모리(240)를 더 포함할 수 있다. 그러나 도시된 구성요소 모두가 필수구성요소인 것은 아니다. 도시된 구성요소보다 많은 구성요소에 의해 영상 기록 장치(200)가 구현될 수도 있고, 그보다 적은 구성요소에 의해서도 영상 기록 장치(200)는 구현될 수 있다.1 is a block diagram of an image recording apparatus according to an exemplary embodiment. As shown in FIG. 1, the
영상 기록 장치(200)는 차량(100)에 탑재되어 차량(100) 외부의 영상을 기록 및 표시할 수 있다. 영상 기록 장치(200)는 배치되는 방향에 따라 차량(100) 전방의 영상 또는 후방의 영상을 기록 및 표시할 수 있다. 영상 기록 장치(200)는 이 밖에도 차량(100)의 운행 정보 등을 기록할 수 있다. 영상 기록 장치(200)는 획득한 영상을 통신부(250)를 통해 외부의 전자 기기와 공유할 수 있다. 예를 들면, 영상 기록 장치(200)는 사고 시 영상 및 운행 정보의 기록을 위한 차량용 블랙박스일 수 있다.The
출력부(210)는, 제어부(260)에서 결정된 동작을 수행하기 위한 것으로, 이에는 디스플레이부(212) 및 음향 출력부(214) 등이 포함될 수 있다. The
디스플레이부(212)는 사용자 인터페이스를 표시할 수 있다. 또한, 일 실시예에 따른 디스플레이부(212)는 사용자 인터페이스를 통해 획득된 사용자 입력을 기초로 수행한 동작의 실행 결과를 표시할 수도 있다. The
디스플레이부(212)는 제어부(260)에서 처리되는 정보를 표시할 수 있다. 예를 들면, 디스플레이부(212)는 촬영한 영상 정보 및 차량 관련 정보를 표시할 수 있다. The
여기서, 촬영한 영상 정보는 카메라(224)를 통해 획득한 차량(100)의 전방, 후방 또는 카메라(224)의 방향에 따른 영상이다. 차량 관련 정보는, 현재 차량(100)의 상태를 알려주는 차량 상태 정보 또는 차량의 운행과 관련되는 차량 운행 정보를 포함할 수 있다. 예를 들어, 디스플레이부(212)는 현재 차량의 속도(또는 속력), 주변 차량의 속도(또는 속력), 현재 차량과 주변 차량 간의 거리 정보 및 현재 차량과 주변 차량의 운동 방향 등을 표시할 수 있다.Here, the captured image information is an image obtained through the
음향 출력부(214)는 오디오 데이터를 출력한다. 또한, 음향 출력부(214)는 영상 기록 장치(200)에서 수행되는 기능(예를 들어, 알림음)과 관련된 음향 신호를 출력한다. 이러한 음향 출력부(214)에는 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다. 음향 출력부(214)는 차량 내부 뿐만 아니라 차량 외부로 알림음을 출력할 수 있다. The
입력부(220)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(224)와 마이크로폰(222) 등이 포함될 수 있다. The
카메라(224)는 화상 통화모드 또는 촬영 모드에서 이미지 센서를 통해 정지영상 또는 동영상 등의 화상 프레임을 얻을 수 있다. 이미지 센서를 통해 캡쳐된 이미지는 제어부(260) 또는 별도의 이미지 처리부(미도시)를 통해 처리될 수 있다. The
카메라(224)에서 처리된 화상 프레임은 메모리(240)에 저장되거나 통신부(250)를 통하여 외부로 전송될 수 있다. 카메라(224)는 영상 기록 장치(200)의 구성 태양에 따라 2개 이상이 구비되어 각각 상이한 방향을 촬영할 수 있다.The image frame processed by the
카메라(224)는 렌즈, 이미지 센서 및 프로세서를 포함할 수 있다. 프로세서는, 촬영되는 영상을 컴퓨터 처리하여, 데이터 또는 정보를 생성하고, 생성된 데이터 또는 정보를 제어부(260)에 전달할 수 있다. 카메라(224)에 포함되는 프로세서는, 제어부(260)의 제어를 받을 수 있다.The
카메라(224)는 스테레오 카메라(224)를 포함할 수 있다. 이 경우, 카메라(224)의 프로세서는, 스테레오 영상에서 검출된 디스페리티(disparity) 차이를 이용하여, 오브젝트와의 거리, 영상에서 검출된 오브젝트와의 상대 속도, 복수의 오브젝트 간의 거리를 검출할 수 있다.The
카메라(224)는 TOF(Time of Flight) 카메라(224)를 포함할 수 있다. 이 경우, 카메라(224)는, 광원(예를 들면, 적외선 또는 레이저) 및 수신부를 포함할 수 있다. 이 경우, 카메라(224)의 프로세서는, 광원에서 발신되는 적외선 또는 레이저가 오브젝트에 반사되어 수신될 때까지의 시간(TOF)에 기초하여 오브젝트와의 거리, 오브젝트와의 상대 속도, 복수의 오브젝트 간의 거리를 검출할 수 있다.The
제어부(260)는 카메라(224)로부터 전달받은 영상을 통신부(250)를 통해 외부의 전자기기에 전송할 수 있다. 외부의 전자기기는 다른 차량에 탑재된 영상 기록 장치(200)일 수 있고, 또는 다른 차량에 탑재된 영상 기록 장치(200)와 통신할 수 있는 서버(300)일 수 있다. 제어부(260)는 통신부를 통해 차량들의 이동 속도 및 이동 방향에 관한 정보들을 외부 기기에 전송할 수 있다.The
마이크로폰(222)은, 차량(100) 내에서 발생하는 음성 신호를 감지할 수 있다. 마이크로폰(222)은 외부의 음향 신호를 입력 받아 전기적인 음성 데이터로 처리한다. 예를 들어, 마이크로폰(222)은 사용자의 음성 입력을 수신할 수 있다. 마이크로폰(222)은 외부의 음향 신호를 입력 받는 과정에서 발생 되는 잡음(noise)를 제거하기 위한 다양한 잡음 제거 알고리즘을 이용할 수 있다. The
마이크로폰(222)은 복수일 수 있고, 각 마이크로폰(222)이 음성 신호를 감지하는 위치는 상이하게 배치될 수 있다.There may be a plurality of
센싱부(230)는 차량(100) 내에 위치한 사용자의 입력을 감지한다. 예를 들어, 센싱부(230)는 기 설정된 감지 범위 내의 사용자의 움직임을 감지할 수 있다. 센싱부(230)는 사용자의 입력이 감지됨에 따라, 차량(100) 내에서의 사용자의 위치 정보 및 차량(100)의 주행 상태 정보를 획득한다. The
센싱부(230)는 사용자의 차량 및 사용자 차량의 주변에 위치하는 차량들의 주행 상태 정보를 획득할 수 있다. 차량 주행 상태 정보는 차량의 이동 속도 및 이동 방향 등을 포함할 수 있다.The
센싱부(230)는, 지자기 센서(Magnetic sensor), 가속도 센서(Acceleration sensor), 온/습도 센서, 적외선 센서, 자이로스코프 센서, 위치 센서(예컨대, GPS), 기압 센서, 근접 센서, RGB 센서(illuminance sensor) 및 충격을 감지하는 충격 감지 센서 중 적어도 하나를 포함할 수 있으나, 이에 한정되는 것은 아니다. 충격 감지 센서는, 예를 들면 차량(100)의 급정거 시 또는 급발진 시 발생하는 충격을 감지할 수 있다. 충격 감지 센서는 자이로스코프 센서와 기능적으로 구분되나 물리적으로 동일한 구성일 수 있다. 각 센서들의 기능은 그 명칭으로부터 당업자가 직관적으로 추론할 수 있으므로, 구체적인 설명은 생략하기로 한다. 각 센싱부(230)를 통해 감지된 정보들은 메모리(240)에 기록된다. 제어부는 각 센싱부(230)를 통해 감지한 정보들로부터 차량(100)의 운행 상태를 판단할 수 있다. The
제어부(260)는 통상적으로 영상 기록 장치(200)의 전반적인 동작을 제어한다. 예를 들어, 제어부(260)는, 메모리(240)에 저장된 프로그램들을 실행함으로써, 센싱부(230), 출력부(210), 입력부(220) 및 메모리(240) 등을 전반적으로 제어할 수 있다. The
제어부(260)는 사용자의 위치 정보 및 차량(100)의 주행 상태 정보를 기초로 화면 구성 및 입력 수단 중 적어도 하나에 따라 분류되는 복수의 사용자 인터페이스들 중 어느 하나를 선택한다.The
제어부(260)는 영상 처리부(262) 및 사고 과실 분석부(264)를 포함할 수 있다. 영상 처리부(262) 및 사고 과실 분석부(264)는 기능적으로 분류된 제어부(260)의 구성이며, 물리적으로는 하나의 구성일 수 있고, 또는 각각 기능이 분담된 독립적인 구성일 수도 있다. 명세서 전반에 걸쳐서 제어부(260)가 수행하는 것으로 서술된 동작들은 각각 영상 처리부(262) 또는 사고 과실 분석부(264)에서 수행될 수 있다.The
영상 처리부(262)는 촬영한 영상 내에서 차선 및 차량들을 인식할 수 있다. 이를 위해 영상 처리부(262)는 전처리 과정으로서, median filtering, sharpening, Gaussian filtering 등의 노이즈 제거 기법을 수행할 수 있다. 이후 영상 처리부(262)는 사물 또는 영역의 윤곽을 찾기 위한 edge detection을 수행할 수 있다. 이후 영상 처리부(262)는 Hough transform 등과 같은 수학적 처리를 통해, edge detection을 통해 찾은 윤곽들 중 차선 및 차량의 윤곽을 판단할 수 있다. 상술한 영상 처리부(262)의 알고리즘 등은 일 예시일 뿐이며, 영상 처리부(262)는 영상 내 차선 및 차량 등을 인식하기 위한 다양한 알고리즘 등을 수행할 수 있다.The
또, 영상 처리부(262)는 각 차량들의 이동 속도 및 차선을 기준으로 하는 각 차량들의 이동 방향을 획득할 수 있다. 과실 분석을 위해서, 차선에 대한 각 차량들의 이동 방향이 중요하기 때문에, 영상 처리부(262)는 차선을 기준으로 하여 각 차량들의 이동 방향을 획득할 수 있다. 예를 들어, 영상 처리부(262)는 곧게 연장되는 차선을 따라서 차량이 직진 주행하는 경우, 차선을 기준으로 하는 차량의 이동 방향은 0°으로 판단할 수 있다. 또 다른 예를 들어, 영상 처리부(262)는 곧게 연장되는 차선에 수직 방향으로 차량이 침범한 경우, 차선을 기준으로 하는 차량의 이동 방향은 90°으로 판단할 수 있다.In addition, the
또, 영상 처리부(262)는 촬영한 영상 내에서 차로 정보 및 신호 정보 중 적어도 하나를 인식할 수 있다. 이 때 상술한 알고리즘 등이 수행될 수 있음은 물론이다. 차로 정보는 차로의 개수, 종류, 차로의 폭, 차선의 종류 및 차로의 곧은 정도 등을 포함할 수 있다. 신호 정보는 신호의 유무, 신호의 종류 및 신호등의 색깔 등을 포함할 수 있다.Also, the
사고 과실 분석부(264)는 각 차량들의 이동 속도 및 이동 방향에 기초하여, 사고에 대한 과실 비율을 획득할 수 있다. 또, 사고 과실 분석부(264)는 차로 정보 및 신호 정보 중 적어도 하나에 기초하여 사고에 대한 과실 비율을 획득할 수 있다. 사고 과실 분석부(264)는 메모리에 저장된 사고 과실을 판단하기 위한 규칙들에 따라, 과실 비율을 산정할 수 있다. The accident
메모리(240)는 제어부(260)의 처리 및 제어를 위한 프로그램을 저장할 수도 있고, 입/출력되는 데이터들을 저장할 수도 있다. The
메모리(240)는 사고 과실을 판단하기 위한 규칙들을 저장할 수 있다. 사고 과실 판단을 위한 규칙들은 메모리(240)에 미리 저장되거나, 또는 외부 서버와의 통신을 통해 업데이트될 수도 있다.The
메모리(240)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory) 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 전자기기(100)는 인터넷(internet)상에서 메모리(240)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다.The
메모리(240)는 카메라를 통해 촬영한 영상을 저장할 수 있다. 카메라를 통해 촬영된 영상은 자동으로 메모리(240)에 저장될 수 있다. The
일 실시예에 따른 메모리(240)는 복수의 운영체제를 저장할 수 있다. 또한, 메모리(240)는 복수의 운영체제 각각에서 실행되는 애플리케이션을 저장할 수 있다. The
메모리(240)에 저장된 프로그램들은 그 기능에 따라 복수 개의 모듈들로 분류할 수 있는데, 예를 들어, UI 모듈(242) 및 터치 스크린 모듈(244) 등으로 분류될 수 있다. Programs stored in the
UI 모듈(242)은, 복수의 사용자 인터페이스들 중 선택된 사용자 인터페이스 및 그래픽 사용자 인터페이스 등을 제공할 수 있다. 터치 스크린 모듈(244) 은 사용자의 터치 스크린 상의 터치 제스처를 감지하고, 터치 제스처에 관한 정보를 제어부(260)로 전달할 수 있다. 본 발명의 일 실시예에 따른 터치 스크린 모듈(244)은 터치 코드를 인식하고 분석할 수 있다. 터치 스크린 모듈(244)은 컨트롤러를 포함하는 별도의 하드웨어로 구성될 수도 있다.The
터치스크린의 터치 또는 근접 터치를 감지하기 위해 터치스크린의 내부 또는 근처에 다양한 센서가 구비될 수 있다. 터치스크린의 터치를 감지하기 위한 센서의 일례로 촉각 센서가 있다. 촉각 센서는 사람이 느끼는 정도로 또는 그 이상으로 특정 물체의 접촉을 감지하는 센서를 말한다. 촉각 센서는 접촉면의 거칠기, 접촉 물체의 단단함, 접촉 지점의 온도 등의 다양한 정보를 감지할 수 있다. 또한, 터치스크린의 터치를 감지하기 위한 센서의 일례로 근접 센서가 있다.Various sensors may be provided inside or near the touch screen to sense a touch or a proximity touch of the touch screen. As an example of a sensor for sensing a touch on a touch screen, there is a tactile sensor. The tactile sensor refers to a sensor that detects contact with a specific object to the extent that a person feels it or more. The tactile sensor can detect various information such as roughness of a contact surface, hardness of a contact object, and temperature of a contact point. In addition, as an example of a sensor for sensing a touch of a touch screen, there is a proximity sensor.
도 2는, 일 실시예에 따른 영상 기록 장치가 연결되는 차량의 내부 블록도이다.2 is an internal block diagram of a vehicle to which an image recording device is connected according to an exemplary embodiment.
차량(100)은, 통신부(110), 입력부(120), 센싱부(125) 메모리(130), 출력부(140), 차량 구동부(150), 차량 운전 보조 시스템(ADAS, 160), 제어부(170), 인터페이스부(180) 및 전원 공급부(190)를 포함할 수 있다.The
통신부(110)는, 근거리 통신 모듈, 위치 정보 모듈, 광통신 모듈 및 V2X 통신 모듈을 포함할 수 있다.The
입력부(120)는, 운전 조작 수단, 카메라, 마이크로폰 및 사용자 입력부를 포함할 수 있다.The
운전 조작 수단은, 차량(100) 운전을 위한 사용자 입력을 수신한다. 운전 조작 수단은 조향 입력 수단, 쉬프트 입력 수단, 가속 입력 수단, 브레이크 입력 수단을 포함할 수 있다.The driving operation means receives a user input for driving the
가속 입력 수단은, 사용자로부터 차량(100)의 가속을 위한 입력을 수신한다. 브레이크 입력 수단은, 사용자로부터 차량(100)의 감속을 위한 입력을 수신한다.The acceleration input means receives an input for acceleration of the
카메라는, 이미지 센서와 영상 처리 모듈을 포함할 수 있다. 카메라는 이미지 센서(예를 들면, CMOS 또는 CCD)에 의해 얻어지는 정지영상 또는 동영상을 처리할 수 있다. 영상 처리 모듈은 이미지 센서를 통해 획득된 정지영상 또는 동영상을 가공하여, 필요한 정보를 추출하고, 추출된 정보를 제어부(170)에 전달할 수 있다.The camera may include an image sensor and an image processing module. The camera can process still or moving images obtained by an image sensor (eg CMOS or CCD). The image processing module may process a still image or a moving image acquired through an image sensor, extract necessary information, and transmit the extracted information to the
일 실시예에 따르면, 카메라는 획득한 영상들을 영상 기록 장치(200)에 전송할 수 있다. 이 때 영상 기록 장치(200)는 별도의 카메라(224)를 포함하지 않을 수 있다.According to an embodiment, the camera may transmit the acquired images to the
한편, 차량(100)은 차량 전방 영상을 촬영하는 전방 카메라, 차량 주변 영상을 촬영하는 어라운드 뷰 카메라 및 차량 후방 영상을 촬영하는 후방카메라를 포함할 수 있다. 각각의 카메라는 렌즈, 이미지 센서 및 프로세서를 포함할 수 있다. 프로세서는, 촬영되는 영상을 컴퓨터 처리하여, 데이터 또는 정보를 생성하고, 생성된 데이터 또는 정보를 제어부(170)에 전달할 수 있다. 카메라에 포함되는 프로세서는, 제어부(170)의 제어를 받을 수 있다.Meanwhile, the
카메라는 스테레오 카메라를 포함할 수 있다. 이 경우, 카메라의 프로세서는, 스테레오 영상에서 검출된 디스페리티(disparity) 차이를 이용하여, 오브젝트와의 거리, 영상에서 검출된 오브젝트와의 상대 속도, 복수의 오브젝트 간의 거리를 검출할 수 있다.The camera may comprise a stereo camera. In this case, the processor of the camera may detect a distance to an object, a relative speed with an object detected in the image, and distances between a plurality of objects using a difference in disparity detected in the stereo image.
카메라는 TOF(Time of Flight) 카메라를 포함할 수 있다. 이 경우, 카메라는, 광원(예를 들면, 적외선 또는 레이저) 및 수신부를 포함할 수 있다. 이 경우, 카메라의 프로세서는, 광원에서 발신되는 적외선 또는 레이저가 오브젝트에 반사되어 수신될 때까지의 시간(TOF)에 기초하여 오브젝트와의 거리, 오브젝트와의 상대 속도, 복수의 오브젝트 간의 거리를 검출할 수 있다.The camera may include a Time of Flight (TOF) camera. In this case, the camera may include a light source (eg, infrared or laser) and a receiver. In this case, the processor of the camera detects the distance to the object, the relative speed with the object, and the distance between a plurality of objects based on the time until the infrared or laser emitted from the light source is reflected and received (TOF). can do.
한편, 후방 카메라는, 후방 번호판 또는 트렁크 또는 테일 게이트 스위치 부근에 배치될 수 있으나, 후방 카메라가 배치되는 위치는 이에 제한되지 않는다.Meanwhile, the rear camera may be disposed near the rear license plate or the trunk or the tail gate switch, but the position at which the rear camera is disposed is not limited thereto.
복수의 카메라에서 촬영된 각각의 이미지는, 카메라의 프로세서에 전달되고, 프로세서는 각각의 이미지를 합성하여, 차량 주변 영상을 생성할 수 있다. 이때, 차량 주변 영상은 탑뷰 이미지 또는 버드 아이 이미지로 디스플레이부를 통해 표시될 수 있다.Each image captured by the plurality of cameras is transmitted to a processor of the camera, and the processor synthesizes each image to generate an image around the vehicle. In this case, the image around the vehicle may be displayed as a top view image or a bird eye image through the display unit.
센싱부(125)는, 차량(100)의 각종 상황을 센싱한다. 이를 위해, 센싱부(125)는, 충돌 센서, 휠 센서(wheel sensor), 속도 센서, 경사 센서, 중량 감지 센서, 헤딩 센서(heading sensor), 요 센서(yaw sensor), 자이로 센서(gyro sensor), 포지션 모듈(position module), 차량 전진/후진 센서, 배터리 센서, 연료 센서, 타이어 센서, 핸들 회전에 의한 스티어링 센서, 차량 내부 온도 센서, 차량 내부 습도 센서, 초음파 센서, 조도 센서, 레이더, 라이더 등을 포함할 수 있다.The
일 실시예에 따르면, 센싱부(125)는 획득한 정보들을 영상 기록 장치(200)에 전송할 수 있다. 이 때 영상 기록 장치(200)는 별도의 센싱부(230)를 포함하지 않을 수 있다.According to an embodiment, the
이에 의해, 센싱부(125)는, 차량 충돌 정보, 차량 방향 정보, 차량 위치 정보(GPS 정보), 차량 각도 정보, 차량 속도 정보, 차량 가속도 정보, 차량 기울기 정보, 차량 전진/후진 정보, 배터리 정보, 연료 정보, 타이어 정보, 차량 램프 정보, 차량 내부 온도 정보, 차량 내부 습도 정보, 스티어링 휠 회전 각도, 차량 외부 조도 등에 대한 센싱 신호를 획득할 수 있다.Accordingly, the
메모리(130)는, 제어부(170)와 전기적으로 연결된다. 메모리(130)는 유닛에 대한 기본데이터, 유닛의 동작제어를 위한 제어데이터, 입출력되는 데이터를 저장할 수 있다. 메모리(130)는, 하드웨어적으로, ROM, RAM, EPROM, 플래시 드라이브, 하드 드라이브 등과 같은 다양한 저장기기 일 수 있다. 메모리(130)는 제어부(170)의 처리 또는 제어를 위한 프로그램 등, 차량(100) 전반의 동작을 위한 다양한 데이터를 저장할 수 있다.The
출력부(140)는, 제어부(170)에서 처리된 정보를 출력하기 위한 것으로, 디스플레이부, 음향 출력부 및 햅틱 출력부를 포함할 수 있다.The
디스플레이부는 제어부(170)에서 처리되는 정보를 표시할 수 있다. 예를 들면, 디스플레이부는 차량 관련 정보를 표시할 수 있다. 여기서, 차량 관련 정보는, 현재 차량의 상태를 알려주는 차량 상태 정보 또는 차량의 운행과 관련되는 차량 운행 정보를 포함할 수 있다. 예를 들어, 디스플레이부는 현재 차량의 속도(또는 속력), 주변차량의 속도(또는 속력) 및 현재 차량과 주변차량 간의 거리 정보를 표시할 수 있다.The display unit may display information processed by the
한편, 디스플레이부는 운전자가 운전을 함과 동시에 차량 상태 정보 또는 차량 운행 정보를 확인할 수 있도록 클러스터(cluster)를 포함할 수 있다. 클러스터는 대시보드 위에 위치할 수 있다. 이 경우, 운전자는, 시선을 차량 전방에 유지한 채로 클러스터에 표시되는 정보를 확인할 수 있다.Meanwhile, the display unit may include a cluster so that the driver can check vehicle status information or vehicle operation information while driving. Clusters can be placed on the dashboard. In this case, the driver can check information displayed on the cluster while keeping his gaze in front of the vehicle.
음향 출력부는 제어부(170)로부터의 전기 신호를 오디오 신호로 변환하여 출력한다. 이를 위해, 음향 출력부는 스피커 등을 구비할 수 있다.The sound output unit converts the electrical signal from the
차량 구동부(150)는, 차량 각종 장치의 동작을 제어할 수 있다. 차량 구동부(150)는 동력원 구동부, 조향 구동부, 브레이크 구동부, 램프 구동부, 공조 구동부, 윈도우 구동부, 에어백 구동부, 썬루프 구동부 및 서스펜션 구동부를 포함할 수 있다.The
동력원 구동부는, 차량(100) 내의 동력원에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 화석 연료 기반의 엔진(미도시)이 동력원인 경우, 동력원 구동부는, 엔진에 대한 전자식 제어를 수행할 수 있다. 이에 의해, 엔진의 출력 토크 등을 제어할 수 있다. 동력원 구동부가 엔진인 경우, 제어부(170)의 제어에 따라, 엔진 출력 토크를 제한하여 차량의 속도를 제한할 수 있다.The power source driving unit may perform electronic control on the power source in the
브레이크 구동부는, 차량(100) 내의 브레이크 장치(brake apparatus)(미도시)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 바퀴에 배치되는 브레이크의 동작을 제어하여, 차량(100)의 속도를 줄일 수 있다. 다른 예로, 좌측 바퀴와 우측 바퀴에 각각 배치되는 브레이크의 동작을 달리하여, 차량(100)의 진행 방향을 좌측, 또는 우측으로 조정할 수 있다.The brake driving unit may perform electronic control of a brake apparatus (not shown) in the
램프 구동부는, 차량 내, 외부에 배치되는 램프의 턴 온/턴 오프를 제어할 수 있다. 또한, 램프의 빛의 세기, 방향 등을 제어할 수 있다. 예를 들면, 방향 지시 램프, 브레이크 램프 등의 대한 제어를 수행할 수 있다.The lamp driver may control turning on/off of lamps disposed inside or outside the vehicle. In addition, it is possible to control the light intensity and direction of the lamp. For example, it is possible to control a direction indicator lamp, a brake lamp, and the like.
제어부(170)는, 차량(100) 내의 각 유닛의 전반적인 동작을 제어할 수 있다. 제어부(170)는 ECU(Electronic Contol Unit)로 명명될 수 있다. 상술한 추돌 방지 장치는 제어부(170)에 의해 구동될 수 있다.The
제어부(170)는, 하드웨어적으로, ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로프로세서(microprocessors), 기타 기능 수행을 위한 전기적 유닛 중 적어도 하나를 이용하여 구현될 수 있다.In hardware, the
일 실시 예에서 제어부(170)는 차량의 주행 중 ADAS 카메라를 이용하여 도로 영상을 촬영하고, 촬영된 도로 영상으로부터 도로의 수평 데이터를 획득하고, 차량의 주행 중 차량의 센서를 이용하여 차체 기울기를 측정한 기울기 데이터를 획득하고, 획득된 수평 데이터 및 기울기 데이터를 기초로 ADAS 카메라의 위치를 보정한다.In an embodiment, the
인터페이스부(180)는, 차량(100)에 연결되는 다양한 종류의 외부 기기와의 통로 역할을 수행할 수 있다. 예를 들면, 인터페이스부(180)는 이동 단말기(미도시)와 연결 가능한 포트를 구비할 수 있고, 포트를 통해, 이동 단말기(미도시)와 연결할 수 있다. 이 경우, 인터페이스부(180)는 이동 단말기와 데이터를 교환할 수 있다.The
전원 공급부(190)는, 제어부(170)의 제어에 따라, 각 구성요소들의 동작에 필요한 전원을 공급할 수 있다. 특히, 전원 공급부(190)는, 차량 내부의 배터리(미도시) 등으로부터 전원을 공급받을 수 있다.The
도 3은, 일 실시예에 따른 영상 기록 장치의 동작 방법에 관한 순서도이다. 도 4는, 일 실시예에 따른 영상 기록 장치가 동작하는 도로 상황에 관한 도면이고, 도 5는, 도 4의 도로 상황을 촬영한 영상 기록 장치의 화면의 일 실시예에 관한 도면이다.3 is a flowchart illustrating a method of operating an image recording apparatus according to an exemplary embodiment. FIG. 4 is a diagram illustrating a road condition in which the image recording apparatus operates according to an exemplary embodiment, and FIG. 5 is a diagram illustrating a screen of an image recording apparatus photographing the road condition of FIG. 4.
도 3을 참조하면, 영상 기록 장치(200)는 차량에 부착된 카메라를 통해, 영상을 촬영할 수 있다(S1100). 영상 기록 장치(200)는 카메라(224) 또는 차량에 내장된 카메라가 촬영하는 영상을 획득할 수 있다. Referring to FIG. 3, the
영상 기록 장치(200)는 차량의 주행 시 주행 상태에 따라 촬영 방향을 설정할 수 있다. 예를 들면, 영상 기록 장치(200)는 차량이 전진 주행하는 경우, 차량의 전방을 촬영할 수 있고, 차량이 후진하는 경우에는 차량의 후방을 촬영할 수 있다. 또는, 영상 기록 장치(200)는 차량이 주행하지 않는 경우에도 차량의 주변을 촬영할 수 있다.The
도 4를 참조하면, 제1 차량(2100)에 부착된 영상 기록 장치(200)는 카메라를 통해, 제2 차로(1200)를 주행하는 제1 차량(2100)과, 제3 차로를 주행하는 제3 차량(1300) 간 발생한 추돌 사고 현장을 촬영할 수 있다. 도 5를 참조하면, 영상 기록 장치(200)는 촬영한 영상을 디스플레이부를 통해 표시할 수 있다.Referring to FIG. 4, the
이후, 영상 기록 장치(200)는 촬영한 영상 내에서 차선 및 차량들을 인식할 수 있다(S1200). 영상 기록 장치(200)의 영상 처리부(262)는 촬영 영상을 분석함으로써 차선 및 차량 등을 인식할 수 있다. 또, 영상 처리부(262)는 촬영 영상으로부터 차로 정보 또는 신호 정보 등을 획득할 수도 있다. 이 때 영상 처리부(262)는 상술한 바와 같이, 노이즈 제거를 위한 전처리 과정, 윤곽 추출 과정, 윤곽으로부터 물체 인식 과정 등을 수행할 수 있다.Thereafter, the
도 5를 참조하면, 영상 처리부(262)는 제1 차로(1100), 제2 차로(1200), 제3 차로(1300) 및 각 차로를 따라 주행하는 제1 차량(2100), 제2 차량(2200) 및 제3 차량(2300)을 인식할 수 있다.Referring to FIG. 5, the
영상 기록 장치(200)는 각 차량들의 이동 속도 및 차선을 기준으로 각 차량들의 이동 방향을 획득할 수 있다(S1300). 도 5를 참조하면, 영상 처리부(262)는 제2 차량(2200)의 이동 속도가 70km/h 임을 영상 분석을 통해 획득할 수 있다. 또는 영상 기록 장치(200)는, 센싱부(230) 또는 차량 내장 센싱부(125)를 통해 차량의 이동 속도를 획득할 수도 있다.The
또, 영상 기록 장치(200)는 제2 차량(2200)의 주행 차로인 제1 차로(1100)를 기준으로 한 제2 차량(2200)의 이동 방향 5°를 획득할 수 있다. 또는 영상 기록 장치(200)는, 센싱부(230) 또는 차량 내장 센싱부(125)를 통해 제2 차량(2200)의 이동 방향을 획득할 수도 있다.In addition, the
마찬가지로, 영상 기록 장치(200)는 제1 차량(2100)의 이동 속도 60km/h 및 제2 차로(1200)를 기준으로 한 이동 방향 20°를 획득할 수 있다. 또, 영상 기록 장치(200)는 제3 차량(2300)의 이동 속도 80km/h 및 제3 차로(1300)를 기준으로 한 이동 방향 75°를 획득할 수 있다.Likewise, the
영상 기록 장치(200)는 디스플레이를 통해 각 차량들의 이동 속도 및 이동 방향을 표시할 수 있다(S1400). 영상 기록 장치(200)는 각 차량들에 대하여 획득한 이동 속도 및 차로를 기준으로 한 이동 방향을 디스플레이부에 표시할 수 있다. 이로써, 사용자는 사고 발생에 대한 과실 여부를 판단하는 근거로서 이동 속도 및 이동 방향을 활용할 수 있다. 일 실시예에 따르면, 영상 기록 장치(200)는 획득한 이동 속도 및 차로를 기준으로 한 이동 방향을 통신부를 통해 외부 기기에 전송할 수 있다.The
또, 영상 기록 장치(200)는 각 차량들의 이동 속도 및 이동 방향에 기초하여, 사고에 대한 과실 비율을 획득할 수 있다(S1500). 실시예에 따르면, 영상 기록 장치(200)는 과실 비율을 산정하기 위한 규칙들을 메모리(240)로부터 참조할 수 있다. 실시예에 따르면, 영상 기록 장치(200)는 과실 비율을 산정하기 위한 규칙들을 외부 서버로부터 수신할 수 있다. 외부 서버는 예를 들면, 도로교통안전관리공단의 서버일 수 있다.In addition, the
일 실시 예에 따른 장치는 프로세서, 프로그램 데이터를 저장하고 실행하는 메모리, 디스크 드라이브와 같은 영구 저장부(permanent storage), 외부 장치와 통신하는 통신 포트, 터치 패널, 키(key), 버튼 등과 같은 사용자 인터페이스 장치 등을 포함할 수 있다. 소프트웨어 모듈 또는 알고리즘으로 구현되는 방법들은 상기 프로세서상에서 실행 가능한 컴퓨터가 읽을 수 있는 코드들 또는 프로그램 명령들로서 컴퓨터가 읽을 수 있는 기록 매체 상에 저장될 수 있다. 여기서 컴퓨터가 읽을 수 있는 기록 매체로 마그네틱 저장 매체(예컨대, ROM(read-only memory), RAM(random-access memory), 플로피 디스크, 하드 디스크 등) 및 광학적 판독 매체(예컨대, 시디롬(CD-ROM), 디브이디(DVD: Digital Versatile Disc)) 등이 있다. 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템들에 분산되어, 분산 방식으로 컴퓨터가 판독 가능한 코드가 저장되고 실행될 수 있다. 매체는 컴퓨터에 의해 판독가능하며, 메모리에 저장되고, 프로세서에서 실행될 수 있다. A device according to an embodiment includes a processor, a memory for storing and executing program data, a permanent storage such as a disk drive, a communication port for communicating with an external device, a touch panel, a user such as a key, a button, etc. It may include an interface device or the like. Methods implemented as software modules or algorithms may be stored on a computer-readable recording medium as computer-readable codes or program instructions executable on the processor. Here, as a computer-readable recording medium, a magnetic storage medium (e.g., read-only memory (ROM), random-access memory (RAM), floppy disk, hard disk, etc.) and optical reading medium (e.g., CD-ROM ) And DVD (Digital Versatile Disc). The computer-readable recording medium is distributed over network-connected computer systems, so that computer-readable codes can be stored and executed in a distributed manner. The medium is readable by a computer, stored in memory, and executed on a processor.
도면에 도시된 실시 예들에서 참조 부호를 기재하였으며, 실시 예들을 설명하기 위하여 특정 용어들을 사용하였으나, 특정 용어에 의해 본 발명이 한정되는 것은 아니며, 실시 예는 당업자에 있어서 통상적으로 생각할 수 있는 모든 구성 요소들을 포함할 수 있다. Reference numerals are described in the embodiments shown in the drawings, and specific terms are used to describe the embodiments, but the present invention is not limited by specific terms, and the embodiments are all configurations commonly conceived by those skilled in the art. It can contain elements.
실시 예는 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들은 특정 기능들을 실행하는 다양한 개수의 하드웨어 또는/및 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 실시 예는 하나 이상의 마이크로프로세서들의 제어 또는 다른 제어 장치들에 의해서 다양한 기능들을 실행할 수 있는, 메모리, 프로세싱, 로직(logic), 룩 업 테이블(look-up table) 등과 같은 직접 회로 구성들을 채용할 수 있다. 본 발명에의 구성 요소들이 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있는 것과 유사하게, 실시 예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 실시 예는 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. “매커니즘”, “요소”, “수단”, “구성”과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다. 상기 용어는 프로세서 등과 연계하여 소프트웨어의 일련의 처리들(routines)의 의미를 포함할 수 있다.An embodiment may be represented by functional block configurations and various processing steps. These functional blocks may be implemented with various numbers of hardware or/and software configurations that perform specific functions. For example, the embodiment is an integrated circuit configuration such as memory, processing, logic, a look-up table, etc., capable of executing various functions by controlling one or more microprocessors or other control devices Can be hired. Similar to how the components of the present invention can be implemented with software programming or software elements, embodiments include various algorithms implemented with a combination of data structures, processes, routines or other programming components, including C, C++. , Java, assembler, or the like may be implemented in a programming or scripting language. Functional aspects can be implemented with an algorithm running on one or more processors. In addition, the embodiments may employ conventional techniques for electronic environment setting, signal processing, and/or data processing. Terms such as “mechanism”, “element”, “means”, and “composition” can be used widely, and are not limited to mechanical and physical configurations. The term may include the meaning of a series of routines of software in connection with a processor or the like.
실시 예에서 설명하는 특정 실행들은 일 실시 예들로서, 어떠한 방법으로도 실시 예의 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다. 또한, 도면에 도시된 구성 요소들 간의 선들의 연결 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것으로서, 실제 장치에서는 대체 가능하거나 추가의 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들로서 나타내어질 수 있다. 또한, “필수적인”, “중요하게” 등과 같이 구체적인 언급이 없다면 본 발명의 적용을 위하여 반드시 필요한 구성 요소가 아닐 수 있다.Specific implementations described in the embodiments are examples, and do not limit the scope of the embodiments in any way. For brevity of the specification, descriptions of conventional electronic configurations, control systems, software, and other functional aspects of the systems may be omitted. In addition, the connection or connection members of the lines between the components shown in the drawings exemplarily represent functional connections and/or physical or circuit connections. Connections, or circuit connections, may be represented. In addition, if there is no specific mention such as “essential” or “importantly”, it may not be an essential component for the application of the present invention.
실시 예의 명세서(특히 특허청구범위에서)에서 “상기”의 용어 및 이와 유사한 지시 용어의 사용은 단수 및 복수 모두에 해당하는 것일 수 있다. 또한, 실시 예에서 범위(range)를 기재한 경우 상기 범위에 속하는 개별적인 값을 적용한 발명을 포함하는 것으로서(이에 반하는 기재가 없다면), 상세한 설명에 상기 범위를 구성하는 각 개별적인 값을 기재한 것과 같다. 마지막으로, 실시 예에 따른 방법을 구성하는 단계들에 대하여 명백하게 순서를 기재하거나 반하는 기재가 없다면, 상기 단계들은 적당한 순서로 행해질 수 있다. 반드시 상기 단계들의 기재 순서에 따라 실시 예들이 한정되는 것은 아니다. 실시 예에서 모든 예들 또는 예시적인 용어(예들 들어, 등등)의 사용은 단순히 실시 예를 상세히 설명하기 위한 것으로서 특허청구범위에 의해 한정되지 않는 이상 상기 예들 또는 예시적인 용어로 인해 실시 예의 범위가 한정되는 것은 아니다. 또한, 당업자는 다양한 수정, 조합 및 변경이 부가된 특허청구범위 또는 그 균등물의 범주 내에서 설계 조건 및 팩터에 따라 구성될 수 있음을 알 수 있다.In the specification of the embodiment (especially in the claims), the use of the term "above" and a similar term may correspond to both the singular and the plural. In addition, when a range is described in an embodiment, the invention to which individual values falling within the range are applied (unless otherwise stated), it is the same as describing each individual value constituting the range in the detailed description. . Finally, if there is no clearly stated or contrary to the order of steps constituting the method according to the embodiment, the steps may be performed in an appropriate order. The embodiments are not necessarily limited according to the order of description of the steps. The use of all examples or illustrative terms (for example, etc.) in the embodiments is merely for describing the embodiments in detail, and the scope of the embodiments is limited by the above examples or illustrative terms, unless limited by the claims. It is not. In addition, those skilled in the art can recognize that various modifications, combinations, and changes may be configured according to design conditions and factors within the scope of the appended claims or their equivalents.
100 영상 기록 장치
200 차량
1100 제1 차로
2100 제1 차량100 video recorder
200 vehicles
1100 primary lane
2100 first vehicle
Claims (7)
촬영한 영상을 표시하는 디스플레이; 및
상기 촬영한 영상 내에서 차선 및 차량들을 인식하고,
상기 차량들의 이동 속도 및 상기 차선을 기준으로 상기 차량들의 이동 방향을 획득하고,
상기 디스플레이를 통해 상기 차량들의 상기 이동 속도 및 상기 이동 방향을 표시하는 제어부;를 포함하는
영상 기록 장치.A camera attached to the vehicle and taking an image;
A display for displaying the captured image; And
Recognize lanes and vehicles within the captured image,
Acquiring a moving direction of the vehicles based on the moving speed of the vehicles and the lane,
A control unit for displaying the moving speed and the moving direction of the vehicles through the display;
Video recording device.
상기 제어부는
상기 차량들의 상기 이동 속도 및 상기 이동 방향에 기초하여, 사고에 대한 과실 비율을 획득하는
영상 기록 장치.The method of claim 1,
The control unit
Based on the moving speed and the moving direction of the vehicles, obtaining an error rate for an accident
Video recording device.
상기 제어부는
상기 촬영한 영상 내에서 차로 정보 및 신호 정보 중 적어도 하나를 인식하고,
상기 차로 정보 및 신호 정보 중 적어도 하나에 기초하여 사고에 대한 과실 비율을 획득하는
영상 기록 장치.The method of claim 1,
The control unit
Recognize at least one of lane information and signal information in the captured image,
Obtaining an error rate for an accident based on at least one of the lane information and signal information
Video recording device.
상기 제어부는 과실 비율을 산정하기 위한 규칙들을 저장하는 메모리를 더 포함하는,
영상 기록 장치.The method of claim 1,
The control unit further comprises a memory storing rules for calculating the fruit ratio,
Video recording device.
외부 기기와 통신할 수 있는 통신부를 더 포함하고,
상기 제어부는 상기 통신부를 통해 상기 차량들의 이동 속도 및 이동 방향에 관한 정보들을 상기 외부 기기에 전송할 수 있는
영상 기록 장치.The method of claim 1,
Further comprising a communication unit capable of communicating with an external device,
The control unit is capable of transmitting information on the moving speed and direction of movement of the vehicles to the external device through the communication unit.
Video recording device.
상기 촬영한 영상 내에서 차선 및 차량들을 인식하는 단계;
상기 차량들의 이동 속도 및 상기 차선을 기준으로 상기 차량들의 이동 방향을 획득하는 단계;
디스플레이를 통해 상기 차량들의 상기 이동 속도 및 상기 이동 방향을 표시하는 단계;를 포함하는
영상 기록 방법. Capturing an image through a camera attached to the vehicle;
Recognizing lanes and vehicles within the captured image;
Obtaining a moving direction of the vehicles based on the moving speed of the vehicles and the lane;
Including; displaying the moving speed and the moving direction of the vehicles through a display
Video recording method.
상기 각 차량들의 상기 이동 속도 및 상기 이동 방향에 기초하여, 사고에 대한 과실 비율을 획득하는 단계를 더 포함하는
영상 기록 방법. The method of claim 7,
Based on the moving speed and the moving direction of each of the vehicles, further comprising the step of obtaining an error rate for the accident
Video recording method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190078349A KR102296213B1 (en) | 2019-06-28 | 2019-06-28 | Video recording apparatus and operating method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190078349A KR102296213B1 (en) | 2019-06-28 | 2019-06-28 | Video recording apparatus and operating method thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20210001777A true KR20210001777A (en) | 2021-01-06 |
KR102296213B1 KR102296213B1 (en) | 2021-09-01 |
Family
ID=74128865
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190078349A KR102296213B1 (en) | 2019-06-28 | 2019-06-28 | Video recording apparatus and operating method thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102296213B1 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140007709A (en) * | 2012-07-10 | 2014-01-20 | 삼성전자주식회사 | Transparent display apparatus for displaying an information of danger element and method thereof |
JP2015210775A (en) * | 2014-04-30 | 2015-11-24 | 三菱電機株式会社 | Information processing apparatus, information processing method, and information processing system |
KR20170056789A (en) * | 2015-11-13 | 2017-05-24 | (주)캠시스 | Around view monitoring system having function of black box and operating method |
-
2019
- 2019-06-28 KR KR1020190078349A patent/KR102296213B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140007709A (en) * | 2012-07-10 | 2014-01-20 | 삼성전자주식회사 | Transparent display apparatus for displaying an information of danger element and method thereof |
JP2015210775A (en) * | 2014-04-30 | 2015-11-24 | 三菱電機株式会社 | Information processing apparatus, information processing method, and information processing system |
KR20170056789A (en) * | 2015-11-13 | 2017-05-24 | (주)캠시스 | Around view monitoring system having function of black box and operating method |
Also Published As
Publication number | Publication date |
---|---|
KR102296213B1 (en) | 2021-09-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20240181961A1 (en) | Vehicle system and vehicle | |
KR101579100B1 (en) | Apparatus for providing around view and Vehicle including the same | |
KR20160142167A (en) | Display apparatus for vhhicle and vehicle including the same | |
CN105966311B (en) | Method for calibrating a camera, device for a vehicle and computer program product | |
JP7222216B2 (en) | Driving support device | |
CN110171357B (en) | Vehicle and control method thereof | |
CN110462702B (en) | Travel route providing system, control method thereof, and medium | |
US20180162274A1 (en) | Vehicle side-rear warning device and method using the same | |
CN105793909B (en) | The method and apparatus for generating warning for two images acquired by video camera by vehicle-periphery | |
KR102094405B1 (en) | Method and apparatus for determining an accident using an image | |
JP7234614B2 (en) | Anomaly detection device, anomaly detection system and anomaly detection program | |
KR102296213B1 (en) | Video recording apparatus and operating method thereof | |
JP7043795B2 (en) | Driving support device, driving status information acquisition system, driving support method and program | |
KR102389728B1 (en) | Method and apparatus for processing a plurality of images obtained from vehicle 's cameras | |
KR20200082463A (en) | Video recording apparatus and operating method for the same | |
JP2022140026A (en) | Image processing device, image processing method and program | |
KR102217973B1 (en) | Lane guide apparatus and method for guiding lane | |
KR102219339B1 (en) | Driving assistance and driving assistance method thereof | |
KR102202638B1 (en) | Driving assistance and driving assistance method thereof | |
KR102541416B1 (en) | Method and apparatus for displaying a HUD image based on realtime traffic information | |
KR102244027B1 (en) | Vehicle information sharing system comprising vehicle terminal and server | |
KR102559534B1 (en) | Method and apparatus for supporting driving lines of vehicle in bad weather | |
US20210321062A1 (en) | Image processing device in moving object, imaging device, image processing method, and recording medium | |
JP7294483B2 (en) | Driving support device, driving support method and program | |
JP2021165766A (en) | Information processing apparatus, information processing method, program, and movable body |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E90F | Notification of reason for final refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |