KR20210019645A - Apparatus for monitoring passengers in autonomous vehicles - Google Patents
Apparatus for monitoring passengers in autonomous vehicles Download PDFInfo
- Publication number
- KR20210019645A KR20210019645A KR1020190098502A KR20190098502A KR20210019645A KR 20210019645 A KR20210019645 A KR 20210019645A KR 1020190098502 A KR1020190098502 A KR 1020190098502A KR 20190098502 A KR20190098502 A KR 20190098502A KR 20210019645 A KR20210019645 A KR 20210019645A
- Authority
- KR
- South Korea
- Prior art keywords
- occupant
- unit
- posture
- passenger
- face direction
- Prior art date
Links
- 238000012544 monitoring process Methods 0.000 title abstract description 10
- 238000012545 processing Methods 0.000 claims abstract description 25
- 238000000034 method Methods 0.000 claims abstract description 13
- 238000012806 monitoring device Methods 0.000 claims description 7
- 230000008859 change Effects 0.000 claims description 5
- 230000006870 function Effects 0.000 description 11
- 230000009471 action Effects 0.000 description 7
- 230000006399 behavior Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 208000001836 Firesetting Behavior Diseases 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 210000003127 knee Anatomy 0.000 description 3
- 230000004297 night vision Effects 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 210000005069 ears Anatomy 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000001737 promoting effect Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000004438 eyesight Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000008450 motivation Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/14—Adaptive cruise control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- G06K9/00845—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/597—Recognising the driver's state or behaviour, e.g. attention or drowsiness
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
- B60W2040/0818—Inactivity or incapacity of driver
-
- B60W2050/0077—
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B60W2420/42—
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/45—External transmission of data to or from the vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Y—INDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
- B60Y2200/00—Type of vehicle
- B60Y2200/10—Road Vehicles
- B60Y2200/14—Trucks; Load vehicles, Busses
Landscapes
- Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
본 발명은 자율 주행 차량내의 탑승자 모니터링 장치에 관한 것으로, 보다 상세하게는 셔틀(shuttle) 형태의 자율 주행 차량내에 탑승한 탑승자의 상태를 모니터링하는 자율 주행 차량내의 탑승자 모니터링 장치에 관한 것이다.The present invention relates to an apparatus for monitoring occupants in an autonomous vehicle, and more particularly, to an apparatus for monitoring occupants in an autonomous vehicle that monitors a state of an occupant in an autonomous vehicle in the form of a shuttle.
차량은 운동 에너지를 이용하여 사람이나 짐을 이동시킬 수 있는 교통 수단을 의미한다. A vehicle refers to a means of transportation that can move people or luggage by using kinetic energy.
차량을 이용하는 사용자의 안전 및 편의를 위해, 차량에는 각종 센서와 장치가 구비되고 있으며, 차량의 기능이 다양화되고 있다.For the safety and convenience of users who use the vehicle, various sensors and devices are provided in the vehicle, and functions of the vehicle are diversified.
차량의 기능은 운전자의 편의를 도모하기 위한 편의 기능, 그리고 운전자 및/또는 보행자의 안전을 도모하기 위한 안전 기능으로 나뉠 수 있다.The vehicle functions may be divided into a convenience function for promoting the driver's convenience, and a safety function for promoting the safety of the driver and/or pedestrian.
먼저, 편의 기능은 차량에 인포테인먼트(information + entertainment) 기능을 부여하고, 부분적인 자율 주행 기능을 지원하거나, 야간 시야나 사각 지대와 같은 운전자의 시야 확보를 돕는 등의 운전자 편의와 관련된 개발 동기를 가진다. 예를 들어, 적응 순향 제어(active cruise control, ACC), 스마트주차시스템(smart parking assist system, SPAS), 나이트비전(night vision, NV), 헤드 업 디스플레이(head up display, HUD), 어라운드 뷰 모니터(around view monitor, AVM), 적응형 상향등 제어(adaptive headlight system, AHS) 기능 등이 있다.First, the convenience function has a development motivation related to the driver's convenience, such as giving the vehicle an infotainment (information + entertainment) function, supporting a partial autonomous driving function, or helping to secure the driver's vision such as night vision or blind spots. . For example, adaptive cruise control (ACC), smart parking assist system (SPAS), night vision (NV), head up display (HUD), and around view monitor (around view monitor, AVM) and adaptive headlight system (AHS) functions.
안전 기능은 운전자의 안전 및/또는 보행자의 안전을 확보하는 기술로, 차선 이탈 경고 시스템(lane departure warning system, LDWS), 차선 유지 보조 시스템(lane keeping assist system, LKAS), 자동 긴급 제동(autonomous emergency braking, AEB) 기능 등이 있다.Safety functions are technologies that ensure the safety of drivers and/or pedestrians, such as lane departure warning system (LDWS), lane keeping assist system (LKAS), and automatic emergency braking (autonomous emergency). braking, AEB) functions, etc.
차량의 기능 지지 및 증대를 위해, 차량용 제어장치의 구조적인 부분 및/또는 소프트웨어적인 부분을 개량하는 것이 고려될 수 있다.In order to support and increase the function of the vehicle, it may be considered to improve the structural part and/or the software part of the vehicle control device.
이러한 개량에 힘입어, 운전자의 개입 없이도 목적지까지 자동으로 주행할 수 있는 자율 주행 차량이 개발되고 있다.Thanks to these improvements, autonomous vehicles are being developed that can automatically drive to their destination without driver intervention.
자율 주행은 운전 조작 장치가 운전자에 의하여 조작되지 않아도 가속, 감속, 및 주행 방향 중 적어도 하나가 기설정된 알고리즘에 의하여 제어되는 것으로 정의된다.Autonomous driving is defined as that at least one of acceleration, deceleration, and driving direction is controlled by a preset algorithm even if the driving operation device is not operated by the driver.
자율 주행 차량이 상용화된다면, 운전자는 운전에 소요되는 시간을 다른 일에 활용할 수 있게 된다. 예를 들어, 책을 읽거나, 동영상을 시청하거나, 잠을 잘 수 있다.If autonomous vehicles are commercialized, drivers can use the time spent driving for other tasks. For example, you can read a book, watch a video, or sleep.
자율 주행 차량은 차량의 주행과 정차가 사람이 아닌 소프트웨어에 의해 결정된다. 그에 따라, 종래 운전자가 수행하던 많은 일들을 자동으로 수행할 수 있는 자율 주행 차량에 대한 개발이 필요하다.In autonomous vehicles, the driving and stopping of the vehicle is determined by software, not by humans. Accordingly, there is a need to develop an autonomous vehicle capable of automatically performing many tasks previously performed by a driver.
이에, 자율 주행과 관련된 다양한 알고리즘들이 개발되고 있다. 예를 들어, 차량 외부에 있는 물체와의 충돌 가능성을 판단하고 충돌을 회피하는 알고리즘, 신호 등을 인식하고 신호에 대응하는 동작을 수행하는 알고리즘, 앞차/뒷차와의 간격을 조절하며 속도를 조절하는 알고리즘 등이 개발되고 있다.Accordingly, various algorithms related to autonomous driving are being developed. For example, an algorithm that determines the possibility of a collision with an object outside the vehicle and avoids a collision, an algorithm that recognizes a signal and performs an action corresponding to the signal, adjusts the distance between the vehicle in front and the vehicle behind, and adjusts the speed. Algorithms and the like are being developed.
이와 같이 종래에는 차량 외부에서 발생하는 각종의 상황에 자동으로 대응할 수 있는 자율 주행 차량에 대한 연구가 활활발하였다.As described above, in the related art, research on autonomous vehicles capable of automatically responding to various situations occurring outside the vehicle has been active.
그러나, 차량에 탑승한 탑승자의 상태를 고려한 자율 주행 차량에 대한 연구는 아직 미진한 실정이다.However, research on autonomous vehicles taking into account the state of the occupants in the vehicle is still insufficient.
본 발명은 상기한 종래의 사정을 감안하여 제안된 것으로, 셔틀(shuttle) 형태의 자율 주행 차량내에 탑승한 탑승자의 상태를 모니터링하여 위험한 상황이 발생하였거나 위험한 상황이 예상되는 경우에 이를 외부에 알리도록 하는 자율 주행 차량내의 탑승자 모니터링 장치를 제공함에 그 목적이 있다.The present invention has been proposed in consideration of the above-described conventional circumstances, and is to notify the outside when a dangerous situation occurs or a dangerous situation is expected by monitoring the status of the occupant in a shuttle-type autonomous vehicle. It is an object of the present invention to provide an occupant monitoring device in an autonomous vehicle.
상기와 같은 목적을 달성하기 위하여 본 발명의 바람직한 실시양태에 따른 자율 주행 차량내의 탑승자 모니터링 장치는, 자율 주행 차량의 내부를 실시간으로 촬영하는 카메라; 상기 카메라로부터의 입력 이미지에서 탑승자 및 물건중의 하나 이상을 인식하고 트래킹하는 탑승자 및 물건 처리부; 상기 탑승자 및 물건 처리부에서의 처리 결과를 근거로 탑승자의 자세 및 얼굴 방향을 추정하는 자세 및 얼굴 방향 추정부; 상기 자세 및 얼굴 방향 추정부로부터의 출력을 근거로 탑승자가 위험한지를 판단하는 상태 판단부; 및 상기 상태 판단부에서 위험한 탑승자로 판단됨에 따라 그에 상응하는 알림메시지를 생성하여 외부 센터에게로 보내는 알림부;를 포함한다.In order to achieve the above object, an apparatus for monitoring occupants in an autonomous vehicle according to a preferred embodiment of the present invention includes: a camera for photographing the interior of the autonomous vehicle in real time; An occupant and object processing unit for recognizing and tracking at least one of an occupant and an object in the input image from the camera; A posture and face direction estimating unit for estimating a posture and face direction of the occupant based on a result of processing by the occupant and object processing unit; A state determination unit determining whether the occupant is in danger based on the output from the posture and face direction estimation unit; And a notification unit that generates a notification message corresponding to the status determination unit as it is determined as a dangerous occupant and sends the notification message to the external center.
상기 탑승자 및 물건 처리부는, 상기 탑승자 및 물건중의 하나 이상을 인식함에 있어서, 상기 카메라로부터의 입력 이미지에서 탑승자를 인식하고 인식한 탑승자의 성별을 구분하고, 상기 탑승자가 휴대하고 있는 물건이 있으면 해당 물건을 인식하고, 상기 탑승자와 상기 물건간의 태깅을 실시할 수 있다.In recognizing one or more of the occupant and the object, the occupant and object processing unit recognizes the occupant in the input image from the camera and identifies the gender of the recognized occupant, and if there is an object carried by the occupant, the corresponding It is possible to recognize an object and perform tagging between the occupant and the object.
상기 자세 및 얼굴 방향 추정부는, 상기 탑승자 및 물건 처리부에서 인식된 탑승자의 몸과 얼굴의 랜드마크를 각각 검출하고, 상기 검출된 해당 탑승자의 몸과 얼굴의 랜드마크를 각각 트래킹하여 해당 탑승자의 자세 및 얼굴 방향을 추정할 수 있다.The posture and face direction estimation unit detects landmarks of the body and face of the occupant recognized by the occupant and object processing unit, respectively, and tracks the detected landmarks of the body and face of the corresponding occupant, respectively, and Face orientation can be estimated.
상기 상태 판단부는, 상기 자세 및 얼굴 방향 추정부로부터의 출력을 근거로 해당 탑승자의 현재 상태를 판단하고, 실시간으로 해당 탑승자의 현재 상태를 트래킹하여 해당 탑승자의 행동 변화를 파악하고, 상기 해당 탑승자의 행동 변화 파악을 근거로 해당 탑승자가 위험한지를 판단할 수 있다.The state determination unit determines the current state of the corresponding occupant based on the output from the posture and face direction estimation unit, tracks the current state of the corresponding occupant in real time to determine the change in behavior of the occupant, and Based on the identification of behavioral changes, it is possible to determine whether the occupant is at risk.
이러한 구성의 본 발명에 따르면, 셔틀 형태의 자율 주행 차량내에서 탑승자간에 문제가 발생하였거나 위험하다고 예상되는 탑승자를 발견하면 외부 센터에게로 그에 상응하는 알림메시지를 전송할 수 있으므로, 주행중인 자율 주행 차량내에서 발생된 사고에 대해 신속하게 대응할 수 있도록 하거나 사고의 발생을 미연에 방지할 수 있다.According to the present invention with this configuration, when a problem occurs between passengers in a shuttle-type autonomous vehicle or a passenger who is expected to be dangerous is found, a corresponding notification message can be transmitted to the external center. Accidents can be quickly responded to or can be prevented from occurring.
도 1은 본 발명의 실시예에 따른 자율 주행 차량내의 탑승자 모니터링 장치의 구성을 나타낸 블록도이다.
도 2는 도 1에 도시된 카메라에서 촬영된 영상의 일 예를 나타낸 도면이다.
도 3은 도 1에 도시된 자세 및 얼굴 방향 추정부에서 처리된 탑승자의 몸의 랜드마크 일 예를 나타낸 도면이다.
도 4는 도 1에 도시된 자세 및 얼굴 방향 추정부에서 처리된 탑승자의 얼굴의 랜드마크 일 예를 나타낸 도면이다.
도 5는 도 1에 도시된 자세 및 얼굴 방향 추정부에서 처리하게 되는 몸과 얼굴의 랜드마크의 기본예이다.
도 6 및 도 7은 본 발명의 실시예에 따른 자율 주행 차량내의 탑승자 모니터링 방법을 설명하기 위한 플로우차트이다.1 is a block diagram showing the configuration of an occupant monitoring apparatus in an autonomous vehicle according to an embodiment of the present invention.
2 is a diagram showing an example of an image captured by the camera shown in FIG. 1.
3 is a view showing an example of a landmark of a body of a passenger processed by the posture and face direction estimation unit shown in FIG. 1.
4 is a diagram illustrating an example of a landmark of a passenger's face processed by the posture and face direction estimation unit shown in FIG. 1.
5 is a basic example of body and face landmarks processed by the posture and face direction estimation unit shown in FIG. 1.
6 and 7 are flowcharts illustrating a method for monitoring occupants in an autonomous vehicle according to an embodiment of the present invention.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 상세하게 설명하고자 한다.In the present invention, various modifications may be made and various embodiments may be provided, and specific embodiments will be illustrated in the drawings and described in detail.
그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.However, this is not intended to limit the present invention to a specific embodiment, it is to be understood to include all changes, equivalents, and substitutes included in the spirit and scope of the present invention.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the present application are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In the present application, terms such as "comprise" or "have" are intended to designate the presence of features, numbers, steps, actions, components, parts, or combinations thereof described in the specification, but one or more other features. It is to be understood that the presence or addition of elements or numbers, steps, actions, components, parts, or combinations thereof, does not preclude in advance.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs. Terms such as those defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related technology, and should not be interpreted as an ideal or excessively formal meaning unless explicitly defined in this application. Does not.
이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.Hereinafter, preferred embodiments of the present invention will be described in more detail with reference to the accompanying drawings. In describing the present invention, in order to facilitate an overall understanding, the same reference numerals are used for the same elements in the drawings, and duplicate descriptions for the same elements are omitted.
도 1은 본 발명의 실시예에 따른 자율 주행 차량내의 탑승자 모니터링 장치의 구성을 나타낸 블록도이고, 도 2는 도 1에 도시된 카메라에서 촬영된 영상의 일 예를 나타낸 도면이고, 도 3은 도 1에 도시된 자세 및 얼굴 방향 추정부에서 처리된 탑승자의 몸의 랜드마크 일 예를 나타낸 도면이고, 도 4는 도 1에 도시된 자세 및 얼굴 방향 추정부에서 처리된 탑승자의 얼굴의 랜드마크 일 예를 나타낸 도면이고, 도 5는 도 1에 도시된 자세 및 얼굴 방향 추정부에서 처리하게 되는 몸과 얼굴의 랜드마크의 기본예이다.1 is a block diagram showing the configuration of an occupant monitoring device in an autonomous vehicle according to an embodiment of the present invention, FIG. 2 is a view showing an example of an image captured by the camera shown in FIG. 1, and FIG. 3 is 1 is a view showing an example of a landmark of the occupant's body processed by the posture and face direction estimating unit shown in FIG. 1, and FIG. 4 is a landmark of the occupant's face processed by the posture and facial direction estimating unit shown in FIG. 1 It is a diagram showing an example, and FIG. 5 is a basic example of body and face landmarks processed by the posture and face direction estimation unit shown in FIG. 1.
본 발명의 실시예에 따른 자율 주행 차량내의 탑승자 모니터링 장치는, 카메라(10), 탑승자 및 물건 처리부(12), 자세 및 얼굴 방향 추정부(14), 상태 판단부(16), 알림부(18), 학습부(20), 및 제어부(22)를 포함할 수 있다.The occupant monitoring device in an autonomous vehicle according to an embodiment of the present invention includes a
카메라(10)는 자율 주행 차량(예컨대, 셔틀(shuttle))의 천장에 설치되어 자율 주행 차량의 내부를 실시간으로 촬영할 수 있다. 예를 들어, 카메라(10)는 도 2에 예시한 바와 같이 자율 주행 차량의 내부의 모습을 촬영할 수 있다.The
카메라(10)는 가로방향으로 대략 110도 ~ 130도 정도(보다 바람직하게는 120도 정도), 및 세로방향으로 대략 70도 ~ 80도 정도(보다 바람직하게는 73도 정도)의 비주얼 각도(visual angle)(화각이라고도 함)를 갖는 광각 카메라이다.The
또한, 카메라(10)는 자율 주행 차량내의 탑승자들을 잘 포착할 수 있도록 하기 위해 대략 70도 정도의 틸팅 각도(tilting angle)를 가질 수 있다. In addition, the
탑승자 및 물건 처리부(12)는 카메라(10)로부터의 입력 이미지에서 탑승자 및 물건에 대한 인식 및 트래킹을 처리한다. 탑승자 및 물건을 인식함에 있어서, 탑승자 및 물건 처리부(12)는 후술할 학습부(20)의 제 1 학습 모델을 이용하여 탑승자 및 물건을 인식할 수 있다. The occupant and
즉, 탑승자 및 물건 처리부(12)는 카메라(10)로부터의 입력 이미지에서 탑승자를 인식하고 인식한 탑승자의 성별을 구분하고, 탑승자가 휴대하고 있는 물건(예컨대, 가방, 카트, 우산, 휴대폰, 총, 칼 등)을 인식한다. That is, the occupant and
여기서, 탑승자의 성별은 남, 여로 구분되겠으나, 보다 구체적으로는 어린이, 청소년, 어른 등으로 세분화될 수 있다.Here, the gender of the passenger will be divided into male and female, but more specifically, it may be subdivided into children, adolescents, and adults.
상술한 탑승자 및 물건 처리부(12)에서의 탑승자 및 물건의 인식은 동종업계에 종사하는 자라면 주지의 기술로 충분히 이해할 수 있으므로 상세한 설명은 생략한다.Recognition of the occupant and the object in the occupant and
또한, 탑승자 및 물건 처리부(12)는 탑승자별로 인식된 물건을 태깅(tagging)할 수 있다. 여기서, 태깅은 탑승자와 물건을 서로 매칭시키는 것으로 이해하면 된다. 물론, 탑승자가 지니고 있는 물건(예컨대, 가방, 카트, 우산, 휴대폰, 총, 칼 등)이 없을 경우에는 태깅이 필요없을 것이다.In addition, the occupant and
그리고, 탑승자 및 물건 처리부(12)는 탑승자 및 물건을 각각 트래킹(tracking)할 수 있고, 탑승자 및 물건의 트래킹을 업데이트할 수 있다.Further, the occupant and
자세 및 얼굴 방향 추정부(14)는 탑승자 및 물건 처리부(12)에서 인식된 탑승자의 몸과 얼굴의 랜드마크를 각각 검출하고, 검출된 해당 탑승자의 몸과 얼굴의 랜드마크를 각각 트래킹할 수 있다.The posture and face
예를 들어, 자세 및 얼굴 방향 추정부(14)는 도 3에 예시한 바와 같이 탑승자의 몸의 랜드마크를 3D로 검출할 수 있고, 도 4에 예시한 바와 같이 탑승자의 얼굴의 랜드마크를 3D로 검출할 수 있다. For example, the posture and face
자세 및 얼굴 방향 추정부(14)는 후술할 학습부(20)의 제 2 학습 모델을 이용하여 탑승자의 몸과 얼굴의 랜드마크를 각각 3D로 검출할 수 있다.The posture and face
자세 및 얼굴 방향 추정부(14)는 탑승자의 몸과 얼굴의 랜드마크를 3D로 검출함에 있어서, 탑승자의 얼굴 정면의 경우에는 4개의 특징점 즉, 도 5의 (a)에 예시한 바와 같이 양쪽 귀와 코 및 턱의 특징점을 해당 탑승자의 얼굴에 대한 랜드마크로 결정하여 검출할 수 있다. 한편, 탑승자의 얼굴 측면의 경우에는 3개의 특징점 즉, 도 5의 (b)에 예시한 바와 같이 한쪽 귀와 코 및 턱의 특징점을 해당 탑승자의 얼굴에 대한 랜드마크로 결정하여 검출할 수 있다. 한편, 탑승자의 몸의 경우에는 도 5의 (c)에 예시한 바와 같이 13개의 특징점을 해당 탑승자의 몸에 대한 랜드마크로 결정하여 검출할 수 있다. 특히, 탑승자의 몸에 대한 랜드마크를 검출할 때, 종래에는 몸통(torso)에서 양쪽 무릎(knee)을 각각 굴곡진 연결선으로 연결하였으나, 본 발명의 실시예에서는 몸통(torso)에서 양쪽 무릎(knee)을 각각 일자 형태의 연결선으로 연결한다.The posture and face
한편, 자세 및 얼굴 방향 추정부(14)는 해당 탑승자의 몸과 얼굴의 랜드마크를 트래킹할 때, 예를 들어 확장 칼만 필터(EKF ; Extended Kalman Filter)를 이용하여 몸과 얼굴의 랜드마크를 각각 트래킹한다. On the other hand, the posture and face
이와 같이 확장 칼만 필터를 이용한 몸과 얼굴의 랜드마크를 트래킹함에 따라, 자세 및 얼굴 방향 추정부(14)는 해당 탑승자의 자세(pose) 및 얼굴 방향(head orientation)을 추정할 수 있다.As the body and face landmarks are tracked using the extended Kalman filter as described above, the posture and face
상태 판단부(16)는 자세 및 얼굴 방향 추정부(14)에서의 출력(예컨대, 탑승자의 자세 및 얼굴 방향 추정 결과)을 근거로 해당 탑승자의 현재 상태를 판단하고 분류한다. 예를 들어, 도 2에 예시된 탑승객의 경우 상태 판단부(16)는 어른인 남자가 앉아서 휴대폰을 사용하고 있는 것으로 판단할 수 있다. 그리고, 상태 판단부(16)는 해당 탑승객에 대해 "탑승자 ID: 1", "성별: 남자, 어른", "시간:16:47", "검출된 물건: 휴대폰", "상태: 앉아서 휴대폰 사용"과 같은 내용을 포함하는 분류코드를 사용하여 분류할 수 있다.The
그리고, 상태 판단부(16)는 실시간으로 해당 탑승자의 현재 상태를 트래킹할 수 있다. In addition, the
상태 판단부(16)는 실시간으로 탑승자의 현재 상태를 계속 트래킹함에 따라 트래킹 결과를 근거로 해당 탑승자의 행동 변화를 파악할 수 있다. As the
이로 인해, 상태 판단부(16)는 해당 탑승자가 위험한 물건을 지니고 있는지 또는 위험한 행동(예컨대, 싸움, 방화 등)을 하고 있는지 또는 위험한 행동을 하였는지 등을 판단할 수 있다.For this reason, the
그리고, 상태 판단부(16)는 판단 결과(즉, 탑승자가 위험한 물건을 지니고 있는지 또는 위험한 행동을 하고 있는지 또는 위험한 행동을 하였음을 나타내는 정보를 포함)를 제어부(22)에게로 보낸다.Then, the
알림부(18)는 후술하는 제어부(22)의 제어에 의해 소정의 알림메시지를 생성하여 외부 센터(예컨대, 고객센터 또는 112, 119 등)에게로 보낸다. 여기서, 알림메시지는 예를 들어, "&&시 $$분 현재 두 명의 탑승자 A,B간에 싸움이 발생하였습니다.", "탑승자 A가 위험한 칼을 들고 있습니다.", "&&시 @@분에 하차한 탑승자 A가 다른 탑승자 B의 가방을 가지고 하차하였습니다." 등과 같은 음성 및/또는 문자 메시지일 수 있다.The
한편, 알림부(18)는 음성 및/또는 문자 메시지를 전송할 때, 문제를 야기시킨 해당 탑승자에 대한 이미지를 함께 보낼 수 있다.Meanwhile, when transmitting a voice and/or text message, the
학습부(20)는 탑승자 및 물건 처리부(12)에서 탑승자 및 물건을 인식할 수 있도록 하는 제 1 학습 모델을 제공하고, 자세 및 얼굴 방향 추정부(14)에서 탑승자의 몸과 얼굴의 랜드마크를 각각 검출할 수 있도록 하는 제 2 학습 모델을 제공한다.The
학습부(20)는 탑승자 및 물건 처리부(12), 및 자세 및 얼굴 방향 추정부(14)에서의 데이터를 근거로 제 1 학습 모델 및 제 2 학습 모델을 학습시킬 수 있다.The
제어부(22)는 본 발명의 실시예에 따른 자율 주행 차량내의 탑승자 모니터링 장치의 전체적인 동작을 제어한다.The
특히, 제어부(22)는 상태 판단부(16)의 판단 결과에 근거하여 자율 주행 차량내에 위험한 상태가 발생되었거나 위험하다고 예상되는 탑승자가 발견된 경우이면 알림부(18)를 통해 외부 센터(예컨대, 고객센터 또는 112, 119 등)에게로 그에 상응하는 알림메시지가 전송되도록 제어한다.In particular, if a dangerous condition occurs in the autonomous vehicle or a passenger who is expected to be dangerous is found on the basis of the determination result of the
즉, 제어부(22)는 상태 판단부(16)의 판단 결과를 근거로 자율 주행 차량내의 탑승객이 어떻게 행동하고 있는지를 충분히 파악할 수 있으므로, 자율 주행 차량내에 위험한 상태가 발생되었는지 또는 위험하다고 예상되는 탑승자가 누구인지 등을 알 수 있다.That is, the
상술한 도 1에서는 상태 판단부(16) 및 제어부(22)를 각각 별도로 구성시켰으나, 상태 판단부(16)와 제어부(22)를 일체의 모듈로 보아도 무방하다.In FIG. 1 described above, the
도 6 및 도 7은 본 발명의 실시예에 따른 자율 주행 차량내의 탑승자 모니터링 방법을 설명하기 위한 플로우차트이다.6 and 7 are flowcharts illustrating a method for monitoring an occupant in an autonomous vehicle according to an embodiment of the present invention.
먼저, 자율 주행 차량의 천장에 설치된 카메라(10)가 해당 자율 주행 차량의 내부를 실시간으로 촬영한다(S10).First, the
이어, 탑승자 및 물건 처리부(12)는 카메라(10)로부터의 입력 이미지에서 탑승자 및 물건에 대한 인식, 태깅, 트래킹을 처리한다. 즉, 탑승자 및 물건 처리부(12)는 카메라(10)로부터의 입력 이미지에서 탑승자를 인식하고 인식한 탑승자의 성별을 구분한다(S12). 그리고 나서, 탑승자 및 물건 처리부(12)는 탑승자가 휴대하고 있는 물건(예컨대, 가방, 카트, 우산, 휴대폰, 총, 칼 등)을 인식하고, 탑승자별로 인식된 물건을 태깅(tagging)한다(S14). 물론, 지니고 있는 물건(예컨대, 가방, 카트, 우산, 휴대폰, 총, 칼 등)이 없는 탑승자에 대해서는 태깅이 필요없을 것이다. 이어, 탑승자 및 물건 처리부(12)는 탑승자 및 물건을 각각 트래킹(tracking)하고, 탑승자 및 물건의 트래킹을 업데이트한다(S16).Subsequently, the occupant and object processing
이후, 자세 및 얼굴 방향 추정부(14)는 탑승자 및 물건 처리부(12)에서 인식된 탑승자의 몸과 얼굴의 랜드마크를 각각 검출한다(S18).Thereafter, the posture and face
그리고 나서, 자세 및 얼굴 방향 추정부(14)는 검출된 해당 탑승자의 몸과 얼굴의 랜드마크를 각각 트래킹한다. 이와 같이 해당 탑승자의 몸과 얼굴의 랜드마크를 트래킹함에 따라, 자세 및 얼굴 방향 추정부(14)는 해당 탑승자의 자세(pose) 및 얼굴 방향(head orientation)을 추정할 수 있다(S20). 자세 및 얼굴 방향 추정부(14)는 추정 결과를 상태 판단부(16)에게로 보낸다.Then, the posture and face
이어, 상태 판단부(16)는 자세 및 얼굴 방향 추정부(14)에서의 출력(예컨대, 탑승자의 자세 및 얼굴 방향 추정 결과)을 근거로 해당 탑승자의 현재 상태를 판단하고 분류한다(S22). Subsequently, the
그리고, 상태 판단부(16)는 실시간으로 해당 탑승자의 현재 상태를 계속 트래킹한다(S24). 이와 같이 실시간으로 탑승자의 현재 상태를 계속 트래킹하게 되면 해당 탑승자의 행동 변화를 파악할 수 있다. 이로 인해, 상태 판단부(16)는 해당 탑승자가 위험한 물건을 지니고 있는지 또는 위험한 행동(예컨대, 싸움, 방화 등)을 하고 있는지 또는 위험한 행동을 하였는지 등을 판단할 수 있다. 그리고, 상태 판단부(16)는 해당 탑승자에 대한 상태 판단 결과를 제어부(22)에게로 보낸다.Then, the
이후, 제어부(22)는 상태 판단부(16)의 판단 결과에 근거하여 자율 주행 차량내에 위험한 상태가 발생되었거나 위험하다고 예상되는 탑승자가 발견된 경우인지를 판단한다(S26).Thereafter, the
상태 판단부(16)의 판단 결과가 자율 주행 차량내에 위험한 상태(예컨대, 싸움, 방화 등)가 발생되었거나 위험하다고 예상되는 탑승자(예컨대, 총, 칼 등을 지닌 탑승자)를 발견하였음 등을 의미하는 것이면(S26에서 "Yes") 제어부(22)는 알림부(18)를 통해 외부 센터(예컨대, 고객센터 또는 112, 119 등)에게로 그에 상응하는 알림메시지를 전송한다(S28). 예를 들어, 자율 주행 차량내에서 싸움이 발생하였을 경우에는 알림부(18)는 "&&시 $$분 현재 두 명의 탑승자 A,B간에 싸움이 발생하였습니다."라는 음성 및/또는 문자메시지를 생성한 후에 외부 센터(예컨대, 고객센터 또는 112, 119 등)에게로 무선전송한다. 예를 들어, 탑승자중에서 어느 한 탑승자가 칼을 들고 있는 경우에는 알림부(18)는 "탑승자 A가 위험한 칼을 들고 있습니다."라는 음성 및/또는 문자메시지를 생성한 후에 외부 센터(예컨대, 고객센터 또는 112, 119 등)에게로 무선전송한다. 예를 들어, 탑승자 A가 다른 탑승자 B의 가방을 가지고 하차한 경우에는 "&&시 @@분에 하차한 탑승자 A가 다른 탑승객 B의 가방을 가지고 하차하였습니다."라는 음성 및/또는 문자 메시지를 생성한 후에 외부 센터(예컨대, 고객센터 또는 112, 119 등)에게로 무선전송한다. 물론, 알림부(18)는 음성 및/또는 문자 메시지를 전송할 때, 문제를 야기시킨 해당 탑승자에 대한 이미지를 함께 보내어도 된다.The determination result of the
또한, 상술한 본 발명의 자율주행차량내의 탑승자 모니터링 방법은, 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광데이터 저장장치 등이 있다. 또한, 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고, 상기 방법을 구현하기 위한 기능적인(function) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있다.In addition, the above-described method for monitoring occupants in an autonomous vehicle according to the present invention can be implemented as a computer-readable code on a computer-readable recording medium. The computer-readable recording medium includes all types of recording devices that store data that can be read by a computer system. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tapes, floppy disks, and optical data storage devices. In addition, the computer-readable recording medium is distributed over a computer system connected through a network, so that computer-readable codes can be stored and executed in a distributed manner. In addition, functional programs, codes and code segments for implementing the method can be easily inferred by programmers in the art to which the present invention belongs.
이상에서와 같이 도면과 명세서에서 최적의 실시예가 개시되었다. 여기서 특정한 용어들이 사용되었으나, 이는 단지 본 발명을 설명하기 위한 목적에서 사용된 것이지 의미 한정이나 청구범위에 기재된 본 발명의 범위를 제한하기 위하여 사용된 것은 아니다. 그러므로, 본 기술 분야의 통상의 지식을 가진자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호범위는 첨부된 청구범위의 기술적 사상에 의해 정해져야 할 것이다.As described above, an optimal embodiment has been disclosed in the drawings and specifications. Although specific terms have been used herein, these are only used for the purpose of describing the present invention, and are not used to limit the meaning or the scope of the present invention described in the claims. Therefore, those of ordinary skill in the art will understand that various modifications and equivalent other embodiments are possible therefrom. Accordingly, the true technical scope of the present invention should be determined by the technical spirit of the appended claims.
10 : 카메라
12 : 탑승자 및 물건 처리부
14 : 자세 및 얼굴 방향 추정부
16 : 상태 판단부
18 : 알림부
20 : 학습부
22 : 제어부10: camera 12: passenger and object handling unit
14: posture and face direction estimation unit 16: state determination unit
18: notification unit 20: learning unit
22: control unit
Claims (4)
상기 카메라로부터의 입력 이미지에서 탑승자 및 물건중의 하나 이상을 인식하고 트래킹하는 탑승자 및 물건 처리부;
상기 탑승자 및 물건 처리부에서의 처리 결과를 근거로 탑승자의 자세 및 얼굴 방향을 추정하는 자세 및 얼굴 방향 추정부;
상기 자세 및 얼굴 방향 추정부로부터의 출력을 근거로 탑승자가 위험한지를 판단하는 상태 판단부; 및
상기 상태 판단부에서 위험한 탑승자로 판단됨에 따라 그에 상응하는 알림메시지를 생성하여 외부 센터에게로 보내는 알림부;를 포함하는 것을 특징으로 하는 자율 주행 차량내의 탑승자 모니터링 장치.
A camera that photographs the interior of the autonomous vehicle in real time;
An occupant and object processing unit for recognizing and tracking at least one of an occupant and an object in the input image from the camera;
A posture and face direction estimating unit for estimating a posture and face direction of the occupant based on a result of processing in the occupant and object processing unit;
A state determination unit determining whether the occupant is in danger based on the output from the posture and face direction estimation unit; And
And a notification unit that generates a notification message according to the determination as a dangerous occupant by the state determination unit and sends the notification message to the external center.
상기 탑승자 및 물건 처리부는,
상기 탑승자 및 물건중의 하나 이상을 인식함에 있어서, 상기 카메라로부터의 입력 이미지에서 탑승자를 인식하고 인식한 탑승자의 성별을 구분하고, 상기 탑승자가 휴대하고 있는 물건이 있으면 해당 물건을 인식하고, 상기 탑승자와 상기 물건간의 태깅을 실시하는 것을 특징으로 하는 자율 주행 차량내의 탑승자 모니터링 장치.
The method according to claim 1,
The passenger and object handling unit,
In recognizing at least one of the occupant and the object, the occupant is recognized in the input image from the camera, the gender of the recognized occupant is identified, and if there is an object carried by the occupant, the object is recognized, and the occupant An occupant monitoring device in an autonomous vehicle, characterized in that tagging between the and the object.
상기 자세 및 얼굴 방향 추정부는,
상기 탑승자 및 물건 처리부에서 인식된 탑승자의 몸과 얼굴의 랜드마크를 각각 검출하고, 상기 검출된 해당 탑승자의 몸과 얼굴의 랜드마크를 각각 트래킹하여 해당 탑승자의 자세 및 얼굴 방향을 추정하는 것을 특징으로 하는 자율 주행 차량내의 탑승자 모니터링 장치.
The method according to claim 1,
The posture and face direction estimation unit,
Each of the landmarks of the body and face of the occupant recognized by the occupant and object processing unit is detected, and the detected landmarks of the body and face of the occupant are respectively tracked to estimate the posture and face direction of the occupant. Occupant monitoring device in autonomous vehicle.
상기 상태 판단부는,
상기 자세 및 얼굴 방향 추정부로부터의 출력을 근거로 해당 탑승자의 현재 상태를 판단하고, 실시간으로 해당 탑승자의 현재 상태를 트래킹하여 해당 탑승자의 행동 변화를 파악하고, 상기 해당 탑승자의 행동 변화 파악을 근거로 해당 탑승자가 위험한지를 판단하는 것을 특징으로 하는 자율 주행 차량내의 탑승자 모니터링 장치.
The method according to claim 1,
The state determination unit,
Based on the output from the posture and face direction estimation unit, the current state of the corresponding occupant is determined, the current state of the corresponding occupant is tracked in real time to determine the change in behavior of the corresponding occupant, and based on the identification of the behavior change of the corresponding occupant An occupant monitoring device in an autonomous vehicle, characterized in that it determines whether the corresponding occupant is dangerous.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190098502A KR20210019645A (en) | 2019-08-13 | 2019-08-13 | Apparatus for monitoring passengers in autonomous vehicles |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190098502A KR20210019645A (en) | 2019-08-13 | 2019-08-13 | Apparatus for monitoring passengers in autonomous vehicles |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20210019645A true KR20210019645A (en) | 2021-02-23 |
Family
ID=74688354
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190098502A KR20210019645A (en) | 2019-08-13 | 2019-08-13 | Apparatus for monitoring passengers in autonomous vehicles |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20210019645A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB202319113D0 (en) | 2023-12-14 | 2024-01-31 | Mercedes Benz Group Ag | System and method for detecting human occupancy in vehicle |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140020230A (en) | 2010-10-05 | 2014-02-18 | 구글 인코포레이티드 | System and method for predicting behaviors of detected objects |
KR20180053081A (en) | 2016-11-11 | 2018-05-21 | 엘지전자 주식회사 | Autonomous vehicle and control method thereof |
KR20190078553A (en) | 2019-06-14 | 2019-07-04 | 엘지전자 주식회사 | Method for controlling vehicle and intelligent computing device for controlling the vehilcle |
-
2019
- 2019-08-13 KR KR1020190098502A patent/KR20210019645A/en unknown
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140020230A (en) | 2010-10-05 | 2014-02-18 | 구글 인코포레이티드 | System and method for predicting behaviors of detected objects |
KR20180053081A (en) | 2016-11-11 | 2018-05-21 | 엘지전자 주식회사 | Autonomous vehicle and control method thereof |
KR20190078553A (en) | 2019-06-14 | 2019-07-04 | 엘지전자 주식회사 | Method for controlling vehicle and intelligent computing device for controlling the vehilcle |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB202319113D0 (en) | 2023-12-14 | 2024-01-31 | Mercedes Benz Group Ag | System and method for detecting human occupancy in vehicle |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11787408B2 (en) | System and method for controlling vehicle based on condition of driver | |
US10860873B2 (en) | Driver behavior recognition and prediction | |
EP3735365B1 (en) | Primary preview region and gaze based driver distraction detection | |
CN109690609B (en) | Passenger assist device, method, and program | |
JP6540663B2 (en) | Vehicle system | |
US10793149B2 (en) | Control apparatus, control method, and program | |
US9797734B2 (en) | Object recognition apparatus | |
EP2878508B1 (en) | Drive assist device | |
US20210380115A1 (en) | Devices and methods for predicting collisions and/or intersection violations | |
JP2008307658A (en) | Autonomous moving device | |
JP7382327B2 (en) | Information processing device, mobile object, information processing method and program | |
JP2004362586A (en) | Image processing system for vehicle | |
JP6822325B2 (en) | Maneuvering support device, maneuvering support method, program | |
JP2014019390A (en) | Emergency evacuation device | |
JP2009050970A (en) | Robot system and rescue robot | |
JP2016177722A (en) | Safety driving support device and automatic driving car | |
JP2021049893A (en) | Vehicle control system | |
CN112918485A (en) | System and method for detecting and mitigating unsafe conditions in a vehicle | |
CN113022574A (en) | System and method for detecting abnormal passenger stability in vehicle | |
KR20210019645A (en) | Apparatus for monitoring passengers in autonomous vehicles | |
KR20210019646A (en) | Method for monitoring passengers in autonomous vehicles | |
KR101680833B1 (en) | Apparatus and method for detecting pedestrian and alert | |
KR20210019648A (en) | Recording Medium | |
KR20210019647A (en) | A program for monitoring passengers in autonomous vehicles | |
US20210309221A1 (en) | Devices and methods for determining region of interest for object detection in camera images |