Nothing Special   »   [go: up one dir, main page]

KR20210019645A - Apparatus for monitoring passengers in autonomous vehicles - Google Patents

Apparatus for monitoring passengers in autonomous vehicles Download PDF

Info

Publication number
KR20210019645A
KR20210019645A KR1020190098502A KR20190098502A KR20210019645A KR 20210019645 A KR20210019645 A KR 20210019645A KR 1020190098502 A KR1020190098502 A KR 1020190098502A KR 20190098502 A KR20190098502 A KR 20190098502A KR 20210019645 A KR20210019645 A KR 20210019645A
Authority
KR
South Korea
Prior art keywords
occupant
unit
posture
passenger
face direction
Prior art date
Application number
KR1020190098502A
Other languages
Korean (ko)
Inventor
정태권
빈죤 키라칼
최은재
박건희
Original Assignee
주식회사 스프링클라우드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 스프링클라우드 filed Critical 주식회사 스프링클라우드
Priority to KR1020190098502A priority Critical patent/KR20210019645A/en
Publication of KR20210019645A publication Critical patent/KR20210019645A/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • G06K9/00845
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0818Inactivity or incapacity of driver
    • B60W2050/0077
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • B60W2420/42
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2200/00Type of vehicle
    • B60Y2200/10Road Vehicles
    • B60Y2200/14Trucks; Load vehicles, Busses

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)

Abstract

Disclosed are an apparatus and a method for monitoring a passenger in an autonomous vehicle, which are able to monitor the status of the passenger in a shuttle-type autonomous vehicle, and to, when a dangerous situation occurs or is expected, notify such fact to the outside. The apparatus comprises: a camera which photographs the inside of the autonomous vehicle in real time; a passenger and article processing unit which recognizes and tracks one or more of the passenger and articles from an image from the camera; a posture and face direction estimation unit which estimates the posture and face direction of the passenger based on the results of processing by the passenger and article processing unit; a status determination unit which determines whether the passenger is in danger or not based on output from the posture and face direction estimation unit; and a notification unit which, when the passenger is determined to be in danger by the status determination unit, generates a corresponding notification message, and transmits the message to an external center.

Description

자율 주행 차량내의 탑승자 모니터링 장치{Apparatus for monitoring passengers in autonomous vehicles}Apparatus for monitoring passengers in autonomous vehicles

본 발명은 자율 주행 차량내의 탑승자 모니터링 장치에 관한 것으로, 보다 상세하게는 셔틀(shuttle) 형태의 자율 주행 차량내에 탑승한 탑승자의 상태를 모니터링하는 자율 주행 차량내의 탑승자 모니터링 장치에 관한 것이다.The present invention relates to an apparatus for monitoring occupants in an autonomous vehicle, and more particularly, to an apparatus for monitoring occupants in an autonomous vehicle that monitors a state of an occupant in an autonomous vehicle in the form of a shuttle.

차량은 운동 에너지를 이용하여 사람이나 짐을 이동시킬 수 있는 교통 수단을 의미한다. A vehicle refers to a means of transportation that can move people or luggage by using kinetic energy.

차량을 이용하는 사용자의 안전 및 편의를 위해, 차량에는 각종 센서와 장치가 구비되고 있으며, 차량의 기능이 다양화되고 있다.For the safety and convenience of users who use the vehicle, various sensors and devices are provided in the vehicle, and functions of the vehicle are diversified.

차량의 기능은 운전자의 편의를 도모하기 위한 편의 기능, 그리고 운전자 및/또는 보행자의 안전을 도모하기 위한 안전 기능으로 나뉠 수 있다.The vehicle functions may be divided into a convenience function for promoting the driver's convenience, and a safety function for promoting the safety of the driver and/or pedestrian.

먼저, 편의 기능은 차량에 인포테인먼트(information + entertainment) 기능을 부여하고, 부분적인 자율 주행 기능을 지원하거나, 야간 시야나 사각 지대와 같은 운전자의 시야 확보를 돕는 등의 운전자 편의와 관련된 개발 동기를 가진다. 예를 들어, 적응 순향 제어(active cruise control, ACC), 스마트주차시스템(smart parking assist system, SPAS), 나이트비전(night vision, NV), 헤드 업 디스플레이(head up display, HUD), 어라운드 뷰 모니터(around view monitor, AVM), 적응형 상향등 제어(adaptive headlight system, AHS) 기능 등이 있다.First, the convenience function has a development motivation related to the driver's convenience, such as giving the vehicle an infotainment (information + entertainment) function, supporting a partial autonomous driving function, or helping to secure the driver's vision such as night vision or blind spots. . For example, adaptive cruise control (ACC), smart parking assist system (SPAS), night vision (NV), head up display (HUD), and around view monitor (around view monitor, AVM) and adaptive headlight system (AHS) functions.

안전 기능은 운전자의 안전 및/또는 보행자의 안전을 확보하는 기술로, 차선 이탈 경고 시스템(lane departure warning system, LDWS), 차선 유지 보조 시스템(lane keeping assist system, LKAS), 자동 긴급 제동(autonomous emergency braking, AEB) 기능 등이 있다.Safety functions are technologies that ensure the safety of drivers and/or pedestrians, such as lane departure warning system (LDWS), lane keeping assist system (LKAS), and automatic emergency braking (autonomous emergency). braking, AEB) functions, etc.

차량의 기능 지지 및 증대를 위해, 차량용 제어장치의 구조적인 부분 및/또는 소프트웨어적인 부분을 개량하는 것이 고려될 수 있다.In order to support and increase the function of the vehicle, it may be considered to improve the structural part and/or the software part of the vehicle control device.

이러한 개량에 힘입어, 운전자의 개입 없이도 목적지까지 자동으로 주행할 수 있는 자율 주행 차량이 개발되고 있다.Thanks to these improvements, autonomous vehicles are being developed that can automatically drive to their destination without driver intervention.

자율 주행은 운전 조작 장치가 운전자에 의하여 조작되지 않아도 가속, 감속, 및 주행 방향 중 적어도 하나가 기설정된 알고리즘에 의하여 제어되는 것으로 정의된다.Autonomous driving is defined as that at least one of acceleration, deceleration, and driving direction is controlled by a preset algorithm even if the driving operation device is not operated by the driver.

자율 주행 차량이 상용화된다면, 운전자는 운전에 소요되는 시간을 다른 일에 활용할 수 있게 된다. 예를 들어, 책을 읽거나, 동영상을 시청하거나, 잠을 잘 수 있다.If autonomous vehicles are commercialized, drivers can use the time spent driving for other tasks. For example, you can read a book, watch a video, or sleep.

자율 주행 차량은 차량의 주행과 정차가 사람이 아닌 소프트웨어에 의해 결정된다. 그에 따라, 종래 운전자가 수행하던 많은 일들을 자동으로 수행할 수 있는 자율 주행 차량에 대한 개발이 필요하다.In autonomous vehicles, the driving and stopping of the vehicle is determined by software, not by humans. Accordingly, there is a need to develop an autonomous vehicle capable of automatically performing many tasks previously performed by a driver.

이에, 자율 주행과 관련된 다양한 알고리즘들이 개발되고 있다. 예를 들어, 차량 외부에 있는 물체와의 충돌 가능성을 판단하고 충돌을 회피하는 알고리즘, 신호 등을 인식하고 신호에 대응하는 동작을 수행하는 알고리즘, 앞차/뒷차와의 간격을 조절하며 속도를 조절하는 알고리즘 등이 개발되고 있다.Accordingly, various algorithms related to autonomous driving are being developed. For example, an algorithm that determines the possibility of a collision with an object outside the vehicle and avoids a collision, an algorithm that recognizes a signal and performs an action corresponding to the signal, adjusts the distance between the vehicle in front and the vehicle behind, and adjusts the speed. Algorithms and the like are being developed.

이와 같이 종래에는 차량 외부에서 발생하는 각종의 상황에 자동으로 대응할 수 있는 자율 주행 차량에 대한 연구가 활활발하였다.As described above, in the related art, research on autonomous vehicles capable of automatically responding to various situations occurring outside the vehicle has been active.

그러나, 차량에 탑승한 탑승자의 상태를 고려한 자율 주행 차량에 대한 연구는 아직 미진한 실정이다.However, research on autonomous vehicles taking into account the state of the occupants in the vehicle is still insufficient.

선행기술 1 : 대한민국 공개특허 제10-2018-0053081호(자율 주행 차량 및 그 제어방법)Prior Art 1: Korean Patent Application Publication No. 10-2018-0053081 (autonomous driving vehicle and its control method) 선행기술 2 : 대한민국 공개특허 제10-2014-0020230호(검출된 물체의 행동을 예측하기 위한 시스템 및 방법)Prior Art 2: Republic of Korea Patent Publication No. 10-2014-0020230 (System and method for predicting the behavior of the detected object) 선행기술 3 : 대한민국 공개특허 제10-2019-0078553호(차량 제어 방법 및 차량을 제어하는 지능형 컴퓨팅 디바이스)Prior Art 3: Korean Patent Laid-Open Publication No. 10-2019-0078553 (Vehicle control method and intelligent computing device for controlling the vehicle)

본 발명은 상기한 종래의 사정을 감안하여 제안된 것으로, 셔틀(shuttle) 형태의 자율 주행 차량내에 탑승한 탑승자의 상태를 모니터링하여 위험한 상황이 발생하였거나 위험한 상황이 예상되는 경우에 이를 외부에 알리도록 하는 자율 주행 차량내의 탑승자 모니터링 장치를 제공함에 그 목적이 있다.The present invention has been proposed in consideration of the above-described conventional circumstances, and is to notify the outside when a dangerous situation occurs or a dangerous situation is expected by monitoring the status of the occupant in a shuttle-type autonomous vehicle. It is an object of the present invention to provide an occupant monitoring device in an autonomous vehicle.

상기와 같은 목적을 달성하기 위하여 본 발명의 바람직한 실시양태에 따른 자율 주행 차량내의 탑승자 모니터링 장치는, 자율 주행 차량의 내부를 실시간으로 촬영하는 카메라; 상기 카메라로부터의 입력 이미지에서 탑승자 및 물건중의 하나 이상을 인식하고 트래킹하는 탑승자 및 물건 처리부; 상기 탑승자 및 물건 처리부에서의 처리 결과를 근거로 탑승자의 자세 및 얼굴 방향을 추정하는 자세 및 얼굴 방향 추정부; 상기 자세 및 얼굴 방향 추정부로부터의 출력을 근거로 탑승자가 위험한지를 판단하는 상태 판단부; 및 상기 상태 판단부에서 위험한 탑승자로 판단됨에 따라 그에 상응하는 알림메시지를 생성하여 외부 센터에게로 보내는 알림부;를 포함한다.In order to achieve the above object, an apparatus for monitoring occupants in an autonomous vehicle according to a preferred embodiment of the present invention includes: a camera for photographing the interior of the autonomous vehicle in real time; An occupant and object processing unit for recognizing and tracking at least one of an occupant and an object in the input image from the camera; A posture and face direction estimating unit for estimating a posture and face direction of the occupant based on a result of processing by the occupant and object processing unit; A state determination unit determining whether the occupant is in danger based on the output from the posture and face direction estimation unit; And a notification unit that generates a notification message corresponding to the status determination unit as it is determined as a dangerous occupant and sends the notification message to the external center.

상기 탑승자 및 물건 처리부는, 상기 탑승자 및 물건중의 하나 이상을 인식함에 있어서, 상기 카메라로부터의 입력 이미지에서 탑승자를 인식하고 인식한 탑승자의 성별을 구분하고, 상기 탑승자가 휴대하고 있는 물건이 있으면 해당 물건을 인식하고, 상기 탑승자와 상기 물건간의 태깅을 실시할 수 있다.In recognizing one or more of the occupant and the object, the occupant and object processing unit recognizes the occupant in the input image from the camera and identifies the gender of the recognized occupant, and if there is an object carried by the occupant, the corresponding It is possible to recognize an object and perform tagging between the occupant and the object.

상기 자세 및 얼굴 방향 추정부는, 상기 탑승자 및 물건 처리부에서 인식된 탑승자의 몸과 얼굴의 랜드마크를 각각 검출하고, 상기 검출된 해당 탑승자의 몸과 얼굴의 랜드마크를 각각 트래킹하여 해당 탑승자의 자세 및 얼굴 방향을 추정할 수 있다.The posture and face direction estimation unit detects landmarks of the body and face of the occupant recognized by the occupant and object processing unit, respectively, and tracks the detected landmarks of the body and face of the corresponding occupant, respectively, and Face orientation can be estimated.

상기 상태 판단부는, 상기 자세 및 얼굴 방향 추정부로부터의 출력을 근거로 해당 탑승자의 현재 상태를 판단하고, 실시간으로 해당 탑승자의 현재 상태를 트래킹하여 해당 탑승자의 행동 변화를 파악하고, 상기 해당 탑승자의 행동 변화 파악을 근거로 해당 탑승자가 위험한지를 판단할 수 있다.The state determination unit determines the current state of the corresponding occupant based on the output from the posture and face direction estimation unit, tracks the current state of the corresponding occupant in real time to determine the change in behavior of the occupant, and Based on the identification of behavioral changes, it is possible to determine whether the occupant is at risk.

이러한 구성의 본 발명에 따르면, 셔틀 형태의 자율 주행 차량내에서 탑승자간에 문제가 발생하였거나 위험하다고 예상되는 탑승자를 발견하면 외부 센터에게로 그에 상응하는 알림메시지를 전송할 수 있으므로, 주행중인 자율 주행 차량내에서 발생된 사고에 대해 신속하게 대응할 수 있도록 하거나 사고의 발생을 미연에 방지할 수 있다.According to the present invention with this configuration, when a problem occurs between passengers in a shuttle-type autonomous vehicle or a passenger who is expected to be dangerous is found, a corresponding notification message can be transmitted to the external center. Accidents can be quickly responded to or can be prevented from occurring.

도 1은 본 발명의 실시예에 따른 자율 주행 차량내의 탑승자 모니터링 장치의 구성을 나타낸 블록도이다.
도 2는 도 1에 도시된 카메라에서 촬영된 영상의 일 예를 나타낸 도면이다.
도 3은 도 1에 도시된 자세 및 얼굴 방향 추정부에서 처리된 탑승자의 몸의 랜드마크 일 예를 나타낸 도면이다.
도 4는 도 1에 도시된 자세 및 얼굴 방향 추정부에서 처리된 탑승자의 얼굴의 랜드마크 일 예를 나타낸 도면이다.
도 5는 도 1에 도시된 자세 및 얼굴 방향 추정부에서 처리하게 되는 몸과 얼굴의 랜드마크의 기본예이다.
도 6 및 도 7은 본 발명의 실시예에 따른 자율 주행 차량내의 탑승자 모니터링 방법을 설명하기 위한 플로우차트이다.
1 is a block diagram showing the configuration of an occupant monitoring apparatus in an autonomous vehicle according to an embodiment of the present invention.
2 is a diagram showing an example of an image captured by the camera shown in FIG. 1.
3 is a view showing an example of a landmark of a body of a passenger processed by the posture and face direction estimation unit shown in FIG. 1.
4 is a diagram illustrating an example of a landmark of a passenger's face processed by the posture and face direction estimation unit shown in FIG. 1.
5 is a basic example of body and face landmarks processed by the posture and face direction estimation unit shown in FIG. 1.
6 and 7 are flowcharts illustrating a method for monitoring occupants in an autonomous vehicle according to an embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 상세하게 설명하고자 한다.In the present invention, various modifications may be made and various embodiments may be provided, and specific embodiments will be illustrated in the drawings and described in detail.

그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.However, this is not intended to limit the present invention to a specific embodiment, it is to be understood to include all changes, equivalents, and substitutes included in the spirit and scope of the present invention.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the present application are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In the present application, terms such as "comprise" or "have" are intended to designate the presence of features, numbers, steps, actions, components, parts, or combinations thereof described in the specification, but one or more other features. It is to be understood that the presence or addition of elements or numbers, steps, actions, components, parts, or combinations thereof, does not preclude in advance.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs. Terms such as those defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related technology, and should not be interpreted as an ideal or excessively formal meaning unless explicitly defined in this application. Does not.

이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.Hereinafter, preferred embodiments of the present invention will be described in more detail with reference to the accompanying drawings. In describing the present invention, in order to facilitate an overall understanding, the same reference numerals are used for the same elements in the drawings, and duplicate descriptions for the same elements are omitted.

도 1은 본 발명의 실시예에 따른 자율 주행 차량내의 탑승자 모니터링 장치의 구성을 나타낸 블록도이고, 도 2는 도 1에 도시된 카메라에서 촬영된 영상의 일 예를 나타낸 도면이고, 도 3은 도 1에 도시된 자세 및 얼굴 방향 추정부에서 처리된 탑승자의 몸의 랜드마크 일 예를 나타낸 도면이고, 도 4는 도 1에 도시된 자세 및 얼굴 방향 추정부에서 처리된 탑승자의 얼굴의 랜드마크 일 예를 나타낸 도면이고, 도 5는 도 1에 도시된 자세 및 얼굴 방향 추정부에서 처리하게 되는 몸과 얼굴의 랜드마크의 기본예이다.1 is a block diagram showing the configuration of an occupant monitoring device in an autonomous vehicle according to an embodiment of the present invention, FIG. 2 is a view showing an example of an image captured by the camera shown in FIG. 1, and FIG. 3 is 1 is a view showing an example of a landmark of the occupant's body processed by the posture and face direction estimating unit shown in FIG. 1, and FIG. 4 is a landmark of the occupant's face processed by the posture and facial direction estimating unit shown in FIG. 1 It is a diagram showing an example, and FIG. 5 is a basic example of body and face landmarks processed by the posture and face direction estimation unit shown in FIG. 1.

본 발명의 실시예에 따른 자율 주행 차량내의 탑승자 모니터링 장치는, 카메라(10), 탑승자 및 물건 처리부(12), 자세 및 얼굴 방향 추정부(14), 상태 판단부(16), 알림부(18), 학습부(20), 및 제어부(22)를 포함할 수 있다.The occupant monitoring device in an autonomous vehicle according to an embodiment of the present invention includes a camera 10, a passenger and object processing unit 12, a posture and face direction estimation unit 14, a state determination unit 16, and a notification unit 18. ), the learning unit 20, and the control unit 22 may be included.

카메라(10)는 자율 주행 차량(예컨대, 셔틀(shuttle))의 천장에 설치되어 자율 주행 차량의 내부를 실시간으로 촬영할 수 있다. 예를 들어, 카메라(10)는 도 2에 예시한 바와 같이 자율 주행 차량의 내부의 모습을 촬영할 수 있다.The camera 10 may be installed on the ceiling of an autonomous vehicle (eg, a shuttle) to capture the interior of the autonomous vehicle in real time. For example, the camera 10 may take a picture of the interior of the autonomous vehicle as illustrated in FIG. 2.

카메라(10)는 가로방향으로 대략 110도 ~ 130도 정도(보다 바람직하게는 120도 정도), 및 세로방향으로 대략 70도 ~ 80도 정도(보다 바람직하게는 73도 정도)의 비주얼 각도(visual angle)(화각이라고도 함)를 갖는 광각 카메라이다.The camera 10 has a visual angle of about 110 to 130 degrees (more preferably about 120 degrees) in the horizontal direction, and about 70 to 80 degrees (more preferably about 73 degrees) in the vertical direction. It is a wide-angle camera with an angle) (also called an angle of view).

또한, 카메라(10)는 자율 주행 차량내의 탑승자들을 잘 포착할 수 있도록 하기 위해 대략 70도 정도의 틸팅 각도(tilting angle)를 가질 수 있다. In addition, the camera 10 may have a tilting angle of approximately 70 degrees in order to better capture occupants in the autonomous vehicle.

탑승자 및 물건 처리부(12)는 카메라(10)로부터의 입력 이미지에서 탑승자 및 물건에 대한 인식 및 트래킹을 처리한다. 탑승자 및 물건을 인식함에 있어서, 탑승자 및 물건 처리부(12)는 후술할 학습부(20)의 제 1 학습 모델을 이용하여 탑승자 및 물건을 인식할 수 있다. The occupant and object processing unit 12 processes the recognition and tracking of occupants and objects in the input image from the camera 10. In recognizing the occupant and the object, the occupant and object processing unit 12 may recognize the occupant and the object by using the first learning model of the learning unit 20 to be described later.

즉, 탑승자 및 물건 처리부(12)는 카메라(10)로부터의 입력 이미지에서 탑승자를 인식하고 인식한 탑승자의 성별을 구분하고, 탑승자가 휴대하고 있는 물건(예컨대, 가방, 카트, 우산, 휴대폰, 총, 칼 등)을 인식한다. That is, the occupant and object processing unit 12 recognizes the occupant from the input image from the camera 10, identifies the gender of the recognized occupant, and identifies the object carried by the occupant (e.g., bag, cart, umbrella, mobile phone, gun). , Knife, etc.)

여기서, 탑승자의 성별은 남, 여로 구분되겠으나, 보다 구체적으로는 어린이, 청소년, 어른 등으로 세분화될 수 있다.Here, the gender of the passenger will be divided into male and female, but more specifically, it may be subdivided into children, adolescents, and adults.

상술한 탑승자 및 물건 처리부(12)에서의 탑승자 및 물건의 인식은 동종업계에 종사하는 자라면 주지의 기술로 충분히 이해할 수 있으므로 상세한 설명은 생략한다.Recognition of the occupant and the object in the occupant and object handling unit 12 described above can be sufficiently understood by a well-known technology for those who are engaged in the same industry, and thus a detailed description thereof will be omitted.

또한, 탑승자 및 물건 처리부(12)는 탑승자별로 인식된 물건을 태깅(tagging)할 수 있다. 여기서, 태깅은 탑승자와 물건을 서로 매칭시키는 것으로 이해하면 된다. 물론, 탑승자가 지니고 있는 물건(예컨대, 가방, 카트, 우산, 휴대폰, 총, 칼 등)이 없을 경우에는 태깅이 필요없을 것이다.In addition, the occupant and object processing unit 12 may tag objects recognized for each occupant. Here, tagging can be understood as matching passengers and objects. Of course, tagging would not be necessary if the occupants had no items (e.g. bags, carts, umbrellas, cell phones, guns, knives, etc.).

그리고, 탑승자 및 물건 처리부(12)는 탑승자 및 물건을 각각 트래킹(tracking)할 수 있고, 탑승자 및 물건의 트래킹을 업데이트할 수 있다.Further, the occupant and object processing unit 12 may track the occupant and the object, respectively, and may update the tracking of the occupant and the object.

자세 및 얼굴 방향 추정부(14)는 탑승자 및 물건 처리부(12)에서 인식된 탑승자의 몸과 얼굴의 랜드마크를 각각 검출하고, 검출된 해당 탑승자의 몸과 얼굴의 랜드마크를 각각 트래킹할 수 있다.The posture and face direction estimating unit 14 may detect landmarks of the passenger's body and face recognized by the occupant and object processing unit 12, respectively, and track the detected landmarks of the body and face of the corresponding occupant. .

예를 들어, 자세 및 얼굴 방향 추정부(14)는 도 3에 예시한 바와 같이 탑승자의 몸의 랜드마크를 3D로 검출할 수 있고, 도 4에 예시한 바와 같이 탑승자의 얼굴의 랜드마크를 3D로 검출할 수 있다. For example, the posture and face direction estimation unit 14 may detect the landmark of the occupant's body in 3D as illustrated in FIG. 3, and the landmark of the occupant's face as illustrated in FIG. 4. Can be detected.

자세 및 얼굴 방향 추정부(14)는 후술할 학습부(20)의 제 2 학습 모델을 이용하여 탑승자의 몸과 얼굴의 랜드마크를 각각 3D로 검출할 수 있다.The posture and face direction estimating unit 14 may detect landmarks of the body and face of the occupant in 3D using the second learning model of the learning unit 20 to be described later.

자세 및 얼굴 방향 추정부(14)는 탑승자의 몸과 얼굴의 랜드마크를 3D로 검출함에 있어서, 탑승자의 얼굴 정면의 경우에는 4개의 특징점 즉, 도 5의 (a)에 예시한 바와 같이 양쪽 귀와 코 및 턱의 특징점을 해당 탑승자의 얼굴에 대한 랜드마크로 결정하여 검출할 수 있다. 한편, 탑승자의 얼굴 측면의 경우에는 3개의 특징점 즉, 도 5의 (b)에 예시한 바와 같이 한쪽 귀와 코 및 턱의 특징점을 해당 탑승자의 얼굴에 대한 랜드마크로 결정하여 검출할 수 있다. 한편, 탑승자의 몸의 경우에는 도 5의 (c)에 예시한 바와 같이 13개의 특징점을 해당 탑승자의 몸에 대한 랜드마크로 결정하여 검출할 수 있다. 특히, 탑승자의 몸에 대한 랜드마크를 검출할 때, 종래에는 몸통(torso)에서 양쪽 무릎(knee)을 각각 굴곡진 연결선으로 연결하였으나, 본 발명의 실시예에서는 몸통(torso)에서 양쪽 무릎(knee)을 각각 일자 형태의 연결선으로 연결한다.The posture and face direction estimation unit 14 detects landmarks of the occupant's body and face in 3D. In the case of the front of the occupant's face, the four feature points, that is, both ears and both ears, as illustrated in (a) of FIG. The nose and chin feature points may be determined and detected as landmarks for a corresponding occupant's face. Meanwhile, in the case of the side of the passenger's face, three feature points, that is, the feature points of one ear, nose, and chin, as illustrated in FIG. 5B may be determined and detected as landmarks for the face of the passenger. Meanwhile, in the case of the occupant's body, 13 characteristic points may be determined and detected as landmarks for the occupant's body as illustrated in FIG. 5C. In particular, when detecting a landmark on the body of the occupant, in the related art, both knees were connected from the torso to each of the knees with curved connecting lines, but in the embodiment of the present invention, both knees from the torso were connected. ) Are connected with straight-line connecting lines.

한편, 자세 및 얼굴 방향 추정부(14)는 해당 탑승자의 몸과 얼굴의 랜드마크를 트래킹할 때, 예를 들어 확장 칼만 필터(EKF ; Extended Kalman Filter)를 이용하여 몸과 얼굴의 랜드마크를 각각 트래킹한다. On the other hand, the posture and face direction estimation unit 14, when tracking the landmarks of the body and face of the corresponding occupant, uses, for example, an Extended Kalman Filter (EKF) to determine the landmarks of the body and face, respectively. Track.

이와 같이 확장 칼만 필터를 이용한 몸과 얼굴의 랜드마크를 트래킹함에 따라, 자세 및 얼굴 방향 추정부(14)는 해당 탑승자의 자세(pose) 및 얼굴 방향(head orientation)을 추정할 수 있다.As the body and face landmarks are tracked using the extended Kalman filter as described above, the posture and face direction estimating unit 14 may estimate a pose and a head orientation of a corresponding occupant.

상태 판단부(16)는 자세 및 얼굴 방향 추정부(14)에서의 출력(예컨대, 탑승자의 자세 및 얼굴 방향 추정 결과)을 근거로 해당 탑승자의 현재 상태를 판단하고 분류한다. 예를 들어, 도 2에 예시된 탑승객의 경우 상태 판단부(16)는 어른인 남자가 앉아서 휴대폰을 사용하고 있는 것으로 판단할 수 있다. 그리고, 상태 판단부(16)는 해당 탑승객에 대해 "탑승자 ID: 1", "성별: 남자, 어른", "시간:16:47", "검출된 물건: 휴대폰", "상태: 앉아서 휴대폰 사용"과 같은 내용을 포함하는 분류코드를 사용하여 분류할 수 있다.The state determination unit 16 determines and classifies the current state of a corresponding occupant based on the output from the posture and face direction estimation unit 14 (eg, a result of estimating the occupant's posture and face direction). For example, in the case of the passenger illustrated in FIG. 2, the state determination unit 16 may determine that an adult man is sitting and using a mobile phone. And, the status determination unit 16 for the passenger "passenger ID: 1", "gender: male, adult", "time: 16:47", "detected object: mobile phone", "state: sit down and use a mobile phone. It can be classified using a classification code that includes content such as ".

그리고, 상태 판단부(16)는 실시간으로 해당 탑승자의 현재 상태를 트래킹할 수 있다. In addition, the state determination unit 16 may track the current state of the corresponding occupant in real time.

상태 판단부(16)는 실시간으로 탑승자의 현재 상태를 계속 트래킹함에 따라 트래킹 결과를 근거로 해당 탑승자의 행동 변화를 파악할 수 있다. As the state determination unit 16 continuously tracks the current state of the occupant in real time, it is possible to grasp a change in the behavior of the occupant based on the tracking result.

이로 인해, 상태 판단부(16)는 해당 탑승자가 위험한 물건을 지니고 있는지 또는 위험한 행동(예컨대, 싸움, 방화 등)을 하고 있는지 또는 위험한 행동을 하였는지 등을 판단할 수 있다.For this reason, the state determination unit 16 may determine whether the occupant has a dangerous object or is performing a dangerous action (eg, fighting, arson, etc.), or whether a dangerous action has been taken.

그리고, 상태 판단부(16)는 판단 결과(즉, 탑승자가 위험한 물건을 지니고 있는지 또는 위험한 행동을 하고 있는지 또는 위험한 행동을 하였음을 나타내는 정보를 포함)를 제어부(22)에게로 보낸다.Then, the state determination unit 16 transmits the determination result (that is, including information indicating that the occupant has a dangerous object or is performing a dangerous behavior or has performed a dangerous behavior) to the controller 22.

알림부(18)는 후술하는 제어부(22)의 제어에 의해 소정의 알림메시지를 생성하여 외부 센터(예컨대, 고객센터 또는 112, 119 등)에게로 보낸다. 여기서, 알림메시지는 예를 들어, "&&시 $$분 현재 두 명의 탑승자 A,B간에 싸움이 발생하였습니다.", "탑승자 A가 위험한 칼을 들고 있습니다.", "&&시 @@분에 하차한 탑승자 A가 다른 탑승자 B의 가방을 가지고 하차하였습니다." 등과 같은 음성 및/또는 문자 메시지일 수 있다.The notification unit 18 generates a predetermined notification message under the control of the control unit 22, which will be described later, and sends it to an external center (eg, customer center or 112, 119, etc.). Here, the notification message is, for example, "A fight has occurred between two passengers A and B as of $$ minutes at &&.", "Board A is holding a dangerous knife.", "Get off at && at @@ minutes. One passenger A got off with another passenger B's bag." It may be a voice and/or text message such as.

한편, 알림부(18)는 음성 및/또는 문자 메시지를 전송할 때, 문제를 야기시킨 해당 탑승자에 대한 이미지를 함께 보낼 수 있다.Meanwhile, when transmitting a voice and/or text message, the notification unit 18 may transmit an image of a corresponding passenger causing a problem.

학습부(20)는 탑승자 및 물건 처리부(12)에서 탑승자 및 물건을 인식할 수 있도록 하는 제 1 학습 모델을 제공하고, 자세 및 얼굴 방향 추정부(14)에서 탑승자의 몸과 얼굴의 랜드마크를 각각 검출할 수 있도록 하는 제 2 학습 모델을 제공한다.The learning unit 20 provides a first learning model that enables the occupant and object processing unit 12 to recognize occupants and objects, and the posture and face direction estimation unit 14 identifies landmarks of the occupant's body and face. It provides a second learning model that enables detection of each.

학습부(20)는 탑승자 및 물건 처리부(12), 및 자세 및 얼굴 방향 추정부(14)에서의 데이터를 근거로 제 1 학습 모델 및 제 2 학습 모델을 학습시킬 수 있다.The learning unit 20 may train the first learning model and the second learning model based on data from the passenger and object processing unit 12 and the posture and face direction estimation unit 14.

제어부(22)는 본 발명의 실시예에 따른 자율 주행 차량내의 탑승자 모니터링 장치의 전체적인 동작을 제어한다.The control unit 22 controls the overall operation of the occupant monitoring device in the autonomous vehicle according to the embodiment of the present invention.

특히, 제어부(22)는 상태 판단부(16)의 판단 결과에 근거하여 자율 주행 차량내에 위험한 상태가 발생되었거나 위험하다고 예상되는 탑승자가 발견된 경우이면 알림부(18)를 통해 외부 센터(예컨대, 고객센터 또는 112, 119 등)에게로 그에 상응하는 알림메시지가 전송되도록 제어한다.In particular, if a dangerous condition occurs in the autonomous vehicle or a passenger who is expected to be dangerous is found on the basis of the determination result of the state determination unit 16, the control unit 22 communicates with the external center (eg, Control so that a corresponding notification message is transmitted to the customer center or 112, 119, etc.).

즉, 제어부(22)는 상태 판단부(16)의 판단 결과를 근거로 자율 주행 차량내의 탑승객이 어떻게 행동하고 있는지를 충분히 파악할 수 있으므로, 자율 주행 차량내에 위험한 상태가 발생되었는지 또는 위험하다고 예상되는 탑승자가 누구인지 등을 알 수 있다.That is, the control unit 22 can sufficiently grasp how the passengers in the autonomous vehicle are behaving based on the determination result of the state determination unit 16, and thus, whether a dangerous state has occurred in the autonomous vehicle or is expected to be dangerous. You can know who is.

상술한 도 1에서는 상태 판단부(16) 및 제어부(22)를 각각 별도로 구성시켰으나, 상태 판단부(16)와 제어부(22)를 일체의 모듈로 보아도 무방하다.In FIG. 1 described above, the state determination unit 16 and the control unit 22 are configured separately, but the state determination unit 16 and the control unit 22 may be viewed as integral modules.

도 6 및 도 7은 본 발명의 실시예에 따른 자율 주행 차량내의 탑승자 모니터링 방법을 설명하기 위한 플로우차트이다.6 and 7 are flowcharts illustrating a method for monitoring an occupant in an autonomous vehicle according to an embodiment of the present invention.

먼저, 자율 주행 차량의 천장에 설치된 카메라(10)가 해당 자율 주행 차량의 내부를 실시간으로 촬영한다(S10).First, the camera 10 installed on the ceiling of the autonomous vehicle captures the interior of the autonomous vehicle in real time (S10).

이어, 탑승자 및 물건 처리부(12)는 카메라(10)로부터의 입력 이미지에서 탑승자 및 물건에 대한 인식, 태깅, 트래킹을 처리한다. 즉, 탑승자 및 물건 처리부(12)는 카메라(10)로부터의 입력 이미지에서 탑승자를 인식하고 인식한 탑승자의 성별을 구분한다(S12). 그리고 나서, 탑승자 및 물건 처리부(12)는 탑승자가 휴대하고 있는 물건(예컨대, 가방, 카트, 우산, 휴대폰, 총, 칼 등)을 인식하고, 탑승자별로 인식된 물건을 태깅(tagging)한다(S14). 물론, 지니고 있는 물건(예컨대, 가방, 카트, 우산, 휴대폰, 총, 칼 등)이 없는 탑승자에 대해서는 태깅이 필요없을 것이다. 이어, 탑승자 및 물건 처리부(12)는 탑승자 및 물건을 각각 트래킹(tracking)하고, 탑승자 및 물건의 트래킹을 업데이트한다(S16).Subsequently, the occupant and object processing unit 12 processes the recognition, tagging, and tracking of the occupant and object in the input image from the camera 10. That is, the occupant and object processing unit 12 recognizes the occupant from the input image from the camera 10 and distinguishes the recognized gender of the occupant (S12). Then, the occupant and object handling unit 12 recognizes the object (eg, bag, cart, umbrella, mobile phone, gun, knife, etc.) carried by the occupant and tags the recognized object for each occupant (S14). ). Of course, you won't need tagging for passengers who don't have things they have (e.g. bags, carts, umbrellas, cell phones, guns, knives, etc.). Next, the occupant and object processing unit 12 tracks the occupant and the object, respectively, and updates the tracking of the occupant and the object (S16).

이후, 자세 및 얼굴 방향 추정부(14)는 탑승자 및 물건 처리부(12)에서 인식된 탑승자의 몸과 얼굴의 랜드마크를 각각 검출한다(S18).Thereafter, the posture and face direction estimation unit 14 detects landmarks of the body and face of the occupant recognized by the occupant and object processing unit 12 (S18).

그리고 나서, 자세 및 얼굴 방향 추정부(14)는 검출된 해당 탑승자의 몸과 얼굴의 랜드마크를 각각 트래킹한다. 이와 같이 해당 탑승자의 몸과 얼굴의 랜드마크를 트래킹함에 따라, 자세 및 얼굴 방향 추정부(14)는 해당 탑승자의 자세(pose) 및 얼굴 방향(head orientation)을 추정할 수 있다(S20). 자세 및 얼굴 방향 추정부(14)는 추정 결과를 상태 판단부(16)에게로 보낸다.Then, the posture and face direction estimation unit 14 tracks the detected landmarks of the body and face of the corresponding occupant, respectively. As such, by tracking the landmarks of the body and face of the corresponding occupant, the posture and face direction estimation unit 14 may estimate the pose and the head orientation of the corresponding occupant (S20). The posture and face direction estimating unit 14 sends the estimation result to the state determining unit 16.

이어, 상태 판단부(16)는 자세 및 얼굴 방향 추정부(14)에서의 출력(예컨대, 탑승자의 자세 및 얼굴 방향 추정 결과)을 근거로 해당 탑승자의 현재 상태를 판단하고 분류한다(S22). Subsequently, the state determination unit 16 determines and classifies the current state of the corresponding occupant based on the output from the posture and face direction estimation unit 14 (eg, a result of estimating the occupant's posture and face direction) (S22).

그리고, 상태 판단부(16)는 실시간으로 해당 탑승자의 현재 상태를 계속 트래킹한다(S24). 이와 같이 실시간으로 탑승자의 현재 상태를 계속 트래킹하게 되면 해당 탑승자의 행동 변화를 파악할 수 있다. 이로 인해, 상태 판단부(16)는 해당 탑승자가 위험한 물건을 지니고 있는지 또는 위험한 행동(예컨대, 싸움, 방화 등)을 하고 있는지 또는 위험한 행동을 하였는지 등을 판단할 수 있다. 그리고, 상태 판단부(16)는 해당 탑승자에 대한 상태 판단 결과를 제어부(22)에게로 보낸다.Then, the state determination unit 16 continues to track the current state of the corresponding occupant in real time (S24). As such, if the current status of the occupant is continuously tracked in real time, the change in behavior of the occupant can be identified. For this reason, the state determination unit 16 may determine whether the occupant has a dangerous object or is performing a dangerous action (eg, fighting, arson, etc.), or whether a dangerous action has been taken. Then, the state determination unit 16 transmits the state determination result of the corresponding occupant to the control unit 22.

이후, 제어부(22)는 상태 판단부(16)의 판단 결과에 근거하여 자율 주행 차량내에 위험한 상태가 발생되었거나 위험하다고 예상되는 탑승자가 발견된 경우인지를 판단한다(S26).Thereafter, the controller 22 determines whether a dangerous state has occurred in the autonomous vehicle or a passenger who is expected to be dangerous is found based on the determination result of the state determination unit 16 (S26).

상태 판단부(16)의 판단 결과가 자율 주행 차량내에 위험한 상태(예컨대, 싸움, 방화 등)가 발생되었거나 위험하다고 예상되는 탑승자(예컨대, 총, 칼 등을 지닌 탑승자)를 발견하였음 등을 의미하는 것이면(S26에서 "Yes") 제어부(22)는 알림부(18)를 통해 외부 센터(예컨대, 고객센터 또는 112, 119 등)에게로 그에 상응하는 알림메시지를 전송한다(S28). 예를 들어, 자율 주행 차량내에서 싸움이 발생하였을 경우에는 알림부(18)는 "&&시 $$분 현재 두 명의 탑승자 A,B간에 싸움이 발생하였습니다."라는 음성 및/또는 문자메시지를 생성한 후에 외부 센터(예컨대, 고객센터 또는 112, 119 등)에게로 무선전송한다. 예를 들어, 탑승자중에서 어느 한 탑승자가 칼을 들고 있는 경우에는 알림부(18)는 "탑승자 A가 위험한 칼을 들고 있습니다."라는 음성 및/또는 문자메시지를 생성한 후에 외부 센터(예컨대, 고객센터 또는 112, 119 등)에게로 무선전송한다. 예를 들어, 탑승자 A가 다른 탑승자 B의 가방을 가지고 하차한 경우에는 "&&시 @@분에 하차한 탑승자 A가 다른 탑승객 B의 가방을 가지고 하차하였습니다."라는 음성 및/또는 문자 메시지를 생성한 후에 외부 센터(예컨대, 고객센터 또는 112, 119 등)에게로 무선전송한다. 물론, 알림부(18)는 음성 및/또는 문자 메시지를 전송할 때, 문제를 야기시킨 해당 탑승자에 대한 이미지를 함께 보내어도 된다.The determination result of the state determination unit 16 indicates that a dangerous condition (e.g., fighting, arson, etc.) has occurred in the autonomous vehicle or that a passenger (e.g., a passenger with a gun, knife, etc.) is expected to be dangerous. If it is ("Yes" in S26), the control unit 22 transmits a corresponding notification message to an external center (eg, customer center or 112, 119, etc.) through the notification unit 18 (S28). For example, when a fight occurs in an autonomous vehicle, the notification unit 18 generates a voice and/or text message stating "A fight has occurred between two passengers A and B as of $$ minute &&". After that, it is wirelessly transmitted to an external center (eg, customer center or 112, 119, etc.). For example, if one of the passengers is holding a knife, the notification unit 18 generates a voice and/or text message stating "Board A is holding a dangerous knife." To the center or 112, 119, etc.). For example, if passenger A gets off with another passenger B's bag, a voice and/or text message is generated that says, "Occupant A, who got off at && at @@ minutes, got off with another passenger B's bag." After that, it is wirelessly transmitted to an external center (eg, customer center or 112, 119, etc.). Of course, when the notification unit 18 transmits a voice and/or text message, it may also transmit an image of a corresponding occupant causing a problem.

또한, 상술한 본 발명의 자율주행차량내의 탑승자 모니터링 방법은, 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광데이터 저장장치 등이 있다. 또한, 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고, 상기 방법을 구현하기 위한 기능적인(function) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있다.In addition, the above-described method for monitoring occupants in an autonomous vehicle according to the present invention can be implemented as a computer-readable code on a computer-readable recording medium. The computer-readable recording medium includes all types of recording devices that store data that can be read by a computer system. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tapes, floppy disks, and optical data storage devices. In addition, the computer-readable recording medium is distributed over a computer system connected through a network, so that computer-readable codes can be stored and executed in a distributed manner. In addition, functional programs, codes and code segments for implementing the method can be easily inferred by programmers in the art to which the present invention belongs.

이상에서와 같이 도면과 명세서에서 최적의 실시예가 개시되었다. 여기서 특정한 용어들이 사용되었으나, 이는 단지 본 발명을 설명하기 위한 목적에서 사용된 것이지 의미 한정이나 청구범위에 기재된 본 발명의 범위를 제한하기 위하여 사용된 것은 아니다. 그러므로, 본 기술 분야의 통상의 지식을 가진자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호범위는 첨부된 청구범위의 기술적 사상에 의해 정해져야 할 것이다.As described above, an optimal embodiment has been disclosed in the drawings and specifications. Although specific terms have been used herein, these are only used for the purpose of describing the present invention, and are not used to limit the meaning or the scope of the present invention described in the claims. Therefore, those of ordinary skill in the art will understand that various modifications and equivalent other embodiments are possible therefrom. Accordingly, the true technical scope of the present invention should be determined by the technical spirit of the appended claims.

10 : 카메라 12 : 탑승자 및 물건 처리부
14 : 자세 및 얼굴 방향 추정부 16 : 상태 판단부
18 : 알림부 20 : 학습부
22 : 제어부
10: camera 12: passenger and object handling unit
14: posture and face direction estimation unit 16: state determination unit
18: notification unit 20: learning unit
22: control unit

Claims (4)

자율 주행 차량의 내부를 실시간으로 촬영하는 카메라;
상기 카메라로부터의 입력 이미지에서 탑승자 및 물건중의 하나 이상을 인식하고 트래킹하는 탑승자 및 물건 처리부;
상기 탑승자 및 물건 처리부에서의 처리 결과를 근거로 탑승자의 자세 및 얼굴 방향을 추정하는 자세 및 얼굴 방향 추정부;
상기 자세 및 얼굴 방향 추정부로부터의 출력을 근거로 탑승자가 위험한지를 판단하는 상태 판단부; 및
상기 상태 판단부에서 위험한 탑승자로 판단됨에 따라 그에 상응하는 알림메시지를 생성하여 외부 센터에게로 보내는 알림부;를 포함하는 것을 특징으로 하는 자율 주행 차량내의 탑승자 모니터링 장치.
A camera that photographs the interior of the autonomous vehicle in real time;
An occupant and object processing unit for recognizing and tracking at least one of an occupant and an object in the input image from the camera;
A posture and face direction estimating unit for estimating a posture and face direction of the occupant based on a result of processing in the occupant and object processing unit;
A state determination unit determining whether the occupant is in danger based on the output from the posture and face direction estimation unit; And
And a notification unit that generates a notification message according to the determination as a dangerous occupant by the state determination unit and sends the notification message to the external center.
청구항 1에 있어서,
상기 탑승자 및 물건 처리부는,
상기 탑승자 및 물건중의 하나 이상을 인식함에 있어서, 상기 카메라로부터의 입력 이미지에서 탑승자를 인식하고 인식한 탑승자의 성별을 구분하고, 상기 탑승자가 휴대하고 있는 물건이 있으면 해당 물건을 인식하고, 상기 탑승자와 상기 물건간의 태깅을 실시하는 것을 특징으로 하는 자율 주행 차량내의 탑승자 모니터링 장치.
The method according to claim 1,
The passenger and object handling unit,
In recognizing at least one of the occupant and the object, the occupant is recognized in the input image from the camera, the gender of the recognized occupant is identified, and if there is an object carried by the occupant, the object is recognized, and the occupant An occupant monitoring device in an autonomous vehicle, characterized in that tagging between the and the object.
청구항 1에 있어서,
상기 자세 및 얼굴 방향 추정부는,
상기 탑승자 및 물건 처리부에서 인식된 탑승자의 몸과 얼굴의 랜드마크를 각각 검출하고, 상기 검출된 해당 탑승자의 몸과 얼굴의 랜드마크를 각각 트래킹하여 해당 탑승자의 자세 및 얼굴 방향을 추정하는 것을 특징으로 하는 자율 주행 차량내의 탑승자 모니터링 장치.
The method according to claim 1,
The posture and face direction estimation unit,
Each of the landmarks of the body and face of the occupant recognized by the occupant and object processing unit is detected, and the detected landmarks of the body and face of the occupant are respectively tracked to estimate the posture and face direction of the occupant. Occupant monitoring device in autonomous vehicle.
청구항 1에 있어서,
상기 상태 판단부는,
상기 자세 및 얼굴 방향 추정부로부터의 출력을 근거로 해당 탑승자의 현재 상태를 판단하고, 실시간으로 해당 탑승자의 현재 상태를 트래킹하여 해당 탑승자의 행동 변화를 파악하고, 상기 해당 탑승자의 행동 변화 파악을 근거로 해당 탑승자가 위험한지를 판단하는 것을 특징으로 하는 자율 주행 차량내의 탑승자 모니터링 장치.
The method according to claim 1,
The state determination unit,
Based on the output from the posture and face direction estimation unit, the current state of the corresponding occupant is determined, the current state of the corresponding occupant is tracked in real time to determine the change in behavior of the corresponding occupant, and based on the identification of the behavior change of the corresponding occupant An occupant monitoring device in an autonomous vehicle, characterized in that it determines whether the corresponding occupant is dangerous.
KR1020190098502A 2019-08-13 2019-08-13 Apparatus for monitoring passengers in autonomous vehicles KR20210019645A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190098502A KR20210019645A (en) 2019-08-13 2019-08-13 Apparatus for monitoring passengers in autonomous vehicles

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190098502A KR20210019645A (en) 2019-08-13 2019-08-13 Apparatus for monitoring passengers in autonomous vehicles

Publications (1)

Publication Number Publication Date
KR20210019645A true KR20210019645A (en) 2021-02-23

Family

ID=74688354

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190098502A KR20210019645A (en) 2019-08-13 2019-08-13 Apparatus for monitoring passengers in autonomous vehicles

Country Status (1)

Country Link
KR (1) KR20210019645A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB202319113D0 (en) 2023-12-14 2024-01-31 Mercedes Benz Group Ag System and method for detecting human occupancy in vehicle

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140020230A (en) 2010-10-05 2014-02-18 구글 인코포레이티드 System and method for predicting behaviors of detected objects
KR20180053081A (en) 2016-11-11 2018-05-21 엘지전자 주식회사 Autonomous vehicle and control method thereof
KR20190078553A (en) 2019-06-14 2019-07-04 엘지전자 주식회사 Method for controlling vehicle and intelligent computing device for controlling the vehilcle

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140020230A (en) 2010-10-05 2014-02-18 구글 인코포레이티드 System and method for predicting behaviors of detected objects
KR20180053081A (en) 2016-11-11 2018-05-21 엘지전자 주식회사 Autonomous vehicle and control method thereof
KR20190078553A (en) 2019-06-14 2019-07-04 엘지전자 주식회사 Method for controlling vehicle and intelligent computing device for controlling the vehilcle

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB202319113D0 (en) 2023-12-14 2024-01-31 Mercedes Benz Group Ag System and method for detecting human occupancy in vehicle

Similar Documents

Publication Publication Date Title
US11787408B2 (en) System and method for controlling vehicle based on condition of driver
US10860873B2 (en) Driver behavior recognition and prediction
EP3735365B1 (en) Primary preview region and gaze based driver distraction detection
CN109690609B (en) Passenger assist device, method, and program
JP6540663B2 (en) Vehicle system
US10793149B2 (en) Control apparatus, control method, and program
US9797734B2 (en) Object recognition apparatus
EP2878508B1 (en) Drive assist device
US20210380115A1 (en) Devices and methods for predicting collisions and/or intersection violations
JP2008307658A (en) Autonomous moving device
JP7382327B2 (en) Information processing device, mobile object, information processing method and program
JP2004362586A (en) Image processing system for vehicle
JP6822325B2 (en) Maneuvering support device, maneuvering support method, program
JP2014019390A (en) Emergency evacuation device
JP2009050970A (en) Robot system and rescue robot
JP2016177722A (en) Safety driving support device and automatic driving car
JP2021049893A (en) Vehicle control system
CN112918485A (en) System and method for detecting and mitigating unsafe conditions in a vehicle
CN113022574A (en) System and method for detecting abnormal passenger stability in vehicle
KR20210019645A (en) Apparatus for monitoring passengers in autonomous vehicles
KR20210019646A (en) Method for monitoring passengers in autonomous vehicles
KR101680833B1 (en) Apparatus and method for detecting pedestrian and alert
KR20210019648A (en) Recording Medium
KR20210019647A (en) A program for monitoring passengers in autonomous vehicles
US20210309221A1 (en) Devices and methods for determining region of interest for object detection in camera images