Nothing Special   »   [go: up one dir, main page]

KR20130089139A - Augmented reality head-up display apparatus and method for vehicles - Google Patents

Augmented reality head-up display apparatus and method for vehicles Download PDF

Info

Publication number
KR20130089139A
KR20130089139A KR1020120101339A KR20120101339A KR20130089139A KR 20130089139 A KR20130089139 A KR 20130089139A KR 1020120101339 A KR1020120101339 A KR 1020120101339A KR 20120101339 A KR20120101339 A KR 20120101339A KR 20130089139 A KR20130089139 A KR 20130089139A
Authority
KR
South Korea
Prior art keywords
driver
display unit
matching
unit
augmented reality
Prior art date
Application number
KR1020120101339A
Other languages
Korean (ko)
Other versions
KR101921969B1 (en
Inventor
김경호
박혜선
윤대섭
최종우
황윤숙
박종현
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to US13/753,590 priority Critical patent/US8994558B2/en
Publication of KR20130089139A publication Critical patent/KR20130089139A/en
Application granted granted Critical
Publication of KR101921969B1 publication Critical patent/KR101921969B1/en

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B27/0103Head-up displays characterised by optical features comprising holographic elements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0183Adaptation to parameters characterising the motion of the vehicle
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0185Displaying image at variable distance
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Theoretical Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Optics & Photonics (AREA)
  • Instrument Panels (AREA)

Abstract

운전자의 시야를 중심으로 적응적으로 위치 및 방향 변이를 가능하게 하여 가상 객체 정보와 실세계 정보의 위치 맞춤의 오차를 줄일 수 있도록 하는 차량용 증강현실 헤드업 디스플레이 장치 및 방법을 제시한다. 제시된 장치는 운전자의 얼굴 영상을 근거로 검출된 얼굴 방향 및 눈동자 중심위치를 기반으로 해당 운전자의 시선 방향을 추정하고 시야각을 계산하는 시야각 계산부, 시야각 계산부로부터의 시선 방향 및 시야각을 기반으로 운전석 전방의 실세계 정보의 위치와 상기 운전석 전방에 대응된 가상 객체 정보의 위치를 정합하는 정합부, 및 정합부에서 정합된 결과를 디스플레이시키되 회전 및 위치 변이가 가능한 표시부를 포함한다.The present invention provides a vehicle augmented reality head-up display device and method for adaptively shifting the position and direction around a driver's field of view to reduce the error of alignment of virtual object information and real-world information. The proposed device estimates the driver's line of sight and calculates the viewing angle based on the face direction and the pupil center position detected based on the driver's face image, and the driver's seat based on the viewing direction and the viewing angle from the viewing angle calculator. A matching unit for matching the position of the front real-world information and the position of the virtual object information corresponding to the front of the driver's seat, and a display unit for displaying the result matched in the matching unit, the rotation and position can be changed.

Figure P1020120101339
Figure P1020120101339

Description

차량용 증강현실 헤드업 디스플레이 장치 및 방법{augmented reality head-up display apparatus and method for vehicles}Augmented reality head-up display apparatus and method for vehicles}

본 발명은 차량용 증강현실 헤드업 디스플레이 장치 및 방법에 관한 것으로, 보다 상세하게는 주·야간운전, 안개, 폭우 등 다양한 운전 환경에서 차량에 탑승한 운전자에게 각종의 편의 정보와 안전운행 정보 등을 운전자가 바라보는 실세계 정보들과 위치를 맞추어 증강현실로 제공해 주는 차량용 증강현실 헤드업 디스플레이 장치 및 방법에 관한 것이다.The present invention relates to an augmented reality head-up display device and method for a vehicle, and more particularly, to provide a driver with various convenience information and safety driving information to a driver in a vehicle in various driving environments such as day and night driving, fog and heavy rain. The present invention relates to a vehicle augmented reality head-up display device and method for providing augmented reality in accordance with the real-world information.

종래 개발된 차량 정보 제공 장치는 크게 3가지로 대별된다.Conventionally developed vehicle information providing apparatus is roughly classified into three types.

첫번째로, 주로 운전자석 오른쪽 하단 중앙에 장착되어 운전자에게 다양한 정보를 제공하는 '차량용 단말기'가 있다. 이는 평소에 운전자가 전방을 주시하면서 주행하다가 차량 단말기로부터 정보가 제공되면, 운전자는 제공된 정보를 보기 위해 단말기가 있는 곳으로 고개를 돌리거나 시선을 옮긴다. 이때, 운전자의 주의가 분산되어 사고 발생의 위험이 있다.First, there is a 'vehicle terminal' that is mainly installed in the lower right center of the driver's seat to provide various information to the driver. When the driver normally keeps looking ahead and the information is provided from the vehicle terminal, the driver turns his head or looks to the place where the terminal is located to view the provided information. At this time, the attention of the driver is dispersed, there is a risk of accident occurrence.

두번째로, 고급 차량에 주로 장착된 'HUD(Head-Up Display) 장치'이다. 이 HUD 장치는 경로 변경을 안내하는 화살표 정보, 속도를 나타내는 텍스트 정보 등의 단순한 차량 정보들을 대쉬보드 상단에 표출한다. 따라서, 운전자는 제공 정보를 보기 위해 시선이나 고개의 방향을 바꾸지 않고 전방을 주시하면서 운전자 전방 위치에서 제공되는 정보를 볼 수 있기 때문에, 주의 분산에 따른 위험율을 줄일 수 있다. 그러나, 제공되는 정보들의 위치는 전방 실세계 정보(예컨대, 도로, 건물, 차량, 표지판 등)들의 위치와 일치하지 않은 채 운전자에게 제공되기 때문에, 운전자는 제공받은 정보를 인지하는데 부하가 발생되어 오히려 운전안전성과 편의성을 저하시킬 수 있다. 또, 이러한 실세계와의 위치 매칭이 없는 경우, 다양한 정보(예컨대, 차선, 보행자나 전방 차량과 같은 장애물 등)를 HUD를 통해 제공하기 어렵다. Second is the 'head-up display (HUD) device' mainly installed in luxury vehicles. The HUD device displays simple vehicle information such as arrow information for guiding a route change and text information indicating a speed at the top of the dashboard. Therefore, the driver can view the information provided from the driver's front position while watching the front without changing the line of sight or the head to view the provided information, thereby reducing the risk of distraction. However, since the location of the information provided is provided to the driver without matching the location of forward real-world information (eg, roads, buildings, vehicles, signs, etc.), the driver is burdened with recognizing the information provided, rather than driving. It can reduce safety and convenience. In addition, when there is no location matching with the real world, it is difficult to provide various information (eg, an obstacle such as a lane, a pedestrian or a vehicle ahead) through the HUD.

세번째로, 현재 차량에 접목하기 위해 연구 및 개발중인 '증강현실 HUD 장치'가 있다. 이 증강현실 HUD 장치는 운전자 시야를 중심으로 운전자의 전방 실세계 정보와 HUD에 표현되는 정보의 위치를 맞추어 운전자에게 안전운행 정보를 제공한다. 이 증강현실 HUD 장치는 실세계 정보의 위치에 맞게 안전운행 정보를 제공하기 때문에, 운전자가 제공 정보를 좀더 인지하기 쉽다. 그러나, 증강현실 정보를 실세계 정보의 위치에 정확하게 맞추어 제공하기는 쉽지 않다. 왜냐하면, 이를 위해서는 차량 위치와 자세를 정밀하게 검출하고 인식하여야 하며, 또한 운전자 머리와 시선의 위치 및 자세를 정밀하게 검출하고 인식해야 한다. 그런데, 기술적 한계로 인해 위치 및 자세 정확도에 오차가 발생하고, 이러한 오차는 실세계 정보와 안전운행 정보의 위치 일치 정확률을 떨어뜨린다.Third, there is an 'augmented reality HUD device' that is currently being researched and developed for incorporation into vehicles. The augmented reality HUD device provides the driver with safe driving information by matching the position of the driver's forward real world information with the information expressed in the HUD based on the driver's field of view. This augmented reality HUD device provides safe driving information in accordance with the location of the real-world information, the driver is more likely to recognize the information provided. However, it is not easy to provide augmented reality information to exactly match the location of real-world information. For this purpose, it is necessary to accurately detect and recognize the position and posture of the vehicle, and also to accurately detect and recognize the position and posture of the driver's head and gaze. However, due to technical limitations, errors in position and posture accuracy occur, and these errors reduce the accuracy of position matching between real world information and safe driving information.

이와 같은 증강현실 HUD 장치의 일 예가 대한민국 공개특허공보 10-2009-0076242호(차량용 헤드 업 디스플레이 장치 및 그 동작 제어 방법)에 제시되었다. 대한민국 공개특허공보 10-2009-0076242호에 제시된 차량용 헤드 업 디스플레이 장치는 운전자의 안구 움직임에 상응하게 HUD 유닛의 위치를 상하/좌우로 조절하여 HUD 유닛의 화상 정보 투사각을 조절한다. 대한민국 공개특허공보 10-2009-0076242호에 제시된 차량용 헤드 업 디스플레이 장치는 운전자의 안구 움직임에 따라 HUD 유닛의 투사각을 조정하여 가상의 안전운행 정보의 표출 위치 변이만 가능할 뿐, 방향 또는 각도의 변이는 전혀 할 수 없다.An example of such an augmented reality HUD device is disclosed in Korean Patent Laid-Open Publication No. 10-2009-0076242 (vehicle head-up display device and its operation control method). The vehicular head-up display device disclosed in Korean Laid-Open Patent Publication No. 10-2009-0076242 adjusts the image information projection angle of the HUD unit by adjusting the position of the HUD unit up / down / left / right according to the driver's eye movement. The vehicle head-up display device disclosed in Korean Unexamined Patent Publication No. 10-2009-0076242 can only change the display position of the virtual safe driving information by adjusting the projection angle of the HUD unit according to the movement of the driver's eyeball. Can't do it at all.

본 발명은 상기한 종래의 문제점을 해결하기 위해 제안된 것으로, 운전자의 시야를 중심으로 적응적으로 위치 및 방향 변이를 가능하게 하여 가상 객체 정보와 실세계 정보의 위치 맞춤의 오차를 줄일 수 있도록 하는 차량용 증강현실 헤드업 디스플레이 장치 및 방법을 제공함에 그 목적이 있다.The present invention has been proposed to solve the above-mentioned conventional problems, and is capable of adaptively shifting the position and direction around the driver's field of view to reduce the error of the alignment of the virtual object information and the real-world information. An object of the present invention is to provide an augmented reality head-up display device and method.

상기와 같은 목적을 달성하기 위하여 본 발명의 바람직한 실시양태에 따른 차량용 증강현실 헤드업 디스플레이 장치는, 운전자의 얼굴 영상을 근거로 검출된 얼굴 방향 및 눈동자 중심위치를 기반으로 해당 운전자의 시선 방향을 추정하고 시야각을 계산하는 시야각 계산부; 시야각 계산부로부터의 시선 방향 및 시야각을 기반으로 운전석 전방의 실세계 정보의 위치와 상기 운전석 전방에 대응된 가상 객체 정보의 위치를 정합하는 정합부; 및 정합부에서 정합된 결과를 디스플레이시키되, 회전 및 위치 변이가 가능한 표시부;를 포함한다.In order to achieve the above object, the augmented reality head-up display device for a vehicle according to a preferred embodiment of the present invention estimates the driver's gaze direction based on a face direction and a pupil center position detected based on a driver's face image. A viewing angle calculator configured to calculate a viewing angle; A matching unit for matching the position of the real world information in front of the driver's seat with the position of the virtual object information corresponding to the front of the driver's seat based on the viewing direction and the viewing angle from the viewing angle calculator; And a display unit configured to display the result matched by the matching unit, and to rotate and shift the position.

표시부의 회전은 피치(pitch), 롤(roll), 요(yaw) 방향으로의 이동을 포함하고, 표시부의 위치 변이는 좌, 우, 상, 하, 앞, 뒤로의 이동을 포함한다.Rotation of the display portion includes movement in the pitch, roll, and yaw directions, and positional shifts of the display portion include movement of left, right, up, down, front, and back.

표시부는 상기 운전자의 수조작 또는 자동 조정에 의해 회전되거나 위치 변이된다.The display portion is rotated or shifted in position by manual or automatic adjustment by the driver.

바람직하게, 정합부에서의 정합오차를 계산하는 정합오차 계산부; 및 정합오차 계산부에서 계산된 정합오차에 근거하여 표시부를 회전시키거나 위치 변이시키는 조정부;를 추가로 포함하여도 된다. 이 경우, 정합부는 조정부에서의 조정에 따라 실세계 정보의 위치와 가상 객체 정보의 위치를 재정합한다. 그리고, 조정부는 계산된 정합오차가 오차 범위보다 작을 때까지 표시부를 회전시키거나 위치 변이시킨다.Preferably, a matching error calculation unit for calculating a matching error in the matching unit; And an adjusting unit for rotating or shifting the display unit based on the matching error calculated by the matching error calculating unit. In this case, the matching unit realigns the position of the real world information and the position of the virtual object information according to the adjustment in the adjusting unit. The adjusting unit rotates or shifts the display unit until the calculated matching error is smaller than the error range.

한편, 표시부는 초기 위치에서 스크롤 타입 또는 폴더 타입으로 동작하여 디스플레이가능한 상태로 된다. 이 경우, 표시부는 운전자의 수조작에 의해 초기 위치에서 상방향 또는 하방향으로 스크롤되거나 접힌 상태가 펴지게 된다. 이와 다르게, 표시부는 운전자의 명령에 의해 자동으로 초기 위치에서 상방향 또는 하방향으로 스크롤되거나 접힌 상태가 펴지게 된다.On the other hand, the display unit is operated in a scroll type or a folder type at an initial position, and becomes a displayable state. In this case, the display portion is scrolled or folded in the upward or downward direction from the initial position by the driver's manual operation. Alternatively, the display portion is automatically scrolled or folded in an upward or downward direction from the initial position by the driver's command.

가상 객체 정보는 맵정보를 통한 운전석 전방의 정적 객체 및 영상 인식에 의한 운전석 전방의 이동 객체중에서 하나 이상을 포함한다.
The virtual object information includes at least one of a static object in front of the driver's seat through the map information and a moving object in front of the driver's seat by image recognition.

본 발명의 바람직한 실시양태에 따른 차량용 증강현실 헤드업 디스플레이 방법은, 시야각 계산부가, 운전자의 얼굴 영상을 근거로 검출된 얼굴 방향 및 눈동자 중심위치를 기반으로 해당 운전자의 시선 방향을 추정하고 시야각을 계산하는 단계; 정합부가, 시선 방향을 추정하고 시야각을 계산하는 단계에서의 시선 방향 및 시야각을 기반으로 운전석 전방의 실세계 정보의 위치와 운전석 전방에 대응된 가상 객체 정보의 위치를 정합하는 단계; 표시부가, 정합하는 단계에서 정합된 결과를 디스플레이시키는 단계; 및 조정부가, 정합하는 단계에서 정합된 결과에 따라 표시부에 대해 회전 및 위치 변이중에서 하나 이상을 행하는 단계;를 포함한다.In the augmented reality head-up display method for a vehicle according to a preferred embodiment of the present invention, the viewing angle calculator estimates the driver's gaze direction and calculates the viewing angle based on the face direction and the pupil center position detected based on the driver's face image. Making; Matching the position of the real world information in front of the driver's seat with the position of the virtual object information corresponding to the front of the driver's seat based on the eye's direction and the viewing angle at the step of estimating the eyeline direction and calculating the viewing angle; Displaying, by the display unit, the matched result in the matching step; And the adjusting unit performing one or more of rotation and position shift with respect to the display unit according to the result matched in the matching step.

회전 및 위치 변이중에서 하나 이상을 행하는 단계에서 회전은 피치(pitch), 롤(roll), 요(yaw) 방향으로의 이동을 포함하고, 회전 및 위치 변이중에서 하나 이상을 행하는 단계에서 위치 변이는 좌, 우, 상, 하, 앞, 뒤로의 이동을 포함한다.In the step of performing one or more of rotation and position shifts, the rotation includes movement in the pitch, roll, and yaw directions, and in the step of performing one or more of rotation and position shifts, the position shift is left Includes right, up, down, front and back movements.

바람직하게, 회전 및 위치 변이중에서 하나 이상을 행하는 단계는, 정합하는 단계에 의한 정합오차를 계산하는 단계; 및 계산된 정합오차에 근거하여 표시부를 회전시키거나 위치 변이시키는 단계;를 추가로 포함하여도 된다. 이 경우, 정합하는 단계는 회전 및 위치 변이중에서 하나 이상을 행하는 단계에서의 조정에 따라 실세계 정보의 위치와 가상 객체 정보의 위치를 재정합한다.Preferably, the step of performing one or more of rotation and position shifting comprises: calculating a matching error by matching; And rotating or displacing the display unit based on the calculated matching error. In this case, the matching step realigns the position of the real world information and the position of the virtual object information according to the adjustment in the step of performing one or more of rotation and positional variation.

회전 및 위치 변이중에서 하나 이상을 행하는 단계는 계산된 정합오차가 오차 범위보다 작을 때까지 표시부를 회전시키거나 위치 변이시킨다.Performing one or more of rotation and position shifting rotates or position shifts the display until the calculated matching error is less than the error range.

디스플레이시키는 단계는, 표시부가 초기 위치에서 스크롤 타입 또는 폴더 타입으로 동작되어 디스플레이가능한 상태로 된 이후에 행해진다.The displaying step is performed after the display portion is operated in a scroll type or a folder type at an initial position and becomes a displayable state.

이러한 구성의 본 발명에 따르면, 운전자의 안전 및 편의에 대한 안내 정보 제공의 필요성에 따라 운전자가 원할 때, 증강현실 디스플레이를 사용할 수 있게 하여, 운전자 중심의 정보 제공을 한다. According to the present invention of such a configuration, according to the necessity of providing guidance information on the safety and convenience of the driver, the driver can use the augmented reality display when desired, providing driver-oriented information.

또한, 필요한 안내 정보를 운전자의 시야에 맞추어 보다 정확하게 매칭하여 제공하기 위해, 운전자가 직접 디스플레이의 각도나 위치를 조절할 수 있다. 따라서, 본 발명은 각 축 별로 회전 및 수평·수직·앞뒤의 위치 변이에 대해서 조절이 가능하다. In addition, the driver may directly adjust the angle or position of the display in order to provide necessary guidance information more accurately matching the driver's field of view. Therefore, the present invention can adjust the rotation and horizontal, vertical, front and rear position shift for each axis.

이러한 적응적 위치·방향 변이가 가능한 본 발명은, 운전자에게 헤드업 디스플레이에서 제공되는 가상 객체 정보와 실세계 정보와의 위치 오차를 줄일 수 있다. 그에 따라, 제공된 정보에 대한 운전자 인지 부하를 감소시키고, 판단 착오로 인한 사고 위험성을 줄일 수 있게 된다. The present invention capable of such an adaptive position / direction shift can reduce the position error between the virtual object information and the real world information provided to the driver in the head-up display. Accordingly, the driver's cognitive load on the provided information can be reduced, and the risk of accidents due to misunderstanding can be reduced.

본 발명은 시야 확보가 어려운 야간, 악천후를 포함하여 모든 운전 환경에서 운전자의 편의와 안전을 도모할 수 있다.The present invention can achieve the convenience and safety of the driver in all driving environments, including nighttime, bad weather difficult to secure visibility.

도 1은 본 발명의 실시예에 따른 차량용 증강현실 헤드업 디스플레이 장치에 채용된 표시부의 사용 예를 나타낸 도면이다.
도 2는 본 발명의 실시예에 따른 차량용 증강현실 헤드업 디스플레이 장치에 채용된 표시부의 장착 예를 나타낸 도면이다.
도 3은 본 발명의 실시예에 따른 차량용 증강현실 헤드업 디스플레이 장치에 채용된 표시부의 방향 조절 예를 나타낸 도면이다.
도 4는 본 발명의 실시예에 따른 차량용 증강현실 헤드업 디스플레이 장치에 채용된 표시부의 위치 조절 예를 나타낸 도면이다.
도 5는 본 발명의 실시예에 따른 차량용 증강현실 헤드업 디스플레이 장치의 블럭도이다.
도 6은 본 발명의 실시예에 따른 차량용 증강현실 헤드업 디스플레이 방법을 설명하기 위한 플로우차트이다.
도 7 내지 도 9는 본 발명의 실시예에 따른 차량용 증강현실 헤드업 디스플레이 방법 설명에 채용되는 도면들이다.
1 is a view showing an example of the use of the display unit employed in the augmented reality head-up display device for a vehicle according to an embodiment of the present invention.
2 is a view showing an example of mounting the display unit employed in the augmented reality head-up display device for vehicles according to an embodiment of the present invention.
3 is a view showing an example of adjusting the direction of the display unit employed in the augmented reality head-up display device for vehicles according to an embodiment of the present invention.
4 is a view showing an example of adjusting the position of the display unit employed in the augmented reality head-up display device for vehicles according to an embodiment of the present invention.
5 is a block diagram of an augmented reality head-up display device for a vehicle according to an embodiment of the present invention.
6 is a flowchart illustrating a method of displaying augmented reality head-up vehicle for a vehicle according to an embodiment of the present invention.
7 to 9 are diagrams employed in the description of the augmented reality head-up display method for a vehicle according to an embodiment of the present invention.

상술한 종래의 증강현실 HUD 장치에서의 문제점을 해결하기 위해서는 실세계 정보와 안전운행 정보의 위치에 대한 일치 오차를 줄이는 방법이 필요하다. 이러한 오차가 발생하는 원인 중 하나는 증강현실 헤드업 디스플레이 장치의 표시패널이 고정형이기 때문이다. 이러한 고정형 증강현실 HUD 장치는 위에서 언급한 문제들로 인해, 실세계 정보와 HUD에서 제공되는 안전운행 정보의 위치를 맞추는 과정에서 오차가 발생한다. In order to solve the problems of the conventional augmented reality HUD device described above, there is a need for a method of reducing the matching error between the location of the real world information and the safety operation information. One of the causes of this error is that the display panel of the augmented reality head-up display device is fixed. Due to the problems mentioned above, the fixed augmented reality HUD device has an error in the process of matching the real world information and the safety operation information provided from the HUD.

따라서, 운전자가 자신의 자세나 위치에 맞게 HUD의 방향이나 위치를 조정한다면, 운전자 시야에 맞게 실세계 정보와 안전운행 정보를 보다 정확하게 매칭하여 제공받을 수 있을 것이다. Therefore, if the driver adjusts the direction or position of the HUD according to his or her posture or position, the real world information and safe driving information may be more accurately matched to the driver's field of view.

이에, 본 발명은 디스플레이의 각도나 위치를 운전자 시야에 맞추어 적응적으로 바꿈으로써, 실세계 정보와의 위치 매칭에서 발생하는 오차를 줄이고 좀더 운전자 시야에 맞게 정보를 제공해 줄 수 있도록 구현하였다.
Accordingly, the present invention has been implemented to reduce the error caused by position matching with real-world information and to provide information according to the driver's view by adaptively changing the angle or position of the display according to the driver's view.

이하, 첨부된 도면을 참조하여 본 발명의 차량용 증강현실 헤드업 디스플레이 장치 및 방법에 대하여 설명하면 다음과 같다. 본 발명의 상세한 설명에 앞서, 이하에서 설명되는 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니된다. 따라서, 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일실시예에 불과할 뿐이고 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형예들이 있을 수 있음을 이해하여야 한다.
Hereinafter, with reference to the accompanying drawings, a vehicle augmented reality head up display device and method of the present invention will be described. Prior to the detailed description of the present invention, terms and words used in the present specification and claims should not be construed as limited to ordinary or dictionary terms. Therefore, the embodiments described in this specification and the configurations shown in the drawings are merely the most preferred embodiments of the present invention and do not represent all the technical ideas of the present invention. Therefore, It is to be understood that equivalents and modifications are possible.

도 1은 본 발명의 실시예에 따른 차량용 증강현실 헤드업 디스플레이 장치에 채용된 표시부의 사용 예를 나타낸 도면이다.1 is a view showing an example of the use of the display unit employed in the augmented reality head-up display device for vehicles according to an embodiment of the present invention.

본 발명의 실시예에 따른 차량용 증강현실 헤드업 디스플레이 장치를 통해 제공되는 편의 정보(주행경로 정보, POI(Point of Interest) 정보, 안내판 정보 등) 및 안전운행 정보(차선 정보, 차량 정보, 보행자 정보 등)를 제공받고자 할 때에는, 초기 위치에 있는 표시부(10)를 스크롤 타입(scroll type) 또는 폴더 타입(fold type)으로 동작시켜서 디스플레이가능한 위치로 이동시켜야 한다. Convenient information (driving route information, point of interest (POI) information, information board information, etc.) provided through the augmented reality head-up display device for a vehicle according to an embodiment of the present invention and safety driving information (lane information, vehicle information, pedestrian information) Etc.), the display unit 10 at the initial position should be moved to a displayable position by operating the scroll type or the folder type.

도 1에서, 스크롤 타입은 위에서 아래로 내려오거나 아래에서 위로 올라가는 형태를 의미하고, 폴더 타입은 통상적으로 운전석 상단부에 장착된 햇빛가리개 형태의 접힌 상태가 펴지게 되는 형태를 의미한다. In FIG. 1, the scroll type refers to a form that descends from the top or ascends from the bottom, and the folder type refers to a form in which a folded state of a sunshade mounted on the upper end of the driver's seat is unfolded.

스크롤 타입 또는 폴더 타입으로의 동작은 자동 또는 수동으로 행해진다. 자동은 표시부(10)가 내부에 구비되는 모터(도시 생략) 등에 의해 디스플레이가능한 위치로 이동하는 것이다. 수동은 운전자가 직접 표시부(10)를 손으로 잡고 상방향 또는 하방향으로 스크롤시키거나 접힌 상태를 직접 손으로 펴는 것이다.
Operation in the scroll type or folder type is performed automatically or manually. Automatically, the display unit 10 moves to a displayable position by a motor (not shown) or the like provided therein. In the manual operation, the driver directly holds the display unit 10 by hand and scrolls upward or downward or directly unfolds the folded state.

도 2는 본 발명의 실시예에 따른 차량용 증강현실 헤드업 디스플레이 장치에 채용된 표시부의 장착 예를 나타낸 도면이고, 도 3은 본 발명의 실시예에 따른 차량용 증강현실 헤드업 디스플레이 장치에 채용된 표시부의 방향 조절 예를 나타낸 도면이고, 도 4는 본 발명의 실시예에 따른 차량용 증강현실 헤드업 디스플레이 장치에 채용된 표시부의 위치 조절 예를 나타낸 도면이다.2 is a view showing a mounting example of the display unit employed in the vehicle augmented reality head-up display device according to an embodiment of the present invention, Figure 3 is a display unit employed in a vehicle augmented reality head-up display device according to an embodiment of the present invention FIG. 4 is a view illustrating an example of adjusting a direction of the display unit, and FIG. 4 is a view illustrating an example of adjusting a position of a display unit employed in the augmented reality head-up display device for a vehicle according to an exemplary embodiment of the present invention.

본 발명의 실시예에 따른 차량용 증강현실 헤드업 디스플레이 장치에 채용된 표시부(10)는 운전석 전방의 대쉬보드 또는 윈드쉴드 등에 설치될 수 있다. 표시부(10)는 투명한 재질로 구성됨이 바람직하다. 도 2에서는 표시부(10)를 운전석 전방의 햇빛가리개 근처 또는 윈드쉴드(12)에 장착시킨 것으로 가정하였다.The display unit 10 employed in the augmented reality head-up display device for a vehicle according to an embodiment of the present invention may be installed in a dashboard or a windshield in front of a driver's seat. The display unit 10 is preferably made of a transparent material. In FIG. 2, it is assumed that the display unit 10 is mounted near the sun shade in front of the driver's seat or on the windshield 12.

표시부(10)는 회전 및 위치 변이가 모두 가능하다. 도 3을 참조하면, 표시부(10)는 피치(pitch; x축), 롤(roll; y축), 요(yaw; z축) 방향으로의 회전이 가능하다. 도 4를 참조하면, 표시부(10)는 좌, 우, 상, 하, 앞, 뒤로의 위치 이동이 가능하다. 여기서, 좌 또는 우로의 위치 이동은 팬(pan) 이동이라고 하고, 상 또는 하로의 위치 이동은 틸트(tilt) 이동이라고 하고, 앞 또는 뒤로의 위치 이동은 달리(dolly) 이동이라고 한다.The display unit 10 can both rotate and change position. Referring to FIG. 3, the display unit 10 may rotate in a pitch (x-axis), roll (y-axis), and yaw (z-axis) direction. Referring to FIG. 4, the display unit 10 may move left, right, up, down, front and back. Here, the left or right positional movement is called pan movement, the up or down positional movement is called tilt movement, and the forward or backward positional movement is called dolly movement.

이와 같이 표시부(10)는 운전자의 시선에 맞게 상, 하, 좌, 우, 앞, 뒤로의 위치 변이 및/또는 x, y, z축 방향으로 회전 조절이 이루어진다. 표시부(10)의 위치 및 방향이 운전자의 시야에 맞게 조절됨으로써, 가상 객체 정보의 위치를 실세계 정보의 위치와 정밀하게 맞출 수 있다. 그에 따라, 보다 정확한 증강현실 정보를 제공해 줄 수 있으므로 운전자는 더 정확하고 알기 쉽게 안전운행 정보 등을 제공받을 수 있다. In this way, the display unit 10 adjusts the position of the up, down, left, right, front and back and / or rotates in the x, y, and z-axis directions according to the driver's eyes. By adjusting the position and direction of the display unit 10 to the driver's field of view, the position of the virtual object information can be precisely aligned with the position of the real world information. Accordingly, the driver may be provided with more accurate augmented reality information, so that the driver may be provided with safe driving information more accurately and easily.

전술한 바와 같이, 표시부(10)의 위치 및 방향은 운전자가 수동으로 조절할 수도 있고, 운전자 시선에 맞게 자동으로 조절할 수도 있다.
As described above, the position and direction of the display unit 10 may be manually adjusted by the driver, or may be automatically adjusted according to the driver's gaze.

도 5는 본 발명의 실시예에 따른 차량용 증강현실 헤드업 디스플레이 장치의 블럭도이다.5 is a block diagram of an augmented reality head-up display device for a vehicle according to an embodiment of the present invention.

본 발명의 실시예에 따른 차량용 증강현실 헤드업 디스플레이 장치는 표시부(10), 촬영부(20), 얼굴 방향 검출부(22), 눈동자 중심위치 검출부(24), 시야각 계산부(26), 가상 객체 생성부(28), 항법부(30), 정합부(32), 정합오차 계산부(34), 및 조정부(36)를 포함한다.The augmented reality head-up display device for a vehicle according to an embodiment of the present invention, the display unit 10, the photographing unit 20, the face direction detection unit 22, the pupil center position detection unit 24, the viewing angle calculator 26, the virtual object The generation unit 28, the navigation unit 30, the matching unit 32, the matching error calculating unit 34, and the adjusting unit 36 are included.

촬영부(20)는 운전자를 향하도록 운전석 전방의 대쉬보드에 설치된다. 촬영부(20)는 적어도 하나 이상의 카메라를 포함한다. 촬영부(20)는 운전자의 얼굴 영상을 촬영하고, 여러 장의 캡처한 얼굴 영상을 출력한다. 예를 들어, 촬영부(20)는 먼저 운전자의 정면 얼굴 영상을 캡처한 후, 주행 중 원드쉴드상에서 차량 밖을 보기 위해 움직일 수 있는 얼굴 방향 및 시선 방향을 고려한 위·아래, 좌·우의 얼굴 방향 영상들과 여러 각도의 시선 방향의 영상들을 캡처한다. 이때 위·아래, 좌·우의 얼굴 방향값과 시선 방향의 여러 각도값은 다양한 실험자를 대상으로 주행 실험을 하여 얻어진 실험 임계치 값을 사용한다. The photographing unit 20 is installed on the dashboard in front of the driver's seat to face the driver. The photographing unit 20 includes at least one camera. The photographing unit 20 photographs a driver's face image and outputs a plurality of captured face images. For example, the photographing unit 20 first captures an image of the driver's front face, and then faces up, down, and left and right in consideration of a face direction and a gaze direction that can be moved to look out of the vehicle on a shield while driving. Capture images and images from various angles of view. At this time, the facial direction values of the top, bottom, left and right and various angle values in the gaze direction use experimental threshold values obtained by driving experiments for various experimenters.

얼굴 방향 검출부(22)는 촬영부(20)로부터의 여러 장의 캡처한 얼굴 영상으로부터 해당 운전자의 얼굴 방향을 검출한다. 예를 들어, 얼굴 방향 검출부(22)는 입력받은 캡처한 여러 장의 얼굴 영상으로부터 각각 눈썹, 눈, 코, 입 등의 얼굴 부위 특징점을 정하고 이러한 특징점들을 통해 운전자의 얼굴을 모델링한다. 얼굴 방향 검출부(22)는 생성된 얼굴 모델을 사용하여 해당 운전자의 얼굴 3차원 방향(위치 및 자세)을 검출한다. The face direction detection unit 22 detects the driver's face direction from the plurality of captured face images from the photographing unit 20. For example, the face direction detection unit 22 determines facial part feature points such as eyebrows, eyes, nose, and mouth, respectively, from the captured multiple face images received and models the driver's face through these feature points. The face direction detection unit 22 detects the driver's face three-dimensional direction (position and posture) using the generated face model.

눈동자 중심위치 검출부(24)는 얼굴 방향 검출부(22)에 의해 얼굴 방향이 정해지면 눈의 특징점과 얼굴 방향에 따른 추정 눈 위치값을 사용하여 운전자의 눈동자 중심 위치를 검출한다. 다시 말해서, 눈동자 중심위치 검출부(24)는 얼굴 방향 검출부(22)에서 얼굴 방향을 정하게 되면 얼굴 방향 검출부(22)로부터의 각종의 정보를 근거로 눈동자 중심위치 검출 동작을 수행한다. 물론, 필요에 따라서는 얼굴 방향 검출부(22)가 얼굴 방향 검출 동작을 시작할 때 눈동자 중심위치 검출부(24)가 촬영부(20)로부터의 정보를 근거로 눈동자 중심위치 검출 동작을 수행하는 것으로 하여도 무방하다. When the face direction is determined by the face direction detector 22, the pupil center position detector 24 detects the pupil center position of the driver using the estimated eye position values corresponding to the feature points of the eyes and the face direction. In other words, when the face direction detection unit 22 determines the face direction, the pupil center position detection unit 24 performs the pupil center position detection operation based on various kinds of information from the face direction detection unit 22. Of course, if necessary, when the face direction detection unit 22 starts the face direction detection operation, the pupil center position detection unit 24 performs the pupil center position detection operation based on the information from the photographing unit 20. It's okay.

그에 따라, 도 5에서는 얼굴 방향 검출부(22)와 눈동자 중심위치 검출부(24)를 각각 별개의 구성요소로 도시하였으나, 얼굴 방향 검출부(22)와 눈동자 중심위치 검출부(24)를 하나의 블럭으로 통칭하여 얼굴 방향 및 눈동자 중심위치를 검출하도록 하여도 무방하다.Accordingly, in FIG. 5, the face direction detector 22 and the pupil center position detector 24 are shown as separate components, but the face direction detector 22 and the pupil center position detector 24 are collectively referred to as one block. It is also possible to detect the direction of the face and the center of the pupil.

시야각 계산부(26)는 얼굴 방향 검출부(22)에 의한 얼굴 방향과 눈동자 중심위치 검출부(24)에 의한 눈동자 중심위치를 기반으로 해당 운전자의 시선 방향을 추정한 후에 시야각을 계산한다. 바람직하게, 시야각 계산부(26)는 입력받은 얼굴 방향과 눈동자 중심위치로부터 인간의 얼굴 형상학 및 구조를 기반으로 머리 중심 좌표와 안구의 중심 좌표를 추정한다. 그리고, 시야각 계산부(26)는 추정된 좌표값(즉, 머리 중심 좌표값과 안구의 중심 좌표값)과 눈의 중심위치를 사용하여 시선 방향을 추정(검출)한다. 그리고, 시야각 계산부(26)는 운전자의 얼굴 방향과 시선 방향을 고려하여 운전자의 시야각을 계산한다.The viewing angle calculator 26 calculates the viewing angle after estimating the driver's gaze direction based on the face direction by the face direction detector 22 and the pupil center position by the pupil center position detector 24. Preferably, the viewing angle calculator 26 estimates the head center coordinates and the eye center coordinates based on the human face morphology and structure from the input face direction and the pupil center position. Then, the viewing angle calculator 26 estimates (detects) the gaze direction by using the estimated coordinate values (ie, the head center coordinate value and the eyeball center coordinate value) and the eye center position. The viewing angle calculator 26 calculates the viewing angle of the driver in consideration of the driver's face direction and the gaze direction.

가상 객체 생성부(28)는 카메라 센서를 이용한 영상 인식 또는 3차원 맵정보를 이용한 안내판 정보 인식 등을 통하여 가상 객체를 생성한다. 보다 상세하게는, 가상 객체 생성부(28)는 카메라 센서를 이용하여 운전석 전방의 보행자, 선행 차량 등의 이동 객체를 인식하고, 3차원의 맵정보를 이용하여 안내판, 도로 표지판, 건물 등의 정적 객체를 인식할 수 있다. 따라서, 가상 객체 생성부(28)는 3차원의 맵정보를 통한 운전석 전방의 정적 객체 및 영상 인식에 의한 운전석 전방의 이동 객체를 포함하는 가상 객체에 대한 정보를 생성한다. 가상 객체에 대한 정보는 각각의 가상 객체에 대한 위치 좌표값을 포함한다. The virtual object generator 28 generates a virtual object through image recognition using a camera sensor or guide plate information recognition using 3D map information. In more detail, the virtual object generator 28 recognizes a moving object such as a pedestrian or a preceding vehicle in front of the driver's seat using a camera sensor, and uses static information such as a sign board, a road sign, a building, etc. using three-dimensional map information. Can recognize objects Accordingly, the virtual object generation unit 28 generates information about the virtual object including the static object in front of the driver's seat through the three-dimensional map information and the moving object in front of the driver's seat by image recognition. The information about the virtual object includes a position coordinate value for each virtual object.

항법부(30)는 실시간으로 차량의 위치값을 계산하여 출력한다.The navigation unit 30 calculates and outputs a position value of the vehicle in real time.

정합부(32)는 시야각 계산부(26)로부터의 시선 방향 및 시야각을 기반으로 운전석 전방의 실세계 정보의 위치와 가상 객체 생성부(28)로부터의 운전석 전방에 대응된 가상 객체 정보의 위치를 정합한다. 즉, 정합부(32)는 가상 객체 생성부(28)로부터 가상 객체 정보를 입력받고, 시야각 계산부(26)로부터의 시선 방향 및 시야각에 따라 실세계 정보의 좌표값과 가상 객체 정보의 좌표값을 정합한다. 여기서, 실세계 정보는 운전석 전방의 윈드쉴드를 통해 실제로 보여지는 것을 의미한다.The matching unit 32 matches the position of the real world information in front of the driver's seat with the position of the virtual object information corresponding to the driver's seat in front of the virtual object generator 28 based on the viewing direction and the viewing angle from the viewing angle calculator 26. do. That is, the matching unit 32 receives the virtual object information from the virtual object generating unit 28, and adjusts the coordinate values of the real world information and the coordinate values of the virtual object information according to the viewing direction and the viewing angle from the viewing angle calculator 26. Match. Here, the real-world information means actually seen through the windshield in front of the driver's seat.

보다 상세하게는, 정합부(32)는 항법부(30)로부터의 차량 위치값을 기준으로 차량과 운전자의 상대 위치 관계를 고려하여 운전자 머리 방향 및 시선 위치값을 실세계 좌표값으로 매핑하여 계산한다. 또한, 정합부(32)는 표시부(10)의 방향과 위치의 초기값도 차량 위치값을 기준으로 실세계 좌표값으로 자동 매핑하여 계산할 수 있다. 한편, 정합부(32)는 카메라 캘리브레이션 및 레지스트레이션 방법을 통해 운전자 시야각 범위 및 앞서 자동 계산된 실세계 매핑 위치 좌표값들에 맞게 가상 객체 정보 좌표값을 매핑하여 정합한다.More specifically, the matching unit 32 calculates by mapping the driver's head direction and the gaze position value to real world coordinate values in consideration of the relative positional relationship between the vehicle and the driver based on the vehicle position value from the navigation unit 30. . In addition, the matching unit 32 may calculate the initial values of the direction and the position of the display unit 10 by automatically mapping them to real world coordinate values based on the vehicle position values. Meanwhile, the matching unit 32 maps and matches the virtual object information coordinate values according to the driver viewing angle range and the previously calculated real world mapping position coordinate values through a camera calibration and registration method.

정합오차 계산부(34)는 정합부(32)에서의 정합과정에서 발생되는 정합오차를 계산한다.The matching error calculator 34 calculates a matching error generated in the matching process in the matching unit 32.

조정부(36)는 정합오차 계산부(34)에서 계산된 정합오차에 근거하여 표시부(10)를 회전시키거나 위치 변이시킨다. 조정부(36)는 정합오차 계산부(34)에서 계산된 정합오차가 기설정된 오차 범위보다 작을 때까지 표시부(10)를 회전시키거나 위치 변이시킨다. 그에 따라, 정합부(32)는 조정부(36)에서의 조정이 있게 되면 실세계 정보의 위치와 가상 객체 정보의 위치를 재정합한다. 이와 같이 하여, 가상 객체의 좌표값을 실세계 정보의 좌표값에 정밀하게 재정합하게 된다.
The adjusting unit 36 rotates or shifts the position of the display unit 10 based on the matching error calculated by the matching error calculating unit 34. The adjusting unit 36 rotates or shifts the display unit 10 until the matching error calculated by the matching error calculator 34 is smaller than the preset error range. Accordingly, the matching unit 32 realigns the position of the real world information and the position of the virtual object information when there is an adjustment in the adjusting unit 36. In this way, the coordinate values of the virtual object are precisely matched with the coordinate values of the real world information.

이번에는, 도 6의 플로우차트를 참조하여 본 발명의 실시예에 따른 차량용 증강현실 헤드업 디스플레이 방법에 대해 설명한다. 도 7 내지 도 9는 본 발명의 실시예에 따른 차량용 증강현실 헤드업 디스플레이 방법 설명에 채용되는 도면들이다.This time, the augmented reality head-up display method for a vehicle according to an embodiment of the present invention will be described with reference to the flowchart of FIG. 6. 7 to 9 are diagrams employed in the description of the augmented reality head-up display method for a vehicle according to an embodiment of the present invention.

먼저, 촬영부(20)가 운전자의 얼굴 영상을 촬영하고 여러 장의 캡처한 얼굴 영상을 출력한다.First, the photographing unit 20 photographs a driver's face image and outputs a plurality of captured face images.

이어, 얼굴 방향 검출부(22)는 촬영부(20)로부터의 여러 장의 캡처한 얼굴 영상을 근거로 해당 운전자의 얼굴 방향을 검출한다(S10).Subsequently, the face direction detection unit 22 detects the driver's face direction based on the plurality of captured face images from the photographing unit 20 (S10).

그리고, 눈동자 중심위치 검출부(24)는 촬영부(20)로부터의 여러 장의 캡처한 얼굴 영상 또는 얼굴 방향 검출부(22)로부터의 정보에 근거하여 눈의 특징점과 얼굴 방향에 따른 추정 눈 위치값을 사용하여 운전자의 눈동자 중심위치를 검출한다(S20).The pupil center position detection unit 24 uses the estimated eye position values according to the feature points of the eye and the face direction based on the multiple captured face images from the photographing unit 20 or the information from the face direction detection unit 22. The driver's pupil center position is detected (S20).

이와 같이 검출된 얼굴 방향과 눈동자 중심위치에 상응하는 정보는 시야각 계산부(26)에게로 전송된다.The information corresponding to the detected face direction and the pupil center position is transmitted to the viewing angle calculator 26.

그에 따라, 시야각 계산부(26)는 검출된 얼굴 방향과 눈동자 중심위치를 기반으로 해당 운전자의 시선 방향을 추정한 후에 시야각을 계산한다(S30).Accordingly, the viewing angle calculator 26 calculates the viewing angle after estimating the driver's gaze direction based on the detected face direction and the pupil center position (S30).

그 후, 가상 객체 생성부(28)는 카메라 센서를 이용한 영상 인식 또는 3차원 맵정보를 이용한 안내판 정보 인식 등을 통하여 가상 객체를 생성한다(S40).Thereafter, the virtual object generator 28 generates a virtual object through image recognition using a camera sensor or guide plate information recognition using 3D map information (S40).

이어서, 정합부(32)는 시야각 계산부(26)로부터의 시선 방향 및 시야각을 기반으로 운전석 전방의 실세계 정보의 위치와 가상 객체 생성부(28)로부터의 운전석 전방에 대응된 가상 객체 정보의 위치를 정합한다(S50). Subsequently, the matching unit 32 positions the position of the real world information in front of the driver's seat and the position of the virtual object information corresponding to the driver's seat in front of the virtual object generator 28 based on the viewing direction and the viewing angle from the viewing angle calculator 26. Match (S50).

이와 같이 정합부(32)의 정합이 완료되면, 정합오차 계산부(34)는 정합부(32)에서의 정합오차를 계산해 내고, 조정부(36)는 계산된 정합오차값에 따라 표시부(10)에 대한 회전 및 위치 변이 여부를 결정하여 그에 상응하는 동작을 수행한다. When the matching of the matching unit 32 is completed as described above, the matching error calculator 34 calculates the matching error in the matching unit 32, and the adjusting unit 36 displays the display unit 10 according to the calculated matching error value. Determine whether the rotation and position shift for the corresponding to perform the corresponding operation.

즉, 계산된 정합오차값이 기설정된 오차 범위보다 작으면(S60에서 "Yes") 조정부(36)는 표시부(10)에 대한 회전 및 위치 변이가 필요없는 것으로 판단한다. 그에 따라, 표시부(10)에는 도 7에 예시된 바와 같은 화면(14)이 디스플레이된다(S70). 여기서, 도 7의 화면(14)은 운전자 시야 범위에 실세계 정보의 위치와 가상 객체 정보의 위치가 제대로 정합되어 표출됨을 나타낸다.That is, if the calculated matching error value is smaller than the preset error range (“Yes” in S60), the adjusting unit 36 determines that the rotation and positional shift of the display unit 10 are not necessary. Accordingly, the screen 14 as illustrated in FIG. 7 is displayed on the display unit 10 (S70). Here, the screen 14 of FIG. 7 indicates that the position of the real world information and the position of the virtual object information are properly matched and displayed in the driver's field of view.

반대로, 계산된 정합오차값이 기설정된 오차 범위를 벗어났을 경우(S60에서 "No")에는 도 8에 예시한 바와 같이 실세계 정보의 위치와 가상 객체 정보의 위치와의 정합이 제대로 되지 않게 된다. 그에 따라, 조정부(36)는 정합오차값이 기설정된 오차 범위보다 작을 때까지 도 9에 예시한 바와 같이 표시부(10)를 회전시키거나 위치 변이시키고, 정합부(32)는 조정부(36)에서의 조정에 따라 실세계 정보의 위치와 가상 객체 정보의 위치를 재정합한다(S80). On the contrary, when the calculated matching error value is out of the preset error range (“No” in S60), as shown in FIG. 8, the matching between the position of the real world information and the position of the virtual object information is not properly performed. Accordingly, the adjusting unit 36 rotates or shifts the display unit 10 as illustrated in FIG. 9 until the matching error value is smaller than the preset error range, and the matching unit 32 adjusts the adjusting unit 36. The position of the real-world information and the position of the virtual object information are realigned according to the adjustment of (S80).

여기서, 표시부(10)의 방향 및 위치를 조정하는 방법에 대해 다시 한번 기술하면 다음과 같다. Here, a method of adjusting the direction and position of the display unit 10 will be described once again.

먼저, 수동으로 조정하는 방법에 대해 설명한다. 첫번째의 수동 조정 방법은 표시부(10)의 방향과 위치를 운전자가 운전자 시야각과 시선에 맞게 직접 손으로 조정한다. 두번째의 수동 조정 방법은 각 x,y,z의 방향과 위치를 일정하게 정해진 간격만큼 이동할 수 있는 모터(도시 생략)와 버튼(도시 생략)을 통해 운전자가 표시부(10)의 방향과 위치를 조정한다. 도시 생략한 모터 및 버튼은 표시부(10)에 설치되는 것으로 할 수 있고, 별도로 도시하지 않더라도 동종업계에 종사하는 자라면 주지의 기술로 충분히 이해할 수 있다.First, the manual adjustment method is explained. In the first manual adjustment method, the driver directly adjusts the direction and position of the display unit 10 to the driver's viewing angle and gaze by hand. In the second manual adjustment method, the driver adjusts the direction and position of the display unit 10 through a motor (not shown) and a button (not shown) that can move the directions and positions of each x, y, and z by a predetermined interval. do. Motors and buttons not shown may be provided in the display unit 10, and even if not shown separately, those skilled in the same industry can fully understand the technology.

이번에는, 자동으로 조정하는 방법에 대해 설명한다. 자동 조정 방법은 운전자의 개입없이 운전자의 눈의 위치와 얼굴 모델을 기반으로 한 얼굴 방향을 통해 운전자의 시야각과 시선 방향을 자동으로 추출하여 추출한 값에 맞게 표시부(10)의 위치와 방향이 자동적으로 조정된다.
This time, the method to adjust automatically is demonstrated. The automatic adjustment method automatically extracts the driver's viewing angle and gaze direction through the face direction based on the driver's eye position and face model without the driver's intervention and automatically adjusts the position and direction of the display unit 10 according to the extracted value. Adjusted.

본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플라피디스크, 광데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.The present invention can also be embodied as computer-readable codes on a computer-readable recording medium. A computer-readable recording medium includes all kinds of recording apparatuses in which data that can be read by a computer system is stored. Examples of the computer-readable recording medium include a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical data storage device, and the like, and also implemented in the form of a carrier wave (for example, transmission over the Internet) . The computer readable recording medium may also be distributed over a networked computer system so that computer readable code can be stored and executed in a distributed manner.

한편, 본 발명은 상술한 실시예로만 한정되는 것이 아니라 본 발명의 요지를 벗어나지 않는 범위내에서 수정 및 변형하여 실시할 수 있고, 그러한 수정 및 변형이 가해진 기술사상 역시 이하의 특허청구범위에 속하는 것으로 보아야 한다.While the present invention has been described in connection with what is presently considered to be practical exemplary embodiments, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, is intended to cover various modifications and equivalent arrangements included within the spirit and scope of the appended claims. You must see.

10 : 표시부 20 : 촬영부
22 : 얼굴 방향 검출부 24 : 눈동자 중심위치 검출부
26 : 시야각 계산부 28 : 가상 객체 생성부
30 : 항법부 32 : 정합부
34 : 정합오차 계산부 36 : 조정부
10: display unit 20: photographing unit
22: face direction detection unit 24: pupil center position detection unit
26: viewing angle calculator 28: virtual object generation unit
30: navigation unit 32: matching unit
34: matching error calculation unit 36: adjustment unit

Claims (20)

운전자의 얼굴 영상을 근거로 검출된 얼굴 방향 및 눈동자 중심위치를 기반으로 해당 운전자의 시선 방향을 추정하고 시야각을 계산하는 시야각 계산부;
상기 시야각 계산부로부터의 시선 방향 및 시야각을 기반으로 운전석 전방의 실세계 정보의 위치와 상기 운전석 전방에 대응된 가상 객체 정보의 위치를 정합하는 정합부; 및
상기 정합부에서 정합된 결과를 디스플레이시키되, 회전 및 위치 변이가 가능한 표시부;를 포함하는 것을 특징으로 하는 차량용 증강현실 헤드업 디스플레이 장치.
A viewing angle calculator configured to estimate a gaze direction of a corresponding driver and calculate a viewing angle based on a face direction and a pupil center position detected based on the driver's face image;
A matching unit for matching the position of the real world information in front of the driver's seat with the position of the virtual object information corresponding to the front of the driver's seat based on the viewing direction and the viewing angle from the viewing angle calculator; And
And a display unit configured to display a result matched by the matching unit, the display unit being capable of rotation and shifting of position.
청구항 1에 있어서,
상기 표시부의 회전은 피치(pitch), 롤(roll), 요(yaw) 방향으로의 이동을 포함하는 것을 특징으로 하는 차량용 증강현실 헤드업 디스플레이 장치.
The method according to claim 1,
Rotation of the display unit is a vehicle augmented reality head-up display device comprising a movement in the pitch (pitch), roll (roll), yaw direction.
청구항 1에 있어서,
상기 표시부의 위치 변이는 좌, 우, 상, 하, 앞, 뒤로의 이동을 포함하는 것을 특징으로 하는 차량용 증강현실 헤드업 디스플레이 장치.
The method according to claim 1,
Position shift of the display unit is a vehicle augmented reality head-up display device, characterized in that it comprises the movement of the left, right, up, down, front, back.
청구항 1에 있어서,
상기 표시부는 상기 운전자의 수조작에 의해 회전되거나 위치 변이되는 것을 특징으로 하는 차량용 증강현실 헤드업 디스플레이 장치.
The method according to claim 1,
The display unit is augmented reality head up display device for the vehicle, characterized in that the rotation or position shift by the manual operation of the driver.
청구항 1에 있어서,
상기 표시부는 자동 조정에 의해 회전되거나 위치 변이되는 것을 특징으로 하는 차량용 증강현실 헤드업 디스플레이 장치.
The method according to claim 1,
The display unit is a vehicle augmented reality head up display device, characterized in that the rotation or position shift by automatic adjustment.
청구항 1에 있어서,
상기 정합부에서의 정합오차를 계산하는 정합오차 계산부; 및
상기 정합오차 계산부에서 계산된 정합오차에 근거하여 상기 표시부를 회전시키거나 위치 변이시키는 조정부;를 추가로 포함하고,
상기 정합부는 상기 조정부에서의 조정에 따라 상기 실세계 정보의 위치와 상기 가상 객체 정보의 위치를 재정합하는 것을 특징으로 하는 차량용 증강현실 헤드업 디스플레이 장치.
The method according to claim 1,
A matching error calculating unit calculating a matching error in the matching unit; And
And an adjusting unit for rotating or shifting the display unit based on the matching error calculated by the matching error calculating unit.
And the matching unit realigns the position of the real world information and the position of the virtual object information according to the adjustment by the adjusting unit.
청구항 6에 있어서,
상기 조정부는 상기 계산된 정합오차가 오차 범위보다 작을 때까지 상기 표시부를 회전시키거나 위치 변이시키는 것을 특징으로 하는 차량용 증강현실 헤드업 디스플레이 장치.
The method of claim 6,
And the adjusting unit rotates or shifts the display unit until the calculated matching error is smaller than an error range.
청구항 1에 있어서,
상기 표시부는 초기 위치에서 스크롤 타입 또는 폴더 타입으로 동작하여 디스플레이가능한 상태로 되는 것을 특징으로 하는 차량용 증강현실 헤드업 디스플레이 장치.
The method according to claim 1,
The display unit, the augmented reality head-up display device for a vehicle, characterized in that the display unit is operated in a scroll type or a folder type at the initial position.
청구항 8에 있어서,
상기 표시부는 상기 운전자의 수조작에 의해 상기 초기 위치에서 상방향 또는 하방향으로 스크롤되거나 접힌 상태가 펴지게 되는 것을 특징으로 하는 차량용 증강현실 헤드업 디스플레이 장치.
The method according to claim 8,
The display unit is augmented reality head-up display device for a vehicle, characterized in that the state in which the scrolled or folded in the upward or downward direction from the initial position by the manual operation of the driver.
청구항 8에 있어서,
상기 표시부는 상기 운전자의 명령에 의해 자동으로 상기 초기 위치에서 상방향 또는 하방향으로 스크롤되거나 접힌 상태가 펴지게 되는 것을 특징으로 하는 차량용 증강현실 헤드업 디스플레이 장치.
The method according to claim 8,
The display unit is augmented reality head-up display device for a vehicle, characterized in that the scrolled or folded state in the upward or downward direction from the initial position automatically by the command of the driver.
청구항 1에 있어서,
상기 가상 객체 정보는 맵정보를 통한 운전석 전방의 정적 객체 및 영상 인식에 의한 운전석 전방의 이동 객체중에서 하나 이상을 포함하는 것을 특징으로 하는 차량용 증강현실 헤드업 디스플레이 장치.
The method according to claim 1,
The virtual object information includes at least one of a static object in front of the driver's seat through the map information and a moving object in front of the driver's seat by image recognition.
시야각 계산부가, 운전자의 얼굴 영상을 근거로 검출된 얼굴 방향 및 눈동자 중심위치를 기반으로 해당 운전자의 시선 방향을 추정하고 시야각을 계산하는 단계;
정합부가, 상기 시선 방향을 추정하고 시야각을 계산하는 단계에서의 시선 방향 및 시야각을 기반으로 운전석 전방의 실세계 정보의 위치와 상기 운전석 전방에 대응된 가상 객체 정보의 위치를 정합하는 단계;
표시부가, 상기 정합하는 단계에서 정합된 결과를 디스플레이시키는 단계; 및
조정부가, 상기 정합하는 단계에서 정합된 결과에 따라 상기 표시부에 대해 회전 및 위치 변이중에서 하나 이상을 행하는 단계;를 포함하는 것을 특징으로 하는 차량용 증강현실 헤드업 디스플레이 방법.
Calculating, by the viewing angle calculator, a gaze direction of the corresponding driver based on the detected face direction and the pupil center position based on the face image of the driver;
Matching the position of the real-world information in front of the driver's seat with the position of the virtual object information corresponding to the front of the driver's seat based on the eye's direction and the viewing angle in the step of estimating the eyeline direction and calculating the viewing angle;
Displaying, by a display unit, a result matched in the matching step; And
And an adjusting unit, performing one or more of rotation and position shift with respect to the display unit according to the result matched in the matching step.
청구항 12에 있어서,
상기 회전 및 위치 변이중에서 하나 이상을 행하는 단계에서 상기 회전은 피치(pitch), 롤(roll), 요(yaw) 방향으로의 이동을 포함하는 것을 특징으로 하는 차량용 증강현실 헤드업 디스플레이 방법.
The method of claim 12,
And in the step of performing at least one of the rotation and position shift, the rotation includes movement in a pitch, roll, and yaw direction.
청구항 12에 있어서,
상기 회전 및 위치 변이중에서 하나 이상을 행하는 단계에서 상기 위치 변이는 좌, 우, 상, 하, 앞, 뒤로의 이동을 포함하는 것을 특징으로 하는 차량용 증강현실 헤드업 디스플레이 방법.
The method of claim 12,
And the position shift in the step of performing one or more of the rotation and position shift comprises moving left, right, up, down, front and back.
청구항 12에 있어서,
상기 회전 및 위치 변이중에서 하나 이상을 행하는 단계는,
상기 정합하는 단계에 의한 정합오차를 계산하는 단계; 및
상기 계산된 정합오차에 근거하여 상기 표시부를 회전시키거나 위치 변이시키는 단계;를 추가로 포함하고,
상기 정합하는 단계는 상기 회전 및 위치 변이중에서 하나 이상을 행하는 단계에서의 조정에 따라 상기 실세계 정보의 위치와 상기 가상 객체 정보의 위치를 재정합하는 것을 특징으로 하는 차량용 증강현실 헤드업 디스플레이 방법.
The method of claim 12,
Performing at least one of the rotation and position shift,
Calculating a matching error by the matching step; And
Rotating or displacing the display unit based on the calculated matching error;
And the matching step realigns the position of the real world information and the position of the virtual object information according to the adjustment in the step of performing one or more of the rotation and position shift.
청구항 15에 있어서,
상기 상기 회전 및 위치 변이중에서 하나 이상을 행하는 단계는 상기 계산된 정합오차가 오차 범위보다 작을 때까지 상기 표시부를 회전시키거나 위치 변이시키는 것을 특징으로 하는 차량용 증강현실 헤드업 디스플레이 방법.
16. The method of claim 15,
And performing one or more of the rotation and position shifting comprises rotating or displacing the display unit until the calculated matching error is less than an error range.
청구항 12에 있어서,
상기 디스플레이시키는 단계는, 상기 표시부가 초기 위치에서 스크롤 타입 또는 폴더 타입으로 동작되어 디스플레이가능한 상태로 된 이후에 행해지는 것을 특징으로 하는 차량용 증강현실 헤드업 디스플레이 방법.
The method of claim 12,
And the displaying step is performed after the display unit is operated in a scroll type or a folder type at an initial position and becomes a displayable state.
청구항 17에 있어서,
상기 표시부는 상기 운전자의 수조작에 의해 상기 초기 위치에서 상방향 또는 하방향으로 스크롤되거나 접힌 상태가 펴지게 되는 것을 특징으로 하는 차량용 증강현실 헤드업 디스플레이 방법.
18. The method of claim 17,
The display unit augmented reality head-up display method for the vehicle, characterized in that the state in which the scroll or folded in the upward or downward direction from the initial position by the manual operation of the driver is unfolded.
청구항 17에 있어서,
상기 표시부는 상기 운전자의 명령에 의해 자동으로 상기 초기 위치에서 상방향 또는 하방향으로 스크롤되거나 접힌 상태가 펴지게 되는 것을 특징으로 하는 차량용 증강현실 헤드업 디스플레이 방법.
18. The method of claim 17,
The display unit augmented reality head-up display method for the vehicle, characterized in that the scrolled or folded state in the upward or downward direction from the initial position automatically unfolded by the command of the driver.
청구항 12에 있어서,
상기 가상 객체 정보는 맵정보를 통한 운전석 전방의 정적 객체 및 영상 인식에 의한 운전석 전방의 이동 객체중에서 하나 이상을 포함하는 것을 특징으로 하는 차량용 증강현실 헤드업 디스플레이 방법.
The method of claim 12,
And the virtual object information comprises at least one of a static object in front of the driver's seat through map information and a moving object in front of the driver's seat by image recognition.
KR1020120101339A 2012-02-01 2012-09-13 augmented reality head-up display apparatus and method for vehicles KR101921969B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US13/753,590 US8994558B2 (en) 2012-02-01 2013-01-30 Automotive augmented reality head-up display apparatus and method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020120010238 2012-02-01
KR20120010238 2012-02-01

Publications (2)

Publication Number Publication Date
KR20130089139A true KR20130089139A (en) 2013-08-09
KR101921969B1 KR101921969B1 (en) 2018-11-28

Family

ID=49215203

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120101339A KR101921969B1 (en) 2012-02-01 2012-09-13 augmented reality head-up display apparatus and method for vehicles

Country Status (1)

Country Link
KR (1) KR101921969B1 (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101519353B1 (en) * 2013-11-12 2015-05-13 현대오트론 주식회사 Method and apparatus for displaying information of smart curse device using head-up display
KR20160002179A (en) * 2014-06-30 2016-01-07 현대자동차주식회사 Apparatus and method for displaying vehicle information
US9690104B2 (en) 2014-12-08 2017-06-27 Hyundai Motor Company Augmented reality HUD display method and device for vehicle
KR20180093829A (en) * 2017-02-13 2018-08-22 폭스바겐 악티엔 게젤샤프트 Method, apparatus and computer readable storage medium having instructions for controlling the display of a augmented reality head-up display device
WO2019004565A1 (en) * 2017-06-29 2019-01-03 주식회사 맥스트 Calibration method for adjusting augmented reality object and head-mounted display for performing same
WO2019074114A1 (en) * 2017-10-13 2019-04-18 Ricoh Company, Ltd. Display device, program, image processing method, display system, and moving body
KR20190042792A (en) * 2017-10-16 2019-04-25 삼성디스플레이 주식회사 Head mount display device and operation method of the same
CN109883414A (en) * 2019-03-20 2019-06-14 百度在线网络技术(北京)有限公司 A kind of automobile navigation method, device, electronic equipment and storage medium
CN110365952A (en) * 2018-04-11 2019-10-22 京东方科技集团股份有限公司 A viewing angle test method and test system for a projection display device
CN111144356A (en) * 2019-12-30 2020-05-12 华中师范大学 Teacher sight following method and device for remote teaching
CN111201150A (en) * 2017-10-13 2020-05-26 株式会社理光 Display device, program, image processing method, display system, and moving body
KR20210129767A (en) * 2020-04-20 2021-10-29 현대모비스 주식회사 Apparatus for providing information of vehicle and control method thereof
US11307047B2 (en) 2016-12-20 2022-04-19 Volkswagen Ag Head-up display device for a transportation vehicle, method, device and computer-readable recording medium with instructions for controlling a display of a head-up display device
KR20230142183A (en) 2022-04-01 2023-10-11 (주) 브라이튼코퍼레이션 Holographic picture generaton unit and and vehicle head-up display device having the same
US11938817B2 (en) 2020-08-24 2024-03-26 Samsung Electronics Co., Ltd. Method and apparatus for controlling head-up display based on eye tracking status

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220022340A (en) 2020-08-18 2022-02-25 삼성전자주식회사 Device and method to visualize content

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002052953A (en) * 2000-08-10 2002-02-19 Yazaki Corp Display device for vehicle and display position adjustment method therefor
KR100721560B1 (en) 2005-11-30 2007-05-23 한국전자통신연구원 3D vehicle information providing system and method therefor
JP2010256878A (en) * 2009-03-30 2010-11-11 Equos Research Co Ltd Information display device
US8358224B2 (en) 2009-04-02 2013-01-22 GM Global Technology Operations LLC Point of interest location marking on full windshield head-up display

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101519353B1 (en) * 2013-11-12 2015-05-13 현대오트론 주식회사 Method and apparatus for displaying information of smart curse device using head-up display
KR20160002179A (en) * 2014-06-30 2016-01-07 현대자동차주식회사 Apparatus and method for displaying vehicle information
US9963070B2 (en) 2014-06-30 2018-05-08 Hyundai Motor Company Apparatus and method for displaying vehicle information
US9690104B2 (en) 2014-12-08 2017-06-27 Hyundai Motor Company Augmented reality HUD display method and device for vehicle
US11307047B2 (en) 2016-12-20 2022-04-19 Volkswagen Ag Head-up display device for a transportation vehicle, method, device and computer-readable recording medium with instructions for controlling a display of a head-up display device
KR20180093829A (en) * 2017-02-13 2018-08-22 폭스바겐 악티엔 게젤샤프트 Method, apparatus and computer readable storage medium having instructions for controlling the display of a augmented reality head-up display device
WO2019004565A1 (en) * 2017-06-29 2019-01-03 주식회사 맥스트 Calibration method for adjusting augmented reality object and head-mounted display for performing same
WO2019074114A1 (en) * 2017-10-13 2019-04-18 Ricoh Company, Ltd. Display device, program, image processing method, display system, and moving body
CN111201150A (en) * 2017-10-13 2020-05-26 株式会社理光 Display device, program, image processing method, display system, and moving body
KR20190042792A (en) * 2017-10-16 2019-04-25 삼성디스플레이 주식회사 Head mount display device and operation method of the same
CN110365952A (en) * 2018-04-11 2019-10-22 京东方科技集团股份有限公司 A viewing angle test method and test system for a projection display device
US11667197B2 (en) 2018-04-11 2023-06-06 Boe Technology Group Co., Ltd. Angle-of-view testing method, device and system for a projection display device
CN109883414A (en) * 2019-03-20 2019-06-14 百度在线网络技术(北京)有限公司 A kind of automobile navigation method, device, electronic equipment and storage medium
CN109883414B (en) * 2019-03-20 2021-08-27 百度在线网络技术(北京)有限公司 Vehicle navigation method and device, electronic equipment and storage medium
CN111144356A (en) * 2019-12-30 2020-05-12 华中师范大学 Teacher sight following method and device for remote teaching
KR20210129767A (en) * 2020-04-20 2021-10-29 현대모비스 주식회사 Apparatus for providing information of vehicle and control method thereof
US11938817B2 (en) 2020-08-24 2024-03-26 Samsung Electronics Co., Ltd. Method and apparatus for controlling head-up display based on eye tracking status
KR20230142183A (en) 2022-04-01 2023-10-11 (주) 브라이튼코퍼레이션 Holographic picture generaton unit and and vehicle head-up display device having the same

Also Published As

Publication number Publication date
KR101921969B1 (en) 2018-11-28

Similar Documents

Publication Publication Date Title
KR101921969B1 (en) augmented reality head-up display apparatus and method for vehicles
US8994558B2 (en) Automotive augmented reality head-up display apparatus and method
US8558758B2 (en) Information display apparatus
WO2021197190A1 (en) Information display method, system and apparatus based on augmented reality, and projection device
JP6695049B2 (en) Display device and display control method
CN110001400B (en) Display device for vehicle
CN103885573B (en) Automatic correction method and system for vehicle display system
US11250816B2 (en) Method, device and computer-readable storage medium with instructions for controlling a display of an augmented-reality head-up display device for a transportation vehicle
US20120224060A1 (en) Reducing Driver Distraction Using a Heads-Up Display
CN103728727A (en) Information display system and display method for automatically adjusting visual range
JP5136950B2 (en) In-vehicle device operation device
KR20120067854A (en) Display system for augmented reality in vehicle, and method for the same
JP6225379B2 (en) Vehicle information projection system
WO2015079654A1 (en) Head-up display device
CN111094898B (en) Method and device for controlling the display of an augmented reality head-up display device for a motor vehicle
TW201520673A (en) Information display system with automatic viewable range adjustment and display method thereof
JP2013112269A (en) In-vehicle display device
CN102200445B (en) Real-time augmented reality device and method thereof
KR20210131129A (en) User interface generating apparatus for vehicle guide and ui generating method using the same
JP6186905B2 (en) In-vehicle display device and program
JP2018020779A (en) Vehicle information projection system
CN113448097B (en) Display device for vehicle
JP2007230491A (en) Visual information presentation device and visual information presentation method
US20190137770A1 (en) Display system and method thereof
JP2010002341A (en) On-vehicle information presenting device

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20120913

PG1501 Laying open of application
PA0201 Request for examination

Patent event code: PA02012R01D

Patent event date: 20170714

Comment text: Request for Examination of Application

Patent event code: PA02011R01I

Patent event date: 20120913

Comment text: Patent Application

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20180730

Patent event code: PE09021S01D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20181024

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20181120

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20181121

End annual number: 3

Start annual number: 1

PG1601 Publication of registration