Nothing Special   »   [go: up one dir, main page]

WO2018180596A1 - 車両用表示装置 - Google Patents

車両用表示装置 Download PDF

Info

Publication number
WO2018180596A1
WO2018180596A1 PCT/JP2018/010466 JP2018010466W WO2018180596A1 WO 2018180596 A1 WO2018180596 A1 WO 2018180596A1 JP 2018010466 W JP2018010466 W JP 2018010466W WO 2018180596 A1 WO2018180596 A1 WO 2018180596A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
user
vehicle
display
viewpoint position
Prior art date
Application number
PCT/JP2018/010466
Other languages
English (en)
French (fr)
Inventor
勇希 舛屋
誠 秦
Original Assignee
日本精機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本精機株式会社 filed Critical 日本精機株式会社
Priority to US16/495,359 priority Critical patent/US20210116710A1/en
Priority to JP2019509285A priority patent/JPWO2018180596A1/ja
Priority to EP18778242.0A priority patent/EP3604040A4/en
Publication of WO2018180596A1 publication Critical patent/WO2018180596A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/23Head-up displays [HUD]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/28Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/65Instruments specially adapted for specific vehicle types or users, e.g. for left- or right-hand drive
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/65Instruments specially adapted for specific vehicle types or users, e.g. for left- or right-hand drive
    • B60K35/654Instruments specially adapted for specific vehicle types or users, e.g. for left- or right-hand drive the user being the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/02Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/38Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/149Instrument input by detecting viewing direction not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/166Navigation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/167Vehicle dynamics information
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/169Remaining operating distance or charge
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/177Augmented reality
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/178Warnings
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/23Optical features of instruments using reflectors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/31Virtual images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/741Instruments adapted for user detection
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0261Improving the quality of display appearance in the context of movement of objects on the screen or movement of the observer relative to the screen
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/14Solving problems related to the presentation of information to be displayed
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2380/00Specific applications
    • G09G2380/10Automotive applications

Definitions

  • the present invention relates to a vehicle display device.
  • the present invention relates to a vehicle display device that can provide appropriate information to a user without being affected by a change in the position of the user's viewpoint.
  • a display image is projected onto a translucent member such as a front window shield (also referred to as a window shield or a windshield) of a vehicle, thereby using the light of the display image reflected by the front window shield to drive the driver's seat
  • a front window shield also referred to as a window shield or a windshield
  • head-up display that allows a user sitting in the room to see a virtual image.
  • the virtual image is visually recognized by the user sitting in the driver's seat so that the virtual image is formed on the front side in the vehicle traveling direction (the vehicle front side) from the front window shield of the vehicle.
  • an image display unit that displays a display image
  • a projection unit that includes an optical system that includes a concave mirror that projects the display image onto a front window shield of the vehicle; ,including.
  • a user who sits in the driver's seat of a vehicle equipped with such a vehicle display device can see a virtual image that gives information on the presence of other vehicles, obstacles, etc. on the road ahead of the vehicle through the front window shield. And can be visually recognized in a superimposed state.
  • the virtual image As the position at which the virtual image is visually recognized becomes higher in the vertical direction of the front window shield, the virtual image is visually recognized by being superimposed on the scenery on the far side of the landscape that can be seen through the front window shield.
  • the virtual image is superimposed on the landscape on the near side of the landscape that can be seen through the front window shield.
  • the position of the viewpoint of the user sitting in the driver's seat is not constant depending on the user's sitting height, the position of the driver's seat adjusted by the user, the seating posture of the user, and the like.
  • the virtual image becomes more closely related to the scenery on the near side of the scenery seen through the front window shield as the position of the viewpoint of the user sitting in the driver's seat increases. Superimposed.
  • the object in the landscape on which the virtual image is superimposed shifts, which may give the user a sense of incongruity.
  • Patent Literature 1 discloses a head-up display device (vehicle display device) that adjusts the projection direction of an optical system including a concave mirror of a projection unit according to the position of the viewpoint of a user sitting in a driver's seat of a vehicle. It is shown.
  • the vehicle display device disclosed in Patent Document 1 includes a concave mirror actuator that adjusts the projection angle of the concave mirror of the projection unit, and a viewpoint detection camera that acquires the position of the viewpoint of the user sitting in the driver's seat of the vehicle.
  • the vehicle display device disclosed in Patent Document 1 projects a display image on the upper side in the vertical direction of the front window shield when the position of the viewpoint of the user sitting in the driver's seat of the vehicle acquired by the viewpoint detection camera is high. In this manner, the concave mirror actuator is controlled.
  • the display device for a vehicle shown in Patent Document 1 displays a display image vertically below the front window shield when the position of the viewpoint of the user sitting in the driver's seat of the vehicle acquired by the viewpoint detection camera is low.
  • the concave mirror actuator is controlled so that it is projected to the side.
  • the vehicular display device disclosed in Patent Document 1 is a target on which a virtual image is superimposed in a landscape seen through the front window shield even when the position of the viewpoint of the user sitting in the driver's seat of the vehicle changes. It is configured to prevent a large shift. As a result, the uncomfortable feeling given to the user can be reduced.
  • the vehicular display device can determine a use region used for displaying an image that is a part of the display surface of the image display unit, according to the position of the viewpoint of the user.
  • One object of the present invention is to provide a vehicle display device that can provide appropriate information to a user without being affected by a change in the position of the user's viewpoint.
  • Other objects of the present invention will become apparent to those skilled in the art by referring to the aspects and preferred embodiments exemplified below and the accompanying drawings.
  • an image display unit having a display surface capable of displaying an image;
  • An image generation unit for generating the image displayed by the image display unit;
  • a projection unit that projects the image toward the translucent member of the vehicle so that the user sitting in the driver's seat of the vehicle can visually recognize a virtual image by reflecting the image on the translucent member of the vehicle.
  • the image generation unit corresponds to a horizontal direction of display content in a use area used for displaying the image as a part of the display surface of the image display unit according to a position of the viewpoint of the user.
  • the present invention relates to a vehicle display device that determines a length in a direction.
  • the virtual image visually recognized by the user is an image displayed in the use area on the display surface of the image display unit reflected by a light-transmitting member such as a front window shield. Therefore, the region where the virtual image is formed corresponds to the use region that is a part of the display surface.
  • the image generation unit displays the display surface of the image display unit according to the position of the viewpoint of the user (the position of the viewpoint set or adjusted by the manufacturer or the user, or the position of the viewpoint acquired by the viewpoint position acquisition unit, for example).
  • the length in the direction corresponding to the horizontal direction of the display content in the use area which is a part of is determined.
  • the vehicular display device according to the first aspect can cope with the distortion of the virtual image recognized by the user. Therefore, the vehicular display device according to the first aspect can provide appropriate information to the user without being affected by a change in the position of the user's viewpoint.
  • the image generation unit is configured to move the display content in the use area in the horizontal direction as the position of the viewpoint of the user moves upward in the vertical direction. While determining the upper length in the corresponding direction to be shorter than the lower length, As the position of the viewpoint of the user goes downward in the vertical direction, the image generation unit determines the upper length of the display content in the use area in the direction corresponding to the horizontal direction from the lower length. May be determined longer.
  • the image generation unit has an upper length and / or a lower side in the direction corresponding to the horizontal direction of the display content in the use area of the display surface according to the position of the viewpoint of the user in the vertical direction. Can be appropriately determined.
  • the image generation unit is configured to detect the virtual image of the display content recognized by the user without being affected by a change in the position of the viewpoint of the user.
  • the upper length and the lower length of the display content in the use area in a direction corresponding to the horizontal direction may be determined so that the shape of the display area is constant.
  • -Appropriate information can be provided to the user by making the shape of the virtual image of the display content recognized by the user constant without being affected by the change in the position of the user's viewpoint.
  • the image generation unit has a shape of the virtual image of the display content recognized by the user without being affected by a change in the position of the viewpoint of the user.
  • the use area may be determined so as to be rectangular or square.
  • -Appropriate information can be provided to the user by making the shape of the virtual image of the display content recognized by the user a rectangle or a square without being affected by the change in the position of the user's viewpoint.
  • FIG. 1A It is a block diagram which shows the example of a structure of the display apparatus for vehicles of this invention. It is a figure which shows the example of a structure of the image display part shown by FIG. 1A. It is sectional drawing of the projection part shown by FIG. 1A. It is a figure which shows the example of the landscape and virtual image which can be seen from the user sitting in the driver's seat of a vehicle provided with the display apparatus for vehicles shown by FIG. 1A. It is a flowchart figure which shows the example of operation
  • 4C is a diagram showing the relationship between the position of the user's viewpoint and the shape of the virtual image of the display content recognized by the user (comparative example). It is a figure which shows the relationship between the position of a user's viewpoint, and the image displayed by the image display part of the display apparatus for vehicles shown by FIG. 1A. It is a figure which shows the relationship between the position of a user's viewpoint, and the image displayed by the image display part of the display apparatus for vehicles shown by FIG. 1A. It is a figure which shows the relationship between the position of a user's viewpoint, and the image displayed by the image display part of the display apparatus for vehicles shown by FIG. 1A.
  • the relationship between the viewpoint position of the user, the area in which the user can visually recognize the virtual image, and the range of the distance on the road surface of the landscape where the area in which the user can visually recognize the virtual image overlaps will be described. It is a schematic diagram for.
  • the z-axis is defined in the vehicle front-rear direction with the traveling direction of the vehicle 1 as the vehicle front direction, and the y-axis in the vertical direction.
  • the x-axis is defined in the left-right direction (vehicle left-right direction) facing the front direction of the vehicle.
  • the x-axis direction represents the vehicle left direction
  • the y-axis positive direction represents the upper side in the vertical direction
  • the z-axis positive direction represents the vehicle front direction.
  • the vehicular display device 10 includes an image display unit 20, an image generation unit 30, a viewpoint position acquisition unit 40, and a projection unit 50.
  • the vehicle display device 10 may further include a front information acquisition unit 60 including a front image acquisition unit 61 and a front image analysis unit 62, for example.
  • the image display unit 20 has a display surface 21 that can display an image.
  • An area 210 on the display surface 21 where an image can be displayed is referred to as a display area 210, for example.
  • An example of the display surface 21 is, for example, a liquid crystal panel 21 having a plurality of pixels 22 as shown in FIG. 1B.
  • the display area 210 is, for example, the pixels 22 of the entire liquid crystal panel 21.
  • An example of the image display unit 20 is the liquid crystal panel module 20 including, for example, a liquid crystal panel 21 and a drive circuit 26 for the liquid crystal panel 21.
  • the image display unit 20 when a signal representing an image generated by the image generation unit 30 is input, the image display unit 20 includes at least a part of the display surface 21 in the display area 210 of the display surface 21 according to the input signal. An image is displayed using the pixel 22.
  • the liquid crystal panel module 20 is used as an example of the image display unit 20 as appropriate, but the image display unit 20 may be another display device.
  • the image display unit 20 may be a self-luminous display panel module such as an organic EL (Electro-Luminescence) element, or a reflective type such as DMD (Digital-Micromirror Device) or LCoS (Liquid-Crystal-on Silicon) (registered trademark). It may be a display panel module or a scanning display device that scans with laser light.
  • the Ix axis is defined in the lateral direction of the display surface 21 at the viewpoint when the display surface 21 of the image display unit 20 is viewed from the front.
  • An Iy axis is defined in the vertical direction of the surface 21.
  • the positive direction of the Ix axis represents the left direction of the display surface 21, and the positive direction of the Iy axis represents the upward direction of the display surface 21.
  • the viewpoint position acquisition unit 40 includes, for example, a vehicle interior image acquisition unit 41 and a vehicle interior image analysis unit 42.
  • the viewpoint position acquisition unit 40 acquires the position 100 of the viewpoint of the user sitting in the driver's seat of the vehicle 1.
  • the position 100 of the viewpoint of the user sitting in the driver's seat of the vehicle 1 is also referred to as the user viewpoint position 100.
  • the viewpoint position acquisition unit 40 is configured to be able to acquire the user viewpoint position 100 in at least one direction of the y-axis direction and the z-axis direction.
  • the viewpoint position acquisition unit 40 may be configured to be able to acquire the user viewpoint position 100 in both directions of the y-axis direction and the z-axis direction.
  • the vehicle interior image acquisition unit 41 is, for example, a vehicle camera that captures an image of the vehicle interior.
  • the vehicle interior image acquisition unit 41 may be, for example, a common vehicle camera attached for the purpose of preventing vehicle theft or the like, or a vehicle camera dedicated to the vehicle display device 10.
  • the vehicle interior image acquisition unit 41 preferably captures the user viewpoint position 100 from the lower side in the vertical direction than the user viewpoint position 100, and may be attached to the steering handle 3 or the like, for example.
  • the vehicle interior image acquisition unit 41 is preferably capable of infrared imaging so that the user viewpoint position 100 can be acquired even when the vehicle interior is dark.
  • the viewpoint position acquisition unit 40 may be, for example, a stereo camera.
  • the vehicle interior image acquisition unit 41 outputs the acquired vehicle interior image to the vehicle interior image analysis unit 42, for example.
  • the vehicle interior image analysis unit 42 analyzes the input image of the vehicle interior using, for example, known image processing, a pattern matching method, and the like. As a result of analyzing the input image in front of the vehicle, the vehicle interior image analysis unit 42 shows that the user's face sitting in the driver's seat is included in the input vehicle interior image, for example, in the user viewpoint position 100 in the real space.
  • the user viewpoint position 100 is acquired by specifying the coordinates (y, z).
  • the vehicle interior image analysis unit 42 outputs the acquired user viewpoint position 100 to the image generation unit 30 via the bus 5 such as CAN (Controller ⁇ Area Network) bus communication, for example.
  • CAN Controller ⁇ Area Network
  • the vehicle interior image analysis unit 42 may be provided, for example, in a vehicle camera, and the image generation unit 30 may include the function of the vehicle interior image analysis unit 42.
  • the viewpoint position acquisition unit 40 acquires the user viewpoint position 100 in the vertical direction by the in-vehicle camera, and acquires the user viewpoint position 100 in the vehicle front-rear direction by inputting a signal from a sensor (not shown) that detects the seat position. May be. Further, the image generation unit 30 may directly input the user viewpoint position 100 from the vehicle interior image analysis unit 42 without using the bus 5.
  • the front information acquisition unit 60 includes, for example, a front image acquisition unit 61 and a front image analysis unit 62.
  • the forward information acquisition unit 60 is, for example, the position information on the road lane in the forward direction of the vehicle, the position information of other vehicles and obstacles existing in the forward direction of the vehicle, the information on the road sign in the forward direction of the vehicle, etc. Get information.
  • the front image acquisition unit 61 is, for example, a camera outside the vehicle that captures an image in front of the vehicle.
  • the front image acquisition unit 61 may be, for example, a shared vehicle camera used for a drive recorder or the like, or a vehicle camera dedicated to the vehicle display device 10.
  • the camera outside the vehicle may be a monocular camera, but it is preferable that the camera outside the vehicle is a stereo camera in order to accurately acquire the distance between the object existing ahead of the vehicle and the host vehicle 1.
  • the camera outside the vehicle may be capable of infrared imaging so that an image ahead of the vehicle can be taken even when the vehicle front is dark.
  • the front image acquisition unit 61 outputs, for example, the acquired front image of the vehicle to the front image analysis unit 62.
  • the front image analysis unit 62 analyzes the input image ahead of the vehicle using, for example, known image processing, a pattern matching method, or the like.
  • the forward image analysis unit 62 analyzes the input image in front of the vehicle to obtain forward information about the road shape ahead of the vehicle (lane, white line, stop line, pedestrian crossing, road width, number of lanes, intersection, curve, branch) Road). Further, the front image analysis unit 62 analyzes the input image in front of the vehicle, so that the position and size of other vehicles and obstacles existing in front of the vehicle, the distance from the own vehicle 1, the own vehicle 1 and Get forward information such as relative speed. For example, the front image analysis unit 62 outputs the acquired front information to the image generation unit 30 via the bus 5.
  • the front image analysis unit 62 may be provided, for example, in a camera outside the vehicle, and the image generation unit 30 may include the function of the front image analysis unit 62. Further, the image generation unit 30 may directly input the front information from the front image analysis unit 62 without using the bus 5.
  • the front information acquisition unit 60 includes a laser radar, a millimeter wave radar, an ultrasonic sensor, or other known sensors instead of the front image acquisition unit 61 or in combination with the front image acquisition unit 61. Also good.
  • the front image analysis unit 62 inputs data output from a laser radar, a millimeter wave radar, an ultrasonic sensor, a known sensor, or the like instead of the image in front of the vehicle or in combination with the image in front of the vehicle.
  • the forward information as described above may be acquired by analyzing the above.
  • the forward information acquisition unit 60 may be, for example, a map data storage unit that stores map data (specifically, for example, a drive device such as an SSD, HDD, or DVD), or a server outside the vehicle,
  • a communication unit specifically, for example, Wi-Fi (registered trademark) (wireless), which can receive map data from an information device that stores map data, such as an information device such as a personal computer, an indoor or outdoor smart phone of a vehicle.
  • a communication module such as a fidelity module or a telephone communication network module).
  • the map data may be 2D map data, but is preferably 3D map data, more preferably high-precision 3D map data, including, for example, road link information that is information about roads constituting the map, It is possible to include forward information on the road shape that can be analyzed by the forward image analysis unit 62 described above.
  • the vehicle interior image acquisition unit 41 and the front image acquisition unit 61 are illustrated as being attached to another place of the vehicle 1, but this is not necessarily the case, and the vehicle interior image acquisition unit is not necessarily limited thereto.
  • 41 and the front image acquisition part 61 may be attached to the same place of the vehicle 1.
  • the vehicle interior image acquisition part 41 and the front image acquisition part 61 may be provided in one same housing
  • the image generation unit 30 includes a processing unit 31 and a storage unit 32.
  • the processing unit 31 includes, for example, one or a plurality of microprocessors, a microcontroller, an ASIC (Application Specific Integrated Circuit), an FPGA (Field-Programmable Gate Array), and any other IC (Integrated Circuit).
  • the storage unit 32 is, for example, a rewritable RAM (Random Access Memory), a read only ROM (Read Only Memory), an erasable program read only EEPROM (Electrically Erasable Programmable Read-Only Memory), or a nonvolatile memory. It has one or a plurality of memories capable of storing programs and / or data such as a flash memory.
  • the image generation unit 30 generates an image to be displayed by the image display unit 20 when the processing unit 31 executes a program stored in the storage unit 32, for example.
  • the image generation unit 30 can notify the user that a notification target object such as another vehicle or an obstacle exists on the road ahead of the vehicle, for example, according to the front information input from the front information acquisition unit 60. Marks can be included in the generated image.
  • the image generation unit 30 includes, for example, a navigation mark that can provide route information to the user in the generated image in response to a signal input via a bus 5 or directly from a navigation device (not shown). be able to.
  • the image generation unit 30 may be configured to, for example, the remaining fuel amount, current vehicle speed, fuel consumption, battery, and the like according to information input via another bus (Electronic Control Unit) (not shown) via the bus 5 or directly. Other information such as vehicle information such as the remaining amount can be further included in the generated image. Note that the image generation unit 30 may generate an image including only this other information.
  • the image generation unit 30 uses a use area 220 which is a part used for displaying an image in the display area 210 of the display surface 21 of the image display unit 20 according to the user viewpoint position 100 input from the viewpoint position acquisition unit 40. To decide.
  • the use area 220 is a range 220 of the pixels 22 used for displaying an image in the display area 210 that is the entire pixels 22 of the liquid crystal panel 21.
  • the storage unit 32 of the image generation unit 30 stores a table in which the user viewpoint position 100 and the parameters for determining the use area 220 corresponding to the user viewpoint position 100 are associated with each other.
  • the processing unit 31 refers to the table, and the image generation unit 30 determines the use area 220 corresponding to the user viewpoint position 100 to be input.
  • the storage unit 32 of the image generation unit 30 stores an arithmetic expression for determining the use area 220 corresponding to the user viewpoint position 100.
  • the image generation unit 30 determines the use area 220 corresponding to the user viewpoint position 100 to be input by the processing unit 31 calculating an arithmetic expression. The relationship between the user viewpoint position 100 and the use area 220 corresponding to the user viewpoint position 100 will be described later.
  • the projection unit 50 projects the image displayed by the image display unit 20 toward the light transmissive member 2 such as the front window shield 2 of the vehicle 1.
  • the light 80 constituting the projected image is reflected by the front window shield 2 into the vehicle interior.
  • the light 80 constituting the image is also referred to as image light 80.
  • the projection unit 50 projects an image so that the image light 80 reflected by the front window shield 2 enters toward the user viewpoint position 100.
  • the light transmissive member 2 of the vehicle 1 may be a combiner provided in the vehicle 1.
  • the user sitting in the driver's seat can visually recognize the virtual image 310 formed on the front side of the vehicle from the front window shield 2 when the image light 80 enters the user viewpoint position 100.
  • the user can visually recognize the virtual image 310 in a state where at least a part of the scenery seen through the front window shield 2 and the virtual image 310 are superimposed.
  • the virtual image 310 includes, for example, a virtual image notification mark 320 that is a virtual image of the notification mark described above, a virtual image navigation mark 340 that is a virtual image of the navigation mark described above, and a virtual image mark such as the other marks described above.
  • the virtual image notification mark 320 is typically a mark that surrounds the outer periphery of a notification object (landscape) such as the forward vehicle 90, and is specifically a quadrilateral, more specifically, , Square or rectangular.
  • a notification object such as the forward vehicle 90
  • the virtual image notification mark 320 may be, for example, a triangle.
  • the projection unit 50 houses, for example, an optical system such as a plane mirror 54 and a concave mirror 55 and an actuator 56 inside the housing 51.
  • the casing 51 includes, for example, an upper case 52 and a lower case 53 that are arranged in the dashboard 4 of the vehicle 1 and are formed of a black light-shielding synthetic resin or the like.
  • An upper case opening 52a is provided substantially in the middle of the upper case 52 in the z-axis direction.
  • the upper case opening 52a is covered with a transparent cover 57 formed of, for example, a transparent translucent synthetic resin.
  • On the vehicle rear side of the lower case 53 for example, a lower case opening 53a is provided on the vehicle rear side of the lower case 53.
  • the lower case opening 53 a is provided in the lower case 53 so that, for example, image light 80 emitted from the display surface 21 of the image display unit 20 attached to the outside of the housing 51 can enter.
  • the flat mirror 54 is attached to the vehicle rear side of the lower case 53 via an attachment member (not shown), for example.
  • the mounting position and the mounting angle of the flat mirror 54 are fixed so that, for example, the image light 80 emitted from the display surface 21 incident from the lower case opening 53a is reflected toward the front of the vehicle.
  • the concave mirror 55 is attached to the front side of the vehicle from the plane mirror 54 of the lower case 53 via an actuator 56, for example.
  • the mounting angle of the concave mirror 55 can be rotated by the actuator 56, for example, with the x axis as a rotation axis.
  • the position of the concave mirror 55 is fixed so that the image light 80 reflected by the plane mirror 54 is incident, and the attachment angle is finely adjusted so that the incident image light 80 is reflected toward the front window shield 2. .
  • the user viewpoint position 100 stored in the storage unit 32 of the image generation unit 30 and the table or calculation formula for determining the use area 220 corresponding to the user viewpoint position 100 are corrected.
  • the table or calculation formula for determining the length of the virtual image notification mark 320 (display content in a broad sense) in the use area 220 corresponding to the user viewpoint position 100 in the direction corresponding to the horizontal direction is the attachment angle. Depending on, it may be corrected.
  • the actuator 56 includes, for example, a motor, a speed reduction mechanism, a concave mirror rotating member, and a support member for the concave mirror 55, all of which are not shown.
  • the actuator 56 is attached to the lower case 53 on the lower side in the vertical direction of the concave mirror 55 via an attachment member (not shown).
  • the actuator 56 rotates the motor in accordance with a signal input from an actuator control unit (not shown), decelerates the rotation of the motor by the speed reduction mechanism, transmits it to the concave mirror rotating member, and rotates the concave mirror 55.
  • the actuator 56 is not necessarily provided.
  • a light shielding portion 52b is provided between the upper case opening 52a and the plane mirror 54.
  • the light shielding unit 52b is provided, for example, to prevent light from the outside of the housing 51 that enters from the upper case opening 52a from traveling to the image display unit 20.
  • the example of the structure of the projection unit 50 described with reference to FIG. 1C is merely an example, and does not limit the structure of the projection unit 50 of the vehicle display device 10 at all.
  • FIG. 2 shows an example of a landscape and a virtual image 310 that a user sitting in the driver's seat of the vehicle 1 can see through the front window shield 2.
  • a three-lane road that extends in front of the vehicle and other vehicles (front vehicles) 90 that are in front of the vehicle are shown.
  • the notification object is the forward vehicle 90.
  • the virtual image 310 includes a virtual image notification mark 320.
  • the virtual image notification mark 320 is superimposed on the front vehicle 1 and visually recognized by the user.
  • the virtual image 310 includes a virtual image navigation mark 340.
  • the region 300 is a region 300 corresponding to the use region 220 on the display surface 21 of the image display unit 20.
  • the region 300 corresponding to the use region 220 on the display surface 21 of the image display unit 20 is also referred to as a virtual image region 300. That is, the virtual image area 300 is an area where the user can visually recognize the virtual image 310.
  • the Ix-axis positive direction on the display surface 21 of the image display unit 20 in FIG. 1B corresponds to, for example, the x-axis positive direction in the virtual image region 300, that is, the vehicle left direction.
  • the Iy-axis positive direction on the display surface 21 of the image display unit 20 in FIG. 1B corresponds to, for example, the y-axis positive direction in the virtual image region 300, that is, the upper side in the vertical direction.
  • the operation of the vehicle display device 10 is performed, for example, for a predetermined waiting time when the power of the vehicle 1 is turned on, when an engine (not shown) is driven, or when the power of the vehicle 1 is turned on or the engine is driven. It starts after time has passed.
  • step S01 the forward information acquisition unit 60 acquires the forward information.
  • step S02 the viewpoint position acquisition unit 40 acquires the user viewpoint position 100. Note that step S01 and step S02 are not necessarily in this order, and the order may be changed.
  • the image generation unit 30 includes, for example, an image including a notification mark, a navigation mark, and other marks (display content) according to the front information acquired by the front information acquisition unit 60 in step S01. Generate.
  • the image generation unit 30 does not need to generate an image according to the user viewpoint position 100, but preferably generates an image according to the user viewpoint position 100.
  • step S04 the image generation unit 30 determines a use region in the display region 210 of the display surface 21 of the image display unit 20 according to the user viewpoint position 100 acquired by the viewpoint position acquisition unit 40 in step S02. However, it is not necessary to determine the use area according to the user viewpoint position 100. Note that step S03 and step S04 are not necessarily in this order, and the order may be changed.
  • step S05 the image display unit 20 displays the image generated in step S03 using the total number of pixels 22 in the use area 220 determined by the image generation unit 30 in step S04.
  • the flow returns to Start.
  • a predetermined waiting time is required after the execution of the process of step S05 until the flow returns to Start. Time may be inserted.
  • FIGS. 4A to 4C the position 100 of the user's viewpoint and the shape of the display content recognized by the user (typically, the virtual image notification mark 320) (comparative example) (specific example) Specifically, the relationship with the outer peripheral shape) will be described.
  • the right side of FIGS. 4A to 4C represents the user viewpoint position 100 on the y axis in the real space, and the user viewpoint position 100 that moves up and down along the y axis and the virtual image area 300 (virtual image display). This represents the positional relationship with the surface.
  • the left side of FIGS. 4A to 4C shows the shape of the virtual image notification mark 320 on the virtual image display surface recognized by the user from the user viewpoint position 100 that moves up and down along the y axis (comparative example). .
  • FIGS. 4A to 4C do not necessarily represent dimensions as illustrated, in other words, the shape of the virtual image notification mark 320 that changes according to the user viewpoint position 100 (comparative example) 4 (A) to FIG. 4 (C) are exaggerated or simplified or modeled so that those skilled in the art can easily understand.
  • the 4A to 4C can alert the user by expressing a frame that surrounds the vehicle 90 ahead.
  • the use area 220r displayed on the left side of FIG. 4B corresponds to the use area 220 of FIG. 1B, and as an example, the use area 220 can be fixed.
  • FIG. The use areas 220u and 220d displayed on the left side of FIG. 4C also correspond to the use area 220 of FIG. 1B.
  • the virtual image notification mark 320r is not distorted, and the shape of the virtual image notification mark 320r (specifically, Is a rectangular shape.
  • the distance b between the upper side of the virtual image area 300 and the user viewpoint position 100u is equal to the lower side of the virtual image area 300 and the user.
  • the distance to the viewpoint position 100u is shorter than the distance b, the virtual image notification mark 320u recognized by the user is distorted, and the outer peripheral shape of the virtual image notification mark 320u is a trapezoid whose upper side is longer than the lower side (FIG. 4A )reference).
  • the virtual image notification mark 320u in FIG. The position is preferably moved upward.
  • the use area 220u has a grid (an auxiliary line obtained by equally dividing the virtual image display surface), but the grid is not actually displayed, in other words. For example, it is not display content and is therefore not visible to the user.
  • the distance d between the upper side of the virtual image area 300 and the user viewpoint position 100d is the lower side of the virtual image area 300.
  • the outer peripheral shape of the virtual image notification mark 320d is a trapezoid whose upper side is shorter than the lower side (FIG. 4). (See (C)).
  • the virtual image notification mark 320d in FIG. 4C is moved downward in the use area 220d so as to overlap the preceding vehicle 90.
  • the virtual image notification mark 320d More preferably, the lower movement amount of the display content is determined according to the user viewpoint position 100d or the distance from the host vehicle 1.
  • the image generation unit 30 In view of the problem (distortion) of the outer peripheral shape (comparative example) of the virtual image notification mark 320 in FIGS. 4A and 4C, the image generation unit 30 according to the present invention, for example, in step S03 in FIG. An image including display content corresponding to 100 can be generated.
  • the image generation unit 30 sets the upper length of the virtual image notification mark 320u in the direction corresponding to the horizontal direction as the user viewpoint position 100u moves upward in the vertical direction from the user viewpoint position 100r (FIG. 4 ( The upper side of the trapezoid in A) is determined to be shorter than the lower length (the lower side of the trapezoid in FIG. 4A). In other words, the trapezoid in FIG. When done, make it a rectangle.
  • the outer peripheral shape of the virtual image notification mark 320u recognized by the user is constant without being affected by the change in the user viewpoint position 100u, and the user does not feel uncomfortable.
  • the image generation unit 30 sets the upper length of the virtual image notification mark 320d in the direction corresponding to the horizontal direction (FIG. 4C ) Is determined to be longer than the lower length (the lower side of the trapezoid in FIG. 4C), in other words, the trapezoidal correction is applied to the trapezoid in FIG. When making a rectangle, make it a rectangle. Accordingly, the outer peripheral shape of the virtual image notification mark 320d recognized by the user is constant without being influenced by the change in the user viewpoint position 100d, and the user does not feel uncomfortable.
  • the outer peripheral shape of the virtual image notification mark 320r in FIG. 4B is, for example, a square
  • the image generation unit 30 can generate the virtual image notification marks 320u and 320d.
  • FIG. 5A, 5B, 5C, and 6 The relationship between the user viewpoint position 100 and the use area 220 corresponding to the user viewpoint position 100 will be described with reference to FIGS. 5A, 5B, 5C, and 6.
  • FIG. 5A, 5B, and 5C coordinate axes representing the user viewpoint position 100 in the y-axis and the z-axis in real space are shown.
  • FIGS. 5A, 5 ⁇ / b> B, and 5 ⁇ / b> C an image is displayed in the display area 210 of the display surface 21 of the image display unit 20 corresponding to the user viewpoint position 100 on the y axis and the z axis in real space.
  • a use area 220 used for displaying an image determined by the generation unit 30 is shown.
  • FIG. 6 is a schematic diagram for explaining the relationship between the user viewpoint position 100 in the vertical direction, the virtual image area 300, and the range of the distance on the road surface 70 of the landscape in which the virtual image area 300 overlaps in the vehicle display device 10. It is a simple figure. 6 illustrates the user viewpoint position 100 in order to easily understand the relationship between the user viewpoint position 100 in the vertical direction, the virtual image area 300, and the range of the distance on the road surface 70 of the landscape in which the virtual image area 300 overlaps. The amount of change is exaggerated. Specifically, the vertical distances between the user viewpoint position 100r and the user viewpoint position 100u and between the user viewpoint position 100r and the user viewpoint position 100d shown in FIG. 6 are actually closer.
  • the virtual image region 300r, the virtual image region 300u, and the virtual image region 300d are shown in FIG. 5 so that there is no overlapping portion.
  • the virtual image region 300r, the virtual image region 300u, the virtual image region 300r, and the virtual image region 300d partially overlap.
  • the range of the distance on the road surface 70 of the scenery where the virtual image region 300 is superimposed is also referred to as a superimposed distance range 400.
  • FIG. 6 shows a virtual image area 300r at the user viewpoint position 100r shown in FIG. 5A, a virtual image area 300u at the user viewpoint position 100u shown in FIG. 5B, and a user viewpoint position 100d shown in FIG. 5C.
  • the virtual image region 300d is shown.
  • FIG. 6 shows a superimposition distance range 400r that is a distance range on the road surface 70 of a landscape that is superimposed on the virtual image region 300r among the scenery that can be seen through the front window shield 2 at the user viewpoint position 100r, and the user viewpoint.
  • the superimposing distance range 400u that is the distance range on the road surface 70 of the scenery that overlaps the virtual image area 300u and the front window shield 2 at the user viewpoint position 100d.
  • a superimposition distance range 400d that is a distance range on the road surface 70 of the scenery superimposed on the virtual image area 300d is shown.
  • the user viewpoint position 100r shown in FIG. 5A is represented at the intersection of the y axis and the z axis in the coordinate axes shown in FIG. 5A.
  • the user viewpoint position 100r shown in FIG. 5A is also referred to as a reference user viewpoint position 100r.
  • the image generation unit 30 displays the display surface 21 of the image display unit 20 in step S04 illustrated in FIG.
  • the use area 220 is determined as the use area 220r shown in FIG. 5A.
  • the use area 220r corresponding to the reference user viewpoint position 100r illustrated in FIG. 5A is also referred to as a reference use area 220r.
  • the user viewpoint position 100u shown in FIG. 5B is an example of the user viewpoint position 100 located on the upper side in the vertical direction as compared with the reference user viewpoint position 100r.
  • the use area 220 is determined to be a use area 220u (two-dot chain rectangle) shown in FIG. 5B.
  • the use area 220u shown in FIG. 5B is located on the Iy-axis positive direction side as compared with the reference use area 220r. Further, the length 221u in the Iy-axis direction in the use area 220u shown in FIG. 5B is longer than the length 221r in the Iy-axis direction in the reference use area 220r. As a result, as shown in FIG. 6, the virtual image area 300u corresponding to the use area 220u is located on the upper side in the vertical direction in the real space compared to the virtual image area 300r corresponding to the reference use area 220r, and The length in the vertical direction in real space becomes longer. The use area 220u overlaps a part of the reference use area 220r.
  • the position of the use area 220 of the display surface 21 is determined to be positioned on the Iy axis positive direction side.
  • the length of the use area 220 of the display surface 21 in the Iy-axis direction is determined to be longer.
  • the virtual image area 300 is positioned on the upper side in the vertical direction in the real space and the vertical length in the real space is increased. Lengthens.
  • the use area 220u (two-dot chain rectangle) is a use area 220u ′ of a trapezoid (upper side 222uu shorter than the lower side 222ud) indicated by a solid line. It is preferable to change to (refer FIG. 5B). In other words, it is preferable to generate the outer peripheral shape of the virtual image notification mark 320u in FIG. 4A according to the outer peripheral shape of the trapezoidal use area 220u '. Similarly, in order to eliminate the distortion described with reference to FIG.
  • the use area 220d (two-dot chain rectangle) is a trapezoid use area 220d in which the upper side 222du is longer than the lower side 222dd. It is preferable to change to '. In other words, it is preferable to generate the outer peripheral shape of the virtual image notification mark 320d in FIG. 4C according to the outer peripheral shape of the trapezoidal use area 220d '. As a result, the outer shape of the virtual image notification marks 320u and 320u recognized by the user and the use areas 220u and 220d are constant or rectangular, for example, without being affected by the change in the user viewpoint position 100u, and the user does not feel uncomfortable. .
  • the user viewpoint position 100d shown in FIG. 5C is an example of the user viewpoint position 100 located on the lower side in the vertical direction as compared with the reference user viewpoint position 100r.
  • the use area 220 is determined to be a use area 220d (two-dot chain rectangle) shown in FIG. 5C.
  • the use area 220d shown in FIG. 5C is located on the Iy-axis negative direction side as compared to the reference use area 220r. Further, the length 221d in the Iy-axis direction in the use area 220d shown in FIG. 5C is shorter than the length 221r in the Iy-axis direction in the reference use area 220r. As a result, as shown in FIG. 5, the virtual image area 300d corresponding to the use area 220d shown in FIG. 5C is lower in the vertical direction in the real space than the virtual image area 300r corresponding to the reference use area 220r. The vertical length in real space is short. The use area 220d overlaps a part of the reference use area 220r.
  • the position of the use area 220 of the display surface 21 is determined to be positioned on the Iy axis negative direction side.
  • the length in the Iy axis direction of the use area 220 of the display surface 21 is determined to be shorter.
  • the virtual image region 300 is positioned in the vertical direction lower side in the real space and the vertical direction in the real space. The length of is shortened.
  • the overlapping distance range 400r, the overlapping distance range 400u, and the overlapping distance range 400d are the same.
  • the amount of change in the vertical direction of the virtual image region 300 is smaller than the amount of change in the vertical direction of the user viewpoint position 100. Then, for example, as the user viewpoint position 100 moves upward in the vertical direction, the angle between the line of sight where the user views the virtual image region 300 and the horizontal plane increases. On the other hand, for example, as the user viewpoint position 100 moves downward in the vertical direction, the angle between the line of sight when the user views the virtual image region 300 and the horizontal plane decreases.
  • the vertical position of the virtual image region 300 is vertically changed as the user viewpoint position 100 moves upward in the vertical direction. It is necessary to increase the length in the vertical direction as well as the upper side in the direction.
  • the vertical position of the virtual image region 400 is changed as the user viewpoint position 100 moves downward in the vertical direction. It is necessary to shorten the length in the vertical direction as well as on the lower side in the vertical direction.
  • the distance range 400 can be made constant. By making the superimposition distance range 400 constant, it is possible to cope with a shift in the object in the landscape on which the virtual image 310 visually recognized by the user is superimposed.
  • SYMBOLS 1 ... Vehicle, 2 ... Front window shield, 10 ... Display apparatus for vehicles, 20 ... Image display part, Liquid crystal panel module, 21 ... Display surface, Liquid crystal panel, 30 ... Image Generating unit, 40 ... viewpoint position acquisition unit, 41 ... vehicle interior image acquisition unit, 42 ... vehicle interior image analysis unit, 50 ... projection unit, 80 ... image light, 100 ... User viewpoint position, 210 ... display area, 220 ... use area, 300 ... virtual image area, 310 ... virtual image, 400 ... overlapping distance range.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Computer Hardware Design (AREA)
  • Theoretical Computer Science (AREA)
  • Instrument Panels (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Abstract

ユーザーの視点の位置の変化に影響されることなく、ユーザーに適切な情報を提供可能な車両用表示装置を提供する。 車両用表示装置10は、少なくとも一部に画像を表示可能な表示面21を有する画像表示部20と、画像表示部20が表示する画像を生成する画像生成部30と、車両1の透明なウィンドウシールド2で画像が反射されることによって、車両1の運転席に座るユーザーが虚像310を視認できるように、画像を車両1の透明なウィンドウシールド2に向けて投影する投影部50と、を備える。画像生成部30は、ユーザーの視点の位置100に応じて、画像表示部20の表示面21のうち画像の表示に使用する使用領域220内の表示コンテンツ320の、水平方向に対応する方向における長さを決定する。

Description

車両用表示装置
 本発明は、車両用表示装置に関する。本発明は、特に、ユーザーの視点の位置の変化に影響されることなく、ユーザーに適切な情報を提供可能な車両用表示装置に関する。
 車両用表示装置として、車両のフロントウィンドウシールド(ウィンドウシールド又はフロントガラスとも呼ばれる)等の透光部材に表示画像を投影することによって、フロントウィンドウシールドで反射される表示画像の光を用いて運転席に座ったユーザーに、虚像を視認させる、いわゆるヘッドアップディスプレイがある。このような車両用表示装置では、虚像は、運転席に座ったユーザーによって、車両のフロントウィンドウシールドより車両進行方向前側(車両前方側)に虚像が結像されるように視認される。このような車両用表示装置の一般的な構成として、例えば、表示画像を表示する画像表示部と、この表示画像を車両のフロントウィンドウシールドに投影する凹面鏡を含む光学系から構成される投影部と、を含む。
 このような車両用表示装置が備えられている車両の運転席に座るユーザーは、例えば車両前方の道路に他の車両、障害物等が存在する情報を与える虚像を、フロントウィンドウシールド越しに見える風景と重畳された状態で、視認することができる。虚像が視認される位置がフロントウィンドウシールドの鉛直方向上側になるにつれて、虚像は、フロントウィンドウシールド越しに見える風景のうち距離が遠い側の景色と重畳されて視認される。その一方で、虚像が視認される位置がフロントウィンドウシールドの鉛直方向下側になるにつれて、虚像は、フロントウィンドウシールド越しに見える風景のうち距離が近い側の風景と重畳される。
 ここで、ユーザーの座高、ユーザーが調整した運転席の位置、ユーザーの着席姿勢等によって、運転席に座るユーザーの視点の位置は一定ではない。例えば、表示画像が投影される位置が固定されているときは、運転席に座るユーザーの視点の位置が高くなるにつれて、虚像は、フロントウィンドウシールド越しに見える風景のうち距離が近い側の風景と重畳される。このように、運転席に座るユーザーの視点の位置が変化することによって、虚像が重畳される風景内の対象がずれるため、ユーザーに違和感を与える可能性がある。
 そこで、例えば、特許文献1には、車両の運転席に座るユーザーの視点の位置に応じて、投影部の凹面鏡を含む光学系の投影方向を調整するヘッドアップディスプレイ装置(車両用表示装置)が示されている。特許文献1に示されている車両用表示装置は、投影部の凹面鏡の投影角度を調整する凹面鏡アクチュエータと、車両の運転席に座るユーザーの視点の位置を取得する視点検知カメラと、を備える。
 特許文献1に示されている車両用表示装置は、視点検知カメラで取得した車両の運転席に座るユーザーの視点の位置が高いときに、表示画像がフロントウィンドウシールドの鉛直方向上側に投影されるように、凹面鏡アクチュエータを制御する。その一方で、特許文献1に示されている車両用表示装置は、視点検知カメラで取得した車両の運転席に座るユーザーの視点の位置が低いときに、表示画像がフロントウィンドウシールドの鉛直方向下側に投影されるように、凹面鏡アクチュエータを制御する。したがって、特許文献1に示される車両用表示装置は、車両の運転席に座るユーザーの視点の位置が変化したときであっても、フロントウィンドウシールド越しに見える風景のうち虚像が重畳される対象が大きくずれることが防止されるように構成されている。その結果、ユーザーに与える違和感を軽減することができる。
 また、特許文献1に記載されている車両用表示装置では、フロントウィンドウシールド越しに見える風景のうち虚像が重畳される対象がずれることの解消が不十分であることに鑑み、特許文献2に示されている車両用表示装置は、ユーザーの視点の位置に応じて、画像表示部の表示面のうちの一部である画像の表示に使用する使用領域を決定することができる。
特開2014-210537号公報 特開2016-155446号公報
 しかしながら、特許文献2に記載されている車両用表示装置では、ユーザーによって認識される虚像の歪みを本発明者らは認識し、さらに、その虚像の歪みに起因してユーザーが違和感を覚えてしまうことを、本発明者らは認識した。
 本発明の1つの目的は、ユーザーの視点の位置の変化に影響されることなく、ユーザーに適切な情報を提供可能な車両用表示装置を提供することにある。本発明の他の目的は、以下に例示する態様及び好ましい実施形態、並びに添付の図面を参照することによって、当業者に明らかになるであろう。
 本発明に従う第1の態様は、画像を表示可能な表示面を有する画像表示部と、
 前記画像表示部が表示する前記画像を生成する画像生成部と、
 前記車両の透光部材で前記画像が反射されることによって、前記車両の運転席に座る前記ユーザーが虚像を視認できるように、前記画像を前記車両の前記透光部材に向けて投影する投影部と、
 を備え、
 前記画像生成部は、前記ユーザーの視点の位置に応じて、前記画像表示部の前記表示面のうちの一部として前記画像の表示に使用する使用領域内の表示コンテンツの、水平方向に対応する方向における長さを決定する車両用表示装置に関する。
 車両用表示装置において、ユーザーが視認する虚像は、画像表示部の表示面のうち使用領域に表示された画像がフロントウィンドウシールド等の透光部材によって反射されたものである。そのため、虚像が結像される領域は、表示面の一部である使用領域に対応する。ここで、画像生成部は、ユーザーの視点の位置(メーカ又はユーザーによって設定又は調整された視点の位置、又は例えば視点位置取得部が取得する視点の位置)に応じて、画像表示部の表示面の一部である使用領域内の表示コンテンツの、水平方向に対応する方向における長さを決定する。その結果、第1の態様の車両用表示装置は、ユーザーによって認識される虚像の歪みに対処することができる。したがって、第1の態様の車両用表示装置は、ユーザーの視点の位置の変化に影響されることなく、ユーザーに適切な情報を提供することができる。
 本発明に従う第2の態様では、第1の態様において、前記画像生成部は、前記ユーザーの前記視点の位置が鉛直方向上側にいくにつれて、前記使用領域内の前記表示コンテンツの、前記水平方向に対応する方向における上側の長さを下側の長さよりも短く決定する一方で、
 前記画像生成部は、前記ユーザーの前記視点の位置が鉛直方向下側にいくにつれて、前記使用領域内の前記表示コンテンツの、前記水平方向に対応する方向における上側の長さを下側の長さよりも長く決定してもよい。
 第2の態様において、画像生成部は、鉛直方向におけるユーザーの視点の位置に応じて、表示面の使用領域内の表示コンテンツの、水平方向に対応する方向における上側の長さ及び/又は下側の長さを適切に決定することができる。
 本発明に従う第3の態様では、第1又は第2の態様において、前記画像生成部は、前記ユーザーの視点の位置の変化に影響されることなく、前記ユーザーが認識する前記表示コンテンツの前記虚像の形状が一定となるように、前記使用領域内の前記表示コンテンツの、前記水平方向に対応する方向における前記上側の長さ及び前記下側の長さを決定してもよい。
 ユーザーの視点の位置の変化に影響されることなく、ユーザーが認識する表示コンテンツの虚像の形状が一定になることによって、ユーザーに適切な情報を提供することができる。
 本発明に従う第4の態様では、第3の態様において、前記画像生成部は、前記ユーザーの視点の位置の変化に影響されることなく、前記ユーザーが認識する前記表示コンテンツの前記虚像の形状が長方形又は正方形となるように、前記使用領域を決定してもよい。
 ユーザーの視点の位置の変化に影響されることなく、ユーザーが認識する表示コンテンツの虚像の形状が長方形又は正方形になることによって、ユーザーに適切な情報を提供することができる。
本発明の車両用表示装置の構成の例を示すブロック図である。 図1Aに示される画像表示部の構成の例を示す図である。 図1Aに示される投影部の断面図である。 図1Aに示される車両用表示装置を備える車両の運転席に座るユーザーから見える風景及び虚像の例を示す図である。 図1Aに示される車両用表示装置の動作の例を示すフローチャート図である。 図4(A)、図4(B)及び図4(C)の各々は、ユーザーの視点の位置とユーザーが認識する表示コンテンツの虚像の形状(比較例)との関係を示す図である。 ユーザーの視点の位置と図1Aに示される車両用表示装置の画像表示部によって表示される画像との関係を示す図である。 ユーザーの視点の位置と図1Aに示される車両用表示装置の画像表示部によって表示される画像との関係を示す図である。 ユーザーの視点の位置と図1Aに示される車両用表示装置の画像表示部によって表示される画像との関係を示す図である。 本発明の車両用表示装置において、ユーザーの視点位置と、ユーザーが虚像を視認可能な領域と、ユーザーが虚像を視認可能な領域内が重畳する風景の路面における距離の範囲との関係を説明するための模式的な図である。
 以下に説明する好ましい実施形態は、本発明を容易に理解するために用いられている。従って、当業者は、本発明が、以下に説明される実施形態によって不当に限定されないことを留意すべきである。
 図1A、図1B及び図1Cを参照して、本発明の車両用表示装置10の全体の構成の例を説明する。以下の説明を容易にするために、図1Aに示されるように、実空間において、例えば、車両1の進行方向を車両前方向とした車両前後方向にz軸を規定し、鉛直方向にy軸を規定し、車両前方向を向いて左右方向(車両左右方向)にx軸を規定する。このとき、x軸方向は車両左方向を表し、y軸正方向は鉛直方向上側を表し、z軸正方向は車両前方向を表す。
 図1Aに示されるように、車両用表示装置10は、画像表示部20と画像生成部30と視点位置取得部40と投影部50とを備える。車両用表示装置10は、例えば、前方画像取得部61と前方画像解析部62とを含む前方情報取得部60を更に備えてもよい。
 画像表示部20は、画像を表示可能な表示面21を有する。表示面21のうち、画像を表示可能な領域210を、例えば表示領域210という。表示面21の一例は、図1Bに示されるように、例えば、複数の画素22を有する液晶パネル21である。液晶パネル21において、表示領域210は、例えば、液晶パネル21全体の画素22である。画像表示部20の一例は、例えば液晶パネル21と液晶パネル21の駆動回路26とを有する液晶パネルモジュール20である。
 画像表示部20は、例えば、画像生成部30によって生成される画像を表す信号を入力したときに、表示面21の表示領域210のうち、入力した信号に応じて表示面21の少なくとも一部の画素22を用いて画像を表示する。なお、以下の説明において、適宜、画像表示部20の例として液晶パネルモジュール20を用いて説明するが、画像表示部20は他の表示機器であってもよい。例えば、画像表示部20は、有機EL(Electro Luminescence)素子等の自発光表示パネルモジュールであってもよく、DMD(Digital Micromirror Device)、LCoS(Liquid Crystal on Silicon)(登録商標)等の反射型表示パネルモジュールであってもよく、レーザー光を走査する走査型表示装置等であってもよい。
 以下の説明を容易にするために、図1Bに示されるように、画像表示部20の表示面21を正面から見た視点において、例えば、表示面21の横方向にIx軸を規定し、表示面21の縦方向にIy軸を規定する。このとき、Ix軸正方向は表示面21の左方向を表し、Iy軸正方向は表示面21の上方向を表す。
 視点位置取得部40は、例えば、車室内画像取得部41と車室内画像解析部42とを含む。視点位置取得部40は、車両1の運転席に座るユーザーの視点の位置100を取得する。以下、車両1の運転席に座るユーザーの視点の位置100を、ユーザー視点位置100とも呼ぶ。視点位置取得部40は、y軸方向及びz軸方向の少なくとも1方向におけるユーザー視点位置100を取得可能に構成される。視点位置取得部40は、y軸方向及びz軸方向の双方向におけるユーザー視点位置100を取得可能に構成されてもよい。
 車室内画像取得部41は、例えば、車室内の画像を撮像する車内カメラである。車室内画像取得部41は、例えば、車両盗難等を防止する目的で取り付けられる共用の車内カメラ等であってもよく、車両用表示装置10専用の車内カメラ等であってもよい。車室内画像取得部41は、ユーザー視点位置100をユーザー視点位置100よりも鉛直方向下側から撮像することが好ましく、例えばステアリングハンドル3等に取り付けられていてもよい。また、車室内画像取得部41は、車室内が暗いときであってもユーザー視点位置100を取得できるように赤外線撮像が可能であることが好ましい。さらに、視点位置取得部40を少なくともz軸方向におけるユーザー視点位置100を取得可能に構成するために、視点位置取得部40は、例えばステレオカメラ等であってもよい。車室内画像取得部41は、例えば、取得した車室内の画像を車室内画像解析部42に出力する。
 車室内画像解析部42は、例えば、公知の画像処理、パターンマッチング手法等を用いて、入力した車室内の画像を解析する。車室内画像解析部42は、入力した車両前方の画像を解析した結果、入力した車室内の画像に運転席に座るユーザーの顔が含まれているときは、ユーザー視点位置100の例えば実空間における座標(y,z)を特定することによって、ユーザー視点位置100を取得する。車室内画像解析部42は、例えば、取得したユーザー視点位置100を、CAN(Controller Area Network)バス通信等のバス5を介して、画像生成部30に出力する。ここで、車室内画像解析部42は、例えば、車内カメラの中に含まれて設けられていてもよく、画像生成部30が車室内画像解析部42の機能を含んでもよい。また、視点位置取得部40は、車内カメラによって鉛直方向におけるユーザー視点位置100を取得し、シート位置を検出する図示されていないセンサから信号を入力することによって車両前後方向におけるユーザー視点位置100を取得してもよい。さらに、画像生成部30は、バス5を介さずに車室内画像解析部42からユーザー視点位置100を直接入力してもよい。
 前方情報取得部60は、例えば、前方画像取得部61と前方画像解析部62とを含む。前方情報取得部60は、例えば、車両前方向の道路の車線の位置情報、車両前方向に存在する他の車両及び障害物等の位置情報、車両前方向の道路標識の情報等の車両前方の情報を取得する。
 前方画像取得部61は、例えば、車両前方の画像を撮像する車外カメラである。前方画像取得部61は、例えば、ドライブレコーダー等に用いられている共用の車外カメラ等であってもよく、車両用表示装置10専用の車外カメラ等であってもよい。また、車外カメラは、単眼カメラであってもよいが、車両前方に存在する物体と自車両1との距離を正確に取得するために、車外カメラはステレオカメラであることが好ましい。また、車外カメラは、車両前方が暗いときであっても車両前方の画像を撮像できるように、赤外線撮像が可能であってもよい。前方画像取得部61は、例えば、取得した車両前方の画像を前方画像解析部62に出力する。
 前方画像解析部62は、例えば、公知の画像処理、パターンマッチング手法等を用いて、入力した車両前方の画像を解析する。前方画像解析部62は、入力した車両前方の画像を解析することによって、車両前方の道路形状に関する前方情報(車線、白線、停止線、横断歩道、道路の幅員、車線数、交差点、カーブ、分岐路等)を取得する。また、前方画像解析部62は、入力した車両前方の画像を解析することによって、車両前方に存在する他の車両、障害物等の位置、大きさ、自車両1との距離、自車両1との相対速度等の前方情報を取得する。前方画像解析部62は、例えば、取得した前方情報をバス5を介して、画像生成部30に出力する。ここで、前方画像解析部62は、例えば、車外カメラの中に含まれて設けられていてもよく、画像生成部30が前方画像解析部62の機能を含んでもよい。また、画像生成部30は、バス5を介さずに前方画像解析部62から前方情報を直接入力してもよい。
 また、前方情報取得部60は、前方画像取得部61の代わりに、又は前方画像取得部61と併せて、レーザーレーダー、ミリ波レーダー、超音波センサ、又は他の公知のセンサ等を有してもよい。このとき、前方画像解析部62は、車両前方の画像の代わりに、又は車両前方の画像と併せて、レーザーレーダー、ミリ波レーダー、超音波センサ、または公知のセンサ等が出力するデータを入力して解析することによって、上述したような前方情報を取得してもよい。
 ここで、前方情報取得部60は、例えば地図データを記憶する地図データ記憶部(具体的には、例えばSSD、HDD、DVD等のドライブ装置)であってもよく、又は車両の外部のサーバー、パーソナルコンピューター、車両の室内又は室外のスマートフォン等の情報機器であって地図データを記憶する情報機器からその地図データを受信可能な通信部(具体的には、例えばWi-Fi(登録商標)(wireless fidelity)モジュール、電話通信網モジュール等の通信モジュール)であってもよい。地図データは、2D地図データであってもよいが、好ましくは、3D地図データ、より好ましくは、高精度3D地図データであり、例えば、地図を構成する道路に関する情報である道路リンク情報を含み、前述の前方画像解析部62によって解析可能な道路形状に関する前方情報を含むことができる。
 さらに、図1Aでは、車室内画像取得部41及び前方画像取得部61が、車両1の別の場所に取り付けられているように表されているが、必ずしもこの限りではなく、車室内画像取得部41及び前方画像取得部61が車両1の同じ場所に取り付けられていてもよい。また、車室内画像取得部41及び前方画像取得部61は1つの同じ筐体に設けられていてもよい。
 画像生成部30は、処理部31と記憶部32とを含む。処理部31は、例えば、1又は複数のマイクロプロセッサ、マイクロコントローラ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、任意の他のIC(Integrated Circuit)等を有する。記憶部32は、例えば、書き換え可能なRAM(Random Access Memory)、読み出し専用のROM(Read Only Memory)、消去可能なプログラム読み出し専用のEEPROM(Electrically Erasable Programmable Read-Only Memory)、不揮発性メモリであるフラッシュメモリ等のプログラム及び/又はデータを記憶可能な1または複数のメモリを有する。
 画像生成部30は、例えば、記憶部32に記憶されているプログラムを処理部31が実行することによって、画像表示部20が表示する画像を生成する。画像生成部30は、前方情報取得部60から入力する前方情報に応じて、例えば車両前方の道路に他の車両、障害物等の報知対象物が存在することをユーザーに対して報知可能な報知マークを、生成する画像に含ませることができる。また、画像生成部30は、図示されていないナビゲーション装置からバス5を介して又は直接入力する信号に応じて、例えばルート情報をユーザーに対して提供可能なナビゲーションマークを、生成する画像に含ませることができる。加えて、画像生成部30は、図示されていない他のECU(Electronic Control Unit)等からバス5を介して又は直接入力する情報に応じて、例えば、燃料残量、現在の車速、燃費、バッテリの残量等の車両情報等の他の情報を、生成した画像に更に含ませることができる。なお、画像生成部30は、この他の情報のみを含んだ画像を生成してもよい。
 また、画像生成部30は、視点位置取得部40から入力するユーザー視点位置100に応じて、画像表示部20の表示面21の表示領域210のうち画像の表示に使用する部分である使用領域220を決定する。使用領域220は、例えば、図1Bに示される画像表示部20の例において、液晶パネル21の画素22全体である表示領域210のうち画像の表示に使用する画素22の範囲220である。
 例えば、画像生成部30の記憶部32には、ユーザー視点位置100と、そのユーザー視点位置100に対応した使用領域220を決定するためのパラメータとが対応付けられたテーブルが記憶されている。画像生成部30は、例えば、処理部31がテーブルを参照することによって、入力するユーザー視点位置100に対応した使用領域220を決定する。
 また、例えば、画像生成部30の記憶部32には、ユーザー視点位置100に対応した使用領域220を決定するための演算式が記憶されている。画像生成部30は、例えば、処理部31が演算式を演算することによって、入力するユーザー視点位置100に対応した使用領域220を決定する。ユーザー視点位置100とユーザー視点位置100に対応した使用領域220との関係については、後述する。
 投影部50は、画像表示部20が表示する画像を、車両1のフロントウィンドウシールド2等の透光部材2に向けて投影する。投影された画像を構成する光80は、フロントウィンドウシールド2によって車室内に反射される。以下、画像を構成する光80を画像光80とも呼ぶ。投影部50は、フロントウィンドウシールド2によって反射される画像光80が、ユーザー視点位置100に向かって入射するように、画像を投影する。また、車両1の透光部材2は、車両1に設けられるコンバイナであってもよい。
 運転席に座るユーザーは、画像光80がユーザー視点位置100に入射することによって、フロントウィンドウシールド2より車両前方側に結像される虚像310を視認することができる。ユーザーは、例えば、フロントウィンドウシールド2越しに見える景色の少なくとも一部と、虚像310とが、重畳した状態で虚像310を視認することができる。この虚像310には、例えば、上述した報知マークの虚像である虚像報知マーク320、上述したナビゲーションマークの虚像である虚像ナビゲーションマーク340及び上述した他のマーク等の虚像マーク等が含まれる。
 特に、図2において、虚像報知マーク320は、典型的には、例えば前方車両90等の報知対象物(風景)の外周を囲むマークであって、具体的には、四角形、より具体的には、正方形又は長方形である。もちろん、特許文献2の図2のように、虚像報知マーク320は、例えば、三角形であってもよい。
 図1Cを用いて、投影部50の構造の例を説明する。投影部50は、例えば、筐体51の内部に、平面鏡54及び凹面鏡55等の光学系と、アクチュエータ56とを収納する。筐体51は、例えば、車両1のダッシュボード4の中に配置され、黒色の遮光性合成樹脂等で形成される上ケース52及び下ケース53を含む。上ケース52のz軸方向略中間には、上ケース開口部52aが設けられている。上ケース開口部52aは、例えば、透明の透光性合成樹脂等で形成される透明カバー57によって覆われている。下ケース53の車両後方側には、例えば、下ケース開口部53aが設けられている。下ケース開口部53aは、例えば、筐体51の外部に取り付けられる画像表示部20の表示面21から発せられる画像光80が入射可能に、下ケース53に設けられている。
 平面鏡54は、例えば、図示されていない取り付け部材を介して下ケース53の車両後方側に取り付けられている。平面鏡54は、例えば、下ケース開口部53aから入射する表示面21から発せられる画像光80を車両前方向に向けて反射するように、その取り付け位置及びその取り付け角度が固定されている。
 凹面鏡55は、例えば、アクチュエータ56を介して下ケース53の平面鏡54より車両前方側に取り付けられている。凹面鏡55は、アクチュエータ56によって、例えばx軸を回転軸として取り付け角度が回転させられ得る。凹面鏡55は、例えば、平面鏡54によって反射される画像光80を入射するように位置が固定され、入射する画像光80をフロントウィンドウシールド2に向かって反射するように、取り付け角度が微調整される。なお、取り付け角度に応じて、例えば、画像生成部30の記憶部32が記憶するユーザー視点位置100と、そのユーザー視点位置100に対応した使用領域220を決定するためのテーブル又は演算式が補正される。
 特に、ユーザー視点位置100に対応した使用領域220内の虚像報知マーク320(広義には、表示コンテンツ)の、水平方向に対応する方向における長さを決定するためのテーブル又は演算式は、取り付け角度に応じて、補正されてもよい。
 アクチュエータ56は、例えば、いずれも図示されていないモータ、減速機構、凹面鏡回転部材及び凹面鏡55の支持部材を含む。アクチュエータ56は、例えば、図示されていない取り付け部材を介して凹面鏡55の鉛直方向下側に下ケース53に取り付けられている。アクチュエータ56は、図示されていないアクチュエータ制御部から入力する信号に応じてモータを回転させ、減速機構によってモータの回転を減速して、凹面鏡回転部材に伝達し、凹面鏡55を回転させる。なお、アクチュエータ56は、必ずしも設けられている必要はない。
 また、図1Cの筐体51の上ケース52において、上ケース開口部52aと平面鏡54との間には、遮光部52bが設けられている。遮光部52bは、例えば、上ケース開口部52aから入射する筐体51外部からの光が画像表示部20へ進行することを防止するために設けられる。図1Cを参照して説明した投影部50の構造の例は、一例に過ぎず、車両用表示装置10の投影部50の構造を何ら制限するものではない。
 図2には、車両1の運転席に座るユーザーが、フロントウィンドウシールド2越しに見える風景及び虚像310の例が示されている。図2に示される例において、フロントウィンドウシールド2越しに見える風景の例として、車両前方に延びる3車線道路等及び車両前方に存在する他の車両(前方車両)90が示されている。図2に示されるフロントウィンドウシールド2越しに見える風景の例において、報知対象物は、前方車両90である。図2に示される例において、虚像310に、虚像報知マーク320が含まれている。図2に示される例において、虚像報知マーク320は、前方車両1と重畳されてユーザーに視認される。また、図2に示される例において、虚像310に、虚像ナビゲーションマーク340が含まれている。
 また、図2に示される例において、領域300は、画像表示部20の表示面21における使用領域220に対応する領域300である。以下、画像表示部20の表示面21における使用領域220に対応する領域300を虚像領域300とも呼ぶ。すなわち、虚像領域300は、ユーザーが虚像310を視認可能な領域である。
 また、図1Bの画像表示部20の表示面21におけるIx軸正方向は、例えば、虚像領域300においてx軸正方向、すなわち車両左方向に対応する。同様に、図1Bの画像表示部20の表示面21におけるIy軸正方向は、例えば、虚像領域300においてy軸正方向、すなわち鉛直方向上側に対応する。
 図3を参照して、車両用表示装置10の動作の例を説明する。車両用表示装置10の動作は、例えば、車両1の電源がONされたとき、図示されていないエンジンが駆動されたとき、又は、車両1の電源がONもしくはエンジンが駆動されたときから所定待機時間が経過した後等に開始される。
 ステップS01では、前方情報取得部60が前方情報を取得する。ステップS02では、視点位置取得部40がユーザー視点位置100を取得する。なお、ステップS01及びステップS02は、必ずしもこの順番である必要はなく、順番が入れ替わってもよい。
 ステップS03では、画像生成部30は、ステップS01で前方情報取得部60によって取得された前方情報に応じて、例えば、報知マーク、ナビゲーションマーク及び他のマーク等(表示コンテンツ)を含ませた画像を生成する。なお、画像生成部30は、ユーザー視点位置100に応じた画像を生成する必要はないが、好ましくは、ユーザー視点位置100に応じた画像を生成する。
 ステップS04では、画像生成部30は、ステップS02で視点位置取得部40によって取得されたユーザー視点位置100に応じて、画像表示部20の表示面21の表示領域210のうち使用領域を決定することが好ましいが、ユーザー視点位置100に応じた使用領域を決定しなくてもよい。なお、ステップS03及びステップS04は、必ずしもこの順番である必要はなく、順番が入れ替わってもよい。
 ステップS05では、画像表示部20は、ステップS04で画像生成部30によって決定された使用領域220内の画素22の総数を用いて、ステップS03で生成された画像を表示する。ステップS05の処理を実行すると、フローはStartに戻る。ここで、図3に示されるフローチャートが、予め設定された所定間隔毎に繰り返して実行されるように、ステップS05の処理の実行が終了した後フローがStartに戻るまでの間に、所定の待機時間が挿入されていてもよい。
 図4(A)~図4(C)を参照して、ユーザーの視点の位置100とユーザーが認識する表示コンテンツの虚像(典型的には、虚像報知マーク320)の形状(比較例)(具体的には、外周形状)との関係について説明する。図4(A)~図4(C)の右側は、実空間上のy軸におけるユーザー視点位置100を表すとともに、y軸に沿って上下に移動するユーザー視点位置100と虚像領域300(虚像表示面)との位置関係を表す。図4(A)~図4(C)の左側は、y軸に沿って上下に移動するユーザー視点位置100からユーザーが認識する虚像表示面上の虚像報知マーク320の形状(比較例)を表す。
 なお、図4(A)~図4(C)の寸法は、必ずしも図面通りの寸法を表すものではなく、言い換えれば、ユーザー視点位置100に応じて変化する、虚像報知マーク320の形状(比較例)を当業者が容易に理解できるために、図4(A)~図4(C)の寸法は、誇張して表現されている、或いは、簡略化又は模式化されている。
 図4(A)~図4(C)の虚像報知マーク320は、前方車両90を囲む枠を表現することでユーザーに対して注意喚起を行うことができる。図4(B)の左側に表示される使用領域220rは、図1Bの使用領域220に対応し、1例として、使用領域220を固定することができ、この場合には、図4(A)及び図4(C)の左側に表示される使用領域220u及び220dも、図1Bの使用領域220に対応する。もちろん、後述するように、ユーザー視点位置100に応じて、使用領域220の位置を決定する又は変化させることが好ましい。図4(B)を参照すれば、虚像領域300(虚像表示面)の中心とユーザー視点位置100rとを結ぶ線(図示せず)が虚像表示面に垂直であるときには、虚像領域300の上辺とユーザー視点位置100rとの距離aは、虚像領域300の下辺とユーザー視点位置100rとの距離aと等しく、したがって、虚像報知マーク320rに歪みが生じないで、虚像報知マーク320rの形状(具体的には、外周形状)は、長方形である。
 しかしながら、ユーザー視点位置100uがユーザー視点位置100r(基準視点位置)よりも鉛直方向上側になるときには、言い換えれば、虚像領域300の上辺とユーザー視点位置100uとの距離bが虚像領域300の下辺とユーザー視点位置100uとの距離bよりも短くなるときには、ユーザーによって認識される虚像報知マーク320uに歪みが生じ、虚像報知マーク320uの外周形状は、上辺が下辺よりも長い台形である(図4(A)参照)。
 なお、ユーザー視点位置100に応じて、前方車両90の見え方が異なるために、言い換えれば、前方車両90に重畳するように、図4(A)の虚像報知マーク320uは、使用領域220u内の位置が上側に移動していることが好ましい。このことを当業者が容易に理解できるように、使用領域220uは、グリッド(虚像表示面を均等に分割した補助線)を有しているが、そのグリッドは、実際には表示されず、言い換えれば、表示コンテンツではなく、したがって、ユーザーには視認されないものである。報知対象物である前方車両90が遠くにあるほどユーザー視点位置100uの影響を受けにくいので、虚像報知マーク320r(表示コンテンツ)の上側の移動量は、ユーザー視点位置100u又は自車両1との距離に応じて決定されることが好ましい。
 同様に、ユーザー視点位置100dがユーザー視点位置100r(基準視点位置)よりも鉛直方向下側になるときには、言い換えれば、虚像領域300の上辺とユーザー視点位置100dとの距離dが虚像領域300の下辺とユーザー視点位置100dとの距離eよりも長くなるときには、ユーザーによって認識される虚像報知マーク320dに歪みが生じ、虚像報知マーク320dの外周形状は、上辺が下辺よりも短い台形である(図4(C)参照)。ここで、前方車両90に重畳するように、図4(C)の虚像報知マーク320dは、使用領域220d内の位置が下側に移動していることが好ましく、加えて、虚像報知マーク320d(表示コンテンツ)の下側の移動量は、ユーザー視点位置100d又は自車両1との距離に応じて決定されることが更に好ましい。
 図4(A)及び図4(C)虚像報知マーク320の外周形状(比較例)の問題(歪み)に鑑み、本発明に従う画像生成部30は、例えば図3のステップS03で、ユーザー視点位置100に応じた表示コンテンツを含ませた画像を生成することができる。
 具体的には、画像生成部30は、ユーザー視点位置100uがユーザー視点位置100rよりも鉛直方向上側にいくにつれて、虚像報知マーク320uの、水平方向に対応する方向における上側の長さ(図4(A)の台形の上辺)を下側の長さ(図4(A)の台形の下辺)よりも短く決定する、言い換えれば、図4(A)の台形に台形補正を施して、ユーザーに認識されるときには、長方形にする。これにより、ユーザー視点位置100uの変化に影響されることなく、ユーザーが認識する虚像報知マーク320uの外周形状が一定となり、ユーザーが違和感を覚えなくなる。
 同様に、画像生成部30は、ユーザー視点位置100dがユーザー視点位置100dよりも鉛直方向下側にいくにつれて、虚像報知マーク320dの、水平方向に対応する方向における上側の長さ(図4(C)の台形の上辺)を下側の長さ(図4(C)の台形の下辺)よりも長く決定する、言い換えれば、図4(C)の台形に台形補正を施して、ユーザーに認識されるときには、長方形にする。これにより、ユーザー視点位置100dの変化に影響されることなく、ユーザーが認識する虚像報知マーク320dの外周形状が一定となり、ユーザーが違和感を覚えなくなる。なお、図4(B)の虚像報知マーク320rの外周形状が例えば正方形であるときには、ユーザーに認識される図4(A)及び図4(C)の虚像報知マーク320u及び320dの外周形状も正方形になるように、画像生成部30は、虚像報知マーク320u及び320dを生成することができる。
 図5A、図5B、図5C及び図6を参照して、ユーザー視点位置100とユーザー視点位置100に対応した使用領域220との関係について説明する。図5A、図5B、及び図5Cの左側には、実空間上のy軸及びz軸におけるユーザー視点位置100を表す座標軸が示される。また、図5A、図5B及び図5Cの右側には、実空間上のy軸及びz軸におけるユーザー視点位置100に対応して、画像表示部20の表示面21の表示領域210のうち、画像生成部30によって決定される、画像の表示に使用される使用領域220が示されている。
 図6は、車両用表示装置10において、鉛直方向におけるユーザー視点位置100と、虚像領域300と、虚像領域300内が重畳する風景の路面70における距離の範囲との関係を説明するための模式的な図である。なお、図6は、鉛直方向におけるユーザー視点位置100と、虚像領域300と、虚像領域300内が重畳する風景の路面70における距離の範囲との関係を分かりやすく説明するために、ユーザー視点位置100の変化量を誇張して表現している。具体的に、図6に示される、ユーザー視点位置100rとユーザー視点位置100u、ユーザー視点位置100rとユーザー視点位置100dの鉛直方向における距離は、実際にはもっと近い。その結果、虚像領域300rと虚像領域300uと虚像領域300dとはいずれも重なっている部分がないように、図5に示されている。しかしながら、図5B及び図5Cに示されているように、実際は、少なくとも、虚像領域300r及び虚像領域300u、虚像領域300r及び虚像領域300dはその一部が重なる。虚像領域300内が重畳する風景の路面70における距離の範囲を、以下、重畳距離範囲400とも呼ぶ。
 図6には、図5Aに示されるユーザー視点位置100rのときの虚像領域300rと、図5Bに示されるユーザー視点位置100uのときの虚像領域300uと、図5Cに示されるユーザー視点位置100dのときの虚像領域300dとが示されている。また、図6には、ユーザー視点位置100rのときにフロントウィンドウシールド2越しに見える風景のうち、虚像領域300r内と重畳する風景の路面70における距離の範囲である重畳距離範囲400rと、ユーザー視点位置100uのときにフロントウィンドウシールド2越しに見える風景のうち、虚像領域300u内と重畳する風景の路面70における距離の範囲である重畳距離範囲400uと、ユーザー視点位置100dのときにフロントウィンドウシールド2越しに見える風景のうち、虚像領域300d内と重畳する風景の路面70における距離の範囲である重畳距離範囲400dとが示されている。
 まず、鉛直方向におけるユーザー視点位置100と鉛直方向におけるユーザー視点位置100に対応した使用領域220との関係について説明する。図5Aに示されるユーザー視点位置100rは、図5Aに示される座標軸において、y軸とz軸との交差点に表されている。以下、図5Aに示されるユーザー視点位置100rを基準ユーザー視点位置100rとも呼ぶ。例えば、図3に示されるステップS02で取得されるユーザー視点位置100が基準ユーザー視点位置100rであるとき、図3に示されるステップS04で、画像生成部30は、画像表示部20の表示面21の表示領域210のうち使用領域220を図5Aに示される使用領域220rに決定する。以下、図5Aに示される、基準ユーザー視点位置100rに対応する使用領域220rを基準使用領域220rとも呼ぶ。
 図5Bに示されるユーザー視点位置100uは、基準ユーザー視点位置100rと比較して鉛直方向上側に位置するユーザー視点位置100の例である。例えば、図3に示されるステップS02で取得されるユーザー視点位置100がユーザー視点位置100uであるとき、図3に示されるステップS04で、画像生成部30は、画像表示部20の表示面21の表示領域210のうち使用領域220を図5Bに示される使用領域220u(二点鎖線の長方形)に決定する。
 図5Bに示される使用領域220uは、基準使用領域220rと比較して、Iy軸正方向側に位置する。また、図5Bに示される使用領域220uにおけるIy軸方向の長さ221uは、基準使用領域220rにおけるIy軸方向の長さ221rと比較して、長くなっている。その結果、図6に示されるように、使用領域220uに対応する虚像領域300uは、基準使用領域220rに対応する虚像領域300rと比較して、実空間上の鉛直方向上側に位置し、且つ、実空間上の鉛直方向の長さが長くなる。なお、使用領域220uは、基準使用領域220rの一部と重なっている。
 すなわち、視点位置取得部40によって検出されるユーザー視点位置100が鉛直方向上側にいくにつれて、表示面21の使用領域220の位置がIy軸正方向側に位置するように決定される。また、視点位置取得部40によって検出されるユーザー視点位置100が鉛直方向上側にいくにつれて、表示面21の使用領域220のIy軸方向の長さが長くなるように決定される。その結果、視点位置取得部40によって検出されるユーザー視点位置100が鉛直方向上側にいくにつれて、虚像領域300は、実空間上の鉛直方向上側に位置し、且つ、実空間上の鉛直方向の長さが長くなる。
 但し、図4(A)で説明した歪みを解消するために、使用領域220u(二点鎖線の長方形)は、実線で示される台形(上辺222uuが下辺222udよりも短い台形)の使用領域220u’に変更されることが好ましい(図5B参照)。言い換えれば、台形の使用領域220u’の外周形状に応じて、図4(A)の虚像報知マーク320uの外周形状を生成することが好ましい。同様に、図4(C)で説明した歪みを解消するために、使用領域220d(二点鎖線の長方形)は、実線で示される台形(上辺222duが下辺222ddよりも長い台形)の使用領域220d’に変更されることが好ましい。言い換えれば、台形の使用領域220d’の外周形状に応じて、図4(C)の虚像報知マーク320dの外周形状を生成することが好ましい。これにより、ユーザー視点位置100uの変化に影響されることなく、ユーザーが認識する虚像報知マーク320u及び320u、並びに、使用領域220u及び220dの外周形状が一定又は例えば長方形となり、ユーザーが違和感を覚えなくなる。
 図5Cに示されるユーザー視点位置100dは、基準ユーザー視点位置100rと比較して鉛直方向下側に位置するユーザー視点位置100の例である。例えば、図3に示されるステップS02で取得されるユーザー視点位置100がユーザー視点位置100dであるとき、図3に示されるステップS04で、画像生成部30は、画像表示部20の表示面21の表示領域210のうち使用領域220を図5Cに示される使用領域220d(二点鎖線の長方形)に決定する。
 図5Cに示される使用領域220dは、基準使用領域220rと比較して、Iy軸負方向側に位置する。また、図5Cに示される使用領域220dにおけるIy軸方向の長さ221dは、基準使用領域220rにおけるIy軸方向の長さ221rと比較して、短くなっている。その結果、図5に示されるように、図5Cに示される使用領域220dに対応する虚像領域300dは、基準使用領域220rに対応する虚像領域300rと比較して、実空間上の鉛直方向下側に位置し、実空間上の鉛直方向の長さが短い。なお、使用領域220dは、基準使用領域220rの一部と重なっている。
 すなわち、視点位置取得部40によって検出されるユーザー視点位置100が鉛直方向下側にいくにつれて、表示面21の使用領域220の位置がIy軸負方向側に位置するように決定される。また、視点位置取得部40によって検出されるユーザー視点位置100が鉛直方向下側にいくにつれて、表示面21の使用領域220のIy軸方向の長さが短くなるように決定される。その結果、視点位置取得部40によって検出されるユーザー視点位置100が鉛直方向下側にいくにつれて、虚像領域300は、実空間上の鉛直方向下側に位置し、且つ、実空間上の鉛直方向の長さが短くなる。
 ここで、図6を参照すると、重畳距離範囲400rと重畳距離範囲400uと重畳距離範囲400dとが一致している。図6に示される例のように、ユーザー視点位置100の鉛直方向における変化量に対して、虚像領域300の鉛直方向における変化量が小さくなる。そうすると、例えば、ユーザー視点位置100が鉛直方向上側にいくにつれて、ユーザーが虚像領域300を見る視線と水平面との角度が大きくなる。その一方で、例えば、ユーザー視点位置100が鉛直方向下側にいくにつれて、ユーザーが虚像領域300を見る視線と水平面との角度が小さくなる。
 その結果、鉛直方向におけるユーザー視点位置100に影響されることなく重畳距離範囲400を一定にするためには、ユーザー視点位置100が鉛直方向上側にいくにつれて、虚像領域300の鉛直方向の位置を鉛直方向上側にするだけでなく、鉛直方向の長さを長くする必要がある。同様に、鉛直方向におけるユーザー視点位置100に影響されることなく重畳距離範囲400を一定にするためには、ユーザー視点位置100が鉛直方向下側にいくにつれて、虚像領域400の鉛直方向の位置を鉛直方向下側にするだけでなく、鉛直方向の長さを短くする必要がある。
 すなわち、鉛直方向におけるユーザー視点位置100に応じて、使用領域220のIy軸における位置及びIy軸における長さを適切に決定することによって、鉛直方向におけるユーザー視点位置100に影響されることなく、重畳距離範囲400を一定にすることができる。重畳距離範囲400が一定になることによって、ユーザーが視認する虚像310が重畳される風景内の対象がずれることに対処することができる。
 本発明は、上述の例示的な実施形態に限定されず、また、当業者は、上述の例示的な実施形態を特許請求の範囲に含まれる範囲まで、容易に変更することができるであろう。
 1・・・車両、2・・・フロントウィンドウシールド、10・・・車両用表示装置、20・・・画像表示部,液晶パネルモジュール、21・・・表示面,液晶パネル、30・・・画像生成部、40・・・視点位置取得部、41・・・車室内画像取得部、42・・・車室内画像解析部、50・・・投影部、80・・・画像光、100・・・ユーザー視点位置、210・・・表示領域、220・・・使用領域、300・・・虚像領域、310・・・虚像、400・・・重畳距離範囲。

Claims (4)

  1.  画像を表示可能な表示面を有する画像表示部と、
     前記画像表示部が表示する前記画像を生成する画像生成部と、
     車両の透光部材で前記画像が反射されることによって、前記車両の運転席に座るユーザーが虚像を視認できるように、前記画像を前記車両の前記透光部材に向けて投影する投影部と、
     を備え、
     前記画像生成部は、前記ユーザーの視点の位置に応じて、前記画像表示部の前記表示面のうちの一部である前記画像の表示に使用する使用領域内の表示コンテンツの、水平方向に対応する方向における長さを決定する車両用表示装置。
  2.  前記画像生成部は、前記ユーザーの前記視点の位置が鉛直方向上側にいくにつれて、前記使用領域内の前記表示コンテンツの、前記水平方向に対応する方向における上側の長さを下側の長さよりも短く決定する一方で、
     前記画像生成部は、前記ユーザーの前記視点の位置が鉛直方向下側にいくにつれて、前記使用領域内の前記表示コンテンツの、前記水平方向に対応する方向における上側の長さを下側の長さよりも長く決定する、請求項1に記載の車両用表示装置。
  3.  前記画像生成部は、前記ユーザーの視点の位置の変化に影響されることなく、前記ユーザーが認識する前記表示コンテンツの前記虚像の形状が一定となるように、前記使用領域内の前記表示コンテンツの、前記水平方向に対応する方向における前記上側の長さ及び前記下側の長さを決定する、請求項1又は2に記載の車両用表示装置。
  4.  前記画像生成部は、前記ユーザーの視点の位置の変化に影響されることなく、前記ユーザーが認識する前記表示コンテンツの前記虚像の形状が長方形又は正方形となるように、前記使用領域を決定する、請求項3に記載の車両用表示装置。
PCT/JP2018/010466 2017-03-28 2018-03-16 車両用表示装置 WO2018180596A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US16/495,359 US20210116710A1 (en) 2017-03-28 2018-03-16 Vehicular display device
JP2019509285A JPWO2018180596A1 (ja) 2017-03-28 2018-03-16 車両用表示装置
EP18778242.0A EP3604040A4 (en) 2017-03-28 2018-03-16 VEHICLE DISPLAY DEVICE

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-062058 2017-03-28
JP2017062058 2017-03-28

Publications (1)

Publication Number Publication Date
WO2018180596A1 true WO2018180596A1 (ja) 2018-10-04

Family

ID=63675525

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/010466 WO2018180596A1 (ja) 2017-03-28 2018-03-16 車両用表示装置

Country Status (4)

Country Link
US (1) US20210116710A1 (ja)
EP (1) EP3604040A4 (ja)
JP (1) JPWO2018180596A1 (ja)
WO (1) WO2018180596A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019124158A1 (ja) * 2017-12-19 2019-06-27 ソニー株式会社 情報処理装置、情報処理方法、プログラム、表示システム、及び移動体
JP2021182704A (ja) * 2020-05-19 2021-11-25 トヨタ自動車株式会社 画像表示装置
DE102021208615A1 (de) * 2020-08-07 2022-02-10 Continental Engineering Services Gmbh Kompaktes und robustes Head-up-Display

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014210537A (ja) 2013-04-19 2014-11-13 トヨタ自動車株式会社 ヘッドアップディスプレイ装置
JP2015178318A (ja) * 2014-03-19 2015-10-08 矢崎総業株式会社 車両用表示装置
JP2016155446A (ja) 2015-02-24 2016-09-01 日本精機株式会社 車両用表示装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010256878A (ja) * 2009-03-30 2010-11-11 Equos Research Co Ltd 情報表示装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014210537A (ja) 2013-04-19 2014-11-13 トヨタ自動車株式会社 ヘッドアップディスプレイ装置
JP2015178318A (ja) * 2014-03-19 2015-10-08 矢崎総業株式会社 車両用表示装置
JP2016155446A (ja) 2015-02-24 2016-09-01 日本精機株式会社 車両用表示装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3604040A4

Also Published As

Publication number Publication date
EP3604040A4 (en) 2021-01-06
JPWO2018180596A1 (ja) 2020-02-13
US20210116710A1 (en) 2021-04-22
EP3604040A1 (en) 2020-02-05

Similar Documents

Publication Publication Date Title
JP6443122B2 (ja) 車両用表示装置
CN107848417B (zh) 车辆用显示装置
JP6528139B2 (ja) 表示制御装置及び表示制御プログラム
US20220107497A1 (en) Head-up display, vehicle display system, and vehicle display method
US11525694B2 (en) Superimposed-image display device and computer program
US10930070B2 (en) Periphery monitoring device
JP2016159656A (ja) 車両用表示装置
JP6866875B2 (ja) 表示制御装置、及び表示制御プログラム
US10971116B2 (en) Display device, control method for placement of a virtual image on a projection surface of a vehicle, and storage medium
JP2018103697A (ja) 車両用表示装置
WO2019004244A1 (ja) 表示システム、情報提示システム、表示システムの制御方法、プログラム、及び移動体
WO2018180596A1 (ja) 車両用表示装置
JP6874769B2 (ja) 車両用表示装置
JP7223283B2 (ja) 画像処理ユニット及びそれを備えるヘッドアップディスプレイ装置
WO2021065698A1 (ja) ヘッドアップディスプレイ装置、方法、及びコンピュータ・プログラム
JP2018167669A (ja) ヘッドアップディスプレイ装置
WO2018037887A1 (ja) 車両用表示装置
WO2021200913A1 (ja) 表示制御装置、画像表示装置、及び方法
WO2018139433A1 (ja) 車両用表示装置
JP2023003234A (ja) ヘッドアップディスプレイ装置
JP2022077138A (ja) 表示制御装置、ヘッドアップディスプレイ装置、及び表示制御方法
JP2021160409A (ja) 表示制御装置、画像表示装置、及び方法
JP2018103888A (ja) ヘッドアップディスプレイ装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18778242

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019509285

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2018778242

Country of ref document: EP

Effective date: 20191028