WO2017002209A1 - 表示制御装置及び表示制御方法及び表示制御プログラム - Google Patents
表示制御装置及び表示制御方法及び表示制御プログラム Download PDFInfo
- Publication number
- WO2017002209A1 WO2017002209A1 PCT/JP2015/068893 JP2015068893W WO2017002209A1 WO 2017002209 A1 WO2017002209 A1 WO 2017002209A1 JP 2015068893 W JP2015068893 W JP 2015068893W WO 2017002209 A1 WO2017002209 A1 WO 2017002209A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- object image
- display
- image
- area
- extracted
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 54
- 238000004364 calculation method Methods 0.000 claims abstract description 43
- 238000000605 extraction Methods 0.000 claims abstract description 32
- 239000000284 extract Substances 0.000 claims abstract description 13
- 230000008569 process Effects 0.000 claims description 26
- 210000001508 eye Anatomy 0.000 claims description 14
- 210000005252 bulbus oculi Anatomy 0.000 description 36
- 238000001514 detection method Methods 0.000 description 21
- 238000003384 imaging method Methods 0.000 description 10
- 230000009466 transformation Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 238000005259 measurement Methods 0.000 description 4
- 238000007906 compression Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 210000003128 head Anatomy 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 230000006835 compression Effects 0.000 description 2
- 230000036544 posture Effects 0.000 description 2
- 238000011426 transformation method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011946 reduction process Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B27/0103—Head-up displays characterised by optical features comprising holographic elements
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/10—Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/20—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
- B60K35/21—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
- B60K35/213—Virtual instruments
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/20—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
- B60K35/28—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/20—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
- B60K35/29—Instruments characterised by the way in which information is handled, e.g. showing information on plural displays or prioritising information according to driving conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/65—Instruments specially adapted for specific vehicle types or users, e.g. for left- or right-hand drive
- B60K35/654—Instruments specially adapted for specific vehicle types or users, e.g. for left- or right-hand drive the user being the driver
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R16/00—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
- B60R16/02—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3626—Details of the output of route guidance instructions
- G01C21/365—Guidance using head up displays or projectors, e.g. virtual vehicles or arrows projected on the windscreen or on the road itself
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/146—Instrument input by gesture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/149—Instrument input by detecting viewing direction not otherwise provided for
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/18—Information management
- B60K2360/191—Highlight information
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/20—Optical features of instruments
- B60K2360/31—Virtual images
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0141—Head-up displays characterised by optical features characterised by the informative content of the display
Definitions
- the present invention relates to a HUD (Head Up Display) technology for displaying guidance information on a windshield of a vehicle.
- HUD Head Up Display
- Patent Documents 1 to 5 disclose techniques for determining a display area of guidance information that does not hinder driving by calculation and displaying the guidance information in the determined display area.
- Patent Document 6 discloses a technique for displaying guidance information on the windshield in correspondence with the position of the driver's eyes.
- the main object of the present invention is to solve the above-described problems, and to determine an appropriate display area for guidance information with a small amount of calculation.
- the display control device is: It is mounted on a vehicle whose guidance information is displayed on the windshield, An object image extraction unit that extracts, as an extracted object image, an object image that matches an extraction condition among a plurality of object images representing a plurality of objects existing in front of the vehicle from a captured image obtained by capturing the front of the vehicle; An area that does not overlap any extracted object image in the captured image and that touches any extracted object image is designated as a display allocation area that is allocated to display of the guidance information, and is in contact with the display allocation area A display allocation area designating unit that identifies an adjacent extracted object image that is an extracted object image, and identifies a tangent to the display allocation area of the adjacent extracted object image; An object space coordinate calculation unit that calculates, as object space coordinates, the three-dimensional space coordinates of the object represented in the adjacent extracted object image; A tangent space coordinate calculation unit that calculates, based on the object space coordinates, the tangent space coordinates as the tangent space coordinates, assuming that the
- an appropriate display area for the guidance information is determined with a smaller amount of calculation than when calculation is performed for all object images of the captured image. Can do.
- FIG. 3 is a diagram illustrating a functional configuration example of the display control apparatus according to the first embodiment.
- FIG. 4 is a diagram illustrating an example of an extracted object image in a captured image according to the first embodiment.
- FIG. 4 is a diagram showing an example of guidance information according to the first embodiment.
- FIG. 5 shows an example of a display allocation area according to the first embodiment.
- FIG. 3 is a flowchart showing an operation example of the display control apparatus according to the first embodiment.
- FIG. 10 is a diagram illustrating a functional configuration example of a display control device according to a third embodiment.
- FIG. 10 is a flowchart showing an operation example of the display control apparatus according to the third embodiment.
- FIG. 10 is a diagram illustrating a functional configuration example of a display control apparatus according to Embodiment 4;
- FIG. 10 is a flowchart showing an operation example of the display control apparatus according to the fourth embodiment.
- FIG. 10 is a flowchart showing an operation example of the display control apparatus according to the fourth embodiment.
- FIG. 5 shows an example of a display allocation area according to the first embodiment.
- FIG. 5 shows an example of a display allocation area according to the first embodiment.
- FIG. 3 is a diagram showing an outline of a method for determining a display area according to the first embodiment.
- FIG. 4 is a diagram illustrating an example of a hardware configuration of a display control apparatus according to Embodiments 1 to 4.
- FIG. *** Explanation of configuration *** FIG. 1 shows a functional configuration example of the display control apparatus 100 according to the first embodiment.
- the display control device 100 is mounted on a vehicle that supports HUD, that is, a vehicle in which guidance information is displayed on the windshield.
- a functional configuration of the display control apparatus 100 will be described with reference to FIG.
- the display control device 100 is connected to an imaging device 210, a distance measurement device 220, an eyeball position detection device 230, and a HUD 310.
- the display control apparatus 100 includes an object image extraction unit 110, a guidance information acquisition unit 120, a display allocation region designation unit 130, an object space coordinate calculation unit 140, an eyeball position detection unit 150, a tangential space coordinate calculation unit 160, and a display region determination. Part 170.
- the photographing device 210 is installed in the vicinity of the driver's head and photographs the scenery in front of the vehicle.
- any imaging device such as a visible light camera or an infrared camera can be used as long as a captured image from which an object image can be extracted by the object image extraction unit 110 can be captured.
- the object image extraction unit 110 extracts an object image that matches an extraction condition from among a plurality of object images representing a plurality of objects existing in front of the vehicle, as an extracted object image, from the captured image captured by the imaging device 210.
- the object image extraction unit 110 extracts an image of an object that should not be overlooked by the driver and an object that provides information useful for driving according to the extraction condition. More specifically, the object image extraction unit 110 extracts images of other vehicles, pedestrians, road markings, road signs, traffic lights, and the like as extracted object images.
- the object image extraction unit 110 extracts a pedestrian image 1110, a road sign image 1120, a vehicle image 1130, a vehicle image 1140, and a road marking image 1150 as extracted object images from the captured image 211 of FIG.
- a pedestrian 111 is represented in the pedestrian image 1110.
- a road sign 112 is shown in the road sign image 1120.
- the vehicle image 1130 shows the vehicle 113.
- the vehicle image 1140 the vehicle 114 is represented.
- a road marking 115 is represented in the road marking image 1150.
- the object image is an area in which the object is surrounded by a rectangular outline.
- the object image extraction unit 110 can extract an object image that matches the extraction condition using any known method.
- the guide information acquisition unit 120 acquires guide information to be displayed on the windshield. For example, when guidance information related to route guidance such as map information is displayed on the windshield, the guidance information acquisition unit 120 acquires guidance information from the navigation device. Moreover, when the guidance information regarding a vehicle is displayed on a windshield, the guidance information acquisition part 120 acquires guidance information from ECU (Engine Control Unit). In the present embodiment, the guide information acquisition unit 120 acquires rectangular guide information as indicated by the guide information 121 in FIG.
- the display allocation area designating unit 130 designates an area that does not overlap any extracted object image in the captured image and that is in contact with any extracted object image as a display allocation area that is allocated to display of guidance information. Further, the display allocation area specifying unit 130 specifies an adjacent extracted object image that is an extracted object image that is in contact with the display allocation area, and specifies a tangent to the display allocation area of the adjacent extracted object image.
- the display allocation area designating unit 130 can search the display allocation area by scanning the guide information on the captured image, for example.
- the display allocation area designating unit 130 can search for a display allocation area using any method.
- FIG. 4 shows an example of the display allocation area specified by the display allocation area specifying unit 130.
- a display allocation area 131 surrounded by a broken line is an area where the guide information 121 can be displayed on the captured image 211.
- the display allocation area 131 in FIG. 4 does not overlap any object image, and is in contact with the road sign image 1120 and the vehicle image 1130.
- the display allocation area specifying unit 130 specifies the road sign image 1120 and the vehicle image 1130 as the adjacent extracted object images. Further, the display allocation area specifying unit 130 specifies a tangent line 132 to the display allocation area 131 of the road sign image 1120 and a tangent line 133 to the display allocation area 131 of the vehicle image 1130.
- the traffic light image 1160 is an image obtained by photographing the traffic light 116.
- the road sign image 1170 is an image obtained by photographing the road sign 117. Although illustration is omitted, there may be a case where a display allocation area that is in contact with only one extracted object image is designated. For example, when the captured image 211 of FIG. 2 does not include the pedestrian image 1110 and the road sign image 1120, the display allocation area that is in contact with only the vehicle image 1130 is designated. In this case, only the tangent 133 is specified.
- the distance measuring device 220 measures the distance between the object in front of the vehicle and the distance measuring device 220. It is desirable for the distance measuring device 220 to measure the distance of one object with many points on the object.
- the distance measuring device 220 is a stereo camera, a laser scanner, or the like. Any device can be used as the distance measuring device 220 as long as the distance to the object and the rough shape of the object can be specified.
- the object space coordinate calculation unit 140 calculates the three-dimensional space coordinates of the object represented in the adjacent extracted object image specified by the display allocation area specifying unit 130 as the object space coordinates.
- the object space coordinate calculation unit 140 calculates the three-dimensional space coordinates of the road sign 112 represented in the road sign image 1120 and the three-dimensional space coordinates of the vehicle 113 represented in the vehicle image 1130.
- the object space coordinate calculation unit 140 calculates the three-dimensional space coordinates using the distance to the object (the road sign 112, the vehicle 113) represented in the adjacent extracted object image measured by the distance measuring device 220, and calculates the three-dimensional space. Calibration is performed to determine which pixel of the captured image corresponds to the coordinate.
- the eyeball position detection device 230 detects the distance between the driver's eyeball and the eyeball position detection device 230.
- the eyeball position detection device 230 is, for example, a camera that captures the driver's head installed in front of the driver. Any device can be used as the eyeball position detection device 230 as long as the distance to the driver's eyeball can be measured.
- the eyeball position detection unit 150 calculates the three-dimensional spatial coordinates of the driver's eyeball position from the distance between the driver's eyeball detected by the eyeball position detection device 230 and the eyeball position detection device 230.
- the tangent space coordinate calculation unit 160 uses the three-dimensional space coordinates of the tangent line assuming that the tangent line between the display allocation area and the adjacent extracted object image exists in the three-dimensional space as the tangent space coordinates. Calculation is based on the calculated object space coordinates.
- the eyeball position detection unit 150 calculates the three-dimensional space coordinates of the tangent line 132 based on the object space coordinates of the road sign image 1120 when it is assumed that the tangent line 132 exists in the three-dimensional space.
- the eyeball position detection unit 150 calculates the three-dimensional space coordinates of the tangent line 133 based on the object space coordinates of the vehicle image 1130 when it is assumed that the tangent line 133 exists in the three-dimensional space.
- the tangent space coordinate calculation unit 160 determines an equation in the three-dimensional space of the tangent, and calculates the three-dimensional space coordinates of the tangent.
- a tangent to the display allocation area of the adjacent extracted object image expressed by an equation in the three-dimensional space is referred to as a real space tangent.
- Real space tangents are virtual lines along tangent space coordinates.
- the real space tangent is a horizontal or vertical straight line and is on a plane perpendicular to the traveling direction of the vehicle.
- the real space tangent is a line perpendicular to the photographed image (the real space tangent corresponding to the tangent 132 in FIG. 4)
- the horizontal coordinate through which the real space tangent passes is the object space of the object represented in the adjacent extracted object image Among the coordinates, the coordinates of the point closest to the display allocation area in the horizontal direction.
- the real space tangent is a line that is horizontal to the captured image (the real space tangent corresponding to the tangent 133 in FIG. 4)
- the vertical coordinate through which the real space tangent passes is the object space of the object represented in the adjacent extracted object image Among the coordinates, the coordinates of the point closest to the display allocation area in the vertical direction.
- the display area determination unit 170 determines the display area of the guidance information on the windshield. decide. More specifically, the display area determination unit 170 projects a real line tangent, which is a virtual line along the tangent space coordinates, onto the windshield toward the eyes of the driver of the vehicle. The position in the windshield is calculated based on the tangential space coordinates, the three-dimensional space coordinates of the position of the eyes of the driver of the vehicle, and the three-dimensional space coordinates of the position of the windshield.
- the display region determination unit 170 displays the region surrounded by the projection line and the edge of the windshield as a windshield. It is determined as a display area for the upper guidance information.
- the display area determination unit 170 includes a projection line in the windshield for each real space tangent corresponding to each tangent. Calculate the position. Then, the display area determining unit 170 determines an area surrounded by a plurality of projection lines and the edge of the windshield as a display area for guidance information on the windshield.
- the guide information may be displayed anywhere as long as it is within the determined display area.
- the display area determination unit 170 determines the display position of the guidance information within the display area. For example, the display area determination unit 170 determines a position where the difference in luminance or hue from the guidance information is large as the display position. By determining the display position in this manner, the guidance display is not obscured by the background. Further, this method may be applied to the display allocation area searched by the display allocation area specifying unit 130.
- FIG. 13 shows an outline of a method for determining the display area by the display area determining unit 170.
- FIG. 13 represents a three-dimensional coordinate space, where the X-axis is the horizontal direction (vehicle width direction), the Y-axis is the vertical direction (vehicle height direction), and the Z-axis is the depth direction (vehicle traveling direction). ).
- the origin (reference point) of the coordinates in FIG. 13 is a specific position in the vehicle, for example, the position where the distance measuring device 220 is disposed.
- the real space tangent 1320 is a virtual line in the three-dimensional space corresponding to the tangent 132 with the display allocation area 131 of the road sign image 1120 in FIG.
- a surface 1121 represents the object space coordinates of the road sign 112 shown in the road sign image 1120.
- the position on the X axis and the position on the Z axis of the surface 1121 correspond to the distance between the distance measuring device 220 and the road sign 112 measured by the distance measuring device 220.
- the tangent line 132 is the tangent line at the right end of the road sign image 1120
- the real space tangent line 1320 is arranged at the right end of the surface 1121 when the captured image 121, which is a two-dimensional image, is expanded in a three-dimensional space. Note that the three-dimensional space coordinates on the trajectory of the real space tangent 1320 are tangent space coordinates.
- the windshield virtual surface 400 is a virtual surface corresponding to the shape and position of the windshield.
- the eyeball position virtual point 560 is a virtual point corresponding to the eyeball position of the driver detected by the eyeball position detection unit 150.
- Projection line 401 is a projection line that is a result of projecting real space tangent 1320 onto windshield virtual surface 400 toward eyeball position virtual point 560.
- the display area determination unit 170 projects the real space tangent 1320 onto the windshield virtual plane 400 toward the eyeball position virtual point 560, and acquires the position of the windshield virtual plane 400 of the projection line 401 by calculation. That is, the display area determining unit 170 performs an operation of plotting the intersection point of the line connecting the point in the real space tangent 1320 and the eyeball position virtual point 560 with the windshield virtual plane 400 to obtain the projection line 401, The position of the 401 windshield virtual plane 400 is calculated.
- the guidance information acquisition unit 120 acquires the guidance information and outputs the acquired guidance information to the display allocation area designation unit 130.
- the imaging device 210 captures the front of the vehicle and obtains a captured image.
- the distance measuring device 220 measures the distance between the object existing in front of the vehicle and the distance measuring device 220.
- the eyeball position detection device 230 acquires the distance between the driver's eyeball and the eyeball position detection device 230. Note that S1 to S4 may be performed in parallel or sequentially.
- the object image extraction unit 110 extracts an object image that matches the extraction condition from the captured image captured by the imaging device 210 as an extracted object image.
- the eyeball position detection unit 150 determines the three-dimensional of the driver's eyeball position from the distance between the driver's eyeball and the eyeball position detection device 230 acquired in the eyeball position acquisition process in S4. Calculate spatial coordinates.
- the display allocation area designating unit 130 designates the display allocation area in the captured image and identifies the adjacent extracted object image and the tangent line.
- the object space coordinate calculation unit 140 calculates the three-dimensional space coordinates of the object represented in the adjacent extracted object image as the object space coordinates. Note that when a plurality of adjacent extracted object images are specified in the display allocation area designating process of S7, the object space coordinate calculation unit 140 calculates object space coordinates for each adjacent extracted object image.
- the tangent space coordinate calculation unit 160 calculates tangent space coordinates based on the object space coordinates.
- the tangent space coordinate calculation unit 160 calculates tangent space coordinates for each adjacent extracted object image.
- the display area determination unit 170 is based on the tangential space coordinates, the three-dimensional space coordinates of the vehicle driver's eyes, and the three-dimensional space coordinates of the windshield position.
- the display area of the guidance information on the windshield is determined.
- the display area determination unit 170 also determines the display position of the guidance information within the display area.
- the HUD 310 displays guidance information at the display position determined by the display area determination unit 170.
- display control apparatus 100 displays an object image (adjacent extracted object image) surrounding an area (display allocation area) where guidance information can be displayed on the projection plane (windshield) of HUD 310. This is specified in a photographed image photographed by the photographing apparatus 210. For this reason, the display control apparatus 100 can determine the display position of the guidance information only by projecting only the adjacent extracted object image surrounding the display allocation area. Therefore, it is possible to display the guidance information with a smaller calculation amount of the projection processing than the method of combining the method of Patent Document 1 and the method of Patent Document 6.
- Embodiment 2 the guide information, the extracted object image, and the display allocation area are rectangular.
- the shape of the guidance information, the extracted object image, and the display allocation area is expressed by a polygon or a polygon (a combination of polygons having the same shape). That is, in the present embodiment, the guidance information acquisition unit 120 acquires p-square (p is 3 or 5 or more) guidance information.
- the object image extraction unit 110 surrounds an object image that matches the extraction condition with an outline of an n-gon (n is 3 or 5 or more), and extracts it as an extracted object image.
- the display allocation area designating unit 130 designates an m-gonal area (m is 3 or 5 or more) in the captured image as a display allocation area.
- the number of real space tangents for one adjacent extracted object image is determined by the shape of the adjacent extracted object image and the shape of the guidance information.
- the real space tangent is a straight line passing through the three-dimensional space coordinates corresponding to the pixel in the adjacent extracted object image closest to the pixel at the vertex of the line segment where the display allocation area and the adjacent extracted object image are in contact.
- the shape of the guidance information and the shape of the extracted object image can be expressed more finely, and the display allocation area candidates can be increased.
- the distance measurement device 220 needs to detect distances for many points on the object.
- Embodiment 3 In the first embodiment, the shape of the guidance information is fixed. In the third embodiment, the shape of the guidance information is deformed when a display allocation area that matches the shape of the guidance information is not found.
- FIG. 6 shows a functional configuration example of the display control apparatus 100 according to the present embodiment. 6 is different from FIG. 1 in that a guidance information transformation unit 180 is added.
- the guide information deformation unit 180 deforms the shape of the guide information when there is no display allocation area that matches the shape of the guide information.
- Elements other than the guidance information transformation unit 180 are the same as those in FIG.
- FIG. 7 shows an operation example according to the present embodiment.
- S1 to S4 are the same as those shown in FIG.
- the deformation method and deformation amount of the guide information by the guide information deformation unit 180 are designated.
- the guidance information transformation unit 180 reads the data in which the guidance information transformation method and amount are defined from a predetermined storage area, whereby the guidance information transformation unit 180 designates the guidance information transformation method and amount.
- the Note that the deformation method is reduction or compression of the shape of the guidance information. The reduction is to reduce the size of the guidance information while maintaining the ratio between the elements of the guidance information. If the guidance information is a rectangle, the size of the guidance information is reduced while maintaining the aspect ratio of the rectangle. .
- Compression is to reduce the size of the guidance information by changing the ratio between the elements of the guidance information. If the guidance information is a square, it is to reduce the size of the guidance information by changing the aspect ratio of the square. .
- the amount of deformation is the amount of reduction in one reduction process when the shape of the guidance information is reduced, and the amount of deformation is compressed in one compression process when the shape of the guidance information is compressed. Amount.
- S5 to S7 are the same as those shown in FIG.
- the display allocation area designating unit 130 cannot acquire a display allocation area having a shape that matches the shape of the guidance information in the display allocation area designation process of S7, that is, a display allocation area that can include the size of the default guidance information is acquired. If not, guidance information transformation processing in S13 is performed.
- the guide information deformation process of S13 the guide information deformation unit 180 deforms the shape of the guide information according to the deformation method and the deformation amount specified in S12.
- the display allocation area designation unit 130 performs the display allocation area designation process in S7 again, and searches for a display allocation area that matches the shape of the guide information after the transformation. S7 and S13 are repeated until a display allocation area matching the shape of the guidance information is found.
- the shape of the guidance information is deformed, so that the number of display allocation areas can be increased.
- Embodiment 4 FIG.
- the operation procedure shown in FIG. 5 is repeated about 20 to 30 times per second. That is, in the first embodiment, a new captured image is obtained by the imaging device 210 at a frequency of 20 to 30 times per second, and the object image extraction unit 110 extracts an extracted object image from the newly acquired captured image. Extract.
- the object space coordinate calculation unit 140 designates a new display allocation area based on the newly extracted extracted object image at a frequency of 20 to 30 times per second.
- the combination of objects in front of the vehicle does not change in milliseconds. That is, immediately after the display update of the HUD, there is a high possibility that the object adjacent to the display allocation area is the same object as before.
- the display allocation area designation process in S7 is omitted.
- FIG. 8 shows a functional configuration example of the display control apparatus 100 according to the present embodiment. 8 is different from FIG. 1 in that an object image tracking unit 190 is added.
- the object image tracking unit 190 extracts the extracted object image by the object image extracting unit 110 from the newly obtained captured image after the display allocation region is specified by the display allocation region specifying unit 130 and the adjacent extracted object image is specified. Each time, it is determined whether or not the extracted object image extracted by the object image extracting unit 110 includes the object image specified as the adjacent extracted object image.
- the display allocation area specifying unit 130 includes When it is determined, the designation of the display allocation area is omitted. That is, the display allocation area, the adjacent extracted object image, and the tangent line specified in the previous cycle are reused.
- Elements other than the object image extraction unit 110 and the object image tracking unit 190 are the same as those in FIG.
- FIG. 9 and FIG. 10 show an operation example according to the present embodiment.
- S1 to S4 are the same as those shown in FIG.
- the object image tracking unit 190 tracks the adjacent extracted image of the display allocation area specified by the object space coordinate calculation unit 140. That is, the object image tracking unit 190 determines whether or not the extracted object image extracted by the object image extracting unit 110 from the newly obtained captured image includes the object image specified as the adjacent extracted object image.
- the object space coordinate calculation unit 140 determines whether or not the count value k is less than the specified number of times and the object image tracking unit 190 has detected the object image being tracked.
- the object space coordinate calculation unit 140 resets the count value k to “0”, and S7
- the display allocation area designation process is performed.
- the display allocation area designation process in S7 is the same as that shown in FIG. Further, the processing after S8 is the same as that shown in FIG.
- the object space coordinate calculation unit 140 increments the count value k, and S7
- the display allocation area designation process is omitted.
- the processing after S8 is performed on the same display allocation area, adjacent extracted object image, and tangent as in the previous loop.
- the processing after S8 is the same as that shown in FIG.
- the specified number of times is desirably a large value when the time for which the flow of FIG. For example, 5 to 10 is assumed as the specified number of times.
- the frequency of searching the display allocation area can be reduced, and the calculation amount of the display control device can be suppressed.
- the display control device 100 is a computer.
- the display control apparatus 100 includes hardware such as a processor 901, an auxiliary storage device 902, a memory 903, a device interface 904, an input interface 905, and a HUD interface 906.
- the processor 901 is connected to other hardware via the signal line 910, and controls these other hardware.
- the device interface 904 is connected to the device 908 via the signal line 913.
- the input interface 905 is connected to the input device 907 via the signal line 911.
- the HUD interface 906 is connected to the HUD 301 via a signal line 912.
- the processor 901 is an IC (Integrated Circuit) that performs processing.
- the processor 901 is, for example, a CPU (Central Processing Unit), a DSP (Digital Signal Processor), or a GPU (Graphics Processing Unit).
- the auxiliary storage device 902 is, for example, a ROM (Read Only Memory), a flash memory, or an HDD (Hard Disk Drive).
- the memory 903 is, for example, a RAM (Random Access Memory).
- the device interface 904 is connected to the device 908.
- the device 908 is the imaging device 210, the distance measuring device 220, and the eyeball position detecting device 230 shown in FIG.
- the input interface 905 is connected to the input device 907.
- the HUD interface 906 is connected to the HUD 301 shown in FIG.
- the input device 907 is a touch panel, for example.
- the auxiliary storage device 902 includes an object image extraction unit 110, a guidance information acquisition unit 120, a display allocation area designation unit 130, an object space coordinate calculation unit 140, an eyeball position detection unit 150, a tangential space coordinate calculation unit 160, as illustrated in FIG.
- a program for realizing the functions of the display area determination unit 170, the guidance information transformation unit 180 shown in FIG. 6, and the object image tracking unit 190 shown in FIG. 8 (hereinafter collectively referred to as “parts”) is stored. .
- This program is loaded into the memory 903, read into the processor 901, and executed by the processor 901. Further, the auxiliary storage device 902 also stores an OS (Operating System).
- OS Operating System
- the display control apparatus 100 may include a plurality of processors 901. A plurality of processors 901 may execute a program for realizing the function of “unit” in cooperation with each other.
- information, data, signal values, and variable values indicating the processing results of “unit” are stored in the memory 903, the auxiliary storage device 902, or a register or cache memory in the processor 901.
- circuitry may be provided as “circuitry”. Further, “part” may be read as “circuit”, “process”, “procedure”, or “processing”. “Circuit” and “Circuitry” include not only the processor 901 but also other types of processing circuits such as a logic IC or GA (Gate Array) or ASIC (Application Specific Integrated Circuit) or FPGA (Field-Programmable Gate Array). It is a concept to include.
- GA Gate Array
- ASIC Application Specific Integrated Circuit
- FPGA Field-Programmable Gate Array
- DESCRIPTION OF SYMBOLS 100 Display control apparatus, 110 Object image extraction part, 120 Guidance information acquisition part, 130 Display allocation area designation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Mechanical Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Chemical & Material Sciences (AREA)
- Transportation (AREA)
- Combustion & Propulsion (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Automation & Control Theory (AREA)
- Optics & Photonics (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- General Health & Medical Sciences (AREA)
- Traffic Control Systems (AREA)
- Instrument Panels (AREA)
- Navigation (AREA)
Abstract
Description
他の車両、歩行者、道路標示、道路標識、信号機等は車両を運転する上で見落としてはならない物体であるが、案内情報の表示により、運転者がこれらの物体が視認できない場合は、運転に支障が生じる。
特許文献1~5では、運転に支障がでない案内情報の表示領域を計算により決定し、決定した表示領域に案内情報を表示する技術が開示されている。
また、同じ運転者でも運転時の姿勢または着座位置が異なれば目の位置は異なるため、運転時の姿勢ごと、また、着座位置ごとに案内情報の適切な表示領域は異なる。
この点に関し、特許文献6では、運転者の目の位置に対応させて案内情報をウインドシールド上に表示する技術が開示されている。
具体的には、特許文献6の方法に従い、運転者から見える車両前方の全ての物体、すなわち、撮影画像に表される全ての物体の三次元空間座標をHUDの投影面(ウインドシールド)に射影し、投影面を一枚の画像とみなして、車両前方の物体と重ならない案内情報の表示位置を特許文献1の方式で求める方法が考えられる。
しかし、この方法では、撮影画像に表される全ての物体に対する射影計算が必要であり、計算量が多いという課題がある。
ウインドシールドに案内情報が表示される車両に搭載され、
前記車両の前方を撮影した撮影画像から、前記車両の前方に存在する複数の物体を表す複数の物体画像のうち抽出条件に合致する物体画像を抽出物体画像として抽出する物体画像抽出部と、
前記撮影画像内で、いずれの抽出物体画像とも重ならない領域であって、いずれかの抽出物体画像と接する領域を、前記案内情報の表示に割当てる表示割当て領域として指定し、前記表示割当て領域と接する抽出物体画像である隣接抽出物体画像を特定し、前記隣接抽出物体画像の前記表示割当て領域との接線を特定する表示割当て領域指定部と、
前記隣接抽出物体画像に表される物体の三次元空間座標を物体空間座標として算出する物体空間座標算出部と、
前記接線が三次元空間に存在すると仮定した場合の前記接線の三次元空間座標を、接線空間座標として、前記物体空間座標に基づき算出する接線空間座標算出部と、
前記接線空間座標と、前記車両の運転者の目の位置の三次元空間座標と、前記ウインドシールドの位置の三次元空間座標とに基づき、前記ウインドシールドでの前記案内情報の表示領域を決定する表示領域決定部とを有する。
***構成の説明***
図1は、本実施の形態1に係る表示制御装置100の機能構成例を示す。
表示制御装置100は、HUDに対応した車両、すなわち、ウインドシールドに案内情報が表示される車両に搭載される。
図1に基づき表示制御装置100の機能構成を説明する。
図1に示すように、表示制御装置100は、撮影装置210、距離計測装置220、眼球位置検出装置230及びHUD310に接続されている。
また、表示制御装置100は、物体画像抽出部110、案内情報取得部120、表示割当て領域指定部130、物体空間座標算出部140、眼球位置検出部150、接線空間座標算出部160及び表示領域決定部170を含む。
撮影装置210には、物体画像抽出部110で物体画像が抽出可能な撮影画像を撮影可能であれば、可視光カメラ、赤外線カメラなど任意の撮影装置を用いることができる。
物体画像抽出部110は、抽出条件に従って、運転者が見落とすべきでない物体、運転にとって有用な情報を提供する物体の画像を抽出する。
より具体的には、物体画像抽出部110は、他の車両、歩行者、道路標示、道路標識、信号機等の画像を抽出物体画像として抽出する。
例えば、物体画像抽出部110は、図2の撮影画像211から、歩行者画像1110、道路標識画像1120、車両画像1130、車両画像1140、道路標示画像1150を抽出物体画像として抽出する。
歩行者画像1110には、歩行者111が表されている。
道路標識画像1120には、道路標識112が表されている。
車両画像1130には、車両113が表されている。
車両画像1140には、車両114が表されている。
道路標示画像1150には、道路標示115が表されている。
図2の1110~1150で示すように、物体画像は物体を四角形の輪郭線で包囲した領域である。
なお、撮影画像から特定の物体の物体画像を検出する技術として、公知の手法がいくつか存在する。
物体画像抽出部110は、任意の公知の手法を用いて抽出条件に合致する物体画像を抽出することができる。
例えば、地図情報等の経路案内に関する案内情報がウインドシールドに表示される場合は、案内情報取得部120は、ナビゲーション機器から案内情報を取得する。
また、車両に関する案内情報がウインドシールドに表示される場合は、案内情報取得部120は、ECU(Engine Control Unit)から案内情報を取得する。
本実施の形態では、案内情報取得部120は、図3の案内情報121で示すように、四角形の案内情報を取得する。
更に、表示割当て領域指定部130は、表示割当て領域と接する抽出物体画像である隣接抽出物体画像を特定し、隣接抽出物体画像の表示割当て領域との接線を特定する。
表示割当て領域指定部130は、例えば、案内情報を撮影画像上で走査して表示割当て領域を探索することができる。
表示割当て領域指定部130は、任意の手法を用いて、表示割当て領域を探索することが可能である。
図4において、破線で囲んだ表示割当て領域131は、撮影画像211上で、案内情報121を表示可能な領域である。
図4の表示割当て領域131は、いずれの物体画像とも重なっておらず、また、道路標識画像1120と車両画像1130とに接する。
表示割当て領域指定部130は、道路標識画像1120と車両画像1130を隣接抽出物体画像として特定する。
また、表示割当て領域指定部130は、道路標識画像1120の表示割当て領域131との接線132と、車両画像1130の表示割当て領域131との接線133を特定する。
撮影画像211における抽出物体画像の位置によっては、図11又は図12のような表示割当て領域が指定される。
図11の表示割当て領域134は、道路標識画像1120と車両画像1130と信号機画像1160と接しており、接線132と接線133と接線135が特定される。
信号機画像1160は、信号機116を撮影した画像である。
また、図12の表示割当て領域136は、道路標識画像1120と車両画像1130と信号機画像1160と道路標識画像1170と接しており、接線132と接線133と接線135と接線137が特定される。
道路標識画像1170は、道路標識117を撮影した画像である。
なお、図示を省略しているが、1つの抽出物体画像とのみ接する表示割当て領域が指定される場合もある。
例えば、図2の撮影画像211に歩行者画像1110と道路標識画像1120が含まれていない場合には、車両画像1130のみと接している表示割当て領域が指定される。
この場合には、接線133のみが特定される。
距離計測装置220は、一つの物体に対して、その物体上の多くの点との距離を計測することが望ましい。
距離計測装置220は、ステレオカメラ、レーザースキャナー等である。
距離計測装置220は、物体までの距離と物体のおおまかな形状を特定できるものであれば、任意の装置を用いることができる。
図4の例では、物体空間座標算出部140は、道路標識画像1120に表される道路標識112の三次元空間座標と、車両画像1130に表される車両113の三次元空間座標を算出する。
物体空間座標算出部140は、距離計測装置220が計測した隣接抽出物体画像に表される物体(道路標識112、車両113)までの距離を用いて、三次元空間座標を算出し、三次元空間座標が撮影画像のどのピクセルに相当するかを決定するキャリブレーションを行う。
眼球位置検出装置230は、例えば、運転者の前方に設置した運転者の頭部を撮影するカメラである。
なお、運転者の眼球までの距離を測定できれば、眼球位置検出装置230として、任意の装置を用いることができる。
図4の例では、眼球位置検出部150は、接線132が三次元空間に存在すると仮定した場合の接線132の三次元空間座標を道路標識画像1120の物体空間座標に基づき算出する。
また、眼球位置検出部150は、接線133が三次元空間に存在すると仮定した場合の接線133の三次元空間座標を車両画像1130の物体空間座標に基づき算出する。
接線空間座標算出部160は、接線の三次元空間における方程式を決定して、接線の三次元空間座標を算出する。
以下、三次元空間における方程式で表現する隣接抽出物体画像の表示割当て領域との接線を、実空間接線という。
実空間接線は、接線空間座標に沿った仮想線である。
実空間接線は、水平もしくは垂直な直線であり、車両の進行方向と垂直な面上にある。
実空間接線が撮影画像に垂直な線(図4の接線132に対応する実空間接線)の場合、実空間接線が通過する水平方向の座標は、隣接抽出物体画像に表される物体の物体空間座標のうち、最も水平方向で表示割当て領域に近い点の座標である。
実空間接線が撮影画像に水平な線(図4の接線133に対応する実空間接線)の場合、実空間接線が通過する垂直方向の座標は、隣接抽出物体画に表される物体の物体空間座標のうち、最も垂直方向で表示割当て領域に近い点の座標である。
より具体的には、表示領域決定部170は、車両の運転者の目の位置に向けて、接線空間座標に沿った仮想線である実空間接線をウインドシールドに射影させて得られる射影線のウインドシールド内の位置を、接線空間座標と、車両の運転者の目の位置の三次元空間座標と、ウインドシールドの位置の三次元空間座標とに基づき算出する。
そして、表示領域決定部170は、撮影画像で隣接抽出物体画像が1つである場合、すなわち撮影画像の接線が1つである場合は、射影線とウインドシールドの縁によって囲まれる領域をウインドシールド上の案内情報の表示領域として決定する。
また、撮影画像で隣接抽出物体画像が複数ある場合、すなわち撮影画像の接線が複数である場合は、表示領域決定部170は、各接線に対応する実空間接線ごとに射影線のウインドシールド内の位置を算出する。
そして、表示領域決定部170は、複数の射影線とウインドシールドの縁によって囲まれる領域をウインドシールド上の案内情報の表示領域として決定する。
決定された表示領域の内であれば、案内情報をどこに表示してもよい。
表示領域決定部170は、表示領域内で案内情報の表示位置を決定する。
表示領域決定部170は、例えば、案内情報との輝度又は色相の差が大きい位置を表示位置として決定する。
このようにして表示位置を決定することにより、案内表示が背景に紛れて見えなくなることがなくなる。
また、この方法は、表示割当て領域指定部130で探索する表示割当て領域に対して適用してもよい。
図13は、三次元の座標空間を表しており、X軸は水平方向(車両の車幅方向)、Y軸は垂直方向(車両の車高方向)、Z軸は奥行き方向(車両の進行方向)に対応する。
図13の座標の原点(基準点)は、車両内の特定の位置であり、例えば、距離計測装置220が配置されている位置である。
実空間接線1320は、図2の道路標識画像1120の表示割当て領域131との接線132に対応する三次元空間での仮想線である。
面1121は、道路標識画像1120に表される道路標識112の物体空間座標を表す。
面1121のX軸上の位置及びZ軸上の位置は、距離計測装置220により測定された距離計測装置220と道路標識112との間の距離に相当する。
接線132は道路標識画像1120の右端の接線であるため、二次元画像である撮影画像121を三次元空間に展開すると、実空間接線1320は、面1121の右端に配置される。
なお、実空間接線1320の軌道上の三次元空間座標が接線空間座標である。
ウインドシールド仮想面400は、ウインドシールドの形状及び位置に対応する仮想面である。
眼球位置仮想点560は、眼球位置検出部150により検出された運転者の眼球位置に対応する仮想点である。
射影線401は、眼球位置仮想点560に向けて、実空間接線1320を、ウインドシールド仮想面400に射影させた結果である射影線である。
つまり、表示領域決定部170は、実空間接線1320内の点と眼球位置仮想点560とを結ぶ線のウインドシールド仮想面400との交点をプロットして射影線401を得る演算を行い、射影線401のウインドシールド仮想面400の位置を算出する。
次に、図5を参照して、本実施の形態に係る表示制御装置100、撮影装置210、距離計測装置220、眼球位置検出装置230及びHUD310の動作例を説明する。
なお、図5に示す動作手順のうち表示制御装置100により行われる動作は、表示制御方法及び表示制御プログラムの例に相当する。
また、S2の撮影画像取得処理では、撮影装置210が、車両前方を撮影して、撮影画像を得る。
また、S3の距離取得処理では、距離計測装置220が、車両前方に存在する物体と距離計測装置220との距離を計測する。
また、S4の眼球位置取得処理では、眼球位置検出装置230が、運転者の眼球と眼球位置検出装置230との間の距離を取得する。
なお、S1~S4は並行して行われてもよいし、順次行われてもよい。
なお、S7の表示割当て領域指定処理で複数の隣接抽出物体画像が特定された場合は、物体空間座標算出部140は、隣接抽出物体画像ごとに物体空間座標を算出する。
なお、S7の表示割当て領域指定処理で複数の隣接抽出物体画像が特定された場合は、接線空間座標算出部160は、隣接抽出物体画像ごとに接線空間座標を算出する。
また、表示領域決定部170は、表示領域内で、案内情報の表示位置も決定する。
以上のように、本実施の形態では、表示制御装置100は、HUD310の投影面(ウインドシールド)上で案内情報を表示可能な領域(表示割当て領域)を囲む物体画像(隣接抽出物体画像)を、撮影装置210で撮影された撮影画像において指定する。
このため、表示制御装置100は、表示割当て領域を囲む隣接抽出物体画像のみを射影するだけで、案内情報の表示位置を決定できる。
従って、特許文献1の方法と特許文献6の方法とを組み合わせる方法よりも少ない射影処理の計算量で案内情報を表示することができる。
実施の形態1では、案内情報と抽出物体画像と表示割当て領域の形状を長方形としている。
実施の形態2では、案内情報と抽出物体画像と表示割当て領域の形状を多角形やポリゴン(同一形状の多角形の組み合わせ)で表現する。
つまり、本実施の形態では、案内情報取得部120は、p角形(pは3又は5以上)の案内情報を取得する。
また、物体画像抽出部110は、抽出条件に合致する物体画像をn角形(nは3又は5以上)の輪郭線で包囲して抽出物体画像として抽出する。
また、表示割当て領域指定部130は、撮影画像内で、m角形(mは3又は5以上)の領域を、表示割当て領域として指定する。
実空間接線は、表示割当て領域と隣接抽出物体画像が接している線分の頂点のピクセルに最も近い隣接抽出物体画像内のピクセルに相当する三次元空間座標を通る直線である。
ただし、抽出物体画像を多角形で表現する場合、距離計測装置220で物体上の多くの点について距離を検出する必要がある。
実施の形態1では、案内情報の形状は固定されている。
実施の形態3では、案内情報の形状に適合する表示割当て領域が見つからない場合に案内情報の形状を変形する。
図6において、図1との違いは、案内情報変形部180が追加されている点である。
案内情報変形部180は、案内情報の形状に適合する表示割当て領域が存在しない場合に、案内情報の形状を変形させる。
案内情報変形部180以外の要素は、図1と同じである。
図7において、S1~S4は、図5に示したものと同じであるため、説明を省略する。
S12の変形方法/変形量指定処理では、案内情報変形部180による案内情報の変形方法及び変形量が指定される。
例えば、案内情報変形部180が、既定の記憶領域から、案内情報の変形方法及び変形量が定義されたデータを読み出すことにより、案内情報変形部180による案内情報の変形方法及び変形量が指定される。
なお、変形方法は、案内情報の形状の縮小又は圧縮である。
縮小は、案内情報の要素間の比率を維持したまま案内情報のサイズを縮めることであり、案内情報が四角形であれば、四角形の縦横の比率は維持したまま案内情報のサイズを縮めることである。
圧縮は、案内情報の要素間の比率を変化させて案内情報のサイズを縮めることであり、案内情報が四角形であれば、四角形の縦横の比率を変化させて案内情報のサイズを縮めることである。
また、変形量は、案内情報の形状の縮小が行われる場合は、1回の縮小処理での縮小量であり、案内情報の形状の圧縮が行われる場合は、1回の圧縮処理での圧縮量である。
S7の表示割当て領域指定処理において表示割当て領域指定部130が案内情報の形状に適合する形状の表示割当て領域を取得できなかった場合、すなわち、デフォルトの案内情報のサイズを包含できる表示割当て領域を取得できなかった場合には、S13の案内情報変形処理が行われる。
S13の案内情報変形処理では、案内情報変形部180が、S12で指定された変形方法及び変形量に従って、案内情報の形状を変形させる。
表示割当て領域指定部130は、再度、S7の表示割当て領域指定処理を行い、変形後の案内情報の形状に適合する表示割当て領域を探索する。
案内情報の形状に適合する表示割当て領域が見つかるまで、S7及びS13そのが繰り返される。
実施の形態1では、図5に示す動作手順が1秒間に20回~30回程度繰り返されることを想定している。
つまり、実施の形態1では、1秒間に20~30回の頻度で、撮影装置210により新たな撮影画像が得られ、物体画像抽出部110が、新たに得られた撮影画像から抽出物体画像を抽出する。
そして、物体空間座標算出部140が、1秒間に20~30回の頻度で、新たに抽出された抽出物体画像に基づいて、新たな表示割当て領域を指定している。
しかしながら、一般的に、車両の前方にある物体の組合せはミリ秒単位では変化しない。
つまり、HUDの表示更新直後は、表示割当て領域に隣接する物体は直前と同じ物体である可能性が高い。
このため、本実施の形態では、各サイクルにおいて、新たに得られた撮影画像から抽出された抽出物体画像に隣接抽出物体画像として特定された物体画像が含まれているかを追跡する。
そして、新たに得られた撮影画像から抽出された抽出物体画像に隣接抽出物体画像として特定された物体画像が含まれている場合は、S7の表示割当て領域指定処理が省略される。
図8において、図1との違いは、物体画像追跡部190が追加されている点である。
物体画像追跡部190は、表示割当て領域指定部130により表示割当て領域が指定され、隣接抽出物体画像が特定された後に、新たに得られた撮影画像から物体画像抽出部110により抽出物体画像が抽出される度に、物体画像抽出部110により抽出された抽出物体画像に隣接抽出物体画像として特定された物体画像が含まれるか否かを判定する。
そして、本実施の形態では、表示割当て領域指定部130は、物体画像追跡部190により、物体画像抽出部110により抽出された抽出物体画像に隣接抽出物体画像として特定された物体画像が含まれると判定された場合に、表示割当て領域の指定を省略する。
すなわち、以前のサイクルで指定された表示割当て領域、隣接抽出物体画像及び接線が、再利用される。
物体画像抽出部110及び物体画像追跡部190以外の要素は、図1と同じである。
図9において、S1~S4は、図5に示したものと同じであるため、説明を省略する。
S14の物体画像追跡処理では、物体画像追跡部190が、物体空間座標算出部140で指定された表示割当て領域の隣接抽出画像を追跡する。
すなわち、物体画像追跡部190は、新たに得られた撮影画像から物体画像抽出部110により抽出された抽出物体画像に隣接抽出物体画像として特定された物体画像が含まれるか否かを判定する。
物体空間座標算出部140は、カウント値kが規定回数未満であり、また、物体画像追跡部190により追跡中の物体画像が検出されたか否かを判定する。
S7の表示割当て領域指定処理は、図5に示したものと同じであるため、説明を省略する。
また、S8以降の処理は、図5に示したものと同じであるため、説明を省略する。
この結果、S8以降の処理は、前回のループと同じ表示割当て領域、隣接抽出物体画像及び接線に対して行われる。
なお、S8以降の処理は、図5に示したものと同じであるため、説明を省略する。
例えば、規定回数として、5~10が想定される。
最後に、表示制御装置100のハードウェア構成例を図14を参照して説明する。
表示制御装置100はコンピュータである。
表示制御装置100は、プロセッサ901、補助記憶装置902、メモリ903、デバイスインタフェース904、入力インタフェース905、HUDインタフェース906といったハードウェアを備える。
プロセッサ901は、信号線910を介して他のハードウェアと接続され、これら他のハードウェアを制御する。
デバイスインタフェース904は、信号線913を介してデバイス908に接続されている。
入力インタフェース905は、信号線911を介して入力装置907に接続されている。
HUDインタフェース906は、信号線912を介してHUD301に接続されている。
プロセッサ901は、例えば、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、GPU(Graphics Processing Unit)である。
補助記憶装置902は、例えば、ROM(Read Only Memory)、フラッシュメモリ、HDD(Hard Disk Drive)である。
メモリ903は、例えば、RAM(Random Access Memory)である。
デバイスインタフェース904はデバイス908と接続されている。
デバイス908は、図1等に示す撮影装置210、距離計測装置220及び眼球位置検出装置230である。
入力インタフェース905は入力装置907と接続されている。
HUDインタフェース906は、図1等に示すHUD301と接続されている。
入力装置907は、例えばタッチパネルである。
このプログラムは、メモリ903にロードされ、プロセッサ901に読み込まれ、プロセッサ901によって実行される。
更に、補助記憶装置902には、OS(Operating System)も記憶されている。
そして、OSの少なくとも一部がメモリ903にロードされ、プロセッサ901はOSを実行しながら、「部」の機能を実現するプログラムを実行する。
図14では、1つのプロセッサ901が図示されているが、表示制御装置100が複数のプロセッサ901を備えていてもよい。
そして、複数のプロセッサ901が「部」の機能を実現するプログラムを連携して実行してもよい。
また、「部」の処理の結果を示す情報やデータや信号値や変数値が、メモリ903、補助記憶装置902、又は、プロセッサ901内のレジスタ又はキャッシュメモリに記憶される。
また、「部」を「回路」又は「工程」又は「手順」又は「処理」に読み替えてもよい。
「回路」及び「サーキットリー」は、プロセッサ901だけでなく、ロジックIC又はGA(Gate Array)又はASIC(Application Specific Integrated Circuit)又はFPGA(Field-Programmable Gate Array)といった他の種類の処理回路をも包含する概念である。
Claims (8)
- ウインドシールドに案内情報が表示される車両に搭載され、
前記車両の前方を撮影した撮影画像から、前記車両の前方に存在する複数の物体を表す複数の物体画像のうち抽出条件に合致する物体画像を抽出物体画像として抽出する物体画像抽出部と、
前記撮影画像内で、いずれの抽出物体画像とも重ならない領域であって、いずれかの抽出物体画像と接する領域を、前記案内情報の表示に割当てる表示割当て領域として指定し、前記表示割当て領域と接する抽出物体画像である隣接抽出物体画像を特定し、前記隣接抽出物体画像の前記表示割当て領域との接線を特定する表示割当て領域指定部と、
前記隣接抽出物体画像に表される物体の三次元空間座標を物体空間座標として算出する物体空間座標算出部と、
前記接線が三次元空間に存在すると仮定した場合の前記接線の三次元空間座標を、接線空間座標として、前記物体空間座標に基づき算出する接線空間座標算出部と、
前記接線空間座標と、前記車両の運転者の目の位置の三次元空間座標と、前記ウインドシールドの位置の三次元空間座標とに基づき、前記ウインドシールドでの前記案内情報の表示領域を決定する表示領域決定部とを有する表示制御装置。 - 前記表示領域決定部は、
前記車両の運転者の目の位置に向けて、前記接線空間座標に沿った仮想線を前記ウインドシールドに射影させて得られる射影線の前記ウインドシールド内の位置を、前記接線空間座標と、前記車両の運転者の目の位置の三次元空間座標と、前記ウインドシールドの位置の三次元空間座標とに基づき算出し、
前記射影線の前記ウインドシールド内の位置に基づき、前記ウインドシールドでの前記案内情報の表示領域を決定する請求項1に記載の表示制御装置。 - 前記表示割当て領域指定部は、
前記撮影画像内で、いずれの抽出物体画像とも重ならない領域であって、複数の抽出物体画像と接する領域を、前記表示割当て領域として指定し、前記表示割当て領域と接する複数の隣接抽出物体画像を特定し、隣接抽出物体画像ごとに、前記表示割当て領域との接線を特定し、
前記物体空間座標算出部は、
隣接抽出物体画像ごとに、物体空間座標を算出し、
前記接線空間座標算出部は、
隣接抽出物体画像ごとに、接線空間座標を算出し、
前記表示領域決定部は、
複数の接線空間座標と、前記車両の運転者の目の位置の三次元空間座標と、前記ウインドシールドの位置の三次元空間座標とに基づき、前記ウインドシールドでの前記案内情報の表示領域を決定する請求項1に記載の表示制御装置。 - 前記物体画像抽出部は、
前記抽出条件に合致する物体画像をn角形(nは3又は5以上)の輪郭線で包囲して前記抽出物体画像として抽出し、
前記表示割当て領域探索部は、
前記撮影画像内で、m角形(mは3又は5以上)の領域を、前記表示割当て領域として指定する請求項1に記載の表示制御装置。 - 前記表示制御装置は、更に、
前記案内情報の形状に適合する表示割当て領域が存在しない場合に、前記案内情報の形状を変形させる案内情報変形部を有する請求項1に記載の表示制御装置。 - 前記物体画像抽出部は、
新たに撮影画像が得られる度に、新たに得られた撮影画像から抽出物体画像を抽出する動作を繰り返し、
前記表示制御装置は、更に、
前記表示割当て領域指定部により前記表示割当て領域が指定され、前記隣接抽出物体画像が特定された後に、新たに得られた撮影画像から前記物体画像抽出部により抽出物体画像が抽出される度に、前記物体画像抽出部により抽出された抽出物体画像に前記隣接抽出物体画像として特定された物体画像が含まれるか否かを判定する物体画像追跡部を有し、
前記表示割当て領域指定部は、
前記物体画像追跡部により、前記物体画像抽出部により抽出された抽出物体画像に前記隣接抽出物体画像として特定された物体画像が含まれると判定された場合に、前記表示割当て領域の指定を省略する請求項1に記載の表示制御装置。 - ウインドシールドに案内情報を表示する車両に搭載されるコンピュータが、
前記車両の前方を撮影した撮影画像から、前記車両の前方に存在する複数の物体を表す複数の物体画像のうち抽出条件に合致する物体画像を抽出物体画像として抽出し、
前記撮影画像内で、いずれの抽出物体画像とも重ならない領域であって、いずれかの抽出物体画像と接する領域を、前記案内情報の表示に割当てる表示割当て領域として指定し、前記表示割当て領域と接する抽出物体画像である隣接抽出物体画像を特定し、前記隣接抽出物体画像の前記表示割当て領域との接線を特定し、
前記隣接抽出物体画像に表される物体の三次元空間座標を物体空間座標として算出し、
前記接線が三次元空間に存在すると仮定した場合の前記接線の三次元空間座標を、接線空間座標として、前記物体空間座標に基づき算出し、
前記接線空間座標と、前記車両の運転者の目の位置の三次元空間座標と、前記ウインドシールドの位置の三次元空間座標とに基づき、前記ウインドシールドでの前記案内情報の表示領域を決定する表示制御方法。 - ウインドシールドに案内情報を表示する車両に搭載されるコンピュータに、
前記車両の前方を撮影した撮影画像から、前記車両の前方に存在する複数の物体を表す複数の物体画像のうち抽出条件に合致する物体画像を抽出物体画像として抽出する物体画像抽出処理と、
前記撮影画像内で、いずれの抽出物体画像とも重ならない領域であって、いずれかの抽出物体画像と接する領域を、前記案内情報の表示に割当てる表示割当て領域として指定し、前記表示割当て領域と接する抽出物体画像である隣接抽出物体画像を特定し、前記隣接抽出物体画像の前記表示割当て領域との接線を特定する表示割当て領域指定処理と、
前記隣接抽出物体画像に表される物体の三次元空間座標を物体空間座標として算出する物体空間座標算出処理と、
前記接線が三次元空間に存在すると仮定した場合の前記接線の三次元空間座標を、接線空間座標として、前記物体空間座標に基づき算出する接線空間座標算出処理と、
前記接線空間座標と、前記車両の運転者の目の位置の三次元空間座標と、前記ウインドシールドの位置の三次元空間座標とに基づき、前記ウインドシールドでの前記案内情報の表示領域を決定する表示領域決定処理とを実行させる表示制御プログラム。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017503645A JP6239186B2 (ja) | 2015-06-30 | 2015-06-30 | 表示制御装置及び表示制御方法及び表示制御プログラム |
PCT/JP2015/068893 WO2017002209A1 (ja) | 2015-06-30 | 2015-06-30 | 表示制御装置及び表示制御方法及び表示制御プログラム |
US15/541,506 US20170351092A1 (en) | 2015-06-30 | 2015-06-30 | Display control apparatus, display control method, and computer readable medium |
DE112015006662.4T DE112015006662T5 (de) | 2015-06-30 | 2015-06-30 | Anzeigesteuervorrichtung, anzeigesteuerverfahren und anzeigesteuerprogramm |
CN201580079586.8A CN107532917B (zh) | 2015-06-30 | 2015-06-30 | 显示控制装置和显示控制方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2015/068893 WO2017002209A1 (ja) | 2015-06-30 | 2015-06-30 | 表示制御装置及び表示制御方法及び表示制御プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2017002209A1 true WO2017002209A1 (ja) | 2017-01-05 |
Family
ID=57608122
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2015/068893 WO2017002209A1 (ja) | 2015-06-30 | 2015-06-30 | 表示制御装置及び表示制御方法及び表示制御プログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US20170351092A1 (ja) |
JP (1) | JP6239186B2 (ja) |
CN (1) | CN107532917B (ja) |
DE (1) | DE112015006662T5 (ja) |
WO (1) | WO2017002209A1 (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019010965A (ja) * | 2017-06-30 | 2019-01-24 | マクセル株式会社 | ヘッドアップディスプレイ装置 |
JP2020168938A (ja) * | 2019-04-03 | 2020-10-15 | スズキ株式会社 | 車両用表示制御装置 |
US11648878B2 (en) * | 2017-09-22 | 2023-05-16 | Maxell, Ltd. | Display system and display method |
JP7550067B2 (ja) | 2021-01-29 | 2024-09-12 | 日産自動車株式会社 | 情報提供方法及び情報提供システム |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101916993B1 (ko) * | 2015-12-24 | 2018-11-08 | 엘지전자 주식회사 | 차량용 디스플레이 장치 및 그 제어방법 |
CN108082083B (zh) * | 2018-01-16 | 2019-11-01 | 京东方科技集团股份有限公司 | 一种被遮挡对象的显示方法和显示系统以及车载防撞系统 |
CN111861865B (zh) * | 2019-04-29 | 2023-06-06 | 精工爱普生株式会社 | 电路装置、电子设备以及移动体 |
CN112484743B (zh) * | 2020-12-03 | 2022-09-20 | 安徽中科新萝智慧城市信息科技有限公司 | 车载hud融合实景导航显示方法及其系统 |
US11605152B1 (en) | 2021-06-22 | 2023-03-14 | Arnold Chase | Dynamic positional control system |
CN116152883B (zh) * | 2022-11-28 | 2023-08-11 | 润芯微科技(江苏)有限公司 | 一种车载眼球识别和前玻璃智能局部显示的方法和系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004322680A (ja) * | 2003-04-21 | 2004-11-18 | Denso Corp | ヘッドアップディスプレイ装置 |
JP2006162442A (ja) * | 2004-12-07 | 2006-06-22 | Matsushita Electric Ind Co Ltd | ナビゲーション装置及びナビゲーション方法 |
JP2013203374A (ja) * | 2012-03-29 | 2013-10-07 | Denso It Laboratory Inc | 車両用表示装置、その制御方法及びプログラム |
JP2014181927A (ja) * | 2013-03-18 | 2014-09-29 | Aisin Aw Co Ltd | 情報提供装置、及び情報提供プログラム |
JP2015000629A (ja) * | 2013-06-14 | 2015-01-05 | 株式会社デンソー | 車載表示装置およびプログラム |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4487188B2 (ja) * | 2004-10-25 | 2010-06-23 | ソニー株式会社 | 情報処理装置および方法、プログラム、並びにナビゲーション装置 |
JP2007094045A (ja) * | 2005-09-29 | 2007-04-12 | Matsushita Electric Ind Co Ltd | ナビゲーション装置、ナビゲート方法および車両 |
JP4783620B2 (ja) * | 2005-11-24 | 2011-09-28 | 株式会社トプコン | 3次元データ作成方法及び3次元データ作成装置 |
CA2678156C (en) * | 2007-02-16 | 2013-10-08 | Mitsubishi Electric Corporation | Measurement apparatus, measurement method, and feature identification apparatus |
JP2008280026A (ja) * | 2007-04-11 | 2008-11-20 | Denso Corp | 運転支援装置 |
JP5346650B2 (ja) | 2009-03-31 | 2013-11-20 | 株式会社エクォス・リサーチ | 情報表示装置 |
JP5786574B2 (ja) * | 2011-09-12 | 2015-09-30 | アイシン・エィ・ダブリュ株式会社 | 画像表示制御システム、画像表示制御方法および画像表示制御プログラム |
JP6328366B2 (ja) | 2012-08-13 | 2018-05-23 | アルパイン株式会社 | ヘッドアップディスプレイの表示制御装置および表示制御方法 |
KR20140054909A (ko) * | 2012-10-30 | 2014-05-09 | 팅크웨어(주) | 광각 렌즈 카메라 영상을 이용한 내비게이션 안내 장치 및 방법 |
-
2015
- 2015-06-30 CN CN201580079586.8A patent/CN107532917B/zh not_active Expired - Fee Related
- 2015-06-30 US US15/541,506 patent/US20170351092A1/en not_active Abandoned
- 2015-06-30 DE DE112015006662.4T patent/DE112015006662T5/de active Pending
- 2015-06-30 JP JP2017503645A patent/JP6239186B2/ja not_active Expired - Fee Related
- 2015-06-30 WO PCT/JP2015/068893 patent/WO2017002209A1/ja active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004322680A (ja) * | 2003-04-21 | 2004-11-18 | Denso Corp | ヘッドアップディスプレイ装置 |
JP2006162442A (ja) * | 2004-12-07 | 2006-06-22 | Matsushita Electric Ind Co Ltd | ナビゲーション装置及びナビゲーション方法 |
JP2013203374A (ja) * | 2012-03-29 | 2013-10-07 | Denso It Laboratory Inc | 車両用表示装置、その制御方法及びプログラム |
JP2014181927A (ja) * | 2013-03-18 | 2014-09-29 | Aisin Aw Co Ltd | 情報提供装置、及び情報提供プログラム |
JP2015000629A (ja) * | 2013-06-14 | 2015-01-05 | 株式会社デンソー | 車載表示装置およびプログラム |
Non-Patent Citations (1)
Title |
---|
"Japan Institute of Invention and Innovation", JOURNAL OF TECHNICAL DISCLOSURE, JOURNAL NUMBER 2013-500765, 1 March 2013 (2013-03-01) * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019010965A (ja) * | 2017-06-30 | 2019-01-24 | マクセル株式会社 | ヘッドアップディスプレイ装置 |
US11648878B2 (en) * | 2017-09-22 | 2023-05-16 | Maxell, Ltd. | Display system and display method |
JP2020168938A (ja) * | 2019-04-03 | 2020-10-15 | スズキ株式会社 | 車両用表示制御装置 |
JP7255321B2 (ja) | 2019-04-03 | 2023-04-11 | スズキ株式会社 | 車両用表示制御装置 |
JP7550067B2 (ja) | 2021-01-29 | 2024-09-12 | 日産自動車株式会社 | 情報提供方法及び情報提供システム |
Also Published As
Publication number | Publication date |
---|---|
JPWO2017002209A1 (ja) | 2017-06-29 |
JP6239186B2 (ja) | 2017-11-29 |
DE112015006662T5 (de) | 2018-05-03 |
CN107532917B (zh) | 2018-06-12 |
US20170351092A1 (en) | 2017-12-07 |
CN107532917A (zh) | 2018-01-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6239186B2 (ja) | 表示制御装置及び表示制御方法及び表示制御プログラム | |
US11181737B2 (en) | Head-up display device for displaying display items having movement attribute or fixed attribute, display control method, and control program | |
US9563981B2 (en) | Information processing apparatus, information processing method, and program | |
US10331962B2 (en) | Detecting device, detecting method, and program | |
US9207069B2 (en) | Device for generating a three-dimensional model based on point cloud data | |
US9454704B2 (en) | Apparatus and method for determining monitoring object region in image | |
JP2011505610A (ja) | 画像センサデータに距離センサデータをマッピングする方法及び装置 | |
US20150178922A1 (en) | Calibration device, method for implementing calibration, and camera for movable body and storage medium with calibration function | |
JP2013203374A (ja) | 車両用表示装置、その制御方法及びプログラム | |
KR20140056790A (ko) | 영상 인식 장치 및 그 방법 | |
JP6515704B2 (ja) | 車線検出装置及び車線検出方法 | |
JP2019121876A (ja) | 画像処理装置、表示装置、ナビゲーションシステム、画像処理方法及びプログラム | |
CN110832851B (zh) | 图像处理装置、图像变换方法 | |
JP7286406B2 (ja) | 画像分析システムおよび画像分析方法 | |
JP2007278869A (ja) | 測距装置、車両の周辺監視装置、測距方法、および測距用プログラム | |
JP6060612B2 (ja) | 移動面状況認識装置、移動体、及びプログラム | |
KR20220160850A (ko) | 소실점을 추정하는 방법 및 장치 | |
JP2021043141A (ja) | 物体距離推定装置及び物体距離推定方法 | |
JP6385621B2 (ja) | 画像表示装置、画像表示方法及び画像表示プログラム | |
JP7585147B2 (ja) | 演算装置、速度算出方法 | |
US11354896B2 (en) | Display device, display method, and computer program | |
JP2024032396A (ja) | 情報処理装置、情報処理方法およびプログラム | |
JP2012027595A (ja) | 発進報知装置、発進報知方法及びプログラム | |
US20220397393A1 (en) | Shielding detection device and computer readable medium | |
JP2022136366A (ja) | 接近検知装置、接近検知方法、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
ENP | Entry into the national phase |
Ref document number: 2017503645 Country of ref document: JP Kind code of ref document: A |
|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 15897136 Country of ref document: EP Kind code of ref document: A1 |
|
WWE | Wipo information: entry into national phase |
Ref document number: 15541506 Country of ref document: US |
|
WWE | Wipo information: entry into national phase |
Ref document number: 112015006662 Country of ref document: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 15897136 Country of ref document: EP Kind code of ref document: A1 |