ES2298681T3 - Procedimiento y dispositivo para la representacion de informacion para el conductor teniendo en cuenta otros objetos moviles. - Google Patents
Procedimiento y dispositivo para la representacion de informacion para el conductor teniendo en cuenta otros objetos moviles. Download PDFInfo
- Publication number
- ES2298681T3 ES2298681T3 ES04101533T ES04101533T ES2298681T3 ES 2298681 T3 ES2298681 T3 ES 2298681T3 ES 04101533 T ES04101533 T ES 04101533T ES 04101533 T ES04101533 T ES 04101533T ES 2298681 T3 ES2298681 T3 ES 2298681T3
- Authority
- ES
- Spain
- Prior art keywords
- signals
- route guidance
- display
- objects
- route
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 238000000034 method Methods 0.000 title claims abstract description 15
- VJYFKVYYMZPMAB-UHFFFAOYSA-N ethoprophos Chemical compound CCCSP(=O)(OCC)SCCC VJYFKVYYMZPMAB-UHFFFAOYSA-N 0.000 title 1
- 238000002604 ultrasonography Methods 0.000 claims abstract description 3
- 239000011521 glass Substances 0.000 claims description 18
- 238000012800 visualization Methods 0.000 claims description 7
- 230000007613 environmental effect Effects 0.000 claims 1
- 238000004364 calculation method Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000001149 cognitive effect Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000004020 conductor Substances 0.000 description 1
- 239000013078 crystal Substances 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000002028 premature Effects 0.000 description 1
- 230000035484 reaction time Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000009966 trimming Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3626—Details of the output of route guidance instructions
- G01C21/3635—Guidance using 3D or perspective road maps
- G01C21/3638—Guidance using 3D or perspective road maps including 3D objects and buildings
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/09—Arrangements for giving variable traffic instructions
- G08G1/0962—Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
- G08G1/0968—Systems involving transmission of navigation instructions to the vehicle
- G08G1/096855—Systems involving transmission of navigation instructions to the vehicle where the output is provided in a suitable form to the driver
- G08G1/096861—Systems involving transmission of navigation instructions to the vehicle where the output is provided in a suitable form to the driver where the immediate route instructions are output to the driver, e.g. arrow signs for next turn
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/09—Arrangements for giving variable traffic instructions
- G08G1/0962—Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
- G08G1/0968—Systems involving transmission of navigation instructions to the vehicle
- G08G1/0969—Systems involving transmission of navigation instructions to the vehicle having a display in the form of a map
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Navigation (AREA)
Abstract
Procedimiento para la representación de información para el conductor, con al menos las siguientes etapas: generar señales (ZF) de guía de ruta a partir de señales (Z) de datos de destino introducidas, señales (P) de posición y señales (K) de mapas, determinar al menos un primer objeto (G1) de guía de ruta a partir de las señales (ZF) de guía de ruta, las señales (K) de mapa y las señales (P) de posición, determinar un objeto (ZO) de visualización de guía de ruta para su representación en posición correcta en un campo (10, 20) de visualización, determinándose el objeto (ZO) de visualización de guía de ruta a partir del primer objeto (G1) de guía de ruta y conteniendo datos acerca de su posición en el campo (10, 20) de visualización, y emitir el al menos un objeto (ZO) de visualización de guía de ruta en el campo (10, 20) de visualización, generándose el objeto (ZO) de visualización de guía de ruta eliminando al menos una zona (TB) parcial del primer objeto (G1) de guía de ruta o un objeto de visualización de guía de ruta generado a partir del primer objeto (G1) de guía de ruta en función de las señales (K) de mapa y las señales (P) de posición, eliminándose una zona (TB) parcial del objeto (G1) de guía de ruta cuando basándose en las señales (P) de posición y las señales (K) de mapa se determina que entre la posición del vehículo y una posición geográfica de la zona (TB) parcial está dispuesto un objeto (V1, V2, V3) de ocultamiento, caracterizado porque como objetos de ocultamiento se reconocen otros objetos móviles, por ejemplo vehículos, que se detectan por al menos un sensor del vehículo, por ejemplo un sensor de radar, de imagen estereográfica, imagen monográfica, de infrarrojos, de ultrasonidos.
Description
Procedimiento y dispositivo para la
representación de información para el conductor teniendo en cuenta
otros objetos móviles.
La invención se refiere a un procedimiento y a
un dispositivo para la representación de información para el
conductor, especialmente para un sistema de navegación para
vehículos.
Los sistemas de navegación para vehículos
determinan, a partir de datos de destino introducidos por el
conductor, datos de posición y datos de mapas, indicaciones de guía
de ruta que llevan al conductor al destino siguiendo una ruta
segura, rápida y directa. Las indicaciones de guía de ruta,
especialmente las maniobras que deben realizarse, se emiten por el
sistema de navegación de manera acústica u óptica mediante la
aparición de flechas en un dispositivo de visualización en la zona
del salpicadero del vehículo. Además pueden determinarse en parte
mediante sensores de distancia las velocidades del propio vehículo y
otros usuarios de la carretera y de este modo reconocerse
situaciones de peligro.
En el caso de la emisión óptica de indicaciones
de guía de ruta con la representación en un campo de visualización
de un dispositivo de visualización se emiten en general
representaciones de situaciones de conducción generalizadas,
especialmente abstractas o simplificadas, por ejemplo
representaciones de cruces, en las que se destacan las maniobras de
conducción que deben realizarse, por ejemplo realizar un giro.
Mediante la representación generalizada de la
situación de conducción y las indicaciones de guía de ruta
destacadas gráficamente, se mantiene ciertamente reducida la
distracción del conductor con respecto a situaciones del tráfico y
se limita el esfuerzo técnico de la búsqueda en mapas actual y la
determinación de las señales de guía de ruta que deben mostrarse.
Sin embargo, la atención del conductor se ve perjudicada por la
necesidad de mirar cada cierto tiempo al dispositivo de
visualización, en el que primero debe orientarse nuevamente cada
vez y debe trasladar la información mostrada a su entorno de
conducción, su posición y orientación, lo que lleva a una reducción
de la seguridad de la conducción. Es cierto que también pueden
emitirse situaciones de peligro reconocidas por el dispositivo de
control del sistema de navegación en el dispositivo de visualización
y, dado el caso, acústicamente; sin embargo de este modo el
conductor que observa el entorno de conducción a menudo no puede
asociar esta información con suficiente rapidez a la situación real
y por tanto, dado el caso, no puede reaccionar con suficiente
rapidez de manera correspondiente a la situación de peligro. La
emisión súbita de señales de peligro y advertencia puede llevar
incluso a una confusión del conductor en situaciones de conducción
difíciles que perjudican su atención.
Además, especialmente en caso de geometrías de
cruce poco claras resulta problemático el proporcionar las
indicaciones de guía de ruta, ya que a menudo el dispositivo de
visualización debe trasladar de manera adecuada a la situación de
la carretera por ejemplo maniobras de giro para el conductor sólo
con dificultad; por tanto entonces en caso de geometrías de cruce
complejas, un conductor a menudo percibe una posibilidad de giro
demasiado prematura o demasiado tardía. Ciertamente para ello
pueden emitirse adicionalmente datos de distancia o representaciones
de la distancia con barras decrecientes, sin embargo también deben
trasladarse este tipo de datos adicionales a la situación de
conducción real a menudo sólo con dificultad para el conductor y
pueden perjudicar adicionalmente su atención, especialmente en caso
de una conducción en curva difícil, circulación en sentido opuesto y
otros usuarios de la carretera que pueden detectarse con dificultad
como ciclistas y peatones.
En caso de dispositivos de visualización con
representación de mapa tridimensional, se representan de manera
destacada por ejemplo la trayectoria que ha de recorrerse, letreros
indicadores o el propio destino. De este modo puede escogerse un
punto fijo de observación del conductor orientado en la dirección de
conducción a una altura por regla general seleccionable sobre el
vehículo. Debido especialmente a la dificultad técnica el contenido
representado es sin embargo a menudo muy abstracto y se mantiene
incompleto. Por ello y debido a las desviaciones del ángulo de
visión libremente seleccionable con respecto a la perspectiva real
del conductor, resulta difícil para el conductor crear un contexto
con la situación de conducción percibida realmente por él.
Además, se conocen procedimientos y sistemas en
los que se muestra directamente al conductor información relevante,
por ejemplo mediante gafas de datos o visualizaciones
Head-up (a la altura de la vista), en su
campo de visión. De este modo el conductor puede mantener su vista
orientada siempre a la carretera y a la situación de la carretera
del entorno y recibir información complementaria. El documento US
5.883.739 describe un procedimiento en el que se forman imágenes
del campo de visión izquierdo y derecho y se solapan para formar una
imagen estereoscópica sobre un cristal de visión dispuesto detrás
del parabrisas. De este modo pueden mostrarse por ejemplo flechas
como objetos de guía de ruta.
Por el documento Int. J. of Vehicle Design, vol.
19, nº 2, 1998, A. Steinfeld y P. Green "Driver responses to
navigation information on full-windshield,
head-up displays" se conoce o bien reproducir
información de navegación en un dispositivo de visualización del
panel de instrumentos o bien superponer la escena de la carretera
en el cristal del parabrisas. En caso de una superposición de este
tipo se consiguen tiempos de reacción más cortos del conductor que
con la emisión en el dispositivo de visualización adicional.
El documento DE 198 52 662 A1 muestra un
procedimiento para la navegación basada en multimedia de un vehículo
en una red de carreteras, en el que se emiten indicaciones de
conducción que se refieren a objetos destacados a lo largo de la
ruta, de manera acústica mediante emisiones de voz y mediante una
emisión óptica para el conductor. Un dispositivo informático para
la determinación de rutas determina una ruta a partir de un mapa
digital y la posición determinada por un sistema de posicionamiento
global. Un dispositivo informático para la emisión de indicaciones
de conducción determina objetos destacados que se interrelacionan
con las indicaciones de conducción. La emisión óptica puede
realizarse especialmente aplicando el objeto sobre un dispositivo de
visualización.
Por el documento DE 100 23 160 A1 se conoce un
dispositivo de visualización de mapas con el que se muestran
edificios y carreteras tridimensionalmente. Una línea de guiado de
ruta se representa sobre una carretera sobre el mapa mostrado
tridimensionalmente. Cuando la línea de guiado de ruta se tapa por
un edificio, una unidad de control muestra la zona solapada de la
línea de guiado de ruta en un color que es diferente del color de
las zonas que no se solapa. Especialmente, la línea de guiado de
ruta puede mostrarse en este caso de manera semitransparente y
solapar por ejemplo un edificio representado en el mapa. La unidad
de visualización está realizada para ello especialmente como una
pantalla de cristal líquido.
El procedimiento según la invención y el
dispositivo según la invención ofrecen por el contrario
especialmente la ventaja de que pueden transmitirse al conductor
indicaciones de guía de ruta de manera realista sin una carga y
distracción cognitiva demasiado grande con respecto a la situación
del tráfico. De este modo, las indicaciones para el conductor se
utilizan como objetos de guía de ruta y ventajosamente la
información adicional como objetos de información en posición
correcta en una imagen real o realista del entorno de
conducción.
Los objetos de guía de ruta emitidos según la
invención sirven como indicaciones de guía de ruta, pueden ser
especialmente datos de dirección de conducción, por ejemplo flechas
que se extienden a través de giros, cruces o sistemas de rotondas o
cruces completos. Puede emitirse información adicional especialmente
acerca de objetos del entorno, por ejemplo indicaciones de
edificios, su importancia histórica, funciones o de aspectos locales
como ríos, montañas, mares, paisajes.
El conductor puede según la invención mantener
la vista sobre la situación del tráfico y asociar las indicaciones
de guía de ruta y, dado el caso, información adicional, directamente
con las posiciones reales en la situación del tráfico debido a la
asociación de posición correcta, sin tener que realizar
abstracciones de la información mostrada mediante por ejemplo
transformación de una simbología de flechas en situaciones de cruce
reales. Por tanto, tiene una carga cognitiva menor y está más
seguro en sus decisiones.
Según la invención, los objetos de guía de ruta
mostrados pueden formarse teniendo en cuenta objetos de ocultamiento
o zonas de ocultamiento visibles adicionalmente en el campo de
visión del conductor. De este modo se recortan los primeros objetos
de salida de guía de ruta, teniendo en cuenta zonas de ocultamiento
que se calculan a partir de datos de mapas o según la invención a
partir de obstáculos determinados por un sensor del vehículo. De
los primeros objetos de salida de guía de ruta se cortan con esto
aquellas zonas parciales que se encuentran en el campo de visión
del conductor por detrás de zonas de ocultamiento u objetos de
ocultamiento. Por tanto se consigue una representación realista con
la que los objetos de guía de ruta mostrados y, dado el caso,
también otros objetos de información, se insertan en el entorno de
conducción visible por el conductor y por tanto pueden asociarse
sin transformación teórica adicional por parte del conductor al
entorno de conducción.
Los objetos de ocultamiento que, dado el caso,
han de tenerse en cuenta pueden determinarse directamente a partir
de los datos de mapas o mediante sensores adicionales del vehículo,
por ejemplo sensores de distancia por ultrasonidos, infrarrojos o
radar, así como mediante el análisis de imágenes estereoscópicas,
especialmente mediante fotogrametría.
Según la invención pueden mostrarse los objetos
de guía de ruta y, dado el caso, otros objetos de información,
ventajosamente en un cristal de visión transparente en el campo de
visión del conductor entre su entorno de conducción y su posición,
especialmente en el propio cristal del parabrisas o en un cristal de
visión dispuesto detrás. Para ello, puede realizarse especialmente
una proyección en el cristal del parabrisas o un cristal de visión
transparente dispuesto detrás; además puede realizarse la
representación también en un cristal de visión que lleva el propio
conductor, por ejemplo en unas gafas de datos o en una visera
abatible de un casco.
Además, también es posible una representación de
los objetos de guía de ruta sobre un dispositivo de visualización,
por ejemplo en la zona del salpicadero del vehículo. De este modo se
capta el entorno de conducción o la escena de conducción percibida
realmente por el conductor mediante, por ejemplo, una cámara fijada
al o en el vehículo y se reproduce como representación en mapa en
el campo de visualización del dispositivo de visualización junto
con los objetos de guía de ruta y, dado el caso, objetos de
información. El conductor debe ciertamente, con esta forma de
realización según la invención, apartar la vista brevemente del
campo de visión de la situación de la carretera; sin embargo,
puesto que en el campo de visualización del dispositivo de
visualización vuelve a encontrar de manera realista directamente el
entorno de conducción que también ve él, puede asociar directamente
las señales de guía de ruta mostradas y, dado el caso, otra
información de objetos.
Los datos de mapas pueden obtenerse tanto a
partir de una memoria de mapas que se encuentra en el vehículo, por
ejemplo un soporte de información digital como un
CD-ROM, como también mediante transmisión remota de
datos. Los datos de posición pueden determinarse, de una manera
conocida en sí misma, por un sistema de posicionamiento global, un
sensor de distancia recorrida o un sensor de velocidad de rotación o
una combinación de los mismos. De este modo se determinan la
posición y la orientación, es decir, la dirección de conducción del
vehículo, y se asocian a los datos de mapas de manera clara. Las
indicaciones de guía de ruta se determinan de una manera conocida
mediante algoritmos de navegación a partir de los datos de destino
introducidos por el conductor y los datos de posición del
vehículo.
La invención se explicará a continuación más
detalladamente con ayuda de los dibujos adjuntos en algunas formas
de realización. Muestran:
la figura 1, un diagrama de bloques de un
dispositivo según una forma de realización con un campo de
visualización en el campo de visión del conductor;
la figura 2, un diagrama de bloques según otra
forma de realización con visualización en un campo de visualización
de un dispositivo de visualización;
la figura 3, un diagrama de bloques según otra
forma de realización teniendo en cuenta ocultamientos;
las figuras 4a, b representaciones que puede ver
el conductor en las visualizaciones en a) las formas de realización
de las figuras 1, 2 y b) de la figura 3.
Un dispositivo 1 para la representación de
información para el conductor para un vehículo F presenta una
memoria 2 de mapas, por ejemplo un medio de almacenamiento digital
en el automóvil F o una base de datos de mapas prevista de manera
externa, en conexión a través de transmisión remota de datos con el
automóvil F. A partir de la memoria 2 de mapas se emiten señales K
de mapa a un dispositivo 3 de navegación. El dispositivo 3 de
navegación recibe además desde un sensor 4 de posición de un sistema
de posicionamiento global (GPS) señales P de posición y desde un
dispositivo 5 de entrada, datos Z de destino, por ejemplo
coordenadas de destino introducidas por el conductor o datos de
nombre de un lugar de destino. El dispositivo 3 de navegación
calcula de una manera conocida en sí misma indicaciones de guía de
ruta y emite señales ZF de guía de ruta correspondientes, que
comprenden una señal de orientación para la asociación de la
dirección de conducción, en un dispositivo 6 de determinación. El
dispositivo 6 de determinación recibe además datos P de posición del
sensor 4 de posición y datos K de mapas de la memoria 2 de mapas y
determina a partir de los mismos primeros objetos G1 de guía de
ruta que corresponden a una representación del entorno de conducción
en un mapa.
Además pueden determinarse por el dispositivo 3
de navegación objetos relevantes, por ejemplo, edificios, paisajes,
lugares de interés, en el campo de visión del conductor basándose en
los datos K de mapas y las señales P de posición y pueden emitirse
señales I de información con información sobre estos objetos, por
ejemplo su nombre y sus funciones, al dispositivo 6 de
determinación. El dispositivo 6 de determinación determina objetos
IO de información, por ejemplo tablas con datos sobre los
objetos.
Un dispositivo 7 de cálculo recibe los primeros
objetos G1 de guía de ruta, los datos K de mapas y los datos P de
posición y determina objetos ZO de visualización de guía de ruta que
contienen datos acerca de la forma, tamaño y coordenadas en un
campo 10 de visualización. Los objetos ZO de visualización de guía
de ruta pueden formarse especialmente como imágenes de proyección
de los objetos G1 de guía de ruta desde la perspectiva del
conductor. Además, los objetos IO de información se retransmiten al
dispositivo 7 de cálculo, que calcula las coordenadas de los
objetos IO de información en el campo 10 de visualización; de este
modo pueden modificarse los objetos IO de información.
El dispositivo 7 de cálculo retransmite los
objetos ZO de visualización de guía de ruta y los objetos IO de
información incluyendo sus coordenadas a un dispositivo 8 de
proyección, que los arroja a su vez, en esta forma de realización,
como señales luminosas sobre un campo 10 de visualización de un
cristal 9 de visión transparente. El cristal 9 de visión está
dispuesto en este caso entre el conductor y el entorno de conducción
observado por él, es decir en el camp de visión del conductor;
puede ser por ejemplo el propio cristal del parabrisas o un cristal
9 de visión transparente dispuesto detrás del cristal del
parabrisas. El conductor percibe por tanto el objeto ZO de
visualización de guía de ruta, en la forma de realización mostrada
una flecha ZO que muestra un giro a la izquierda, en su posición
correcta en el entorno del vehículo que él ve a través del camp 10
de visualización por lo demás transparente. El dispositivo 3 de
navegación, el dispositivo 6 de determinación y el dispositivo 7 de
cálculo pueden estar configurados de manera integrada como un
dispositivo 11 de control.
En la forma de realización de la figura 2 se
realiza una representación sobre un dispositivo 22 de visualización
separado. Para ello, los primeros objetos G1 de guía de ruta y los
objetos de IO de información se determinan como en la primera forma
de realización y se emiten a un dispositivo 14 de generación de
imágenes. Una monocámara o dos cámaras 12a, 12b, que están
dispuestas por ejemplo dentro del vehículo F por debajo del techo,
captan el entorno de conducción en la dirección de visión del
conductor y emiten señales U1, U2 de imágenes del entorno a un
dispositivo 15 de análisis, que emite primeras señales U de imágenes
al dispositivo 14 de generación de imágenes. El dispositivo 14 de
generación de imágenes determina a su vez objetos ZO de
visualización de guía de ruta y los superpone junto con los objetos
IO de información a las primeras señales U de imágenes y emite
segundas señales B de imágenes a un campo 20 de visualización del
dispositivo 22 de visualización. También en esta forma de
realización el conductor puede por tanto reconocer el escenario de
conducción que le es familiar en ese momento en una imagen real o
adaptada a la realidad y de este modo asociar objetos ZO de
visualización de guía de ruta y objetos IO de información
directamente al tráfico de la carretera, aunque para ello deba
dirigir su mirada desde el entorno de conducción al dispositivo 22
de visualización. En la segunda forma de realización de la figura
2, el dispositivo 3 de navegación, el dispositivo 6 de
determinación, el dispositivo 15 de análisis y el dispositivo 14 de
generación de imágenes pueden estar configurados de manera
integrada como un dispositivo 16 de control con programación
correspondiente.
En la forma de realización de la figura 3, al
contrario que en las dos primeras formas de realización de las
figuras 1, 2, se emiten los objetos ZO de visualización de guía de
ruta y los objetos IO de información de manera correspondientemente
recortada, para adaptar su percepción de manera real a ocultamientos
parciales por objetos de ocultamiento en el entorno de
conducción/campo de visión que puede ver el conductor. La operación
de recorte, es decir, eliminar zonas parciales, puede realizarse o
bien como se muestra en la figura 3 en el mapa, es decir en los
objetos G1, IO de la representación de mapa, o también en los
objetos ZO de visualización de guía de ruta y en los objetos IO de
información que han de representarse en el campo 10, 20 de
visualización.
Los primeros objetos G1 de guía de ruta y
objetos IO1 de información se emiten por el dispositivo 6 de
determinación en primer lugar a un dispositivo 21 de recorte. El
dispositivo 21 de recorte determina zonas TB parciales de los
objetos G1 de guía de ruta y los objetos IO1 de información que se
encuentran en la dirección de visión, en línea recta, por detrás de
un objetos de ocultamiento, es decir, entre las mismas y la posición
del conductor se encuentra al menos un objeto V1, V2 de
ocultamiento. Puesto que una zona TB parcial se oculta debido a la
posición anterior del objeto V1 de ocultamiento, ésta se elimina o
se representa como zona oculta de otra manera, por ejemplo con otro
color, luminosidad, sombreado o líneas perimetrales discontinuas. De
este modo se determinan segundos objetos G2 de guía de ruta y
segundos objetos IO2 de información, que se introducen a
continuación a su vez en el dispositivo 7 de cálculo o el
dispositivo 14 de generación de imágenes y, como en las formas de
realización anteriores de las figuras 1 o 2, se representan objetos
ZO de visualización de guía de ruta y objetos IO de información en
un campo 10 o 20 de visualización.
Alternativamente a la forma de realización
mostrada, el dispositivo 21 de recorte puede estar dispuesto
básicamente también detrás del dispositivo 7 de proyección y por
tanto reconocer y eliminar directamente ocultamientos en la imagen
que va a mostrarse como solapamientos de las zonas de superficie
bidimensionales. El dispositivo 3 de navegación, el dispositivo 6
de determinación, el dispositivo 15 de recorte y el dispositivo 7 de
cálculo pueden estar configurados de manera integrada como un
dispositivo 23 de control con programación correspondiente.
En todas las formas de realización pueden
emitirse de manera complementaria señales acústicas. Especialmente
en la figura 2 pueden emitirse señales acústicas en el momento de la
emisión de objetos ZO de visualización de guía de ruta y/u objetos
IO de información o también en el momento de la modificación de
estos objetos ZO, IO, para que el conductor dirija brevemente la
mirada al campo 20 de visualización.
Claims (8)
1. Procedimiento para la representación de
información para el conductor, con al menos las siguientes etapas:
generar señales (ZF) de guía de ruta a partir de señales (Z) de
datos de destino introducidas, señales (P) de posición y señales
(K) de mapas, determinar al menos un primer objeto (G1) de guía de
ruta a partir de las señales (ZF) de guía de ruta, las señales (K)
de mapa y las señales (P) de posición, determinar un objeto (ZO) de
visualización de guía de ruta para su representación en posición
correcta en un campo (10, 20) de visualización, determinándose el
objeto (ZO) de visualización de guía de ruta a partir del primer
objeto (G1) de guía de ruta y conteniendo datos acerca de su
posición en el campo (10, 20) de visualización, y emitir el al
menos un objeto (ZO) de visualización de guía de ruta en el campo
(10, 20) de visualización, generándose el objeto (ZO) de
visualización de guía de ruta eliminando al menos una zona (TB)
parcial del primer objeto (G1) de guía de ruta o un objeto de
visualización de guía de ruta generado a partir del primer objeto
(G1) de guía de ruta en función de las señales (K) de mapa y las
señales (P) de posición, eliminándose una zona (TB) parcial del
objeto (G1) de guía de ruta cuando basándose en las señales (P) de
posición y las señales (K) de mapa se determina que entre la
posición del vehículo y una posición geográfica de la zona (TB)
parcial está dispuesto un objeto (V1, V2, V3) de ocultamiento,
caracterizado porque como objetos de ocultamiento se
reconocen otros objetos móviles, por ejemplo vehículos, que se
detectan por al menos un sensor del vehículo, por ejemplo un sensor
de radar, de imagen estereográfica, imagen monográfica, de
infrarrojos, de ultrasonidos.
2. Procedimiento según la reivindicación 1,
caracterizado porque a partir de las señales (K) de mapa y
las señales (P) de posición se determinan al menos un objeto (IO)
de información y se emiten en el campo (10, 20) de
visualización.
3. Procedimiento según la reivindicación 2,
caracterizado porque el objeto (IO) de información se
determina generando, a partir de las señales (K) de mapa y las
señales (P) de posición, señales (I) de información a partir de las
cuales se genera al menos un primer objeto (IO1) de información del
que se elimina una zona (TB) parcial cuando, basándose en las
señales (P) de posición y las señales (K) de mapa, se determina que
entre la posición del vehículo y una posición geográfica de la zona
(TB) parcial está dispuesto un objeto (V1, V2, V3) de
ocultamiento.
4. Procedimiento según una de las
reivindicaciones anteriores, caracterizado porque las señales
(P) de posición se emiten por al menos un sensor (4), por ejemplo
un sensor (4) de un sistema de posicionamiento global (GPS) y/o un
contador de distancia recorrida y/o un sensor de velocidad de
rotación.
5. Procedimiento según una de las
reivindicaciones anteriores, caracterizado porque el campo
(10) de visualización es una superficie transparente en la zona de
visión entre el conductor y una zona de conducción de su
vehículo.
6. Procedimiento según la reivindicación 5,
caracterizado porque el campo (10) de visualización es una
parte del cristal del parabrisas del vehículo, un cristal (9) de
visión transparente detrás del cristal del parabrisas del vehículo
o parte de un dispositivo de visera que lleva el conductor, por
ejemplo unas gafas o una visera abatible de un casco.
7. Procedimiento según una de las
reivindicaciones 1 a 4, caracterizado porque el campo (20) de
visualización está previsto en un dispositivo (22) de
visualización, por ejemplo en la zona del salpicadero del vehículo,
emitiéndose en el campo (20) de visualización señales (B) de imagen
que comprenden los objetos (ZO) de guía de ruta y señales (U) de
imágenes del entorno emitidas por un dispositivo (12a, 12b) de
cámara del vehículo.
8. Dispositivo para la representación de
información para el conductor, con un dispositivo (3) de navegación,
un dispositivo (6) para determinar un primer objeto (G1) de guía de
ruta, un dispositivo (7, 14) para calcular un objeto (ZO) de
visualización de guía de ruta y un dispositivo (8, 9, 10; 20, 22)
para representar el objeto (ZO) de visualización de guía de ruta,
estando previsto un dispositivo (21) de recorte que elimina de los
primeros objetos (ZO) de guía de ruta y/o de los objetos (IO1) de
información al menos una zona (TB) parcial cuando entre la zona
(TB) parcial y la posición del conductor se determina un objeto (V1,
V2) de ocultamiento, caracterizado por al menos un sensor
del vehículo para detectar otros objetos móviles como objetos de
ocultamiento.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP20040101533 EP1586861B1 (de) | 2004-04-15 | 2004-04-15 | Verfahren und Vorrichtung zur Darstellung von Fahrerinformationen unter Berücksichtigung anderer beweglicher Objekte |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2298681T3 true ES2298681T3 (es) | 2008-05-16 |
Family
ID=34928957
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES04101533T Expired - Lifetime ES2298681T3 (es) | 2004-04-15 | 2004-04-15 | Procedimiento y dispositivo para la representacion de informacion para el conductor teniendo en cuenta otros objetos moviles. |
Country Status (2)
Country | Link |
---|---|
EP (1) | EP1586861B1 (es) |
ES (1) | ES2298681T3 (es) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102006054323A1 (de) * | 2006-11-17 | 2008-05-21 | Robert Bosch Gmbh | Verfahren zum Orten eines Objekts |
DE102007030243A1 (de) * | 2007-06-29 | 2009-01-08 | Robert Bosch Gmbh | Verfahren und Vorrichtung zur Übermittlung von Informationen an Fahrzeuginsassen |
DE112008003481T5 (de) | 2007-12-28 | 2010-12-30 | Mitsubishi Electric Corp. | Navigationsgerät |
WO2009084133A1 (ja) * | 2007-12-28 | 2009-07-09 | Mitsubishi Electric Corporation | ナビゲーション装置 |
WO2013113500A1 (de) | 2012-02-02 | 2013-08-08 | Audi Ag | Fahrerassistenzsystem und verfahren zur virtuellen darstellung eines strassenverlaufs bei verdeckung und/oder schlechten sichtverhältnissen |
DE102012020568A1 (de) * | 2012-10-19 | 2014-04-24 | Audi Ag | Verfahren zum Betreiben einer Navigationseinrichtung und zur Erfassung einer wahrnehmbaren Umwelt |
DE102013207063A1 (de) | 2013-04-19 | 2014-10-23 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren zum Auswählen einer Informationsquelle aus einer Mehrzahl von Informationsquellen zur Anzeige auf einer Anzeige einer Datenbrille |
DE102013207064A1 (de) * | 2013-04-19 | 2014-10-23 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren zur Auswahl einer Informationsquelle zur Anzeige auf einer Datenbrille |
DE102013011311B4 (de) | 2013-07-06 | 2018-08-09 | Audi Ag | Verfahren zum Betreiben eines Informationssystems eines Kraftwagens und Informationssystem für einen Kraftwagen |
DE102015007246B4 (de) * | 2015-06-05 | 2019-12-05 | Audi Ag | Verfahren zum Betreiben eines Anzeigesystems und Anzeigesystem für ein Kraftfahrzeug |
DE102016220521A1 (de) | 2016-10-19 | 2018-04-19 | Volkswagen Aktiengesellschaft | Verfahren zum Ermitteln einer Position eines Kraftfahrzeugs sowie Fahrerassistenzsystem für ein Kraftfahrzeug |
DE102018133669A1 (de) | 2018-12-28 | 2020-07-02 | Volkswagen Aktiengesellschaft | Verfahren und Vorrichtung zur Wiedergabe von Navigationshinweisen |
DE102021124098A1 (de) | 2021-09-17 | 2023-03-23 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren und Vorrichtung zum Betreiben einer Datenbrille in einem Kraftfahrzeug |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
NL8901695A (nl) * | 1989-07-04 | 1991-02-01 | Koninkl Philips Electronics Nv | Werkwijze voor het weergeven van navigatiegegevens voor een voertuig in een omgevingsbeeld van het voertuig, navigatiesysteem voor het uitvoeren van de werkwijze, alsmede voertuig voorzien van een navigatiesysteem. |
DE69730262T2 (de) * | 1996-04-16 | 2005-09-01 | Xanavi Informatics Corp., Zama | Karten-Anzeigegerät, Navigationsgerät und Karten-Anzeigeverfahren |
JP3390624B2 (ja) * | 1997-03-27 | 2003-03-24 | 富士通テン株式会社 | ナビゲーション装置 |
DE19813300C2 (de) * | 1998-03-26 | 2003-12-11 | Bosch Gmbh Robert | Anzeigevorrichtung |
US6285317B1 (en) * | 1998-05-01 | 2001-09-04 | Lucent Technologies Inc. | Navigation system with three-dimensional display |
US6710774B1 (en) * | 1999-05-12 | 2004-03-23 | Denso Corporation | Map display device |
DE29913292U1 (de) * | 1999-07-29 | 1999-12-09 | Bruce-Boye, Cecil O., Dr., 23558 Lübeck | GPS-Verkehrsteilnehmerleitgerät mit dreidimensionaler Darstellung als Navigationssystem |
DE10037573B4 (de) * | 2000-08-02 | 2005-05-19 | Robert Bosch Gmbh | Navigationsverfahren in einem Kraftfahrzeug |
JP4672190B2 (ja) * | 2001-04-26 | 2011-04-20 | 三菱電機株式会社 | 映像ナビゲーション装置 |
DE10138719A1 (de) * | 2001-08-07 | 2003-03-06 | Siemens Ag | Verfahren und Vorrichtung zur Darstellung von Fahrhinweisen, insbesondere in Auto-Navigationssystemen |
-
2004
- 2004-04-15 ES ES04101533T patent/ES2298681T3/es not_active Expired - Lifetime
- 2004-04-15 EP EP20040101533 patent/EP1586861B1/de not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
EP1586861A1 (de) | 2005-10-19 |
EP1586861B1 (de) | 2008-02-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2959475T3 (es) | Método, dispositivo y medio de almacenamiento legible por ordenador con instrucciones para el control de una visualización de un dispositivo de visualización de realidad aumentada para un vehículo de motor | |
EP2919057B1 (en) | Navigation display method and system | |
US10591738B2 (en) | Heads-up display with variable focal plane | |
EP1195578A2 (en) | Vehicle navigation system with stereoscopic display | |
ES2330351T3 (es) | Dispositivo de navegacion con informacion de camara. | |
ES2298681T3 (es) | Procedimiento y dispositivo para la representacion de informacion para el conductor teniendo en cuenta otros objetos moviles. | |
CN106687327B (zh) | 车辆显示装置 | |
US20080091338A1 (en) | Navigation System And Indicator Image Display System | |
US6208933B1 (en) | Cartographic overlay on sensor video | |
EP3237845B1 (en) | System and methods for interactive hybrid-dimension map visualization | |
RU2677999C1 (ru) | Устройство отображения транспортного средства | |
KR20200042166A (ko) | 컨텐츠를 시각화하는 장치 및 방법 | |
TWI728117B (zh) | 動態信息系統及動態信息系統的操作方法 | |
JP2019095215A (ja) | 重畳画像表示装置及びコンピュータプログラム | |
US11294456B2 (en) | Perspective or gaze based visual identification and location system | |
US9423267B2 (en) | Navigation device and display control method | |
US9159301B2 (en) | Slanted map | |
JP6549893B2 (ja) | 情報表示装置および情報表示方法 | |
ES2333042T3 (es) | Aparato de procesamiento de imagenes, metodo de visualizacion de imagenes de vista lejana, y programa de visualizacion de imagenes de vista lejana. | |
JP6448806B2 (ja) | 表示制御装置、表示装置及び表示制御方法 | |
JP2007309823A (ja) | 車載用ナビゲーション装置 | |
JP2005195475A (ja) | ナビゲーション装置 | |
JP2005201635A (ja) | 車両用ナビゲーションシステム | |
Hsu et al. | The effects of different navigation maps on driving performance | |
JP2000113389A (ja) | 移動体用経路案内装置 |