DE4308776C2 - Einrichtung zum Überwachen des Außenraums eines Fahrzeugs - Google Patents
Einrichtung zum Überwachen des Außenraums eines FahrzeugsInfo
- Publication number
- DE4308776C2 DE4308776C2 DE4308776A DE4308776A DE4308776C2 DE 4308776 C2 DE4308776 C2 DE 4308776C2 DE 4308776 A DE4308776 A DE 4308776A DE 4308776 A DE4308776 A DE 4308776A DE 4308776 C2 DE4308776 C2 DE 4308776C2
- Authority
- DE
- Germany
- Prior art keywords
- dimensional
- distance
- image
- road
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000012544 monitoring process Methods 0.000 title claims description 10
- 238000012545 processing Methods 0.000 claims description 59
- 238000001514 detection method Methods 0.000 claims description 40
- 238000000034 method Methods 0.000 claims description 32
- 238000000605 extraction Methods 0.000 claims description 10
- 230000009466 transformation Effects 0.000 claims description 9
- 230000008859 change Effects 0.000 claims description 7
- 230000033001 locomotion Effects 0.000 claims description 6
- 239000000284 extract Substances 0.000 claims description 4
- 230000015654 memory Effects 0.000 description 65
- 238000004364 calculation method Methods 0.000 description 57
- 230000006870 function Effects 0.000 description 23
- 239000000872 buffer Substances 0.000 description 22
- 230000008569 process Effects 0.000 description 14
- 230000014509 gene expression Effects 0.000 description 13
- 230000003287 optical effect Effects 0.000 description 13
- 238000010586 diagram Methods 0.000 description 9
- 239000004575 stone Substances 0.000 description 8
- 238000012546 transfer Methods 0.000 description 8
- 230000001133 acceleration Effects 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 101000860173 Myxococcus xanthus C-factor Proteins 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 230000002123 temporal effect Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 238000003708 edge detection Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000005855 radiation Effects 0.000 description 2
- 239000000725 suspension Substances 0.000 description 2
- 238000010998 test method Methods 0.000 description 2
- BSFODEXXVBBYOC-UHFFFAOYSA-N 8-[4-(dimethylamino)butan-2-ylamino]quinolin-6-ol Chemical compound C1=CN=C2C(NC(CCN(C)C)C)=CC(O)=CC2=C1 BSFODEXXVBBYOC-UHFFFAOYSA-N 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 101150107341 RERE gene Proteins 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 230000007257 malfunction Effects 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 238000001454 recorded image Methods 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 238000004804 winding Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/04—Interpretation of pictures
- G01C11/06—Interpretation of pictures by comparison of two or more pictures of the same area
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S11/00—Systems for determining distance or velocity not using reflection or reradiation
- G01S11/12—Systems for determining distance or velocity not using reflection or reradiation using electromagnetic waves other than radio waves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/167—Synchronising or controlling image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/08—Detecting or categorising vehicles
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/189—Recording image signals; Reproducing recorded image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0092—Image segmentation from stereoscopic image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0096—Synchronisation or controlling aspects
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Electromagnetism (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Measurement Of Optical Distance (AREA)
- Traffic Control Systems (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Closed-Circuit Television Systems (AREA)
Description
Die vorliegende Erfindung betrifft eine Einrichtung zum Über
wachen des Außenraumes eines Fahrzeugs und geht aus von einer
Einrichtung mit den Merkmalen im Oberbegriff des Patentan
spruchs 1.
In der heutigen Gesellschaft sind infolge der Bequemlich
keit, die Kraftfahrzeuge für den Transport von Gegenständen
und Personen bieten, sehr viele Fahrzeuge im Einsatz.
Dementsprechend wurden in letzter Zeit zahlreiche, automa
tisch Unfälle vermeidende Systeme entwickelt. Diesbezüglich
wurden üblicherweise Technologien entwickelt, die, ohne die
exzellenten Eigenschaften von Autos zu opfern, diese Fähig
keit der automatischen Unfallvermeidung aufweisen.
Um automatisch eine Kollision zwischen Fahrzeugen und einem
jeweiligen Objekt zu vermeiden, ist es sehr wichtig, ein
Hindernis oder eine Störung auf dem Fahrweg des Fahrzeugs
zu detektieren. Ferner ist es erforderlich, die vom Fahr
zeug verfolgte Route zu erkennen und die Position des
Objekts auf der Straße zu erfassen. Und demgemäß ist ent
scheidend, zu ermitteln, ob der Straßenzustand gefährlich
ist oder nicht. Ist beispielsweise eine Straße kurvig oder
gekrümmt, ist es nötig, das Hindernis längs der Kurve zu
detektieren.
Es sind bereits derartige Systeme entwickelt worden, die
das Hindernis unter Verwendung von Radar (Strahlungsdetek
tion und Entfernungsmessung), von Ultraschallwellen, einem
Laser (Lichtverstärkung durch erzwungene Strahlungsemissi
on) usw. zu erfassen. Jedoch können derartige Systeme nur
ein in einer speziellen Richtung vorhandenes Objekt detek
tieren, nicht aber die Straßenform noch die positionelle
Beziehung zwischen dem Hindernis und der Straße.
Demgemäß wird in letzter Zeit ein Distanzmeßsystem als
effektives Verfahren eingesetzt. Das System bildet eine
Ansicht außerhalb des Fahrzeugs durch eine Abbildungsvor
richtung wie eine am Fahrzeug angebrachte Kamera ab, um
dann die aufgenommen Bilder so zu verarbeiten, daß ein
Objekt wie ein anderes Fahrzeug und die Straßenform ermit
telt werden, um eine Distanz zwischen dem Fahrzeug und dem
Objekt zu gewinnen.
Die Abbildungen verwendenden Erkennungs/Distanzmeßsysteme
zerfallen insgesamt in zwei technische Kategorien. Eine
besteht darin, die Distanz zwischen dem fahrenden Auto und
dem Objekt zu ermitteln, indem der Relativabstand zwischen
der Kameraposition und dem Bild einer einzelnen Kamera
gemessen wird. Das andere basiert auf einem sogenannten
stereoskopischen Verfahren, das die Distanz zwischen dem
Fahrzeug und dem Objekt durch das Prinzip einer trigonome
trischen Bestimmung oder Dreiecksberechnung gewinnt, nach
dem mehrere Bilder bei verschiedenen sequentiell geänderten
Positionen durch eine einzelne oder mehrere Kameras aufge
nommen wurden.
Als eine Technologie zur Detektion eines Hindernisses oder
der Straßenform aus einer zweidimensionalen Darstellung der
mittels einer einzelnen Kamera aufgenommenen Abbildung
offenbart die japanische offengelegte Patentanmeldung Nr.
1-242916 (1989) eine Technik, in der eine Fernsehkamera in
einem Gehäuse nahe des Mittenabschnitts der Oberseite der
Frontscheibe montiert ist, wobei das Hindernis und die
weiße Linie auf der Straße unter Verwendung der hiermit
gewonnenen Bilder abhängig vom Leuchtdichteverteilungsmu
ster auf einer bestimmten Beobachtungslinie im Bild und dem
zweidimensionalen Leuchtdichtemuster detektiert werden, und
die dreidimensionale Position der weißen Linie und des
Hindernisses werden abhängig von Parametern wie der Monta
geposition oder eines Richtungs- und Sichtfeldes von TV
Kameras abgeschätzt.
Jedoch beinhaltet ein tatsächliches Bild auf der Straße
derart zahlreiche Objekte wie Gebäude und Bäume in der
Umgebung, daß es schwierig ist, die verschiedenen Objekte
wie ein vorausfahrendes Fahrzeug, ein entgegenkommendes
Fahrzeug, einen Fußgänger, einen Telefonmasten oder Licht
masten und eine weiße Linie über die Straße hinweg präzise
aus einem zweidimensionalen Bild (Merkmalsmuster) zu ermit
teln. So gibt es Umstände, bei denen derartige Technologien
nicht mit ausreichender Zuverlässigkeit in die Praxis
umsetzbar sind. Ferner besteht das Problem, daß eine
Abschätzung der dreidimensionalen Position einen großen
Fehler beinhaltet, wenn die dreidimensionale Position einer
weißen Linie oder des Hindernisses aus einem Parameter der
Fernsehkamera abgeschätzt werden und die Straße uneben ist,
die Straße eine Steigung oder ein Gefälle aufweist und das
Fahrzeug einer Nickbewegung unterliegt.
Andererseits kann eine präzisere Distanz anhand einer rela
tiv großen Diskrepanz der Position desselben Objekts in
linken und rechten Bildern durch die Technik des stereosko
pischen Verfahrens zur Distanzgewinnung auf der Grundlage
der trigonometrischen Berechnung aus mehreren Bildern
bestimmt werden.
Beispielsweise offenbart die japanische offengelegte
Patentanmeldung Nr. 59-197816 (1984) ein Verfahren zum
Berechnen einer dreidimensionalen Position eines Hindernis
ses unter Verwendung des trigonometrischen Prinzips, wobei
zwei Fernsehkameras am vorderen Bereich des Fahrzeugs ange
bracht werden, das Hindernis mittels eines zweidimensiona
len Leuchtdichteverteilungsmusters bezüglich der jeweiligen
Bilder jeder Fernsehkamera ermittelt wird und die positio
nelle Diskrepanz oder Abweichung des Hindernisses in den
beiden Bildern gewonnen wird. Jedoch ist es bei diesem
Stand der Technik schwierig, das Hindernis für die jeweili
gen Bilder zu detektieren. So weist auch dieses System
keine ausreichende Zuverlässigkeit auf.
Ferner sind gemäß den beiden japanischen Patentschrif
ten Nr. 48-2979 (1973) und Nr. 55-27707 (1980) zwei
Fernsehkameras links bzw. rechts vor dem Fahrzeug befe
stigt. Jedes Bild wird räumlich so differenziert, daß nur
die Punkte eines Wechsels von hell nach dunkel extrahiert
werden und das von einer Kamera abgetastete Bild für eine
Überlagerung des anderen Bildes um eine vorbestimmte Zeit
verzögert wird, wobei so ein dreidimensionales Objekt nur
aus der Charakteristik der Helligkeitsänderung des dreidi
mensionalen Objekts von Abschnitten, die einander in den
beiden Bildern entsprechen, extrahiert wird. Jedoch sind
die wirklichen Bilder kompliziert. Beinhaltet z. B. ein Bild
mehrere dreidimensionale Objekte, erscheint eine große An
zahl von Punkten mit Helligkeitsänderung, so daß es unmög
lich wird, eine entsprechende Beziehung bezüglich mehrerer
dreidimensionaler Objekte zu gewinnen. So ist es auch bei
diesen Technologien schwer, das Objekt präzise zu detektie
ren.
Wie oben erläutert, ist es unter tatsächlichen, komplizier
ten Umständen außerordentlich schwierig, präzise das drei
dimensionale Objekt, die positionelle Beziehung oder die
Form aus der Abbildung zu ermitteln.
In der US 4916302 ist in einem Gerät zur Verhinderung von
z. B. Fahrzeugkollisionen zur Vermeidung der Notwendigkeit,
optische Meßeinrichtungen für ein Stereoverfahren zur Ermitt
lung der Objektdistanzen zu einem das Gerät tragenden Fahr
zeug zu verschwenken, um Objekte aus unterschiedlichen Rich
tungen zu erfassen, vorgeschlagen worden, zwei CCD-Meßflächen
zu verwenden. Diese Flächen sind in Empfangsblöcke entspre
chend für unterschiedliche Richtungen unterteilt. In jedem
Block sind einige Empfangselemente für ein Standardsichtfeld
und einige für ein Bezugssichtfeld vorgesehen, um über die
Korrelation eines Standardsichtfeldes einer CCD-Meßfläche mit
dem Bezugssichtfeld der anderen Meßfläche die Distanz eines
in beiden Flächen liegenden Objekts vom Fahrzeug ermitteln zu
können.
Wie bereits dargelegt, ist es jedoch schwierig, eine komplexe
Szenerie von Objekten (diverse Fahrzeuge, Bäume, weiße Stra
ßenlinien usw.) vor dem fahrenden Fahrzeug, die einander
überlagert sind, zuverlässig zu differenzieren, wobei z. B.
auch ein sich ändernder Straßenverlauf berücksichtigt wird.
In der US 4985847 wird ein aus einer Zeile von Empfangsele
menten bestehender optischer Sensor, der auf einem Fahrzeug
schräg nach unten gestellt angebracht ist, dazu benutzt, um
ein in der Sensorsichtlinie liegendes Objektbild aus horizon
talen oder vertikalen Elementen, das die Sensorzeile schnei
det, aufzunehmen. Durch diese in dieser Schrift erfindungswe
sentliche Neigung des Sensors ist es möglich, daß ein großer
Teil der ein Objekt aufbauenden Linienelemente die eindimen
sionale Sensorzeile schneidet, und so die Objektkanten eines
einzigen voraus liegenden Objekts in der geraden Fahrzeugmitte
festzustellen und hieraus Abstand und/oder Ausdehnung des Ob
jekts zu ermitteln. In einem alternativen Ausführungsbeispiel
der US 4985847 sollen Hindernisse in Form von Fahrbahnuneben
heiten detektiert werden, die sich im wesentlichen als Objek
te darstellen, welche aus angenähert horizontalen Linien auf
der Straße aufgebaut sind. Auch hier ist die Schrägstellung
der Sensorzeile entscheidend, denn zuvor konnten solche Ober
flächenänderungen z. B. bei nasser Straße nicht zuverlässig
erfaßt werden. Es wird die Helligkeitsvariation des aufgenom
menen Linienbildes ermittelt und hieraus z. B. eine Unebenheit
der Straße detektiert. Dadurch, daß man die Bezugsebene des
Detektorelements ermittelt, das diese Linien-Unebenheitsin
formation detektiert, kann durch Triangulation die Entfernung
der Unebenheit zum Vorderrad des Fahrzeugs ermittelt werden.
Durch Farbanalyse des aufgenommenen Lichts wird ferner die
tatsächliche Unebenheit von möglichen Reflexionseffekten des
Lichts einer Straßenbeleuchtung usw. unterschieden. Unabhän
gig hiervon wird die Höhe des Fahrzeugsschwerpunktes selbst
mittels Fahrzeughöhensensoren und aus dem Radstand bestimmt,
und wenn die erfaßte Unebenheit ausreichend nahe herangekom
men ist, wird die Aufhängung des Fahrzeugs so geregelt, daß
die Stöße durch die Unebenheit abgefangen werden.
Somit wird zwar die Oberflächenbeschaffenheit der Straße,
d. h. die Oberflächenform der Straße, ermittelt, und es werden
die Koordinaten eines Oberflächenunregelmäßigkeits-Punktes
auf der zweidimensionalen Straßenebene bestimmt, jedoch
findet keine Beurteilung der Straßenverlaufsform statt.
Die Kombination der beiden obigen US-Patente führt zu einer
Einrichtung mit schräggestellten Sensorflächen und einer Re
gelung der Fahrzeugaufhängung in Abhängigkeit von unmittelbar
vor dem Fahrzeug direkt in dessen Fahrspur detektierten Stra
ßenunebenheiten. Hierdurch wird jedoch die Schwierigkeit der
Erfassung einer komplexeren Szenerie mit überlagerten Objek
ten und der zuverlässigeren Bestimmung der Objekte für einen
solchen Fall nicht verbessert.
Diese Erfindung wurde vor dem Hintergrund obiger Umstände
getätigt und hat zur Aufgabe, eine gattungsgemäße Einrichtung
so zu verbessern, daß diese imstande ist, ein Distanzbild zu
erzeugen und hieraus sowohl dreidimensionale Objekte als auch
die Straßenverlaufsform mit hoher Zuverlässigkeit zu ermit
teln.
Diese Aufgabe wird durch den Gegenstand des Patentanspruchs 1
gelöst. Vorteilhafte Weiterbildungen sind in den Unteransprü
chen gekennzeichnet.
Die erfindungsgemäße Lösung besteht darin, daß das System
eine Straßenform erkennt, nachdem die Straßenform durch meh
rere Kameras abgebildet worden ist, die Distanzverteilung der
Abbildungen berechnet wurde und dann eine dreidimensionale
Position von weißen Linien der Straße, die abgebildet worden
ist, ermittelt wird.
Hieraus ergeben sich entscheidende Vorteile. So ist es auf
diese Weise möglich, durch Ausnutzen dreidimensionaler Posi
tionsinformation der weißen Linien diese von dreidimensiona
len Objekten zuverlässig zu trennen. Mit anderen Worten kann
einerseits die dreidimensionale Positionsinformation der Ob
jekte unverfälscht durch die diesen überlagerten weißen
Linien sauber getrennt werden, und andererseits kann aus den
weißen Linien wiederum der sich gegebenenfalls stark ändernde
Verlauf der Straße bestimmt werden. Erst dann, wenn sowohl
die Positionen der jeweils erfaßten Objekte als auch die Po
sitionen der Fahrbahn, d. h. deren Verlauf, genau vorliegen,
können Maßnahmen für die Vermeidung einer möglichen Kollision
getroffen werden.
Auch die Unteransprüche liefern eine Reihe von weiteren Vor
teilen. So ist es gemäß der Transformation der dreidimensio
nalen Darstellungen auf zweidimensionalen Darstellungen unter
bestimmten Berücksichtigungen möglich, sowohl für die weißen
Linien als auch die Objekte die Datenmenge auf ein handhab
bares Maß zu reduzieren und die Verarbeitungszeit zu verkür
zen. Dieser Vorteil wird weiter verbessert durch die speziel
le Bildung der dreidimensionalen linearen Elemente, die für
den Straßenverlauf unter Berücksichtigung möglicher Straßen
biegungen durch Aufteilung gewonnen werden.
Allein durch Heranziehen der Höhe können in der dreidimensio
nalen Darstellung von Objekten und weißen Linien beide durch
eine wenig aufwendige verarbeitungstechnische Maßnahme unter
schieden werden, und es können z. B. auch Steine, Bäume und
Pflanzen von den linearen Elementen einer weißen Linie mit
tels einfacher Kriterien unterschieden werden. Hierzu ist die
unterschiedli
che Wichtung im dreidimensionalen Fenster und insbesondere
an dem Randabschnitt geeignet. Zusätzlich wird vorzugsweise
noch die Parallelität der linken und rechten ermittelten li
nearen Elemente für die weißen Linien herangezogen, um die
Fehlergenauigkeit weiter herabzusenken. Bei der Ermittlung
der Objekte kann der Rauscheinfluß durch Einführen eines Be
urteilungswertes reduziert werden. Bei der, Festlegung des
dreidimensionalen Fensters wird ermittelt, wie das dreidimen
sionale Fenster auf einem zweidimensionalen Bild erscheint,
wobei so vorgegangen wird, daß nur Daten innerhalb des zwei
dimensionalen Fensters, das durch die Fensterkonturlinien de
finiert ist, auch Daten sind, die zu erfassen sind. Auf diese
Weise ist es nicht nur möglich, die Dateninenge zu beschrän
ken, sondern auch die Objekte einwandfrei voneinander zu
trennen. Da die Daten ferner noch die Distanzwerte beinhal
ten, ist es auch möglich, in einer ausgesprochen komplexen
Szenerie mit zahlreichen hintereinanderliegenden Objekten die
einander überlappenden Objekte an Hand ihrer Distanzunter
schiede zu differenzieren.
Gemäß dem grundlegenden Konzept der Erfindung wird eine Nähe
rung angewandt, bei der mehrere Bilder eines Objekts in einem
festgelegten Bereich außerhalb eines Fahrzeuges aus voneinan
der verschiedenen Positionen aufgenommen werden, um dann die
mehreren Abbildungen mit einer hohen Geschwindigkeit zu ver
arbeiten, um hierbei eine Distanzverteilung über die gesamten
Bilder bzw. Darstellungen, und um die dreidimensionalen Posi
tionen jeweiliger Abschnitte des Objekts entsprechend der In
formation der Distanzverteilung zu berechnen, um wiederum so
die Straßenform und mehrere dreidimensionale Objekte mit
einer hohen Geschwindigkeit unter Ausnutzung der Information
der dreidimensionalen Position zu ermitteln.
Gemäß einem weiteren Aspekt wird eine Lösung angewandt, bei
der im Basiskonzept zur Beurteilung der Wahrscheinlichkeit
einer Kollision zwischen den detektierten dreidimensionalen
Objekten und einem Fahrzeug auf der Monitorseite diese Wahr
scheinlichkeit unter Berücksichtigung der Fahrtroute des be
troffenen Fahrzeugs abgeschätzt wird.
Wie oben beschrieben, wird eine Distanzver
teilung über die gesamte aufgenommene Bilddarstellung mit
hoher Geschwindigkeit aus dem aufgenommenen Bild ermittelt,
wodurch es möglich wird, die Straßenform wie den Endbereich
einer Straße oder einer weißen Linie, Mittelstreifen usw. und
eine dreidimensionale Position eines dreidimensionalen Ob
jektes in der Umgebung präzise und mit hoher Zuverlässigkeit
zu bestimmen. Dementsprechend kann das erfindungsgemäße Sy
stem in vorteilhafter Weise das Umgehen eines Hindernisses
eines höheren Niveaus über der Straßenoberfläche bewerkstel
ligen, wobei Position und/oder Bewegung eines zu vermeidenden
Hindernisses berücksichtigt wird. So können auch unter Be
rücksichtigung des Fahrzustandes des Monitorfahrzeuges zuver
lässig geeignete Maßnahmen zur Vermeidung einer Kollision
ergriffen werden.
Im folgenden wird die Erfindung anhand der Zeichnungen näher
erläutert. Es zeigen
Fig. 1 eine schematische Darstellung der erfindungsgemäßen
Einrichtung;
Fig. 2 eine Ansicht von vorn auf ein Fahrzeug, an dem die
Einrichtung eines Ausführungsbeispiels angebracht ist;
Fig. 3 ein Blockschaltbild, das den Aufbau des erfin
dungsgemäßen Systems zeigt;
Fig. 4 eine erklärende Darstellung, die die Beziehung
zwischen einer Kamera und einem Objekt im ersten
Ausführungsbeispiel zeigt;
Fig. 5 ein Schaltungsdiagramm, das eine stereoskopische
Bildverarbeitungsvorrichtung aus dem ersten Ausführungsbei
spiel zeigt;
Fig. 6 eine veranschaulichende Darstellung, die eine
Schaltung zur Berechnung einer city-block-Distanzberech
nungsschaltung zeigt;
Fig. 7 ein Blockschaltbild, das eine Minimalwertdetektor
schaltung im System zeigt;
Fig. 8 eine veranschaulichende Darstellung, die ein
beispielhaftes Bild zeigt, das mittels einer am Fahrzeug
angebrachten CCD-Kamera aufgenommen wurde;
Fig. 9 eine veranschaulichende Darstellung eines Distanz
bildes vom System;
Fig. 10 eine Ansicht von oben auf ein Fahrzeug im System;
Fig. 11 eine seitliche Ansicht auf das im System vorgese
hene Fahrzeug;
Fig. 12 ein Blockschaltbild mit den Funktionen einer
Straßen- und dreidimensionalen (Objekt)Detektorvorrichtung;
Fig. 13 eine veranschaulichende Darstellung, die ein im
System benutztes Straßenmodell zeigt;
Fig. 14 eine veranschaulichende Darstellung, die die Form
eines dreidimensionalen Fensters zeigt;
Fig. 15 eine veranschaulichende Darstellung, die die Form
eines zweidimensionalen Fensters zeigt;
Fig. 16 eine veranschaulichende Darstellung, die ein
lineares Element und einen Abweichungsbetrag zeigt;
Fig. 17 eine veranschaulichende Darstellung, die die
Beziehung zwischen einem Abweichungsbetrag von Daten und
Wichtungskoeffizienten zeigt;
Fig. 18 eine veranschaulichende Darstellung, die ein
Beispiel einer vom System erfaßten Straßenform zeigt;
Fig. 19 eine veranschaulichende Darstellung, die ein
Verfahren zum Aufteilen eines Bildes im System zeigt;
Fig. 20 eine veranschaulichende Darstellung, die die
Beziehung zwischen dem zu erfassenden Objekt und einem
Histogramm zeigt;
Fig. 21 eine veranschaulichende Darstellung, die das
Detektionsergebnis des Bereichs zeigt, in dem ein Objekt
vorliegt, sowie eine detektierte Distanz;
Fig. 22 eine veranschaulichende Darstellung, die eine
Form eines dreidimensionalen Fensters zeigt;
Fig. 23 eine veranschaulichende Darstellung, die eine
Form eines zweidimensionalen Fensters zeigt;
Fig. 24 eine veranschaulichende Darstellung, die Daten
zeigt, die die Kontur eines Objekts bilden;
Fig. 25 eine veranschaulichende Darstellung, die ein
Beispiel eines Konturbildes eines Objekts und einer erfaß
ten äußeren Dimension oder Ausdehnung im System zeigt;
Fig. 26 ein Flußdiagramm, das die Funktion eines
Ausführungsbeispiels der Stereoskopbildverarbeitungsvor
richtung zeigt;
Fig. 27 eine veranschaulichende Darstellung, die die
Reihenfolge der Speicherung in einem Schieberegister zeigt;
Fig. 28 eine Zeitsteuertabelle, die die Funktion einer
city-block-Distanzberechnungsschaltung zeigt;
Fig. 29 eine Zeitsteuertabelle, die die Funktion eines
Systemabschnitts zur Abweichungsgrößenbestimmung zeigt;
Fig. 30 eine Zeitsteuertabelle, die die Funktion der
Stereoskopbildverarbeitungsvorrichtung zeigt;
Fig. 31 ein Flußdiagramm, das eine Straßenformabschätzung
zeigt die vom Straßenformabschätzungsabschnitt ausgeführt
wird;
Fig. 32 ein Flußdiagramm, das die Erzeugung eines dreidi
mensionalen Fensters veranschaulicht, die vom Straßenform
detektorabschnitt ausgeführt wird;
Fig. 33 ein Flußdiagramm, das die Verarbeitung bezüglich
der Detektion des linearen Elements zeigt, die vom Straßen
formdetektorabschnitt ausgeführt wird;
Fig. 34 ein Flußdiagramm, das eine Straßenformbeurteilung
zeigt, die vom Straßenformbeurteilungsabschnitt ausgeführt
wird;
Fig. 35 ein Flußdiagramm, das die durch den Objekterken
nungsabschnitt durchgeführte Objektdetektion zeigt;
Fig. 36 ein Flußdiagramm, das eine vom Objekterkennungs
abschnitt durchgeführte dreidimensionale Fenstererzeugung
zeigt;
Fig. 37 ein Flußdiagramm, das die vom Objekterkennungsab
schnitt durchgeführte Objektkonturbildextraktion zeigt;
Fig. 38 ein Flußdiagramm, das die Linearelementerzeugung
zeigt, die vom System zur Überwachung des fahrzeugexternen
Zustands eines zweiten Ausführungsbeispiels der Erfindung
durchgeführt wird; und
Fig. 39 ein funktionelles Blockschaltbild einer Straßen- und
dreidimensionalen Detektorvorrichtung in einem Überwa
chungssystem für den fahrzeugexternen Zustand gemäß einem
dritten erfindungsgemäßen Ausführungsbeispiel.
Die vorliegenden Ausführungsbeispiele dieser Erfindung werden
unter Bezug auf die beiliegenden Zeichnungen erläutert. Ein
System zur Überwachung des fahrzeugexternen Zustandes gemäß
einem ersten Ausführungsbeispiel wird unter Bezugnahme auf die
Fig. 1 bis 7 und 30 beschrieben.
In Fig. 1 bezeichnet die Bezugszahl 1 ein Fahrzeug wie ein Auto
und dergleichen. Im Fahrzeug 1 ist ein System 2 zum Überwachen
des fahrzeugexternen Zustandes angebracht. Das
Überwachungssystem 2 dient dazu, ein Objekt innerhalb einer
festgelegten Region außerhalb des Fahrzeugs abzubilden, das
Objekt aus einer Art abgebildeten Darstellung zu erkennen und so
den Zustand außerhalb des Fahrzeugs zu überwachen.
Das Überwachungssystem 2 umfaßt ein optisches Stereoskopsystem
10 wie ein Abbildungssystem zur Aufnahme des optischen Bildes
innerhalb eines vorbestimmten Bereichs außerhalb des Fahrzeugs
sowie eine Verarbeitungsvorrichtung 20 für das Stereoskopbild
oder kurz Stereobild wie eine Bildverarbeitungsvorrichtung zum
Verarbeiten eines Bildes, das vom optischen Stereoskopsystem 10
abgebildet wurde, um die Information der dreidimensionalen
Abstandsverteilung zu berechnen, und ferner eine Straßen- und
dreidimensionale Detektorvorrichtung 100 wie eine Einrichtung,
die dazu ausgelegt ist, ihr von der Verarbeitungsvorrichtung 20
für das Stereobild zugeführte Distanzinformation
entgegenzunehmen, um bei einer hohen Geschwindigkeit die
Straßenform oder die dreidimensionalen Positionen mehrerer
dreidimensionaler Objekte aus der Distanzinformation zu erfassen
und zu detektieren. Das Überwachungs- oder Monitorsystem 2 ist
an eine externe Vorrichtung angeschlossen, welche (nicht
dargestellte) Betätigungs- oder Steuereinheiten oder dergleichen
steuert, wodurch möglich wird, eine Funktion wie das Warnen des
Fahrers oder eine automatische Kollisionsvermeidung des
Fahrzeugs usw. auszuführen, wenn das erkannte Objekt als ein
Hindernis für das Fahrzeug 1 angesehen wird.
Das optische Stereoskopsystem 10 ist mit einer CCD-Kamera
ausgelegt, die ein Festkörperbildaufnahmeelement wie ein
Ladungsspeicherelement (CCD) usw. umfaßt. Wie in Fig. 2
dargestellt, umfaßt das optische System 10 zwei CCD-Kameras 11a
und 11b (die im Bedarfsfall durch elf repräsentiert sind) für
den rechten und linken Winkel einer langen Distanz, die jeweils
mit einem vorbestimmten Abstand zwischen sich auf der
Vorderseite der Decke im Fahrzeugraum angebracht sind, sowie
zwei CCD-Kameras 12a und 12b (im Bedarfsfall als zwölf
dargestellt) für den rechten und linken Winkel einer kurzen
Distanz, die jeweils mit festem Intervall auf der Innenseite der
CCD-Kameras 11a und 11b für die lange Distanz befestigt sind.
Ferner umfaßt, wie in Fig. 3 gezeigt ist, die
Verarbeitungsvorrichtung 20 für das Stereobild eine
Distanzdetektorschaltung 20a, die dazu ausgelegt ist, zwei
Bildsignale für links und rechts vom optischen System 10
entgegenzunehmen, um den Abschnitt, in dem zwei Bilder dasselbe
Objekt aufweisen, für sämtliche sehr kleinen Bildbereiche, die
auszuführen sind, über die Gesamtheit des Bildes zu detektieren,
wobei die Vorrichtung eine Verarbeitung ausführt, in der der
Abstand zu einem Objekt aus einem Ausmaß an Diskrepanz der
Position auf dem Bild berechnet wird, und wobei diese
Vorrichtung einen Distanzbildspeicher 20b aufweist, der die
Distanzinformation als Ausgangssignal der
Distanzdetektorschaltung 20a speichert.
Ferner umfaßt die Straßen- und dreidimensionale
Detektorvorrichtung 100 einen Mikroprozessor 100a, der die
Distanzinformation, die im Distanzbildspeicher 20b
eingeschrieben ist, ausliest, um verschiedene Berechnungen
durchzuführen, und darüberhinaus einen Nur-Lese-Speicher (ROM)
100b, in dem ein Steuerprogramm gespeichert ist, einen
Direkt-Zugriff-Speicher (RAM) 100c zum Speichern der
verschiedenen Parameter in der Mitte des Berechnungsprozesses,
eine Interface-Schaltung 100d und einen Ausgangsspeicher 100e
zum Speichern der Parameter der verarbeiteten Ergebnisse.
Mit der Interface-Schaltung 100d sind ein
Fahrzeuggeschwindigkeitssensor 3, der am Fahrzeug 1 befestigt
ist, und ein Lenkwinkelsensor 4 verbunden, der den Lenkwinkel
oder Einschlagwinkel des Lenkrades erfaßt.
Dem Mikroprozessor 100a wird ein Distanzbild über den
Distanzbildspeicher 20b zugeführt, und er führt eine Berechnung
zur Ausgabe von Parametern einer Straßenform oder eines
Hindernisses aus, wobei er ein Verarbeitungsergebnis an den
Ausgangsspeicher 100e ausgibt. Eine externe Ausrüstung, die mit
der Straßen- und dreidimensionalen Detektorvorrichtung 100
verbunden ist, empfängt diese Parameter vom Ausgangsspeicher
100e.
Es reicht aus, wenn das optische Stereoskopsystem 10 tatsächlich
die Position von 2 bis 100 m vor dem Fahrzeug 1 mißt, wenn die
CCD-Kameras 11 und 12 im Raum des Fahrzeugs 1 an einer Position,
die vom vorderen Ende des Verdecks um zwei Meter nach innen
versetzt ist, angebracht sind und
die Distanzmessung von einer Stelle unmittelbar vor dem Fahrzeug
bis zu einer Position, die beispielsweise 100 Meter davon
entfernt ist, durchgeführt wird.
Wenn nämlich, wie in Fig. 4 dargestellt ist, für den Fall, daß
die Montagedistanz zwischen den CCD-Kameras 11a und 11b für eine
große Entfernung bzw. lange Distanz mit r bezeichnet ist und ein
Bild am Punkt P, das von der Installationsfläche der beiden
Kameras 11a und 11b um Z entfernt ist, die Brennweiten der
beiden Kameras 11a und 11b mit f vorausgesetzt sind, dann wird
ein Bild des Punktes P auf der Projektionsebene aufgenommen, die
um f von den Brennpunkten der jeweiligen Kameras entfernt ist.
Hierbei ist die Distanz der Position des Bildes der rechten
CCD-Kamera 11b bis zur Position des Bildes der linken Kamera 11a
durch "r + δ" ausgedrückt. Falls δ als ein Diskrepanzausmaß
angesetzt wird, kann die Distanz Z zum Punkt P als Funktion des
Diskrepanzausmaßes oder Abweichungsbetrages durch die folgende
Gleichung (1) gewonnen werden:
Z = r × f/δ (1)
Um derartige Abweichungsausmaße oder -beträge im linken oder
rechten Bild zu detektieren, ist es erforderlich, eine Abbildung
desselben Objekts im linken und rechten Bild aufzufinden. Gemäß
der vorliegenden Erfindung wird in der Verarbeitungsvorrichtung
20 für das Stereobild, wie weiter unten erläutert wird, ein
Schema angewandt, um ein Bild in kleine Regionen zu unterteilen,
um Muster der Helligkeit oder Muster der Farbe innerhalb
jeweiliger kleiner Regionen bezuglich des linken und rechten
Bildes zu vergleichen, um eine Region aufzufinden, in der sie
einander entsprechen, wobei so eine Distanzverteilung über das
gesamte Bild bestimmt wird. Demgemäß ist es möglich, eine
Verringerung der Informationsmenge, die in konventioneller Weise
bei einem Verfahren zum Extrahieren irgendeines Merkmal es wie
eine Kante, eines Liniensegmentes oder einer Raumform usw. der
Fall war, um den Abschnitt herauszufinden, in dem diese Merkmale
einander entsprachen, zu vermeiden.
Der Koinzidenzgrad zwischen rechtem und linkem Bild kann
beispielsweise durch die city-block Distanz H ermittelt werden,
die durch die folgende Gleichung (2) gezeigt ist. In diese
Gleichung sind die Helligkeit (Farbe) des i. Pixels des linken
und rechten Bildes jeweils durch Ai und Bi repräsentiert. Wie
aus dieser Gleichung entnehmbar ist, kann die
Rechengeschwindigkeit verbessert werden, da keine Ablenkung der
Informationsmenge infolge des Einsatzes von Mittelwerten und
keine multiplikative Berechnung (Funktion) vorliegt.
H = Σ | Ai - Bi | (2)
Ferner resultiert, wenn die Ausdehnung der kleinen Region zu
großflächig aufgeteilt ist, eine hohe Wahrscheinlichkeit, daß
ein von einem Bezugspunkt entferntes Objekt und ein hierzu nahes
Objekt gemischt werden, so daß die zu detektierende Distanz
falsch wird. Auch ist es im Hinblick der Gewinnung einer
Distanzverteilung eines Bildes anzustreben, daß die zu
unterteilende Region ein kleinerer Bereich ist. Ist jedoch eine
derartige Region zu klein, ist die Informationsmenge
unzureichend für die Untersuchung und Bestimmung der Koinzidenz.
Aus diesem Grund wird, damit beispielsweise ein Fahrzeug, das
eine Breite von 1,70 m aufweist und 100 m voraus ist, und
derselbe Gegenstand wie ein Fahrzeug in einer benachbarten
Fahrspur nicht in eine kleine Region fallen, die laterale Weite
oder Breite der Region zum Maximalwert gemacht und erhält
bezogen auf das optische Stereoskopsystem 10 die Größe von vier
Pixeln. Infolge der Verwendung dieses Wertes als Grundlage
zum Testen der optimalen Anzahl von Pixeln für ein tatsächliches
Bild wurde die Weite sowohl für die laterale als auch
longitudinale Weite auf vier Pixel eingestellt.
In der folgenden Beschreibung wird vorausgesetzt, daß ein Bild
in kleine Regionen von 4 × 4 Pixeln unterteilt wird, um den
Koinzidenzgrad der linken und rechten Bilder zu untersuchen, und
daß das optische Stereoskopsystem 10 durch die CCD-Kameras 11a
und 11b für große Entfernung repräsentiert wird.
Ein in die Praxis umgesetztes Schaltungsbeispiel der
Verarbeitungsvorrichtung 20 für das Stereobild ist in Fig. 5
gezeigt. In diesem Schaltungsbeispiel umfaßt die
Distanzdetektorschaltung 20a einen Bildumsetzungsabschnitt 30,
der analoge Bilder, die vom optischen Stereoskopsystem 10
abgebildet wurden, in digitale Bilder umsetzt, ferner einen
city-block-Distanzberechnungsabschnitt 40, der die city-block
Distanzen H berechnet, um die Beträge der linken und rechten
Bilder zu bestimmen, während aufeinanderfolgend jeweils zu einem
Zeitpunkt eine 1-Pixel-Verschiebung vorgenommen wird, einen
Minimal/Maximalwertdetektorabschnitt 50, der einen Minimalwert
HMIN und einen Maximalwert HMAX der city-block Distanz H
ermittelt, und einen Diskrepanzbestimmungsabschnitt 60, der
einen Diskrepanzbetrag oder Abweichungsbetrag ermittelt, indem er
prüft, ob der Minimalwert HMIN, der vom
Minimal/Maximalwertdetektorabschnitt 50 geliefert wird, eine
Koinzidenz zwischen den linken und rechten kleinen Regionen
anzeigt oder nicht. Ferner wird als Distanzbildspeicher 20b ein
Dual-Port Speicher verwendet.
Im Bildumsetzungsabschnitt 30 sind A/D Wandler 31a und 31b
entsprechend den CCD Kameras 11a und 11b für die linken und
rechten Bilder vorgesehen. Mit den A/D Wandlern 31a und 31b sind
jeweils Nachschlagetabellen (LUT = look-up tables) 32a und 32b
verbunden, die als Datentabelle dienen, sowie Bildspeicher 33a
und 33b zum Speichern der durch die CCD Kameras 11a und 11b
abgebildeten Darstellungen.
Die A/D Wandler 31a und 31b haben beispielsweise eine
Helligkeits- oder Leuchtdichteauflösung von 8 Bits und dienen
dazu, die analogen Bilddaten von den linken und rechten
CCD-Kameras 11a und 11b in digitale Bilddaten umzusetzen, die
eine erforderliche Leuchtdichtegradation aufweisen. Wird dabei
die Binärisierung der Leuchtdichte eines Bildes durchgeführt,
kann man dabei speziell die Verarbeitungsgeschwindigkeit
erhöhen, jedoch tritt dann ein großer Verlust in der
Informationsmenge für die Berechnung der Koinzidenz der linken
und rechten Bilder auf, und so wird die Leuchtdichte jedes
Pixels beispielsweise auf eine graue Skala umgesetzt, die in 256
Helligkeitsgradationen unterteilt ist.
Ferner können die LUTs 32a und 32b in einem Nur-Lese-Speicher
ROM als programmierte Daten vorhanden sein. Die LUTs liefern
Daten zur Korrektur eine Kontrastes eines Bildes, das durch die
A/D Wandler 31a und 31b in digitale Größen umgesetzt wurde und
eine geringe Leuchtdichte aufweist, und um Unterschiede in den
Charakteristiken der linken und rechten CCD Kameras 11a und 11b
zu korrigieren. Daraufhin werden die von den LUTs 32a und 32b
umgesetzten Signale in den Bildspeichern 33a und 33b
gespeichert.
Wie weiter unten erläutert wird, führen die Bildspeicher 33a und
33b eine Verarbeitung aus, bei der sie wiederholt einen
Ausschnitt der Bilddaten im city-block Distanzberechnungs
abschnitt 40 aufnehmen, und so ist es möglich, daß sie mit einem
Speicher relativ geringer Geschwindigkeit ausgelegt sind und so
die Kosten reduzierbar sind.
Der city-block Berechnungsabschnitt 40 umfaßt ein Paar
Eingangspufferspeicher 41a und 41b, die über einen gemeinsamen
Bus 80 mit dem Speicher 33a für das linke Bild des
Bildumsetzungsabschnitts 30 verbunden sind, und ein Paar
Eingangspufferspeicher 42a und 42b, die über den gemeinsamen Bus
80 mit dem Speicher 33b für das rechte Bild verbunden sind.
Mit dem Paar Eingangspufferspeichern 41a und 41b für das linke
Bild sind ein Paar Schieberegister 43a und 43b verbunden, die
eine achtstufige Auslegung aufweisen. In derselben Weise sind
ein Paar achtstufiger Schieberegister 44a und 44b mit den
jeweiligen Eingangspufferspeichern 42a und 42b für das rechte
Bild verbunden. Ferner ist eine city-block
Distanzberechnungsschaltung 45, die die city-block Distanz
berechnet, mit diesen Paaren von Schieberegistern 43a, 43b; 44a,
44b verbunden.
Ferner sind ein Paar zehnstufiger Schieberegister 64a und 64b
des Diskrepanzbestimmungsabschnitts 60, der weiter unten
erläutert wird, mit den Schieberegistern 44a und 44b für das
rechte Bild verbunden. Wenn der Datentransfer für die nächste
kleine Region begonnen wird, werden alte Daten, die bereits der
Berechnung der city-block Distanz H unterzogen wurden, zu den
Schieberegistern 64a und 64b übertragen, und zur Bestimmung des
Abweichungsbetrages δ verwendet.
Darüberhinaus ist die city-block Distanzberechnungsschaltung 45
von einer Struktur, in der Rechner oder Betriebselemente 46 nach
Art eines Hochgeschwindigkeits-CMOS kombiniert sind, wobei jedes
Element eine solche Chip-Konfiguration aufweist, daß ein
Eingabe/Ausgabesignalspeicher mit einem Addierer/Subtrahierer
verbunden ist. Wie detailliert in Fig. 6 dargestellt ist, weist die
city-block Schaltung 45 eine Pipelinestruktur auf, in der
sechzehn Recheneinheiten in der Form einer Pyramide verbunden
sind, und ist dazu ausgelegt, simultan Daten von 8 Pixeln zur
Durchführung der Berechnung einzugeben bzw. zu verarbeiten. Die
erste Stufe dieser Pyramidenstruktur stellt einen
Absolutwertberechner oder ein entsprechendes Betriebselement
dar; die zweite bis vierte Stufe bilden einen ersten Addierer,
einen zweiten Addierer bzw. einen dritten Addierer und die
Endstufe bildet einen Addierer für die gesamte Summe.
Die Fig. 6 zeigt nur die Paarhälfte der Absolutwertberechner und
der Addierer der ersten und zweiten Stufe.
Ferner sind die Eingangspufferspeicher 41a, 41b, 42a und 42b
jeweils kleine Speicher, die über die hohe Geschwindigkeit
verfügen, die der Geschwindigkeit der
city-block-Distanzberechnungen entspricht, und der Eingang und Ausgang
sind getrennt, während eine Adresse, die von einer #1
Adress-Steuereinheit 86 erzeugt wird, jedem der Pufferspeicher gemäß
einem Takt zugeführt wird, der von einer Taktgeneratorschaltung
85 zugeführt wird. Ferner wird der Transfer zu und von den
beiden Paaren von Schieberegistern 43a, 43b; 44a, 44b durch eine
#2 Adress-Steuereinheit 87 gesteuert.
Wird die Berechnung der city-block Distanz H durch die Software
eines Rechners durchgeführt, ist es darüberhinaus erforderlich,
ein sukzessives Absuchen der kleinen Region in der Bildebene auf
der linken Seite bezüglich einer der kleinen Regionen der
Bildebene auf der rechten Seite durchzuführen, und einen
derartigen Suchvorgang für den gesamten Abschnitt kleiner
Regionen der rechten Bildebene durchzuführen. Wird diese
Berechnung beispielsweise in 0,08 sec ausgeführt, ist eine
Rechenleistung von 500 MIPS (Mega-Instruktionen pro Sekunde)
erforderlich, falls ein fünfstufiges Programm für jedes Pixel
verwendet wird. Diese Leistung kann von einem geläufigen
Mikroprozessortyp der Art eines CISC Prozessors nicht erbracht
werden und so muß ein RISC Prozessor, ein Digitalsignalprozessor
(DSP) oder paralleler Prozessor verwendet werden.
Der Minimal/Maximalwertdetektorabschnitt 50 ist mit einer
Minimalwertdetektorschaltung 51, die einen Minimalwert HMIN für
die city-block Distanz H ermittelt, und einer
Maximalwertdetektorschaltung 52 ausgestattet, die einen
Maximalwert HMAX für die city-block Distanz detektiert. Der
Abschnitt 50 weist eine Struktur auf, in der Rechnereinheiten,
die in der city-block Distanzberechnungsschaltung 45 eingesetzt
sind, für die Minimal/Maximalwertdetektion verwendet werden.
Wie in Fig. 7 gezeigt, umfaßt die Minimalwertdetektorschaltung
51 eine Rechnereinheit 46, die ein A-Register 46a, ein
B-Register 46b und eine logische arithmetische
Berechnungseinheit (ALU) 46c aufweist, wobei ein
C-Signalspeicher 53, ein Signalspeicher 54 und ein
D-Signalspeicher 55 jeweils in der gezeigten Weise verbunden
sind. Das Ausgangssignal der city-block
Distanzberechnungsschaltung 45 wird dem A-Register 46a und dem
B-Register 46b über den C-Signalspeicher 53 zugeführt, und es
wird das höchstwertige Bit (MSB) des Ausgangssignals der ALU 46
zum Signalspeicher 54 ausgegeben. Der Ausgang dieses Latches
oder Signalspeichers 54 wird zum B-Register 46b und zum
D-Signalspeicher 55 ausgegeben, und es wird ein Wert in der
Mitte der Minimalwertberechnung im B-Register 46b konserviert
bzw. gehalten und der Abweichungsbetrag δ zu diesem Zeitpunkt
wird im D-Signalspeicher 55 konserviert.
Ferner weist die Maximalwertdetektorschaltung 52 dieselbe
Konfiguration wie die Minimalwertdetektorschaltung 52 mit der
Ausnahme auf, daß die Logik invertiert ist und daß der
Abweichungsbetrag δ nicht gespeichert wird.
Die city-block Distanzen H werden aufeinanderfolgend berechnet,
wie oben beschrieben, während die kleine Region des linken
Bildes jeweils zu einem Zeitpunkt um ein Pixel bezüglich einer
der kleinen Regionen des rechten Bildes verschoben wird.
Jedesmal, wenn der Wert der city-block Distanz ausgegeben wird,
bestimmen der Vergleich und die Erneuerung des Maximalwerts HMAX
und des Minimalwerts HMIN zu dieser Zeit den Maximalwert HMAX
und den Minimalwert HMIN für die city-block Distanz in dieser
kleinen Region im wesentlichen zur selben Zeit wie der Ausgabe
der endgültigen city-block Distanz H.
Der Diskrepanzbestimmungsabschnitt 60 ist so aufgebaut, daß er
z. B. einen RISC Prozessor geringen Umfangs aufweist, und ist mit
einer Recheneinheit 61 mit Datenbussen 62a und 62b von 16 Bit
Breite, einem Signalspeicher 63a, der den Abweichungsbetrag δ
hält, einem Signalspeicher 63b, der den Schwellwert Ha als einen
ersten spezifischen Wert hält, einem Signalspeicher 63c, der den
Schwellwert Hb als einen zweiten speziellen Wert hält, einem
Signalspeicher 63d, der den Schwellwert Hc als einen dritten
spezifischen Zwischenwert hält, einem Paar Schieberegister 64a
und 64b, die Leuchtdichtedaten eines rechten Bildes halten,
einem Schalter 65, der das Ausgangssignal von der Recheneinheit
61 empfängt und den Abweichungsbetrag δ oder "0" ausgibt,
Ausgangspufferspeichern 66a und 66b, die die Ausgangsergebnisse
zeitweise halten, und einem Nur-Lese-Speicher (ROM) 67 mit
sechzehn Bit Breite versehen, in dem das Steuerprogramm für die
Funktionen der Recheneinheit 61 und die Betriebszeitsteuerung
der Schaltung eingeschrieben sind.
Die Recheneinheit 61 weist die ALU 70 auf und umfaßt ein
A-Register 71, ein B-Register 72, ein S-Register 73 und einen
Selektor 74. Das A-Register 71 ist mit dem Datenbus 62a (im
folgenden als A-Bus 62a bezeichnet) verbunden. Das B-Register 72
ist mit dem Datenbus 62b (im folgenden als B-Bus 62b bezeichnet)
verbunden. Der Schalter 65 wird durch die Rechenergebnisse der
ALU 70 betätigt, und es wird entweder der Abweichungsbetrag δ
oder "0" in den Ausgangspufferspeichern 66a und 66b gespeichert.
Mit dem A-Bus 62a sind die Signalspeicher 63b, 63c und 63d, die
jeweils die Schwellwerte Ha, Hb bzw. Hc speichern, und die
Maximalwertdetektorschaltung 52 verbunden. In gleicher Weise ist
mit dem B-Bus 62b die Minimalwertdetektorschaltung 51 verbunden.
Ferner sind an den A-Bus 62a und den B-Bus 62b die
Schieberegister 64a und 64b angeschlossen.
Ferner ist an die Schaltstufe 65 die Recheneinheit 61
angeschlossen, und die Minimalwertdetektorschaltung 51 ist
darüberhinaus über Signalspeicher 63a angeschlossen. So werden
von der Recheneinheit 61 drei später zu beschreibende
Prüfzustände beurteilt, und das Ausgangssignal der
Ausgangspufferspeicher 66a und 66b wird in Abhängigkeit dieser
Beurteilungsergebnisse geschaltet.
Der Diskrepanzbestimmungsabschnitt 60 prüft, ob der gewonnene
Minimalwert HMIN der city-block Distanz H tatsächlich mit der
linken und rechten kleinen Region koinzidiert, und nur, wenn
diese Bedingung erfüllt ist, wird ein entsprechender
Abweichungsbetrag δ zu den Positionen von Pixeln entsprechend
den Ausgangspufferspeichern 66a und 66b ausgegeben.
Wird die city-block Distanz H minimal, so ist genauer
ausgedrückt der Abweichungsbetrag ein erforderlicher
Abweichungsbetrag δ. Der Abweichungsbetrag δ wird ausgegeben,
wenn die folgenden drei Prüfbedingungen erfüllt waren, während
keine Daten verwendet werden und "0" ausgegeben wird, wenn die
Bedingungen nicht erfüllt werden.
- (A) HMIN Ha (die Distanz ist nicht detektiert, wenn HMIN < Ha.)
- (B) HMAX - HMIN Hb (dies ist eine Bedingung zum Prüfen, ob der gewonnene minimale Wert HMIN eindeutig infolge von aus Rauschen resultierender Schwingung niedrig ist, und prüft nicht die Differenz mit der Umgebung des Minimalwerts HMIN, sondern prüft statt dessen die Differenz mit dem Maximalwert HMAX, so daß die Distanzerfassung bezüglich der Objekte, wie beispielsweise gekrümmte Oberflächen oder dergleichen durchgeführt wird, für die die Leuchtdichte sich graduierlich ändert).
- (C) Die Leuchtdichtedifferenz zwischen aneinandergrenzenden Pixeln in lateraler Richtung innerhalb einer kleinen Region eines rechten Bildes ist größer Hc (es liegt eine Kantendetektion vor, wenn der Schwellwert Hc größer wird, jedoch ist es auch möglich, eine Behandlungsmöglichkeit zu haben, wenn die Leuchtdichte sich graduierlich ändert, indem der Schwellwert Hc geringer als der normale Kantendetektionspegel gemacht wird. Diese Bedingung basiert auf dem fundamentalen Prinzip, daß die Distanzerfassung in der kleinen Region, die keine Änderungen der Leuchtdichte hat, nicht ausgeführt werden kann, und für jedes Pixel in einer kleinen Region ausgeführt wird und so nur für Pixel ausgenutzt wird, für die die Distanz tatsächlich für das Innere einer kleinen Region erfaßt worden ist, und erzeugt so ein natürliches Ergebnis.)
Wird diese Abweichungsbetragbestimmung durch Software mit einem
normalen Mikroprozessor durchgeführt, ist es nötig, eine
Geschwindigkeit von 27 MIPS zu haben, und es ist unmöglich, eine
derartige Verarbeitung auszuführen.
Die Distanzverteilungsinformation, die dem endgültigen
Ausgangsergebnis des Diskrepanzbestimmungsabschnitts 60
entspricht, wird über einen gemeinsam benutzten Bus 80 in einen
dual-port Speicher 90 eingeschrieben.
Die Distanzverteilungsinformation, die von der
Verarbeitungsvorrichtung 20 für das Stereobild ausgegeben wird,
liegt, wie oben erklärt, in Form eines Bildes (Distanzbild) vor.
Wenn die von links und rechts durch die jeweiligen CCD Kameras
11a und 11b aufgenommenen Bilder, z. B. ein Bild, wie es in Fig.
8 dargestellt ist (ein Bild, das von einer Kamera aufgenommen
ist, ist in Fig. 8 gezeigt), durch die Verarbeitungsvorrichtung
20 für das Videobild verarbeitet wird, wird ein in Fig. 9
gezeigtes Bild geliefert.
In diesem Bildbeispiel, das in Fig. 9 gezeigt ist, ist der
Bildumfang 400 Pixel in der lateralen Richtung und 200 Pixel in
der Längsrichtung. Die Bereiche, die Distanzdaten aufweisen
sind die Bereiche schwarzer Punkte. Diese Bereiche sind
Bereiche, in denen die Leuchtdichte sich zwischen den in der
linken und rechten Richtung der jeweiligen Pixel des Bildes der
Fig. 8 benachbarten Pixel mit einem hohen Grad ändert. Das
Koordinatensystem auf einem Bild ist derart, daß der Ursprung
als die oberste Ecke auf der linken Seite angesetzt ist, wobei
eine i-Koordinatenachse in seitlicher Richtung, eine
j-Koordinatenachse in Längsrichtung genommen werden und die
Einheit ein Pixel ist.
Dieses Distanzbild wird in die Straßen- und dreidimensionale
Detektorvorrichtung 100 eingelesen. So werden eine Vielzahl von
Objekten wie andere Autos oder Hindernisse usw., die auf der
linken und rechten Fahrbahn angrenzend an die Fahrbahn des
jeweils betroffenen Fahrzeugs vorliegen, erfaßt. So werden ihre
Positionen und Abmessungen bezogen auf die Geschwindigkeiten
bezüglich des jeweils betroffenen Fahrzeuges durch zeitliche
Positionsänderungen und dergleichen berechnet. Zusätzlich werden
Konturbilder der erfaßten Objekte extrahiert.
In diesem Fall wird in der Straßen- und dreidimensionalen
Detektorvorrichtung 100 eine dreidimensionale Information eines
Objekts verwandt. So führt diese Vorrichtung eine Unterscheidung
zwischen einer Straße und einem Objekt über die Höhe von der
Straßenoberfläche ab aus und führt eine Unterscheidung zwischen
einem Objekt und dem Hintergrund durch einen Distanzwert aus. Um
dies zu realisieren, transformiert die Straßen- und
dreidimensionale Objektdetektorvorrichtung 100 zunächst ein
Koordinatensystem von Distanzbildern von der
Verarbeitungsvorrichtung für das Stereobild auf ein
Koordinatensystem eines realen Raumes, der ein entsprechendes
Fahrzeug (Fahrzeug 1) umgibt, um Positionen und Abmessungen der
detektierten Straßenformen oder dreidimensionalen Objekte zu
berechnen.
Wie in den Fig. 10 und 11 gezeigt ist, wird dabei nämlich
vorausgesetzt, daß das Koordinatensystem eines realen Raumes das
Koordinatensystem des Fahrzeugs ist, in dem die x-Achse in der
seitlichen Richtung auf der rechten Seite des Fahrzeugs 1 liegt,
die y-Achse bezüglich des Fahrzeugs 1 aufwärts gerichtet ist,
die z-Achse in Vorwärtsrichtung des Fahrzeugs 1 gelegt ist und
der Ursprung auf der Straßenoberfläche unmittelbar unten dem
zentralen Bereich der beiden CCD Kameras 11a (12b), 11b (12b)
liegt. Ist die Straße flach, so entspricht folglich die XZ Ebene
(Y = 0) der Straßenoberfläche. Um die dreidimensionalen
Positionen (X, Y, Z) eines Objekts aus der Distanzinformation
(i, j, Z) in einem Bild zu berechnen, wird durch die folgenden
Gleichungen (3) und (4) eine Sorte von Koordinatentransformationen
durchgeführt:
Y = CH - Z × PW × (j - JV) (3)
X = r/2 + Z × PW × (i - IV) (4)
wobei CH eine Montagehöhe der CCD Kamera ist (CCD Kamera 12),
PW ein Sichtfeldwinkel pro Pixel ist und IV, JV Koordinaten auf
einem Bild an einem unendlichen Punkt sind, der dem Fahrzeug 1
gerade gegenüber liegt. Ferner sind die Gleichungen zum Berechnen
einer Position (i, j) auf einem Bild aus den dreidimensionalen
Koordinaten (X, Y, Z) eines realen Raumes unten angegeben, indem
die oben erwähnten Gleichungen (3) und (4) entsprechend
umgeformt wurden.
j = (CH - Y)/(Z × PW) + JV (5)
i = (X - r/2)/(Z × PW) + IV (6)
Es sei angemerkt, daß, wenn die Montageposition der CCD Kamera
11 durch das x, y, z-Koordinatensystem des realen Raumes
angezeigt wird, so betragen beispielsweise die
Positionsparameter der CCD Kamera 11b auf der linken Seite X =
0,45 m, Y = 1,24 m und Z = 0,0 m und die Positionsparameter der
CCD Kamera 11a auf der linken Seite X = -0,45 m, Y = 1,24 m und
Z = 0,0 m.
Die Erkennungsfunktion der Straßen- und dreidimensionalen
Objektdetektorvorrichtung ist, wie in Fig. 12 gezeigt, grob in
eine Straßendetektoreinheit 110 und in eine
Objekterkennungseinheit 120 unterteilt. Jeweilige
Verarbeitungsergebnisse werden in den Ausgangsspeichern 100e wie
einem Straßen-/dreidimensionalen Parameterspeicher 130
gespeichert und in eine (nicht gezeigte) externe Vorrichtung
ausgelesen.
Die Straßendetektoreinheit 110 ist aus einem
Straßenformabschätzungsabschnitt 111, einem Erzeugungsabschnitt
112 für ein dreidimensionales Fenster, einem
Linearelementdetektorabschnitt 113 und einem
Straßenformbeurteilungsabschnitt 114 aufgebaut. Darüberhinaus
ist der Objekterkennungsabschnitt 120 aus einem
Objektdetektorabschnitt 121, einem Erzeugungsabschnitt 122 für
ein dreidimensionales Fenster und einem
Objektkonturenextraktionsabschnitt 123 aufgebaut.
Der Straßenformabschätzungsabschnitt 111 weist die Funktion auf,
die Position einer weißen Linie und die Form einer Straße auf
der Grundlage von Information einer Distanzverteilung
abzuschätzen bzw. zu berechnen, die im Distanzbild enthalten
ist; der Erzeugungsabschnitt 112 für das dreidimensionale
Fenster weist die Funktion auf, als ein erstes dreidimensionales
Fenster einen dreidimensionalen Raumbereich festzulegen, der die
abgeschätzte weiße Linie der Straße enthält.
Ferner weist der Linearelementdetektorabschnitt 113 die Funktion
auf, nur die Daten innerhalb des ersten dreidimensionalen
Fensters aus Informationen der Distanzverteilung zur Detektion
von dreidimensionalen linearen Elementen zu extrahieren, die ein
Straßenmodell darstellen, und der
Straßenformbeurteilungsabschnitt 114 weist die Funktion auf, die
Annehmbarkeit oder Plausibilität eines detektierten linearen
Elements zu beurteilen, um das lineare Element für den Fall zu
modifizieren oder zu ändern, daß das beurteilte Ergebnis nicht
einem Kriterium entspricht, um so das Straßenmodell zu
bestimmen.
Ferner weist der Objektdetektorabschnitt 121 die Funktionen
einer Datenextraktionseinrichtung zum Extrahieren nur von Daten
oberhalb der Straßenoberfläche aus der Information der
Distanzverteilung auf der Straße des vorbestimmten
Straßenmodells und eine Objektdetektoreinrichtung auf, um das
Vorhandensein oder Fehlen einer existierenden Position eines
Objekts aus den extrahierten Daten für jeweils jeden einer
Vielzahl von Bereichen festzustellen, die durch Zerteilen eines
Bildes gewonnen werden, das die Information der
Distanzverteilung enthält, um so mehrere Objekte in einer zur
Unterscheidung vom Hintergrund geeigneten Weise zu detektieren.
Darüberhinaus weist der Erzeugungsabschnitt 122 für das
dreidimensionale Fenster die Funktion auf, als ein zweites
Fenster einen dreidimensionalen Raumbereich festzusetzen, der
die detektierten Objekte enthält.
Ferner weist der Objektkonturbildextraktionsabschnitt 123 die
Funktionen der Extraktion nur von Daten innerhalb des zweiten
dreidimensionalen Fensters aus Information der Distanzverteilung
zur Detektion eines Konturbildes eines Objekts und der Detektion
der Ausdehnung und Position dieses Konturenbildes, einer
Detektoreinrichtung zur Erfassung des
Positionsbeziehungsausmaßes mit hoher Geschwindigkeit und eines
Ausmaßes an positioneller Beziehung zwischen einem detektierten
dreidimensionalen Objekt und dem Fahrzeug auf der Monitorseite
aus zeitlichen Änderungen der dreidimensionalen Positionen des
erfaßten dreidimensionalen Objekts sowie die Funktion einer
Kollisionsbeurteilungseinrichtung auf, die die Möglichkeit einer
Kollision zwischen einem erfaßten dreidimensionalen Objekt und
dem Fahrzeug mit der Überwachungseinheit aus dem Betrag oder
Ausmaß an positioneller Beziehung im Hinblick auf eine Fahrroute
des Monitorfahrzeugs beurteilt, die aus der erfaßten
Straßenform gewonnen wird.
Der Straßendetektorabschnitt 110 nutzt die dreidimensionale
Positionsinformation von einem Distanzbild aus, das im
Distanzbildspeicher 20b gespeichert wird, und extrahiert nur
weiße Linien auf der aktuellen Straße in einer solchen Weise,
daß sie von den anderen zur Modifizierung/Änderung von
Parametern des Straßenmodells, das darin enthalten ist, so
getrennt werden, daß sie einer tatsächlich vorliegenden
Straßenform entsprechen.
In einem aktuellen Bild erscheint ein vorausfahrendes Fahrzeug
oder dergleichen auf weißen Linien auf der Straße in
überlagerter Weise. Mit zahlreichen herkömmlichen Vorrichtungen,
die zur Detektion von weißen Linien auf einer Straße ausgelegt
sind, welche in einem Bild in Abhängigkeit zweidimensionaler
Merkmale erscheinen, ist es häufig nicht möglich, weiße Linien
und dreidimensionale Objekte durch zweidimensionale Merkmale zu
trennen. Demgegenüber ist es in der vorliegenden Erfindung durch
Ausnutzen dreidimensionaler Positionsinformation von weißen
Linien möglich, weiße Linien und dreidimensionale Objekte
zuverlässig zu trennen.
Dabei liegen nämlich in einem dreidimensionalen Raum die weißen
Linien auf der Ebene einer Straße und ein dreidimensionales
Objekt wie ein vorausfahrendes Fahrzeug usw. ist demgegenüber
auf einer Position vorhanden, die höher als die Ebene der Straße
liegt. Im Hinblick hierauf wird ein Verfahren angewandt, das
zwischen der weißen Linie und dem dreidimensionalen Objekt durch
die Höhe von der Straßenoberfläche unterscheidet.
Ferner ist ein Straßenmodell im Straßendetektorabschnitt 110
enthalten oder gespeichert. Dieses Straßenmodell wird gewonnen,
indem eine eigene Fahrbahn bis zu einem
Erkennungsobjektbereich durch feste Distanzen zu ungefähren
linken und rechten weißen Linien für jeden jeweiligen Abschnitt
durch eine dreidimensionale, später beschriebene Gleichung zu
deren Verbindung in Form einer polygonalen Linie in eine
Vielzahl von Abschnitten aufgeteilt wird. In diesem
Straßenmodell wird der Bereich, der von linken und rechten
polygonalen Linien eingeschlossen ist, als eine Fahrbahn für ein
fahrendes Fahrzeug beurteilt. Mit anderen Worten kann man davon
ausgehen, daß die Erkennung der Straßenform ein Prozeß zum
Ableiten von Parametern eines dreidimensionalen linearen
Ausdrucks ist.
Fig. 13 ist ein Beispiel eines Straßenmodells. Beispielsweise
ist die Straße in einem Bereich bis zu 84 m vor einem Fahrzeug
in sieben Abschnitte von einem nullten Abschnitt R0, dem ersten
Abschnitt R1, dem zweiten Abschnitt R2, . . . dem sechsten
Abschnitt R6 unterteilt, um eine Rechtskurve durch eine Näherung
nachzustellen. In diesem Straßenmodell wird ein Verfahren
verwendet, das die Repräsentation einer Straße durch die
Approximation durch sieben Abschnitte ermöglicht, wodurch es
möglich wird, mit ausreichender Präzision nicht nur einen
linearen Verlauf, sondern auch eine Kurve oder einen S-förmigen
Verlauf zu repräsentieren. Darüberhinaus sind, da die jeweiligen
Abschnitte durch Linien repräsentiert sind, die
Rechenverarbeitungen und/oder die Handhabung einfach.
Darüberhinaus können, wie weiter unten erläutert, jeweilige
Abschnitte mit linearen Ausdrücken in horizontaler Richtung oder
in einer vertikalen Richtung repräsentiert werden und Formen in
oberen und unteren Richtungen bezüglich einer Straße wie einem
Auf und Ab der Straße oder Unebenheiten usw. können
repräsentiert werden.
Es sei angemerkt, daß es erforderlich ist, die Werte der
Abstände, die die jeweiligen Abschnitte des Straßenmodells
teilen, abhängig von der Krümmung einer Kurve der Straße, auf
der ein Fahrzeug fährt, zu ändern. Da der Radius der Straße bei
Schnellstraßen im allgemeinen so ausgelegt ist, daß er
mindestens etwa 230 m beträgt, können zufriedenstellende
Ergebnisse für diesen Fall gewonnen werden, wenn die
Distanzteilung der jeweiligen Abschnitte auf 10 m, 17 m, 25 m, 35 m,
48 m, 64 m und 84 m festgelegt werden.
Die Funktion des Straßendetektorabschnitts 110 wird nun
detailliert beschrieben. Der Straßenformabschätzungsabschnitt
111 berechnet die Bewegung des Fahrzeugs 1 für Δt sec durch
Verwenden von Ausgangssignalen vom Fahrzeuggeschwindigkeitssensor 3
und Lenkwinkelsensor 4 auf der Grundlage des Erkennungsergebnisses
einer Straßenform der letzten Zeitspanne (vor Δt sec), um so
eine Straßenform aus der Sicht der Position des Fahrzeugs 1 nach
Δt sec abzuschätzen.
Wird angenommen, daß ein Ausgangssignal des Geschwindigkeitssensors 3
V (m/sec) und ein Ausgangssignal (Lenkwinkel) des Lenkwinkelsensors 4,
der an der Lenkwelle oder Lenksäule befestigt ist, η (rad)
betragen, dann können ein Fortbewegungsbetrag Z(m) und ein
Drehwinkel (Gierwinkel) ΔΘ (rad) des Fahrzeugs 1 für Δt sec
generell durch die folgenden Gleichungen beschrieben werden.
ΔZ = V × Δt (7)
ΔΘ = ΔZ × tan (η/rs) × 1/wb (8),
worin rs das Verhältnis der Drehung zwischen dem Lenkrad und dem
Vorderrad ist und wb ein Rad- oder Achsstand des Fahrzeugs ist.
Demgemäß wird eine Näherung angewandt, um eine Straßenform, die
in der letzten Verarbeitung detektiert worden ist, in einer
Richtung auf dieser Seite um ΔZ zu bewegen, um die Straßenform
in einer Richtung entgegengesetzt zur Drehung des Fahrzeugs 1 um
ΔΘ weiter zu drehen, wodurch es möglich wird, die angenäherte
Position in Form einer Straße nach Δt sec abzuschätzen.
Der Erzeugungsabschnitt 112 für ein dreidimensionales Fenster
legt zunächst einen ersten dreidimensionalen Raumbereich in
einem rechtwinkligen Parallelipipedon bzw. Quader fest, wie in
Fig. 14 gezeigt ist, d. h. ein erstes dreidimensionales Fenster
WD3A (im folgenden der Einfachheit halber als dreidimensionales
Fenster WD3A bezeichnet), wobei ein lineares Element Ld
innerhalb eines Bereichs, der durch linke und rechte polygonale
Linien eingegrenzt ist, die eine abgeschätzte Straßenform RD
anzeigen, als ein Zentrum zum Bestimmen durch Berechnung dient,
wie das festgelegte dreidimensionale Fenster WD3A auf ein
zweidimensionales Bild, wie in Fig. 15 gezeigt, blickt, um zu
ermöglichen, daß der Bereich innerhalb der Fensterkonturlinie
(die schrägen Linienabschnitte in Fig. 15) ein zweidimensionales
Fenster wie WD2A ist, um nur Daten darin als zu erfassende Daten
zu betrachten.
Um das zweidimensionale Fenster WD2A aus dem dreidimensionalen
Fenster WD3A zu gewinnen, wird eine Näherung eingesetzt, um
Koordinaten (in, jn) auf dem Bild durch Verwenden der
vorbeschriebenen Gleichungen (5) und (6) aus den jeweiligen
Koordinaten (Xn, Yn, Zn) von acht Senkrechten des
dreidimensionalen Fensters WD3A zu berechnen, um ein Polygon zu
berechnen, das diese Punkte umhüllt.
Das dreidimensionale Fenster WD3A ist derart, daß die Länge
gleich der Unterteilungsdistanz der jeweiligen Abschnitte ist
(beispielsweise 10 bis 17 m vor dem Fahrzeug bei einem ersten
Abschnitt R1) und daß die Höhe und die Breite in Abhängigkeit
von Umständen wie der Fahrzeuggeschwindigkeit usw. geändert
werden. Jedoch kann ein Fehler bei der Abschätzung der
Straßenform vorliegen. Aus diesem Grund wird, wenn eine
Diskrepanz bezüglich einer tatsächlichen Position der weißen
Linie erwartet wird, eine Näherung angewandt, um die Höhe und
die Breite zur Verbreiterung des Detektionsbereichs zu
vergrößern. Wird jedoch das Fenster zu groß, so können Steine
oder Bäume und Pflanzen an der Peripherie einer Straße usw.
fehlerhaft erfaßt werden, woraus eine falsche Erkennung
resultieren kann. Aus diesem Grund ist es wichtig, die
Dimension des Fensters geeignet auszuwählen. In den generellen
Schnellstraßen ist bereits als Testergebnis bestätigt, daß die
Änderung der Dimension in einem Bereich, in dem die Höhe 0,4 bis
0,8 m und die Breite 0,4 bis 1,6 m betragen, geeignet ist.
Wie oben beschrieben, wird, falls eine weiße Linie auf einer
Straße und ein dreidimensionales Objekt einander auf einem
zweidimensionalen Bild überlappen, eine Näherung eingesetzt, um
ein dreidimensionales Fenster festzusetzen, um nur Daten in der
Umgebung der Oberfläche der Straße zu extrahieren, wodurch es
möglich wird, die weiße Linie in einer Weise zu detektieren, die
sie vom dreidimensionalen Objekt unterscheidet. Obgleich Steine,
Bäume und Pflanzen an der Peripherie einer Straße existieren,
wird ferner eine Näherung eingesetzt, um ein dreidimensionales
Fenster festzulegen, das nur Daten in der Umgebung der Position
extrahiert, wo eine Abschätzung weiße Linien ergibt, wodurch es
möglich wird, die weißen Linien auf der Straße in einer Weise zu
detektieren, die sie von diesen Steinen oder Bäumen und Pflanzen
usw. unterscheiden. Ferner wird ein zweidimensionales Fenster
festgelegt, wodurch es möglich wird, eine abzusuchende Region
und die Anzahl von Daten zu reduzieren, so daß so die
Verarbeitungszeit verkürzt wird.
Der Linearelementdetektorabschnitt 113 berechnet einen Betrag
ΔX der Diskrepanz in einer X-Richtung und einen Betrag ΔY
der Diskrepanz in einer Y-Richtung der dreidimensionalen
Position eines Objekts bezüglich des linearen Elementes Ld der
Straßenform, die vorab abgeschätzt wurde, um so jeweilige Daten
mit Wichtungskoeffizienten zu multiplizieren, die in
Abhängigkeit dieser Diskrepanz- oder Abweichungsbeträge ΔX,
ΔY festgelegt sind, um lineare Ausdrücke in einer
horizontalen Richtung (XZ Ebene) und in einer vertikalen
Richtung (YZ-Ebene) durch das kleinste Quadrat abzuleiten, um
auf diese Weise Parameter zu gewinnen.
Speziell werden dabei Pixel innerhalb des zweidimensionalen
Fensters 2A aufeinanderfolgend überwacht, um so dreidimensionale
Positionen (X, Y, Z) eines Objekts zu berechnen, indem zuvor
beschriebene Gleichungen (3) und (4) bezüglich von Pixeln
angewandt werden, die Distanzdaten aufweisen, um aus den zu
erfassenden Daten Distanzdaten auszuschließen, bei denen der
Wert der Distanz Z außerhalb eines Längenbereichs des
dreidimensionalen Fensters WD3A liegt (beispielsweise Z = 10-17 m
im ersten Abschnitt R1).
Da namlich ein Bild eines Objekts, das auf der
gegenüberliegenden Seite oder dieser Seite des dreidimensionalen
Fensters WD3A liegt, innerhalb des zweidimensionalen Fensters
DW2A abgebildet wird, kann nicht gesagt werden, daß ein
innerhalb des zweidimensionalen Fensters WD2A beobachtetes
Objekt innerhalb des dreidimensionalen Fensters WD3A enthalten
ist. Im Hinblick hierauf wird eine Näherung angewandt, um
dreidimensionale Positionen (X, Y, Z) eines Objekts von
jeweiligen Pixeln zu berechnen, um so zu unterscheiden, ob diese
Positionen innerhalb des dreidimensionalen Fensters WD3A liegen
oder nicht.
Darauffolgend werden das zuvor erwähnte lineare Element Ld der
Straßenform und die dreidimensionalen Positionen des Objekts
miteinander verglichen, um Beträge ΔXi, ΔYi der Abweichung
oder Diskrepanz in X-Richtung und in Y-Richtung der Daten Di zu
bestimmen, wie in Fig. 16 gezeigt ist, um nur Daten innerhalb
des Bereichs des dreidimensionalen Fensters WD3A zu selektieren,
das eine vorbestimmte Breite und Höhe hat, um danach
Wichtungskoeffizienten der Daten Di zu bestimmen, die den
Beträgen ΔXi, ΔYi der Diskrepanz in X-Richtung und in
Y-Richtung entsprechen.
Die Wichtungskoeffizienten sind in der grafischen Form einer
Parabel gezeigt, in der der Mittelpunkt auf 1,0 und der Umfang
oder Rand auf 0,0 festgelegt ist, wobei das Produkt eines
Wichtungskoeffizienten fx in X-Richtung und eines
Wichtungskoeffizienten fy in Y-Richtung als ein
Wichtungskoeffizient dieser Daten Di angesetzt wird. Die
Reichweiten in der X-Richtung und in der Y-Richtung, wo der
Wichtungskoeffizient über 0,0 liegt, werden auf dieselben Werte
festgelegt wie die der Breite und Höhe des dreidimensionalen
Fensters WD3A, oder werden auf Werte festgelegt, die größer als
diese Werte sind.
Nachdem die jeweiligen Daten Di mit den oben erwähnten
Wichtungskoeffizienten multipliziert worden sind, werden linear
Ausdrücke in horizontaler Richtung und vertikaler Richtung, die
durch die folgenden Gleichungen (9) und (10) angezeigt sind,
abgeleitet, um Parameter a, b, c, d abzuleiten, wobei diese
Parameter als ein Kandidat eines neuen linearen Elements Ld
betrachtet werden:
Horizontale Richtung: X = a × Z + b (9)
Vertikale Richtung: Y = c × Z + d (10).
Gleichzeitig werden bezüglich der Daten, wo der
Wichtungskoeffizient über einen festgelegten Wert
(beispielsweise 0,05 bis 0,1) liegt, die Anzahl der Daten und
der Bereiche des Abstandes Z, wo diese Daten verteilt sind,
untersucht. Für den Fall, daß die Anzahl von Daten geringer als
ein festgelegter Wert ist (beispielsweise etwa 10) oder für den
Fall, daß der Bereich des Abstands Z ein Wert ist, der kleiner
als die Hälfte der Länge des dreidimensionalen Fensters WD3A ist
(beispielsweise die Länge von 7 m für Z = 10 bis 17 m im ersten
Abschnitt R1) wird infolgedessen geschlossen, daß ein Kandidat
für ein korrektes lineares Element Ld nicht gewonnen werden
kann, so daß der lineare Ausdruck, der oben gewonnen wurde,
verworfen wird und so festgestellt wird, daß kein Kandidat
vorliegt.
Der oben erwähnte Prozeß wird aufeinanderfolgend von der linken
und rechten Seite und dieser Seite zu Abschnitten auf einer
entfernten oder abgewandten Seite durchgeführt, so daß
Kandidaten sämtlicher linearer Elemente Ld, die ein
Straßenmodell darstellen, gewonnen werden. Zu diesem Zeitpunkt
gibt es Distanzen, bei denen, falls die Breite des
dreidimensionalen Fensters auf einen zu großen Wert festgelegt
wird, Steine oder Bäume und Pflanzen an der Peripherie einer
Straße innerhalb des Randes oder der Kante des dreidimensionalen
Fensters auftreten können. Jedoch wird im
Linearelementdetektorabschnitt 113 eine Maßnahme ergriffen, bei
der die jeweiligen Daten durch die Wichtungskoeffizienten
multipliziert werden, um so zu ermöglichen, daß die Wichtung am
Randabschnitt des dreidimensionalen Fensters gering ist. So kann
auch dann, wenn Stein oder Bäume und Pflanzen in das
dreidimensionale Fenster fallen, der daraus resultierende
Einfluß wirksam herabgesetzt werden, so daß ein linearer
Ausdruck einer weißen Linie stabil abgeleitet werden kann.
Der Straßenformbeurteilungsabschnitt 114 beurteilt die
Plausibilität aus der Parallelität in der horizontalen Richtung
und der vertikalen Richtung bezogen auf Kandidaten sowohl für
das lineare Element Ld auf der linken als auch rechten Seite in
Verbindung mit den jeweiligen Abschnitten. Für den Fall, daß der
Straßenformbeurteilungsabschnitt 114 solche Kandidaten als
plausibel infolge des Ergebnisses der Beurteilung beurteilt hat,
nimmt dieser Abschnitt 114 beide als Kandidat für ein neues
lineares Element Ld an. Hat demgegenüber der
Beurteilungsabschnitt 114 festgestellt, daß einer der Kandidaten
des linken und rechten linearen Elements Ld nicht korrekt ist,
führt er eine Substitution oder Ergänzung (Kompensation) aus.
Dann gibt der Beurteilungsabschnitt 114 Parameter jeweiliger
linearer Elemente Ld, die so gewonnen wurden, an den
Straßen-/dreidimensionalen Parameterspeicher 130 aus.
Dabei wird die Parallelität in der horizontalen Richtung konkret
aus einer Differenz zwischen einem Parameter (im folgenden wird
eine Bezeichnung benutzt, bei der die Buchstaben L und R, die
den jeweiligen Parametern zugefügt sind, jeweils die linke bzw.
rechte Seite anzeigen) aL der Gleichung (9) bezüglich des
linearen Elements Ld auf der linken Seite und einem Parameter
aR der Gleichung (9) bezüglich des linearen Elements Ld auf der
rechten Seite bestimmt und untersucht. Als Folge beurteilt
für den Fall, daß die Parallelität über einem festgelegten Wert
(beispielsweise 5 Grad) liegt, der Beurteilungsabschnitt 114,
daß eines der linken und rechten linearen Elemente Ld nicht
korrekt ist. In ähnlicher Weise untersucht der
Beurteilungsabschnitt 114 die Parallelität in vertikaler
Richtung aus der Differenz zwischen einem Parameter cR und einem
Parameter cL, um zu beurteilen, daß eines der linearen Elemente
für den Fall nicht korrekt ist, daß die Parallelität über einem
festgelegten Wert (z. B. 1 Grad) liegt.
Für den Fall, daß beide Parallelitäten in horizontaler und
vertikaler Richtung die Bedingung nach dem Beurteilungsergebnis
erfüllen, werden beide Parallelitäten als neues lineares Element
angewandt. Wird jedoch eines der linearen Elemente Ld als
unkorrekt beurteilt, vergleicht der Beurteilungsabschnitt 115
Kandidaten der jeweiligen linken und rechten linearen Elemente
Ld und die Position einer zuvor abgeschätzten Straßenform, um
einen Kandidaten, der einen geringeren Diskrepanzbetrag
aufweist, als neues lineares Element Ld abzuschätzen und die
anderen zurückzuweisen, um zu berücksichtigen, daß kein Kandidat
für das lineare Element vorliegt.
Für den Fall, daß irgendeines der linken und rechten linearen
Elemente Ld so beurteilt wird, daß es infolge des
Beurteilungsergebnisses keinen Kandidat aufweist, für den Fall,
daß Daten fehlen, weil die weißen Linien auf der Straße in
unterbrochener Form vorliegen oder hinter Hindernissen außer
Sicht geraten, so wird jedes der linken und rechten linearen
Elemente Ld so beurteilt, daß es keinen Kandidaten aufweist, und
es wird ein lineares Element Ld auf der erfaßten Seite einer
Parallelverschiebung unterzogen und für das lineare Element
ersetzt, das so beurteilt war, daß es keinen Kandidaten aufwies.
Ferner wird für den Fall, bei dem sowohl das linke als auch das
rechte lineare Element Ld keinen Kandidaten aufweisen, ein
lineares Element Ld der zuvor abgeschätzten Straßenform
ersetzt. So kann auch dann, wenn teilweise fehlerhafte Detektion
und/oder Detektionsausfälle vom linearen Element vorliegen,
insgesamt eine stabile Straßenform gewonnen werden.
Die Fig. 18 ist eine erläuternde Ansicht, in der die
Straßenform, die von dem Straßendetektorabschnitt 110 erfaßt
worden ist, schematisch angedeutet ist. Wie aus dieser Figur
hervorgeht, werden lineare Elemente entlang linker und rechter
weißer Linien detektiert. Der Abschnitt, der hinter einem
vorausfahrenden Fahrzeug außer Sicht gerät, wird in
zufriedenstellender Weise dadurch abgeschätzt, daß wie oben
beschrieben ein Ersatz oder eine Kompensation ausgeführt werden.
Es sei angemerkt, daß die Querlinien zwischen linken und rechten
linearen Elementen Grenzen zwischen den jeweiligen Abschnitten
sind.
Die jeweiligen Funktionen des Objektdetektorabschnitts 121, des
Erzeugungsabschnitts 122 für das dreidimensionale Fenster und
des Objektkonturen-Bildextraktionsabschnitts 123 im
Objekterkennungsabschnitt 120 werden nun detailliert
beschrieben.
Der Objektdetektorabschnitt 121 unterteilt ein Distanzbild von
der Verarbeitungsvorrichtung 20 für das Stereobild für jedes
vorbestimmte Intervall (beispielweise ein Intervall von 8 bis 20
Pixeln) in ein Raster, um nur Daten von dreidimensionalen
Objekten zu selektieren, die ein Hindernis beim Befahren jeweils
jedes Bereiches darstellen könnten, um diese Detektionsdistanz
zu berechnen.
Die Fig. 19 ist eine erläuternde Ansicht, in der eine Region in
einer Rasterform auf einem Bild vorgesehen ist, das eine
vorbestimmte Leuchtdichte aufweist, die durch Abbilden einer
Szene vor einem Fahrzeug 1 gewonnen wird. In der Praxis wird das
Distanzbild der Fig. 9 auf diese Weise unterteilt. In diesem
Ausführungsbeispiel wird das Distanzbild in dreiunddreißig
kleine Regionen mit einem Intervall von 12 Pixeln unterteilt. So
wird nämlich ein Bild in eine großen Anzahl von Regionen
unterteilt, um Objekte zu suchen, so daß es möglich ist, mehrere
Objekte gleichzeitig zu detektieren.
Ein Objekt in jeder Region wird wie folgt berechnet. Die
dreidimensionalen Positionen (X, Y, Z) eines realen Raumes
werden nämlich unter Verwendung der zuvor beschriebenen
Gleichungen (3) und (4) aus den Koordinaten (i, j) auf dem Bild
und der Distanz Z berechnet. Ferner wird die Höhe Yr von der
Straßenoberfläche in der Distanz Z berechnet, indem die
Gleichung (10) der zuvor detektierten Straßenform verwendet
wird. Dabei wird nämlich die Höhe H von der Straßenoberfläche
eines Objekts durch Verwenden der folgenden Gleichung (11)
berechenbar.
H = Y - Yr (11).
Ein Objekt, das eine Höhe aufweist, die geringer als etwa 0,1 m
ist, wird als weiße Linie vorausgesetzt, als Stein oder als
Schatten auf einer Straße. Demgemäß wird ein solches Objekt
nicht als ein Objekt beurteilt, das ein Hindernis beim Fahren
darstellt. Aus diesem Grund werden die Daten eines derartigen
Objekts verworfen. Da ein Objekt mit einer größeren Höhe als der
des Fahrzeuges auch als Fußgängerbrücke oder z. B.
Verkehrszeichen-Pfosten usw. angesehen wird, werden auch
dementsprechende Daten zurückgewiesen, um nur Daten eines
dreidimensionalen Objekts zu selektieren, die tatsächlich ein
Hindernis auf einer Straße darstellen. So werden, auch wenn ein
Objekt auf einem zweidimensionalen Bild mit einer Straße usw.
überlappt, Daten durch die Höhe von der Straßenoberfläche
beurteilt und unterschieden, wodurch es möglich ist, nur ein
Objekt zu detektieren.
Dann wird die Anzahl von Daten, die im Abschnitt der Distanz Z,
die vorab festgelegt wurde, enthalten sind, bezüglich der Daten
eines dreidimensionalen Objekts, das auf diese Weise extrahiert
wurde, gezählt, um so ein Histogramm vorzubereiten, das die
Distanz Z als Abszisse aufweist. Die Fig. 20 ist ein Histogramm,
in dem ein vorausfahrendes Fahrzeug 500 als ein zu erfassendes
Objekt dargestellt ist.
Es ist erforderlich, die Länge des Abschnitts und die Anzahl von
Abschnitten der Distanz Z, die unter Berücksichtigung der
Detektionsgrenze und Genauigkeit der Distanz Z festzulegen ist,
und die Form eines Objekts, das zu erfassen ist, zu ermitteln.
Beispielsweise ist für den Fall des Fahrens auf einer
Schnellstraße anzustreben, daß die Abschnittslänge um 10 m vor
dem Fahrzeug etwa 1,5 m beträgt und die Abschnittslänge bei 100 m
vor dem Fahrzeug etwa 15 m beträgt.
Im oben erwähnten Histogramm erscheinen, da fehlerhaft erfaßte
Werte in Distanzdaten in einem eingegebenen Distanzbild
existieren, Daten bis zu einem gewissen Grad an einer Stelle, an
der tatsächlich kein Objekt vorhanden ist. Ist jedoch ein Objekt
einer Ausdehnung bis zu einem gewissen Maß vorhanden, so zeigt
die Frequenz bei dieser Position einen großen Wert an. Existiert
demgegenüber kein Objekt, so nimmt die Frequenz oder Häufigkeit,
die bei nur fehlerhaften Distanzdaten auftritt, einen geringen
Wert an.
Falls demgemäß ein Abschnitt vorliegt, der größer als ein
Beurteilungswert ist, der vorab festgelegt ist, und einen
Maximalwert in der Frequenz des vorbereiteten Histogramms
annimmt, so wird daraus geschlossen, daß in diesem Abschnitt
irgendein Objekt vorliegt. Für den entgegengesetzten Fall, bei
dem der Maximalwert der Frequenz geringer als der
Beurteilungswert ist, wird geschlossen, daß kein Objekt
vorhanden ist. So ist es auch für den Fall, daß bis zu einem
gewissen Ausmaß Rauschen in den Bilddaten vorhanden ist,
möglich, ein Objekt zu detektieren, wobei der Rauscheinfluß so
gering wie möglich gemacht werden kann.
Wenn geschlossen wird, daß ein Objekt vorliegt, wird ein
Durchschnittswert der Distanz Z von Daten eines
dreidimensionalen Objekts, das in einem detektierten Abschnitt
und in davor und danach benachbarten Abschnitten enthalten ist,
berechnet, um diesen Wert als eine Distanz bis zu diesem Objekt
zu berücksichtigen.
Eine derartige Verarbeitung der detektierten Distanz zum Objekt
wird danach bezüglich des gesamten Bereichs durchgeführt, um die
Detektionsdistanz des Objekts in den jeweiligen Bereichen zu
untersuchen, wodurch, wenn eine Differenz zwischen den
Detektionsdistanzen bis zum Objekt in aneinandergrenzenden
Bereichen geringer als ein festgelegter Wert ist, diese
Distanzen als zum selben Objekt gehörig betrachtet werden,
wohingegen, wenn diese Differenz über dem festgelegten Wert liegt,
die entsprechenden Distanzen als zu individuellen Objekten
gehörend betrachtet werden.
Dabei wird explizit der linke Endabschnitt AR1 zuerst
untersucht. Wird ein Objekt detektiert, so wird infolgedessen
angenommen, daß das detektierte Objekt und seine Distanz jeweils
durch S1 bzw. Z1 repräsentiert werden. Dann wird der Bereich AR2
angrenzend an die rechte Seite untersucht. Wird kein Objekt
detektiert, so wird infolgedessen geschlossen, daß das Objekt S1
innerhalb des Bereichs AR1 liegt und in dessen Umgebung und die
Distanz hiervon wird durch Z1 ausgedrückt. Wird demgegenüber ein
Objekt detektiert und dessen Detektionsdistanz durch Z1
repräsentiert, so wird die Differenz zwischen den Distanzen Z1
und Z2 untersucht.
Liegt die Differenz zwischen den Distanzen Z1 und Z2 oberhalb
eines festgelegten Werts, wird daraus geschlossen, daß ein
Objekt im Bereich AR2 vom zuvor detektierten Objekt S1
verschieden ist. Es wird dann angenommen, daß das Objekt und die
Distanz hiervon jeweils durch S2 und Z2 repräsentiert sind, um
dann Bereiche, die weiter angrenzend an den Bereich AR2
vorliegen, zu untersuchen.
Ist andererseits eine Differenz zwischen den Distanzen Z1 und Z2
geringer als ein festgelegter Wert, so wird geschlossen, daß das
im Bereich AR2 detektierte Objekt auch das zuvor detektierte
Objekt S1 ist, und dessen Distanz wird als mittlerer Wert der
Distanzen Z1 und Z2 angenommen, um auf dieser Grundlage weiter
in dieser Folge angrenzende Objekte zu untersuchen. Falls
geschlossen wird, daß die Objekte S1 kontinuierlich vorliegen,
so werden infolgedessen die Distanz und die existierenden
Bereiche entsprechend aktualisiert.
Bislang war es für den Fall, daß ein ferner Hintergrund eines
Objekts auf einem zweidimensionalen Bild vorlag, schwierig, nur
Daten dieses Objekts zu extrahieren. Im Gegensatz hierzu wird
gemäß der Erfindung die oben beschriebene Verarbeitung vom
linken Endbereich AR1 bis zum rechten Endbereich AR33 so
durchgeführt, daß Daten durch Distanzwerte unterschieden werden,
wodurch es möglich wird, eine Mehrzahl von Objekten zu
detektieren, die Distanzen hierzu und ihre vorhandenen Bereiche
in einer Weise, daß sie vom Hintergrund unterschieden werden
können. Darüberhinaus ist es auch für den Fall, daß mehrere
Objekte sich auf einem zweidimensionalen Bild überlappen,
möglich, sie in einer solchen Weise zu erfassen, daß durch die
Unterschiede zwischen den Distanzen der jeweiligen Hindernisse
zwischen den Objekten unterschieden werden kann.
Es sei angemerkt, daß es empirisch bestätigt ist, daß der oben
festgelegte Wert für den Fall der Erfassung eines Automobils
etwa 4 bis 6 m beträgt und etwa 1 bis 2 m beträgt, für den Fall,
daß ein Fußgänger erfaßt wird.
Die Fig. 21 zeigt vorhandene Objektbereiche, die durch die oben
erwähnte Verarbeitung durch Rahmenlinien detektiert werden. In
diesem Beispiel sind drei Objekte erfaßt. Ferner sei darauf
hingewiesen, daß die numerischen Werte an der unteren Kante der
Figur die erfaßten Distanzen zu den jeweiligen Objekten sind.
Der Erzeugungsabschnitt 122 für das dreidimensionale Fenster
setzt einen zweiten dreidimensionalen Raumbereich eines
rechtwinkligen Quaders fest, d. h., ein zweites dreidimensionales
Fenster WD3B (im folgenden der Einfachheit halber
dreidimensionales Fenster WD3B bezeichnet), das ein
Detektionsobjekt (vorausfahrendes Fahrzeug) 500 in einem
dreidimensionalen Raum enthält, wie in Fig. 22 bezüglich der
jeweiligen Objekte dargestellt ist, die vom
Objektdetektorabschnitt 121 erfaßt worden sind, um durch
Berechnung zu ermitteln, wie das so festgelegte dreidimensionale
Fenster auf einem zweidimensionalen Bild erscheint, um zu
ermöglichen, daß nur die Daten innerhalb des zweidimensionalen
Fensters WD2B, das durch die Fensterkonturlinien definiert ist,
Daten sind, die zu erfassen sind.
Die seitliche Breite des Objekt detektierenden dreidimensionalen
Fensters WD3B ist auf einen Bereich festgelegt, der bezüglich
des vorhandenen Bereichs eines Objekts um einen Bereich nach
links und nach rechts erweitert ist. Der Grund für die Annahme
eines solchen Bereichs ist wie folgt. Für den Fall, daß nämlich
nur ein Abschnitt des linken oder rechten Endes eines Objekts
innerhalb eines bestimmten Bereiches fällt, nimmt dieses Objekt
nicht mehr länger einen großen Wert auf dem Histogramm ein,
woraus die Möglichkeit resultiert, daß ein anderes Objekt
detektiert wird. Aus diesem Grund ist der Fensterbereich unter
Berücksichtigung eines derartigen Falls erweitert.
Die Länge in einer Richtung der Distanz Z des dreidimensionalen
Fensters WD3B ist auf einen Bereich festgelegt, der gewonnen
wird, indem eine Abschnittslänge des Histogramms in der
Detektionsdistanz des Objekts zu den Detektionsdistanzen vor und
nach dieser Abschnittslänge hinzu addiert wird. Das untere Ende
des dreidimensionalen Fensters WD3B wird auf eine Position
festgelegt, die gewonnen wird, indem etwa 0,1 m zur Höhe von der
der Straßenoberfläche addiert wird, und das obere Ende des
Fensters wird als die oberen Enden in den jeweiligen Bereichen
festgelegt, die zur Detektion eines Objekts unterteilt sind.
Es sei angemerkt, daß die Verarbeitung zum Gewinnen des
objektdetektierenden zweidimensionalen Fensters WD2B aus dem
objektdetektierenden dreidimensionalen Fenster WD3B dieselbe wie
die Verarbeitung ist, die bereits für den Erzeugungsabschnitt
112 des dreidimensionalen Fensters des Straßendetektorabschnitts
110 beschrieben wurde.
Die Fig. 23 zeigt ein Beispiel, in dem ein zweidimensionales
Fenster WD2B bezüglich eines dreier Detektionsobjekte
festgelegt ist, die bereits in Fig. 21 gezeigt sind.
Der Objektkonturenextraktionsabschnitt 123 führt eine
Verarbeitung durch, um in der Aufeinanderfolge jeweiliger Daten
innerhalb des zweidimensionalen Fensters WD2B sicherzustellen,
daß nur Daten selektiert werden, die innerhalb des
dreidimensionalen Fensters WD3B enthalten sind, um ein
Konturenbild eines detektierten Objekts zu extrahieren, um die
Ausmaße oder Beträge positioneller Beziehung bezüglich des
in Frage stehenden Autos bzw. Fahrzeugs wie Position,
Geschwindigkeit oder Beschleunigung usw. von einem zu
erfassenden Objekt zu detektieren und so die Wahrscheinlichkeit
einer Kollision zu beurteilen.
Dabei werden nämlich die Daten innerhalb des zweidimensionalen
Fensters WD2B aufeinanderfolgend für jedes Objekt zur Berechnung
dreidimensionaler Positionen (X, Y, Z) überwacht, indem die
zuvor beschriebenen Gleichungen (3) und (4) bezüglich der Pixel
verwendet werden, die Pixeldaten aufweisen, wobei anschließend
nur Daten extrahiert werden, bei denen der Wert der Distanz oder
die Höhe innerhalb des Bereichs des dreidimensionalen Fensters
WD3B liegen, und wobei andere Daten zurückgewiesen werden.
Wenn auf diese Weise extrahierte Daten auf ein zweidimensionales
Bild projiziert und dargestellt werden, wird z. B. ein in Fig. 24
gezeigtes Bild gewonnen. Wenn die Außenbereiche dieser Daten
durch Liniensegmente verbunden werden, so wird ein Konturenbild
eines Objekts gewonnen, wie es in Fig. 25 gezeigt ist. Wenn die
Koordinaten (i, j) auf dem Bild an dem linken und rechten Ende
und dem oberen Ende dieses Konturenbildes anschließend
detektiert werden, um Positionen der linken und rechten Enden
und des oberen Endes in einem dreidimensionalen Raum zu
berechnen, indem die Detektionsdistanz Z dieses Objekts und die
Gleichungen (3) und (4) verwendet werden, dann wird die
seitliche Ausdehnung des Objekts aus den Positionen der linken
und rechten Enden ermittelt, und es wird die Höhe des Objekts
aus der Position des oberen Endes ermittelt.
In Fig. 25 weist dieses unterscheidbare Objekt eine Breite von
1,7 m und eine Höhe von 1,3 m auf.
Ferner werden die Mittenpositionen (X, Z) der linken und rechten
Enden des Objekts berechnet. Eine Relativgeschwindigkeit in
Vorwärts- und Rückwärtsrichtung vom Objekt, gesehen von einem
entsprechenden Fahrzeug (Fahrzeug 1), wird berechnet. Ferner
wird eine Relativgeschwindigkeit in linker und rechter Richtung
aus einer zeitlichen Änderung der Position X in der linken und
rechten Richtung berechnet. Darüberhinaus wird, wenn die
Relativgeschwindigkeit des Objekts zur Fahrgeschwindigkeit des
entsprechenden Fahrzeugs hinzu addiert wird, die vom
Geschwindigkeitssensor 3 ausgegeben wird, eine
Fahrgeschwindigkeit des Objekts relativ zur Straßenoberfläche
berechnet.
Beschleunigungen jeweiliger Objekte werden aus den zeitlichen
Änderungen der Fahrgeschwindigkeit berechnet.
Darauffolgend werden die Positionen jeweils erfaßter Objekte und
die Positionen von Fahrbahnen einer detektierten Straße
miteinander verglichen, um zu untersuchen, ob das Objekt auf
einer entsprechenden Fahrbahn oder Fahrbahnen auf der linken und
rechten Seite oder in einem Bereich ausschließlich der Straße
vorhanden ist, um bezüglich jedes Falls eine Sortierung
vorzunehmen. Beispielsweise werden für den Fall, daß mehrere
Fahrzeuge vor dem entsprechenden in Frage kommenden Fahrzeug
fahren und die Straße gekrümmt ist, Positionen der jeweiligen
Objekte entlang der Fahrroute verglichen. So wird von einem
Objekt, das am weitesten vorn auf der entsprechenden Fahrbahn
vorhanden ist, geschlossen, daß es ein vorausfahrendes Fah 37584 00070 552 001000280000000200012000285913747300040 0002004308776 00004 37465rzeug
ist, und eine Distanz bis zu diesem Objekt wird als eine Distanz
zwischen Fahrzeugen angesetzt.
Dann wird eine Näherung angewandt, um Positionen in einigen
Sekunden der jeweiligen Objekte von den detektierten Positionen
aus abzuschätzen sowie die Fahrgeschwindigkeiten und
Beschleunigungen in Vor- und Rückwärtsrichtung und in Richtungen
nach links und rechts der jeweiligen Objekte, und um die
Positionen in einigen Sekunden unter der Annahme abzuschätzen,
daß ein entsprechendes Fahrzeug gemäß einer Fahrbahn einer
detektierten Straße oder eines gegenwärtigen Lenkwinkels fährt,
um hierdurch die jeweiligen Positionen jeweiliger Objekte und des
entsprechenden Fahrzeuges zu vergleichen, um die Möglichkeit
einer Kollision zwischen diesen zu beurteilen.
Parameter wie Position, Form, Geschwindigkeit und Beschleunigung
jeweiliger Objekte und die Möglichkeit der Kollision usw., die
wie oben ermittelt wurden, werden an den Straßen- und
dreidimensionalen Parameterspeicher 130 ausgegeben und darin
gespeichert.
Die Berechnung der Distanzinformation durch die
Verarbeitungsvorrichtung 20 für das Stereobild und die
Funktionsweise der Straßen- und dreidimensionalen
Detektorvorrichtung werden nun erläutert.
Zunächst wird unter Bezugnahme auf das Flußdiagramm der Fig. 26
die Funktionsweise der Verarbeitungsvorrichtung 20 für das
Stereobild beschrieben. Wenn durch die CCD Kameras 11a und 11b
aufgenommene Bilder im Schritt S101 eingegeben werden, setzt
die Verarbeitungsvorrichtung 20 die eingegebenen Bilder im
Schritt S102 durch eine A/D Umsetzung um, um dann derartige
digitale Bilddaten mit den LUTs 32a und 32b zu korrigieren und
sie anschließend in den Bildspeichern 33a und 33b zu speichern.
Die Bilder, die in den Bildspeichern 33a und 33b gespeichert
sind, sind nur die Abtastzeilen, die für die darauf folgende
Verarbeitung sämtlicher Abtastzeilen der CCD-Vorrichtung der
CCD-Kameras 11a und 11b erforderlich sind. Beispielsweise werden
diese Bilddaten z. B. mit einer Rate von jeweils 0,1 s (mit
einer Rate von jeweils allen drei Fernsehbildern) überschrieben.
Wenn dann der Verfahrensablauf auf Schritt S103 fortschreitet,
werden die linken und rechten Bilddaten z. B. vier Zeilen
gleichzeitig aus dem linken und rechten Bildspeicher 33a bzw.
33b über den gemeinsamen Bus 80 ausgelesen und in die Puffer
speicher 41a und 41b, 42a und 42b eingegeben, wobei eine Ab
stimmung der linken und rechten Bilder als Koinzidenzevaluierung
erfolgt.
In diesem Augenblick werden für jedes linke und rechte Bild ein
Auslesevorgang aus den Bildspeichern 33a und 33b in die Eingangs
pufferspeicher 41a, 41b, 42a und 42b und ein Schreibvor
gang in die Schieberegister 43a, 43b, 44a und 44b alternierend
durchgeführt.
Beispielsweise wird bezüglich eines linken Bildes, während die
Bilddaten aus dem Bildspeicher 33a in einen der Eingangspuffer
speicher 41a eingelesen werden, ein Schreibvorgang der Bilddaten
durchgeführt, die ausgelesen wurden, und zwar vom anderen Ein
gangspufferspeicher 41b in das Schieberegister 43b. Andererseits
wird bezüglich eines rechten Bildes, während die Bilddaten aus
dem Bildspeicher 33b in einen Eingangspufferspeicher 42a gelesen
werden, ein Schreibvorgang der Bilddaten, die gelesen wurden,
aus dem anderen Eingangspufferspeicher 42b in das Schiebere
gister 44b ausgeführt.
Dann werden, wie in Fig. 27 gezeigt ist, Bilddaten (1,1) . . . (4,4)
in der kleinen Region von 4 × 4 Pixeln für linke und rechte
Bilder in den Schieberegistern 43a, 43b, 44a und 44b gehalten.
Daten für die erste und zweite Zeile werden dann in einem der
Schieberegister 43a (44a) gehalten und Daten für die dritte und
zweite Zeile werden im anderen Schieberegister 43b (44b) in der
Reihenfolge der ungeradzahligen Zeilen und geradzahligen Zeilen
für jeweils jedes Pixel gehalten.
Die Schieberegister 43a, 43b, 44a und 44b haben jeweils unabhängi
ge Übertragungszeilen und Daten von 4 × 4 Pixeln werden in acht
Takten übertragen. Dann geben diese Schieberegister 43a, 43b, 44a
und 44b simultan die Inhalte der geraden Stufen der acht Stufen
an die city-block-Distanzberechnungsschaltung 45 aus. Wenn die
Berechnung der city-block Distanz H beginnt, werden die Daten
des rechten Bildes im Schieberegister 44a und 44b gehalten und
die Daten der ungerade numerierten Zeilen und der gerade numerierten
Zeilen werden alternierend taktweise ausgegeben.
Andererseits werden fortgesetzte Daten des linken Bildes zu den
Schieberegistern 43a und 43b übertragen, Daten werden durch
Daten ersetzt, die alle zwei Takte um ein Pixel nach rechts
verschoben werden, während Daten ungerade numerierter Zeilen
und gerade numerierter Zeilen alternierend ausgegeben werden.
Dieser Vorgang wird wiederholt, bis Daten z. B. um 100 Pixel
(200 Takte) verschoben sind.
Ist die Übertragung bezüglich einer kleinen Region abgeschlos
sen, wird der Inhalt des Adreßzählers für das rechte Bild (Füh
rungsadresse in der nächsten kleinen Region von 4 × 4 Pixeln) am
Adreßzähler des linken Bildes im #2 Adreßsteuerer 87 gesetzt. So
wird der Verarbeitungsvorgang für die nächste kleine Region be
gonnen.
In der city-block Distanzberechnungsschaltung 45 werden, wie in
der Zeitsteuertabelle der Fig. 28 gezeigt, die Daten von 8
Pixeln zuerst in den Absolutwertberechner der ersten Stufe der
Pyramidenstruktur 1 eingegeben. So wird ein Absolutwert einer
Differenz zwischen den linken und rechten Bildern berechnet.
Genauer ausgedrückt, wird ein Verfahren angewandt, bei dem von
der Helligkeit oder Leuchtdichte des rechten Pixels die Leucht
dichte des linken Pixels, die dieser entspricht, abgezogen, wo
durch wenn das Ergebnis negativ ist, der Berechnungsbefehl geän
dert wird, um wieder eine Subtraktion durchzuführen, wobei die
Seite von Subtrahent und Subtraktionswert vertauscht werden, um
hierdurch die Berechnung des Absolutwerts durchzuführen.
Demgemäß gibt es Fälle, bei denen die Subtraktion in der ersten
Stufe zweimal ausgeführt wird.
Danach addieren nach Verstreichen der Anfangsstufe der erste bis
dritte Addierer von der zweiten bis vierten Stufe die beiden
Eingangsdaten, die gleichzeitig eingegeben wurden und
geben das Additionsergebnis aus. Dann wird eine Gesamtsumme
durch Addition zweier kontinuierlicher Daten an der Endstufe be
rechnet, um die erforderliche city-block Distanz H von 16 Pixeln
alle zwei Takte zum Minimal/Maximalwertdetektorabschnitt 50 aus
zugeben.
Dann schreitet die Verarbeitungsprozedur mit Schritt S104 fort,
um einen Maximalwert HMAX und einen Minimalwert HMIN der city-
block Distanz H zu ermitteln, die im Schritt S3 berechnet wurde.
Wie bereits erläutert, entsprechen die Ermittlung des Maximal
werts HMAX und des Minimalwerts HMIN exakt einander, außer daß
die Logiken im ersten Fall und im letzteren Fall entgegengesetzt
zueinander sind, und daß der Abweichungsbetrag nicht gehalten
wird. Dementsprechend wird die Ermittlung des Minimalwerts HMIN
als repräsentatives Beispiel im folgenden beschrieben.
Zunächst wird die anfänglich ausgegebene city-block Distanz H
(der Abweichungsbetrag δ ist "0") an das B-Register 46b der
Rechnereinheit 46 über den C-Signalspeicher 53 der Minimalwert
detektorschaltung 51, die in Fig. 7 gezeigt ist, eingegeben. Die
city-block Distanz H (für die der Abweichungsbetrag 1 ist), die
für den nächsten Takt ausgegeben wird, wird in den C-Signal
speicher 53 und das A-Register 46a der Rechnereinheit 46 gege
ben.
So beginnt die Rechnereinheit 46 gleichzeitig die Berechnung
des Vergleichs mit dem B-Register 46b.
Falls das Ergebnis der Vergleichsberechnung in der Berechnerein
heit 46 ergibt, daß der Inhalt des A-Registers 46a kleiner als
der Inhalt des B-Register 46b ist, wird der Inhalt des C-Signal
speichers 53 (d. h. der Inhalt des A-Registers 46a) zum B-Re
gister 46b übertragen und der Abweichungsbetrag x zu diesem
Zeitpunkt wird im D-Signalspeicher 55 gehalten. Durch diesen
Takt wird die city-block Distanz H (der Abweichungsbetrag δ be
trägt 2) in das A-Register 46a eingegeben und gleichzeitig in
den C-Signalspeicher. So wird die Vergleichsberechnung erneut
aufgenommen.
Auf diese Weise wird eine Berechnung fortgesetzt, bis der Abwei
chungsbetrag 100 wird, während der Minimalwert in der Mitte der
Berechnung stets im B-Register 46b gespeichert wird und der Dis
krepanzbetrag zu diesem Zeitpunkt im D-Signalspeicher 55 gehal
ten wird. Wenn die Berechnung abgeschlossen ist (nach einem Takt
vom Zeitpunkt an, bei dem die End-city-block Distanz H ausgege
ben wird), dann werden die Inhalte des B-Registers 46b und des
D-Signalspeichers 55 in den Diskrepanzbestimmungsabschnitt 60
eingelesen. Während dieser Zeitperiode wird ein Anfangswert in
der nächsten kleinen Region in die city-block Distanz Berech
nungsschaltung 45 eingelesen, so daß diese Zeit nicht verschwen
det wird. Man benötigt vier Takte, um eine city-block Distanz H
zu berechnen. Da eine Pipelinestruktur verwen
det wird, wird ein neues Berechnungsergebnis alle zwei Takte
gewonnen.
Im Schritt S105 prüft, wenn der Minimalwert HMIN und der Maxi
malwert HMAX der city-block Distanz H im Schritt S104 bestimmt
sind, der Diskrepanzbestimmungsabschnitt 60 die drei oben er
wähnten Bedingungen. Auf diese Weise wird der Abweichungsbetrag
bzw. das Diskrepanzausmaß bestimmt.
Wie aus dem Zeitsteuerdiagramm der Fig. 29 hervorgeht, wird der
Minimalwert HMIN über den B-Bus 62b im B-Register 72 der
Rechnereinheit 61 gespeichert bzw. verriegelt und der Schwell
wert Ha, der mit dem B-Register verglichen wird, wird im A-Re
gister 71 über den A-Bus 62a gespeichert. Der Minimalwert HMIN
und der Schwellwert Ha werden in der ALU 70 verglichen. Ist in
folgedessen der Minimalwert HMIN größer als der Schwellwert Ha,
wird die Schaltstufe 65 zurückgesetzt und es wird ungeachtet der
Ergebnisse der später durchgeführten Prüfvorgänge 0 ausgegeben.
Der Maximalwert HMAX wird dann im A-Register 71 gespeichert, und
es wird eine Differenz zwischen dem Maximalwert HMAX, der im
Register 71 gespeichert ist und dem Minimalwert HMIN, der im
B-Register 72 gehalten wird, berechnet. Das so gewonnene Ergebnis
wird an das F-Register 73 ausgegeben. Beim nächsten Takt wird
der Schwellwert Hb im A-Register 71 gespeichert und wird mit
dem Wert des F-Registers 73 verglichen. Falls der Inhalt des
F-Registers 73 kleiner als der Schwellwert Hb ist, der im
A-Register 71 gespeichert ist, wird die Schaltstufe 65 auf
gleiche Weise zurückgesetzt.
Die Berechnung der Leuchtdichtedifferenz zwischen aneinander
grenzenden Pixeln beginnt von der Zeitsteuerung des nächsten
Takts an. Ein paar Schieberegister 64a und 64b, die dazu ausge
legt sind, die Helligkeits- oder Leuchtdichtedaten zu konser
vieren, weisen eine zehnstufige Konfiguration auf, und sind mit
den darauffolgenden Stufen des Schieberegisters 44a für die
erste und zweite Zeile des city-block-Distanzberechnungsab
schnitts 40 verbunden, wobei das Schieberegister 44b für die
zweite und dritte Zeile vorgesehen ist. Jeweilige Ausgangs
signale dieser Schieberegister 64a, 64b werden aus der Endstufe
entnommen und der um zwei vorausgehende Stufe. Die so gewonnenen
Ausgangssignale werden auf den A-Bus 62a und den B-Bus 62b aus
gegeben.
In der Stufe, in der die Berechnung der Leuchtdichtedifferenz
beginnt, wird die Leuchtdichte an den jeweiligen Stellen in der
kleinen Region in den jeweiligen Stufen der Schieberegister 64a
und 64b zurückgehalten. Zuerst werden die letzten Leuchtdichte
daten der vierten Reihe und der ersten Spalte in der kleinen
Region und die gerade vorliegenden Leuchtdichtedaten der ersten
Reihe und der ersten Spalte in der kleinen Region im A-Register
71 und dem B-Register 72 der Rechnereinheit 71 gespeichert.
Dann wird ein Absolutwert einer Differenz zwischen dem Inhalt
des A-Registers 71 und dem Inhalt des B-Registers 72 berechnet
und das berechnete Ergebnis im F-Register 73 gespeichert. Der
Schwellwert Hc würde dann im A-Register 71 durch den nächsten
Takt gespeichert bzw. verriegelt und wird mit dem Wert des
F-Registers 73 verglichen.
Falls das Vergleichsergebnis der Rechnereinheit 61 anzeigt, daß
der Inhalt des F-Registers 73 (Absolutwert der Leuchtdichtedif
ferenz) größer als der Inhalt des A-Registers (Schwellenwert Hc)
ist, dann gibt die Schaltstufe 65 entweder den Abweichungsbetrag
δ oder "0" aus. Falls jedoch der Inhalt des F-Registers 71 ge
ringer als der Inhalt des A-Registers ist, wird "0" ausgegeben
und in einen Speicherbereich der ersten Reihe und der ersten
Spalte der entsprechenden kleinen Regionen der Ausgangspuffer
speicher 66a und 66b eingeschrieben.
Während der Vergleich zwischen dem Schwellenwert Hc und der
Leuchtdichtedifferenz zwischen aneinandergrenzenden Pixeln in
der Rechnereinheit 61 durchgeführt wird, werden die Schiebere
gister 64a und 64b um eine Stufe verschoben. Dann wird eine
Berechnung wiederum bezüglich der letzten Leuchtdichtedaten der
vierten Reihe und der zweiten Spalte der kleinen Region und
gegenwartigen Leuchtdichtedaten der ersten Reihe und der zweite
Spalte in der gegenwartigen kleinen Region begonnen. Auf diese
Weise wird bezüglich der ersten Spalte und der zweiten Spalte
der kleinen Region jeweils eine nach der anderen eine Berechnung
ausgeführt und die Berechnung wird bezüglich der dritten und der
vierten Spalte derselben Region durchgeführt.
Durch eine derartige Berechnung sind die Endstufe und die An
fangsstufe der Schieberegister 64a und 64b zur Bildung eines
ringartigen Schieberegisters verbunden. Wenn der Verschiebungs
takt zweifach addiert wird, wenn die Berechnung der gesamten
kleinen Region abgeschlossen wird, kehrt der Inhalt des Registers
auf den Zustand zurück, in dem er keiner solchen Rechnung unter
zogen wird. Ist die Übertragung der Leuchtdichtedaten der
nächsten kleinen Region abgeschlossen, werden die Daten der
vierten Reihe der gegenwärtigen kleinen Region in der Endstufe
und der vorausgehenden Stufe gespeichert.
Wie oben ausgesagt, wird, da die nächsten Daten auf dem A-Bus
62a, dem B-Bus 62b vorbereitet werden oder deren Ergebnisse wäh
rend der Berechnung für die Bestimmung eines Abweichungsbetrages
eingeschrieben werden, eine Date durch zwei für die Berechnung
erforderliche Takte verarbeitet. Infolgedessen werden sämtliche
Berechnungen beispielsweise in 43 Takten abgeschlossen, auch,
wenn die Prüfung des Minimalwerts HMIN und des Maximalwerts
HMAX, die anfänglich erfolgt, eingeschlossen ist.
Folglich gibt es ausreichenden Spielraum für die erforderliche
Zeit für die Bestimmung des Minimalwerts HMIN und des Maximal
werts HMAX der city-block Distanz bezüglich einer einzelnen
kleinen Region. Falls erforderlich, können weitere Funktionen
durchgeführt werden. Wenn der Abweichungsbetrag δ bestimmt ist,
wird der Abweichungsbetrag im Schritt S106 als die Distanzver
teilungsinformation von den Ausgangspufferspeichern 66a und 66b
zum Dualportspeicher 90 ausgegeben. So ist die Verarbeitung in
der Verarbeitungsvorrichtung 20 für das Stereobild abgeschlos
sen.
Diese Ausgangspufferspeicher 66a und 66b weisen eine Kapazität
von beispielsweise vier Zeilen ähnlich den Eingangspufferspei
chern 41a, 41b, 42a und 42b auf. Während Daten in einen Satz von
Speichern eingeschrieben werden, wird die Distanzverteilung aus
dem anderen Satz von Speichern ausgesendet.
Die Distanzverteilungsinformation, die in den Dualportspeicher
90 eingeschrieben wird, ermöglicht die Berechnung der dreidi
mensionalen Position im XYZ-Raum des Objekts entsprechend den
jeweiligen Pixeln aus den optischen Systemparametern wie der
Befestigungsposition der CCD-Kameras 11 und 12 und der Brenn
weite und ermöglicht die genaue Detektion der Distanz bis zu
einem Objekt außerhalb eines Fahrzeugs ohne Verringerung der
Informationsmenge.
Die Zeitsteuerung der Verarbeitungsvorrichtung 20 für das Ste
reobild wird nun unter Bezugnahme auf das Zeitsteuerdiagramm der
Fig. 30 beschrieben.
Zunächst werden sämtliche Teilbildsignale der linken und rechten
CCD-Kamera 11a und 11b, die zueinander synchronisiert sind, in
die Bildspeicher 33a und 33b jeweils alle 0,1 s (mit einer Rate
von 1 pro 3 Bildern) eingeschrieben.
Dann werden die eingenommenen Endsignale empfangen und der
Blocktransfer beginnt für jeweils alle vier Zeilen. In diesem
Blocktransfer werden drei Blöcke in der Reihenfolge des rechten
Bildes, linken Bildes und des Distanzverteilungsbildes vom Er
gebnis transferiert.
Während dieser Zeitperiode wird die Berechnung des Abweichungsbe
trages δ bezüglich eines der Eingabe/Ausgabepufferspeicher
durchgeführt. Nach Abwarten einer vorbestimmten Zeit wird, indem
die Berechnungszeit für den Abweichungsbetrag δ berücksich
tigt wird, der Transfer bezüglich des anderen Eingabe/Ausgabe
pufferspeichers gestartet.
Da die Berechnung der city-block Distanz H bezüglich einer
kleinen Region von 4 × 4 Pixeln eines rechten Bildes durchge
führt wird, während das linke Bild um 100 Pixel verschoben wird,
wird sie 100mal durchgeführt. Während die city-block Distanz H
einer Region gerade berechnet wird, wird ein Abweichungsbetrag
δ der Region zuvor als Distanzverteilung nach Unterziehen ver
schiedener Prüfvorgänge ausgegeben.
Falls die Anzahl von Zeilen, die zu verarbeiten sind, 200 ist,
dann wird die Verarbeitung von vier Zeilen 50mal wiederholt. Aus
diesem Grund ist weiterhin eine Verarbeitungszeit für einen
Achtzeilenabschnitt für die Gesamtheit der Verarbeitungszeit für
einen Vierzeilenabschnitt zur Übertragung der Anfangsdaten am
Startzeitpunkt der Berechnung und der Verarbeitungszeit für
einen Vierzeilenabschnitt zum Übertragen der endgültigen Ergeb
nisse nach Abschluß der Berechnung erforderlich.
Die Zeit vom Beginn des Transfers der ersten Eingangsbildzeile
bis zum Ende des Transfers der endgültigen Distanzverteilung
beträgt 0,076 s aus den Ergebnissen eines tatsächlichen Schal
tungsbetriebs.
Die Operation der Straßen- und dreidimensionalen Detektorvor
richtung 100 wird nun erläutert. Dabei wird insbesondere die
Operation des Straßendetektorabschnitts 110 gemäß dem Flußdia
gramm der Fig. 31 bis 34 beschrieben und es wird die Operation
des Objekterkennungsabschnitts 120 gemäß dem Flußdiagramm der
Fig. 35 bis 37 beschrieben.
Der Straßendetektorabschnitt 110 führt zunächst eine Straßen
formabschätzungsverarbeitung aus. Dabei schreitet, wenn ein
letzter Straßenformparameter (vor Δts) im Schritt S201 der Fig.
31 ausgelesen ist, die Operation mit Schritt S202 fort, um ein
Ausgangssignal V des Fahrzeuggeschwindigkeitssensors 3 und ein
Ausgangssignal η des Lenkwinkelsensors 4 zu lesen.
Wenn die Operation mit Schritt S203 fortschreitet, wird die
Bewegung des Fahrzeugs 1 für Δts unter Verwendung des Aus
gangssignals V vom Fahrzeugsensor 3 und des Ausgangssignals vom
Lenkwinkelsensor 4 berechnet, welche im Schritt S202 gelesen
wurden, um eine Straßenform aus der Sicht der Position des Fahr
zeugs 1 nach Δts zur Modifikation der Straßenformparameter ab
zuschätzen.
Ist die oben erwähnte Straßenformabschätzung abgeschlossen,
springt die Operation zur Verarbeitung der Erzeugung des dreidi
mensionalen Fensters. Wenn die Parameter (a, b, c, d) des linearen
Elements Ld auf der linken Seite des ersten Abschnitts R1 des
Straßenmodells eingelesen werden, wird ein dreidimensionales
Fenster WD3A mit dem linearen Element Ld als Zentrum festgelegt.
Danach fährt die Operation mit Schritt S207 fort, um ein zwei
dimensionales Fenster WD2A auf einem zweidimensionalen Bild aus
dem dreidimensionalen Fenster WD3A, das in Schritt S206 gesetzt
wurde, festzulegen, um mit Schritt S208 fortzufahren und den
danachfolgenden Schritten.
Die Schritte S208 und S217 befassen sich mit einer Linearele
mentdetektorverarbeitung. Wenn Daten innerhalb des zweidimensio
nalen Fensters WD2A im Schritt S208 gelesen werden, werden die
dreidimensionalen Positionen jeweiliger Daten im Schritt S209
berechnet. Ferner werden Daten, wo der Wert der Distanz Z inner
halb der Länge des dreidimensionalen Fensters WD3A liegt, im
Schritt S210 selektiert.
Die Operation schreitet dann mit Schritt S211 fort, um das
lineare Element Ld der zuvor abgeschätzten Straßenform und die
dreidimensionalen Positionen eines Objekts zu vergleichen, um
Abweichungsbeträge ΔX, ΔY in X- und Y-Richtung zu berechnen.
Im Schritt S212 werden nur die Daten, wo diese Abweichungsbe
träge ΔX, ΔY innerhalb des Bereichs der Höhe und Breite des
dreidimensionalen Fensters WD3A liegen, selektiert und die
anderen werden zurückgewiesen.
Anschließend schreitet die Operation mit Schritt S213 fort, um
die Wichtungskoeffizienten der Daten in Abhängigkeit von den Ab
weichungsbeträgen ΔX, ΔY in X- und Y-Richtungen zu bestimmen,
die im Schritt S212 berechnet wurden, um Wichtungskoeffizienten
entsprechend den Abweichungsbeträgen ΔX, ΔY zu den jeweiligen
Daten zu addieren.
Wenn die Operation zum Schritt S214 vorrückt, werden lineare
Ausdrücke in einer horizontalen Richtung (XZ-Ebene) und in einer
vertikalen Richtung (YZ-Ebene) abgeleitet, indem die Methode der
kleinsten Quadrate zur Bestimmung von Parametern (a, b, c, d) be
nutzt wird, welche als Kandidaten für ein neues lineares Element
Ld genommen werden.
Im Schritt S215 wird untersucht, ob ein Kandidat des linearen
Elements Ld einer Zeile auf der rechten Seite eines Straßenmo
dells ermittelt ist oder nicht. Ist das Ergebnis nein, werden
Parameter des linearen Elements Ld auf der rechten Seite einge
lesen, um so zum vorher beschriebenen Schritt S206 zurückzu
gehen. Ist das Ergebenis ja, so schreitet die Operation mit
Schritt S217 fort.
Im Schritt S217 wird untersucht, ob der ermittelte Kandidat des
linearen Elements Ld einer auf der rechten Seite des Endab
schnitts ist. Ist das Ergebnis, daß der oben erwähnte Kandidat
nicht einer des letzten Abschnitts ist, werden die Parameter des
linearen Elements Ld auf der linken Seite des nächsten Ab
schnitts eingelesen, um zum zuvor beschriebenen Schritt S206
zurückzukehren, um den gleichen Vorgang zu wiederholen.
Wird demgegenüber ermittelt, daß der Kandidat der des ermittel
ten linearen Elements Ld einer der rechten Seite des Endab
schnitts ist, und daß Kandidaten sämtlicher linearer Elemente
Ld, die ein Straßenmodell darstellen, ermittelt worden sind,
schreitet die Operation vom Schritt S217 auf Schritt S219 fort,
und die darauffolgenden, um die Straßenformbeurteilung durchzu
führen.
Werden die Parameter des linearen Elements Ld des ersten Ab
schnitts R1 im Schritt S219 eingelesen, so wird dabei jede
Parallelität in einer horizontalen Richtung der rechten und
linken linearen Elemente Ld untersucht, um die Plausibilität im
Schritt S220 zu beurteilten. Ferner wird jede Parallelität in
vertikaler Richtung des linken und rechten linearen Elements Ld
untersucht, um deren Plausibilität und Zuverlässigkeit zu beur
teilen.
Danach fährt die Operation mit Schritt S222 fort. Für den Fall,
daß irgendeines der linken und rechten linearen Elemente sich
als nicht plausibel in Folge dieser Beurteilung erweist, oder
für den Fall, daß Daten fehlen, weil die weiße Linie auf einer
Straße in Form einer unterbrochenen Linie vorliegt, oder hinter
einem Hindernis außer Sicht gerät, so daß kein Kandidat in den
linken als auch rechten linearen Elementen vorliegt, wird ein
lineares Element auf einer erfaßten Seite einer parallelen Ver
schiebung um die Breite der Fahrzeugfahrbahn unterzogen und wird
hierfür ersetzt, wodurch fehlende lineare Elemente ersetzt, er
gänzt oder kompensiert werden. Dann schreitet der Prozeß mit
Schritt S223 fort.
Es ist anzumerken, daß für den Fall, daß beide linken und
rechten linearen Elemente nicht existieren, das zuvor abge
schätzte lineare Element der Straßenform hierfür eingesetzt
wird.
Im Schritt S223 wird untersucht, ob der entsprechende Abschnitt
der Endabschnitt ist. Ist der Abschnitt der Endabschnitt, so
werden Parameter des linken und rechten linearen Elements Ld des
nächsten Abschnitts eingelesen, um zum zuvor beschriebenen
Schritt S220 zurückzugehen. Demgegenüber schreitet im Fall, daß
der Endabschnitt vorliegt, die Operation von Schritt S223 mit
S224 fort, um Parameter jeweiliger linearer Elemente Ld im
Schritt S225 in den Speicher 100e einzuschreiben und so die
Verarbeitung abzuschließen.
Die Funktionsweise des Objekterkennungsabschnitts 120 wird nun
beschrieben. Zunächst werden Straßenformparameter eingelesen, um
Objektdetektorverarbeitungen im Schritt S301 durchzuführen. Dann
wird ein Distanzbild von der Bildverarbeitungsvorrichtung 20 in
Rasterform im Schritt S302 in Regionen oder Bereiche unterteilt
und Daten des Anfangsbereichs werden im Schritt S303 eingelesen.
Die Operation fährt mit Schritt S304 fort, in dem die ersten
Daten innerhalb des Bereichs gesetzt werden. Im Schritt S305
werden dreidimensionalen Positionen (XYZ) des Objekts, d. h. Dis
tanz und Höhe, berechnet. Im Schritt S306 wird die Höhe von der
Straßenoberfläche in der Distanz Z berechnet. Im Schritt S307
werden Daten oberhalb der Straßenoberfläche selektiert.
Die Operation schreitet dann mit Schritt S308 fort, indem unter
sucht wird, ob in den Enddaten Daten vorliegen oder nicht. Sind
die gerade gegenwärtigen Daten nicht die Enddaten, so werden die
nächsten Daten innerhalb des Bereichs im Schritt S309 gesetzt.
Danach kehrt die Operation zum zuvor beschriebenen Schritt S305
zurück, um die Verarbeitung zu wiederholen. Handelt es sich je
doch um die Enddaten, so schreitet die Operation von Schritt S308
auf Schritt S310 fort.
Die Schritte S310 bis S315 beinhalten eine Objektdetektorverar
beitung. Im Schritt S310 wird ein Histogramm vorbereitet. Im
Schritt S311 wird ein Abschnitt, in dem die Frequenz oder Häufig
keit dieses Histogramms oberhalb eines Beurteilungswerts liegt
und einen Maximalwert anzeigt, detektiert. Infolgedessen wird
für den Fall, daß ein Abschnitt, in dem die Häufigkeit des
Histogramms über einem Beurteilungswert liegt und einen Maximal
wert anzeigt, detektiert worden ist, im Schritt S312 geschlos
sen, daß in diesem Abschnitt ein Objekt vorhanden ist, um dann
die Distanz bis zu diesem Objekt zu bestimmen.
Im Schritt S313 wird untersucht, ob ein entsprechender Bereich
der Endbereich ist oder nicht. Handelt es sich bei dem Bereich
nicht um den Endbereich, werden Daten des nächsten Bereichs im
Schritt S314 eingelesen, um zum vorbeschriebenen Schritt S304
zurückzukehren, um eine gleiche Verarbeitung fortzusetzen. Han
delt es sich jedoch beim vorliegenden Bereich um den Endbereich,
schreitet die Operation mit Schritt S315 fort, um die Detektion
der Distanzen und vorhandenen Bereiche jeweiliger Objekte zu
vervollständigen, und um dann zu den Schritten S316 bis S318 zur
Erzeugung des dreidimensionalen Fensters vorzurücken.
Im Schritt S316 werden die Parameter des ersten Objekts gesetzt.
Dann werden im Schritt S317 die Höhe vom unteren Ende des drei
dimensionalen Fensters und der Distanzbereich festgesetzt. Im
Schritt S318 wird eine zweidimensionale Fensterform WD2B auf der
Grundlage des dreidimensionalen Fensters WD3B berechnet. Dann
wird mit Schritt S319 fortgefahren. Der Schritt S319 und die da
rauffolgenden Schritte beinhalten eine Objektkonturextraktion.
Zunächst werden im Schritt S319 Daten innerhalb des zweidimen
sionalen Fensters WD2B ausgelesen. Im Schritt S320 werden drei
dimensionale Positionen eines Objekts berechnet. Im Schritt S321
werden innerhalb des dreidimensionalen Fensters WD3B enthaltene
Daten selektiert und extrahiert.
Danach wird mit Schritt S323 fortgefahren, um im Schritt S321
extrahierte Daten auf ein zweidimensionales Bild zu projizie
ren. Im Schritt S323 werden die jeweiligen Daten durch Linien
segmente zur Erstellung eines Konturbildes verbunden. Darauf
folgend werden im Schritt S324 Form, Ausdehnung, Position und
Geschwindigkeit eines Objekts berechnet. Im Schritt S325 wird die
positionelle Beziehung zwischen einer Fahrbahn, einer Straße und
dem Objekt berechnet.
Im Schritt S326 wird untersucht, ob das entsprechende Objekt das
Endobjekt ist oder nicht. Ist das entsprechende Objekt nicht das
Endobjekt, werden Parameter des nächsten Objekts im Schritt S327
gesetzt, um zum zuvor beschriebenen Schritt S317 zurückzukehren.
Handelt es sich hingegen bei dem vorliegenden Objekt um das End
objekt, schreitet die Operation mit Schritt S328 fort, um Para
meter wie die Position, Form, Geschwindigkeit und Beschleunigung
jeweiliger Objekte sowie die Möglichkeit der Kollision in den
Ausgangsspeicher 100e einzuschreiben, um die Verarbeitung zu be
enden.
Ein zweites Ausführungsbeispiel der Erfindung wird nun unter
Bezugnahme auf das Flußdiagramm der Fig. 38 erläutert, das die
Verarbeitung unter Verwendung der Hough Transformation beim Be
rechnen von Parametern des linearen Elements der Straßenform
zeigt.
Die Hough Transformation wird im allgemeinen als eine Technik
angewandt, die imstande ist, einen linearen Ausdruck aus einem
Bild in stabiler Weise abzuleiten, das viel Rauschen enthält.
Die Linearelementdetektion des zweiten Ausführungsbeispiels ist
merkmalsmäßig unterhalb der Fig. 33 des zuvor beschriebenen
ersten Ausführungsbeispiels angesiedelt. Wenn Daten innerhalb
des dreidimensionalen Fensters WD3A im Schritt S212 selektiert
sind, schreitet die Prozedur vom Schritt S212 mit Schritt S214
fort, um die Hough Transformation bezüglich der Beziehungsdaten
X und Z zur Ableitung eines linearen Ausdrucks in der horizon
talen Richtung (XZ-Ebene) der höchstmöglichen Genauigkeit aus
zuführen, um darauffolgend die Hough-Transformation bezüglich der
Beziehung zwischen Daten Y und Z auszuführen, um einen linearen
Ausdruck in einer vertikalen Richtung (YZ-Ebene) abzuleiten.
Jeweilige Parameter a, b, c, d des linearen Ausdrucks werden auf
diese Weise bestimmt. So schreitet die Verarbeitungsprozedur zum
zuvor beschriebenen Schritt S215 fort, wobei die obigen Para
meter den neuen Kandidaten bilden. Die übrige Verarbeitung ent
spricht der des zuvor beschriebenen ersten Ausführungsbeispiels.
Während in der vorliegenden Erfindung das dreidimensionale
Fenster WD3A so eingestellt wird, daß hierbei Daten außer für
weiße Linien ausgeschlossen werden, besteht hier, falls ein
Stein oder anderer Fremdkörper unmittelbar auf einer weißen
Linie im Fall des zuvor beschriebenen ersten Ausführungsbei
spiels zum Bestimmen eines linearen Ausdrucks durch die Methode
der kleinsten Quadrate liegt, die Möglichkeit, daß die Erfas
sungsgenauigkeit für die weiße Linie infolge des Einflusses
hiervon herabgesetzt ist. Wird jedoch die Hough Transformation
wie im zweiten Ausführungsbeispiel verwendet, so wird ermög
licht, einen linearen Ausdruck stabil und zuverlässig abzulei
ten.
Die Fig. 39 zeigt ein drittes Ausführungsbeispiel der Erfindung,
in dem die zuvor beschriebene Straßen- und dreidimensionale Ob
jektdetektorvorrichtung 100 des ersten Ausführungsbeispiels so
aufgebaut wird wie eine Straßen/Hindernisdetektorvorrichtung
200, der eine Beurteilungsfunktion für ein Hindernis hinzuge
fügt ist.
Dabei ist die Straßen/Hindernisdetektorvorrichtung 200 explizit
aus dem zuvor beschriebenen Straßendetektorabschnitt 110 des
ersten Ausführungsbeispiels, einem Hindernisdetektorabschnitt
210 und einem Straßen/Hindernisparameterspeicherabschnitt 130
aufgebaut, der einen Ausgangsspeicher 100e enthält. Der Hin
dernisdetektorabschnitt 210 weist einen Aufbau auf, bei dem ein
Hindernisbeurteilungsabschnitt 124 die Funktion einer Objekt
unterscheidungseinrichtung aufweist, um die Art von Objekten aus
den Abmessungen und der Position eines Konturbildes eines detektier
ten Objektes zu unterscheiden, wobei ein solcher Abschnitt 124
zusätzlich innerhalb des Objekterkennungsabschnitts 120 ent
halten ist.
Der Hindernisbeurteilungsabschnitt 124 ermittelt aus den Abmes
sungen und der Fahrgeschwindigkeit usw. jeweilige Objekte, die
im Objektkonturbildextraktionsabschnitt detektiert sind, um
welche Objekte es sich handelt. Sind beispielsweise die seit
liche Ausdehnung und Höhe jeweils größer als etwa 2 m, kann davon
ausgegangen werden, daß es sich bei dem Objekt um einen
Lastkraftwagen handelt. Beträgt darüber hinaus die seitliche
Ausdehnung 1,3 bis 2,0 m und liegt die Höhe auf einem Wert unter
2 m, kann davon ausgegangen werden, daß das Objekt ein Personen
kraftwagen ist.
Ist ferner die seitliche Ausdehnung 0,5 bis 1,0 m und liegt die
Höhe unter 2 m, so kann davon ausgegangen werden, daß das Objekt
ein motorgetriebenes Zweirad oder ein Fußgänger ist. In diesem
Fall kann ferner geschlossen werden, wenn die Geschwindigkeit
über 20 km/h liegt, daß das Objekt ein motorgetriebenes Zweirad
ist. Ferner ist es auch möglich, ein Objekt detaillierter zu
unterscheiden bzw. zu klassifizieren, indem das Verhältnis der
seitlichen Ausdehnung und Höhe eines Konturbildes benutzt wird
oder das Verhältnis zischen der Höhe der Gesamtheit eines Kon
turbildes und der Höhe eines Mittelpunktes dessen Bereichs
usw.
Im Straßen/Hindernisparameterspeicher 130 wird ein Parameter
einer Art eines Objekts, das im Hindernisbeurteilungsabschnitt
124 beurteilt wurde, zusätzlich zu den Parametern wie Position,
Form oder Geschwindigkeit usw. jeweiliger Objekte gespeichert,
die im Objektkonturbildextraktionsabschnitt 123 erfaßt worden
sind.
Im dritten Ausführungsbeispiel ist eine Vorrichtung vorgesehen,
die dazu ausgelegt ist, eine Kollision mit einem Hindernis vor
herzusagen, um einen Alarm für den Fahrer auszulösen oder die
Bremsung oder Lenkung entsprechend zu steuern, um so automa
tisch eine Kollision zu vermeiden. Eine solche Vorrichtung ist
an die Vorrichtung dieses Ausführungsbeispiels angeschlossen, um
hierdurch zu ermöglichen, daß nicht nur die Information der Po
sition oder Geschwindigkeit eines vorliegenden Hindernisses prä
zisiert vorhergesagt wird, sondern auch der Zustand in einigen
Sekunden.
Beispielsweise liegt eine hohe Wahrscheinlichkeit vor, daß ein
Fußgänger plötzlich seine oder ihre Bewegungsrichtung ändert.
Andererseits ist die Wahrscheinlichkeit, daß ein Auto seine Ge
schwindigkeit oder Richtung ändert, gering. Wenn solche aktu
ellen Umstände bei der Vorrichtung des dritten Ausführungs
beispiels mit in Betracht gezogen werden, so wird es möglich,
die Art und Weise der Bewegung eines Objekts genauer vorherzu
sagen.
Claims (13)
1. Einrichtung zum Überwachen des Außenraumes eines Fahr
zeugs, das über eine Fahrspur auf einer Straße fährt, die
durch ausgedehnte weiße Linien definiert ist, aufweisend:
mehrere Kameras (10), die Bilder des Fahrzeugaußenraums aufnehmen und Bildsignale erzeugen, die diese Bilder anzei gen; und
eine Bildverarbeitungseinrichtung (20), die abhängig von den Bildsignalen eine Distanzverteilung bezuglich des Fahr zeugs ermittelt, dadurch gekennzeichnet,
daß die Bildverarbeitungseinrichtung (20) ein diese Di stanzverteilung anzeigendes Distanzbild erzeugt,
daß eine Straßen- und Objekt-Detektoreinrichtung (100) vorgesehen ist, die auf der Grundlage des Distanzbildes drei dimensionale Koordinatendaten (X, Y, Z, Di) in einem auf ein Koordinatensystem des Fahrzeugs bezogenen realen Raum berech net, und
daß eine Straßenverlaufsform-Detektoreinrichtung (110) vorgesehen ist, die eine Straßenverlaufsform auf der Grundla ge der dreidimensionalen Koordinatendaten von Abschnitten der weißen Linien berechnet.
mehrere Kameras (10), die Bilder des Fahrzeugaußenraums aufnehmen und Bildsignale erzeugen, die diese Bilder anzei gen; und
eine Bildverarbeitungseinrichtung (20), die abhängig von den Bildsignalen eine Distanzverteilung bezuglich des Fahr zeugs ermittelt, dadurch gekennzeichnet,
daß die Bildverarbeitungseinrichtung (20) ein diese Di stanzverteilung anzeigendes Distanzbild erzeugt,
daß eine Straßen- und Objekt-Detektoreinrichtung (100) vorgesehen ist, die auf der Grundlage des Distanzbildes drei dimensionale Koordinatendaten (X, Y, Z, Di) in einem auf ein Koordinatensystem des Fahrzeugs bezogenen realen Raum berech net, und
daß eine Straßenverlaufsform-Detektoreinrichtung (110) vorgesehen ist, die eine Straßenverlaufsform auf der Grundla ge der dreidimensionalen Koordinatendaten von Abschnitten der weißen Linien berechnet.
2. Einrichtung nach Anspruch 1,
dadurch gekennzeichnet,
daß die Straßenverlaufsform-Detektoreinrichtung (110) dazu
ausgelegt ist, mehrere dreidimensionale lineare Elemente (Ld)
zu ermitteln, die jeweils einen Abschnitt jeder weißen Linie
innerhalb einer von mehreren Regionen (R0 . . . R6) der Straße
repräsentieren, die bezogen auf die Distanz vom Fahrzeug auf
geteilt sind, wobei jede weiße Linie durch die Kombination
der dreidimensionalen linearen Elemente dargestellt ist.
3. Einrichtung nach Anspruch 2,
dadurch gekennzeichnet,
daß jedes der dreidimensionalen linearen Elemente (Ld) durch
Parameter linearer Gleichungen repräsentiert wird, die die
Projektion jedes dreidimensionalen linearen Elements auf eine
horizontale Ebene und eine vertikale Ebene repräsentieren.
4. Einrichtung nach Anspruch 2,
dadurch gekennzeichnet,
daß die Straßenverlaufsform-Detektoreinrichtung (110) ferner
aufweist:
eine Abschätzungseinrichtung (111), die abhängig von Fahr zeugfahrbedingungen die Änderung der dreidimensionalen linea ren Elemente (Ld) aus deren vorausgehenden Positionen ab schätzt;
eine erste Erzeugungseinrichtung (112) für ein dreidimen sionales Fenster, die einen dreidimensionalen Raum um jedes der abgeschätzten dreidimensionalen linearen Elemente als erstes dreidimensionales Fenster (WD3A) festlegt; und
eine Linearelement-Detektoreinrichtung (113), die aus den dreidimensionalen Koordinatendaten nur Koordinatendaten ex trahiert, die innerhalb des ersten dreidimensionalen Fensters (WD3A) liegen, und die gegenwärtige Position des dreidimen sionalen linearen Elements auf der Grundlage der extrahierten Koordinatendaten berechnet.
eine Abschätzungseinrichtung (111), die abhängig von Fahr zeugfahrbedingungen die Änderung der dreidimensionalen linea ren Elemente (Ld) aus deren vorausgehenden Positionen ab schätzt;
eine erste Erzeugungseinrichtung (112) für ein dreidimen sionales Fenster, die einen dreidimensionalen Raum um jedes der abgeschätzten dreidimensionalen linearen Elemente als erstes dreidimensionales Fenster (WD3A) festlegt; und
eine Linearelement-Detektoreinrichtung (113), die aus den dreidimensionalen Koordinatendaten nur Koordinatendaten ex trahiert, die innerhalb des ersten dreidimensionalen Fensters (WD3A) liegen, und die gegenwärtige Position des dreidimen sionalen linearen Elements auf der Grundlage der extrahierten Koordinatendaten berechnet.
5. Einrichtung nach Anspruch 4,
dadurch gekennzeichnet,
daß die Linearelement-Detektoreinrichtung (113) aufweist:
eine Einrichtung zur Durchführung der Koordinatentrans formation des ersten dreidimensionalen Fensters (WD3A) auf ein erstes zweidimensionales Fenster (WD2A); und
eine Einrichtung, die aus den dreidimensionalen Koordina tendaten vorab nur Koordinatendaten auswählt, die innerhalb des ersten zweidimensionalen Fensters (WD2A) liegen, wobei diese ausgewählten Koordinatendaten zur Ermittlung der gegen wärtigen Positionen der dreidimensionalen linearen Elemente verarbeitet werden.
eine Einrichtung zur Durchführung der Koordinatentrans formation des ersten dreidimensionalen Fensters (WD3A) auf ein erstes zweidimensionales Fenster (WD2A); und
eine Einrichtung, die aus den dreidimensionalen Koordina tendaten vorab nur Koordinatendaten auswählt, die innerhalb des ersten zweidimensionalen Fensters (WD2A) liegen, wobei diese ausgewählten Koordinatendaten zur Ermittlung der gegen wärtigen Positionen der dreidimensionalen linearen Elemente verarbeitet werden.
6. Einrichtung nach Anspruch 4,
dadurch gekennzeichnet,
daß die Linearelement-Detektoreinrichtung (113) aufweist:
eine Einrichtung zur Berechnung von Abweichungsbeträgen (ΔXi, ΔYi) der extrahierten Koordinatendaten in der horizon talen Richtung und der vertikalen Richtung bezüglich jedem der abgeschätzten dreidimensionalen linearen Elemente (Ld);
eine Einrichtung zum Festlegen von Wichtungskoeffizienten abhängig von diesen Abweichungsbeträgen, mit denen die ent sprechenden extrahierten Koordinatendaten multipliziert wer den; und
eine Einrichtung zur Berechnung der gegenwärtigen Positio nen der dreidimensionalen linearen Elemente aus den multipli zierten Koordinatendaten mittels der Methode der kleinsten Quadrate.
eine Einrichtung zur Berechnung von Abweichungsbeträgen (ΔXi, ΔYi) der extrahierten Koordinatendaten in der horizon talen Richtung und der vertikalen Richtung bezüglich jedem der abgeschätzten dreidimensionalen linearen Elemente (Ld);
eine Einrichtung zum Festlegen von Wichtungskoeffizienten abhängig von diesen Abweichungsbeträgen, mit denen die ent sprechenden extrahierten Koordinatendaten multipliziert wer den; und
eine Einrichtung zur Berechnung der gegenwärtigen Positio nen der dreidimensionalen linearen Elemente aus den multipli zierten Koordinatendaten mittels der Methode der kleinsten Quadrate.
7. Einrichtung nach Anspruch 4,
dadurch gekennzeichnet,
daß die Linearelement-Detektoreinrichtung (113) dazu ausge
legt ist, die gegenwärtigen Positionen der dreidimensionalen
linearen Elemente (Ld) durch eine Hough-Transformation zu be
rechnen.
8. Einrichtung nach Anspruch 4,
dadurch gekennzeichnet,
daß die Straßenverlaufsform-Detektoreinrichtung (110) ferner
umfaßt:
eine Beurteilungseinrichtung (114), die beurteilt, ob die gegenwärtigen Positionen der dreidimensionalen linearen Ele mente (Ld), die jeweils innerhalb einer der aufgeteilten Regionen eine linke und rechte weiße Linie anzeigen, im we sentlichen parallel zueinander sind, und die die dreidimen sionalen linearen Elemente modifiziert, wenn ermittelt wird, daß beide nicht im wesentlichen parallel zueinander sind.
eine Beurteilungseinrichtung (114), die beurteilt, ob die gegenwärtigen Positionen der dreidimensionalen linearen Ele mente (Ld), die jeweils innerhalb einer der aufgeteilten Regionen eine linke und rechte weiße Linie anzeigen, im we sentlichen parallel zueinander sind, und die die dreidimen sionalen linearen Elemente modifiziert, wenn ermittelt wird, daß beide nicht im wesentlichen parallel zueinander sind.
9. Einrichtung nach einem der vorhergehenden Ansprüche,
ferner gekennzeichnet durch
eine Objekterkennungseinrichtung (120), die ein auf der
Straße vorhandenes Objekt, das dadurch charakterisiert ist,
daß es vertikale Koordinaten aufweist, die um einen vorbe
stimmten Betrag höher als die der ausgedehnten weißen Linien
sind, erkennt.
10. Einrichtung nach Anspruch 9,
dadurch gekennzeichnet,
daß die Objekterkennungseinrichtung (120) aufweist:
eine Objektdetektoreinrichtung (121) zur Unterteilung des Distanzbildes in mehrere Bereiche, zur Selektion von Daten mit vertikalen Koordinaten innerhalb eines höheren Bereichs als dem der weißen Linien aus den dreidimensionalen Koordina tendaten für jeden Unterteilungsbereich, zur Detektion, daß, wenn eine Anzahl von Daten innerhalb der selektierten Daten Distanzkoordinaten umfaßt, die in einem speziellen Distanzbe reich enthalten sind, und diese Anzahl von Daten größer als ein Beurteilungswert ist, ein Teil eines Objekts in diesem speziellen Distanzbereich vorhanden ist, und zur Ermittlung des Objekts auf der Grundlage einer Differenz zwischen der Distanz zu diesem Teil des Objekts und der in den angrenzen den Unterteilungsbereichen jeweils detektierten Distanz.
eine Objektdetektoreinrichtung (121) zur Unterteilung des Distanzbildes in mehrere Bereiche, zur Selektion von Daten mit vertikalen Koordinaten innerhalb eines höheren Bereichs als dem der weißen Linien aus den dreidimensionalen Koordina tendaten für jeden Unterteilungsbereich, zur Detektion, daß, wenn eine Anzahl von Daten innerhalb der selektierten Daten Distanzkoordinaten umfaßt, die in einem speziellen Distanzbe reich enthalten sind, und diese Anzahl von Daten größer als ein Beurteilungswert ist, ein Teil eines Objekts in diesem speziellen Distanzbereich vorhanden ist, und zur Ermittlung des Objekts auf der Grundlage einer Differenz zwischen der Distanz zu diesem Teil des Objekts und der in den angrenzen den Unterteilungsbereichen jeweils detektierten Distanz.
11. Einrichtung nach Anspruch 10,
dadurch gekennzeichnet,
daß die Objekterkennungseinrichtung (120) ferner umfaßt:
eine zweite Erzeugungseinrichtung (122) für ein dreidimen sionales Fenster (WD3B) zur Festlegung eines dreidimensiona len Raumes, der das gesamte Objekt umfaßt, als zweites drei dimensionales Fenster (WD3B); und
eine Objektkontur-Bildextraktionseinrichtung (123) zur Ex traktion nur von Koordinatendaten, die innerhalb des zweiten dreidimensionalen Fensters (WD3B) liegen, aus den dreidimen sionalen Koordinatendaten und zur Lieferung eines Konturbil des des Objekts auf der Grundlage der extrahierten Koordina tendaten, wobei eine dreidimensionale Position des Objekts auf der Straße ermittelt wird.
eine zweite Erzeugungseinrichtung (122) für ein dreidimen sionales Fenster (WD3B) zur Festlegung eines dreidimensiona len Raumes, der das gesamte Objekt umfaßt, als zweites drei dimensionales Fenster (WD3B); und
eine Objektkontur-Bildextraktionseinrichtung (123) zur Ex traktion nur von Koordinatendaten, die innerhalb des zweiten dreidimensionalen Fensters (WD3B) liegen, aus den dreidimen sionalen Koordinatendaten und zur Lieferung eines Konturbil des des Objekts auf der Grundlage der extrahierten Koordina tendaten, wobei eine dreidimensionale Position des Objekts auf der Straße ermittelt wird.
12. Einrichtung nach Anspruch 11,
dadurch gekennzeichnet,
daß die Objektkontur-Bildextraktionseinrichtung (123) auf
weist:
eine Einrichtung zur Ausführung der Koordinatentransforma tion des zweiten dreidimensionalen Fensters (WD3B) auf ein zweites zweidimensionales Fenster (WD2B); und
eine Einrichtung, die vorab aus den dreidimensionalen Ko ordinatendaten nur Koordinatendaten auswählt, die innerhalb des zweiten zweidimensionalen Fensters (WD2B) liegen, wobei diese ausgewählten Koordinatendaten zur Lieferung des Kontur bildes vom Objekt verarbeitet werden.
eine Einrichtung zur Ausführung der Koordinatentransforma tion des zweiten dreidimensionalen Fensters (WD3B) auf ein zweites zweidimensionales Fenster (WD2B); und
eine Einrichtung, die vorab aus den dreidimensionalen Ko ordinatendaten nur Koordinatendaten auswählt, die innerhalb des zweiten zweidimensionalen Fensters (WD2B) liegen, wobei diese ausgewählten Koordinatendaten zur Lieferung des Kontur bildes vom Objekt verarbeitet werden.
13. Einrichtung nach Anspruch 11,
dadurch gekennzeichnet,
daß die Objektkontur-Bildextraktionseinrichtung (123) ferner
aufweist:
eine Einrichtung zur Berechnung einer mittleren Position zwischen dem rechten und linken Ende des Konturbildes und zur Berechnung von einem die-Bewegung des Objekts relativ zum Fahrzeug bezüglich der mittleren Position anzeigenden Para meter.
eine Einrichtung zur Berechnung einer mittleren Position zwischen dem rechten und linken Ende des Konturbildes und zur Berechnung von einem die-Bewegung des Objekts relativ zum Fahrzeug bezüglich der mittleren Position anzeigenden Para meter.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP4065347A JPH05265547A (ja) | 1992-03-23 | 1992-03-23 | 車輌用車外監視装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
DE4308776A1 DE4308776A1 (de) | 1993-09-30 |
DE4308776C2 true DE4308776C2 (de) | 1997-08-21 |
Family
ID=13284331
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE4308776A Expired - Fee Related DE4308776C2 (de) | 1992-03-23 | 1993-03-19 | Einrichtung zum Überwachen des Außenraums eines Fahrzeugs |
Country Status (4)
Country | Link |
---|---|
US (1) | US5410346A (de) |
JP (1) | JPH05265547A (de) |
DE (1) | DE4308776C2 (de) |
GB (1) | GB2265779B (de) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19904097A1 (de) * | 1999-02-02 | 2000-08-03 | Valeo Schalter & Sensoren Gmbh | System und Verfahren zum Überwachen eines Bereichs an der Seite eines Fahrzeugs |
DE19926559A1 (de) * | 1999-06-11 | 2000-12-21 | Daimler Chrysler Ag | Verfahren und Vorrichtung zur Detektion von Objekten im Umfeld eines Straßenfahrzeugs bis in große Entfernung |
DE19932520A1 (de) * | 1999-07-12 | 2001-02-01 | Hirschmann Austria Gmbh Rankwe | Vorrichtung zur Steuerung eines Sicherheitssystems |
DE10025678A1 (de) * | 2000-05-24 | 2001-12-20 | Daimler Chrysler Ag | Kamerabasiertes Precrash-Erkennungssystem |
DE10127034A1 (de) * | 2001-06-02 | 2002-12-05 | Opel Adam Ag | Verfahren und Vorrichtung zur Ermittlung eines Spurverlaufs einer Fahrbahn |
DE10164516A1 (de) * | 2001-12-19 | 2003-07-10 | Magna Auteca Ag Weiz | Elektronisches Fahrzeugrückblicksystem |
DE10244148A1 (de) * | 2002-09-23 | 2004-04-08 | Daimlerchrysler Ag | Verfahren und Vorrichtung zur videobasierten Beobachtung und Vermessung der seitlichen Umgebung eines Fahrzeugs |
DE10103924B4 (de) * | 2000-01-31 | 2005-05-25 | Yazaki Corp. | Vorrichtung zur Umgebungsüberwachung eines Fahrzeugs |
DE102004050020A1 (de) * | 2004-10-13 | 2006-05-04 | Daimlerchrysler Ag | Auswertevorrichtung, Auswerteverfahren und Verwendung einer Auswertevorrichtung für einen Hochgeschwindigkeitsversuch |
DE10030421B4 (de) * | 1999-06-23 | 2006-10-05 | Honda Giken Kogyo K.K. | Fahrzeugumgebungsüberwachungssystem |
DE102005023862A1 (de) * | 2005-05-24 | 2006-11-30 | Valeo Schalter Und Sensoren Gmbh | Spurerkennungssystem und Betriebsverfahren hierfür |
Families Citing this family (368)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5521633A (en) * | 1992-09-25 | 1996-05-28 | Yazaki Corporation | Motor vehicle obstacle monitoring system using optical flow processing |
JPH08503316A (ja) * | 1992-11-10 | 1996-04-09 | シーメンス アクチエンゲゼルシヤフト | 複数のディジタルイメージのシーケンスにおける移動物体の影の検出および識別のための方法 |
US5877897A (en) | 1993-02-26 | 1999-03-02 | Donnelly Corporation | Automatic rearview mirror, vehicle lighting control and vehicle interior monitoring system using a photosensor array |
US5670935A (en) * | 1993-02-26 | 1997-09-23 | Donnelly Corporation | Rearview vision system for vehicle including panoramic view |
US7339149B1 (en) * | 1993-02-26 | 2008-03-04 | Donnelly Corporation | Vehicle headlight control using imaging sensor |
US5910854A (en) | 1993-02-26 | 1999-06-08 | Donnelly Corporation | Electrochromic polymeric solid films, manufacturing electrochromic devices using such solid films, and processes for making such solid films and devices |
US6498620B2 (en) | 1993-02-26 | 2002-12-24 | Donnelly Corporation | Vision system for a vehicle including an image capture device and a display system having a long focal length |
US6822563B2 (en) | 1997-09-22 | 2004-11-23 | Donnelly Corporation | Vehicle imaging system with accessory control |
JP3468428B2 (ja) * | 1993-03-24 | 2003-11-17 | 富士重工業株式会社 | 車輌用距離検出装置 |
JP3209828B2 (ja) * | 1993-05-25 | 2001-09-17 | 松下電器産業株式会社 | 車間距離計測装置とステレオ画像取り込み装置 |
US5487116A (en) * | 1993-05-25 | 1996-01-23 | Matsushita Electric Industrial Co., Ltd. | Vehicle recognition apparatus |
US5424823A (en) * | 1993-08-17 | 1995-06-13 | Loral Vought Systems Corporation | System for identifying flat orthogonal objects using reflected energy signals |
JP3064759B2 (ja) * | 1993-09-28 | 2000-07-12 | 株式会社日立製作所 | 車両の周囲を監視する装置、車両の運転支援システムおよび運転支援装置 |
US5883739A (en) * | 1993-10-04 | 1999-03-16 | Honda Giken Kogyo Kabushiki Kaisha | Information display device for vehicle |
DE4336288C1 (de) * | 1993-10-25 | 1995-03-30 | Daimler Benz Ag | Einrichtung zur Überwachung des Rück- bzw. Frontraumes eines einparkenden Kraftfahrzeugs |
JP3522317B2 (ja) * | 1993-12-27 | 2004-04-26 | 富士重工業株式会社 | 車輌用走行案内装置 |
JP3205477B2 (ja) * | 1994-02-17 | 2001-09-04 | 富士フイルムマイクロデバイス株式会社 | 車間距離検出装置 |
JP3156817B2 (ja) * | 1994-03-14 | 2001-04-16 | 矢崎総業株式会社 | 車両周辺監視装置 |
US5668663A (en) | 1994-05-05 | 1997-09-16 | Donnelly Corporation | Electrochromic mirrors and devices |
US7209221B2 (en) * | 1994-05-23 | 2007-04-24 | Automotive Technologies International, Inc. | Method for obtaining and displaying information about objects in a vehicular blind spot |
US7359782B2 (en) | 1994-05-23 | 2008-04-15 | Automotive Technologies International, Inc. | Vehicular impact reactive system and method |
JP3212218B2 (ja) * | 1994-05-26 | 2001-09-25 | 三菱電機株式会社 | 車両用障害物検出装置 |
JP3469313B2 (ja) * | 1994-05-27 | 2003-11-25 | 富士重工業株式会社 | 自動操舵装置の制御装置 |
JPH08167100A (ja) * | 1994-12-12 | 1996-06-25 | Hisaji Nakamura | 操縦装置 |
JP3246243B2 (ja) * | 1994-12-26 | 2002-01-15 | いすゞ自動車株式会社 | 車線逸脱警報装置 |
US5910817A (en) * | 1995-05-18 | 1999-06-08 | Omron Corporation | Object observing method and device |
US6891563B2 (en) | 1996-05-22 | 2005-05-10 | Donnelly Corporation | Vehicular vision system |
JP3390289B2 (ja) * | 1995-06-16 | 2003-03-24 | 富士重工業株式会社 | 警報装置 |
US5684697A (en) * | 1995-06-26 | 1997-11-04 | Mullen; Charles H. | Driver emulative vehicle control system |
CA2184561C (en) * | 1995-09-12 | 2001-05-29 | Yasuyuki Michimoto | Object detecting apparatus in which the position of a planar object is estimated by using hough transform |
JP3369368B2 (ja) * | 1995-10-11 | 2003-01-20 | 富士通株式会社 | 画像処理装置 |
JPH09166452A (ja) * | 1995-12-14 | 1997-06-24 | Pioneer Electron Corp | 運転支援装置 |
JPH09187038A (ja) * | 1995-12-27 | 1997-07-15 | Canon Inc | 3次元形状抽出装置 |
DE19549216C2 (de) * | 1995-12-30 | 1999-09-09 | Fraunhofer Ges Forschung | Verfahren zur Bildauswertung |
US7655894B2 (en) | 1996-03-25 | 2010-02-02 | Donnelly Corporation | Vehicular image sensing system |
RU2089932C1 (ru) * | 1996-06-04 | 1997-09-10 | Йелстаун Корпорейшн Н.В. | Устройство для наблюдения объектов |
JP3866328B2 (ja) * | 1996-06-06 | 2007-01-10 | 富士重工業株式会社 | 車両周辺立体物認識装置 |
US6064428A (en) | 1996-08-05 | 2000-05-16 | National Railroad Passenger Corporation | Automated track inspection vehicle and method |
EP1383100A3 (de) * | 1996-08-28 | 2005-02-02 | Matsushita Electric Industrial Co., Ltd. | Lokales Positionierungsgerät und Verfahren dafür |
JP4084857B2 (ja) * | 1996-08-30 | 2008-04-30 | 本田技研工業株式会社 | 自動車の前方監視システムにおけるイメージセンサの縦横比設定方法 |
DE19636028C1 (de) * | 1996-09-05 | 1997-11-20 | Daimler Benz Ag | Verfahren zur Stereobild-Objektdetektion |
DE19647660B4 (de) | 1996-11-19 | 2005-09-01 | Daimlerchrysler Ag | Auslösevorrichtung für Insassenrückhaltesysteme in einem Fahrzeug |
DE19650863C1 (de) * | 1996-12-07 | 1998-04-16 | Bosch Gmbh Robert | Verfahren und Vorrichtung zur Erkennung einer vertikalen Dejustierung eines Abstandssensors |
JP3384278B2 (ja) * | 1997-03-24 | 2003-03-10 | 日産自動車株式会社 | 距離計測装置 |
JP3349060B2 (ja) * | 1997-04-04 | 2002-11-20 | 富士重工業株式会社 | 車外監視装置 |
JP3315054B2 (ja) * | 1997-04-04 | 2002-08-19 | 富士重工業株式会社 | 車外監視装置 |
JP3337197B2 (ja) * | 1997-04-04 | 2002-10-21 | 富士重工業株式会社 | 車外監視装置 |
JP3358709B2 (ja) * | 1997-08-11 | 2002-12-24 | 富士重工業株式会社 | 車両用運転支援装置 |
US6326613B1 (en) | 1998-01-07 | 2001-12-04 | Donnelly Corporation | Vehicle interior mirror assembly adapted for containing a rain sensor |
US6172613B1 (en) | 1998-02-18 | 2001-01-09 | Donnelly Corporation | Rearview mirror assembly incorporating vehicle information display |
US6124886A (en) | 1997-08-25 | 2000-09-26 | Donnelly Corporation | Modular rearview mirror assembly |
US8294975B2 (en) | 1997-08-25 | 2012-10-23 | Donnelly Corporation | Automotive rearview mirror assembly |
JPH1185274A (ja) * | 1997-09-10 | 1999-03-30 | Fuji Heavy Ind Ltd | 自律走行車の走行軌跡検出装置 |
JP3880702B2 (ja) * | 1997-09-11 | 2007-02-14 | 富士重工業株式会社 | 画像のオプティカルフロー検出装置及び移動体の自己位置認識システム |
US6690268B2 (en) | 2000-03-02 | 2004-02-10 | Donnelly Corporation | Video mirror systems incorporating an accessory module |
US6445287B1 (en) | 2000-02-28 | 2002-09-03 | Donnelly Corporation | Tire inflation assistance monitoring system |
US8288711B2 (en) | 1998-01-07 | 2012-10-16 | Donnelly Corporation | Interior rearview mirror system with forwardly-viewing camera and a control |
JP3629935B2 (ja) * | 1998-01-27 | 2005-03-16 | オムロン株式会社 | 移動体の速度計測方法およびその方法を用いた速度計測装置 |
JP4021026B2 (ja) * | 1998-01-29 | 2007-12-12 | 富士重工業株式会社 | ステレオ画像処理システム |
JP3516856B2 (ja) * | 1998-01-30 | 2004-04-05 | 富士重工業株式会社 | 車外監視装置 |
JP3850541B2 (ja) * | 1998-02-18 | 2006-11-29 | 富士重工業株式会社 | 高度計測装置 |
FR2776596B1 (fr) * | 1998-03-24 | 2000-05-05 | Renault Vehicules Ind | Systeme d'antevision par camera pour vehicule industriel |
US6329925B1 (en) | 1999-11-24 | 2001-12-11 | Donnelly Corporation | Rearview mirror assembly with added feature modular display |
US6693517B2 (en) | 2000-04-21 | 2004-02-17 | Donnelly Corporation | Vehicle mirror assembly communicating wirelessly with vehicle accessories and occupants |
US6477464B2 (en) | 2000-03-09 | 2002-11-05 | Donnelly Corporation | Complete mirror-based global-positioning system (GPS) navigation solution |
DE19824012B4 (de) * | 1998-05-29 | 2006-10-19 | Bombardier Transportation Gmbh | Informationssystem für Fahrzeuge |
JP3562751B2 (ja) * | 1998-06-09 | 2004-09-08 | 矢崎総業株式会社 | 前方車両検出方法及び装置 |
WO2000007373A1 (fr) * | 1998-07-31 | 2000-02-10 | Matsushita Electric Industrial Co., Ltd. | Procede et appareil d'affichage d'images |
JP3463858B2 (ja) * | 1998-08-27 | 2003-11-05 | 矢崎総業株式会社 | 周辺監視装置及び方法 |
KR100568396B1 (ko) | 1998-10-08 | 2006-04-05 | 마츠시타 덴끼 산교 가부시키가이샤 | 운전조작 보조장치 |
JP3072730B2 (ja) | 1998-10-09 | 2000-08-07 | 日本電気株式会社 | 車両検出方法および装置 |
JP3864406B2 (ja) * | 1999-01-26 | 2006-12-27 | マツダ株式会社 | 車両の表示装置 |
DE29902457U1 (de) * | 1999-02-12 | 2000-07-20 | Bosch Gmbh Robert | Einrichtung zur Umfelderkennung, insbesondere zur Verkehrszeichenerkennung |
US6396535B1 (en) * | 1999-02-16 | 2002-05-28 | Mitsubishi Electric Research Laboratories, Inc. | Situation awareness system |
US6161071A (en) * | 1999-03-12 | 2000-12-12 | Navigation Technologies Corporation | Method and system for an in-vehicle computing architecture |
DE19914906A1 (de) * | 1999-04-01 | 2000-10-05 | Bosch Gmbh Robert | Kommunikationssystem zwischen unabhängig voneinander angetriebenen Fahrzeugen |
JP4391624B2 (ja) * | 1999-06-16 | 2009-12-24 | 本田技研工業株式会社 | 物体認識装置 |
JP4118452B2 (ja) * | 1999-06-16 | 2008-07-16 | 本田技研工業株式会社 | 物体認識装置 |
US8066415B2 (en) | 1999-06-17 | 2011-11-29 | Magna Mirrors Of America, Inc. | Exterior mirror vision system for a vehicle |
JP2001028056A (ja) * | 1999-07-14 | 2001-01-30 | Fuji Heavy Ind Ltd | フェールセーフ機能を有するステレオ式車外監視装置 |
DE19940718C1 (de) * | 1999-08-27 | 2001-05-31 | Daimler Chrysler Ag | Verfahren zur Anzeige eines perspektivischen Bildes und Anzeigevorrichtung für mindestens einen Insassen eines Fahrzeugs |
JP3587506B2 (ja) | 1999-08-30 | 2004-11-10 | 富士重工業株式会社 | ステレオカメラの調整装置 |
DE19944556B4 (de) * | 1999-09-17 | 2008-11-06 | Robert Bosch Gmbh | Verfahren und Vorrichtung zur Steuerung einer Bremsanlage |
JP2001093099A (ja) | 1999-09-22 | 2001-04-06 | Fuji Heavy Ind Ltd | 車両用運転支援装置 |
JP3352655B2 (ja) | 1999-09-22 | 2002-12-03 | 富士重工業株式会社 | 車線認識装置 |
JP3261115B2 (ja) * | 1999-09-22 | 2002-02-25 | 富士重工業株式会社 | ステレオ画像処理装置 |
JP3287465B2 (ja) | 1999-09-22 | 2002-06-04 | 富士重工業株式会社 | ステレオ画像処理装置 |
JP4573977B2 (ja) * | 1999-09-22 | 2010-11-04 | 富士重工業株式会社 | 監視システムの距離補正装置、および監視システムの消失点補正装置 |
JP3263931B2 (ja) * | 1999-09-22 | 2002-03-11 | 富士重工業株式会社 | ステレオマッチング装置 |
JP3349121B2 (ja) * | 1999-09-22 | 2002-11-20 | 富士重工業株式会社 | ステレオカメラの取付構造 |
US6678394B1 (en) * | 1999-11-30 | 2004-01-13 | Cognex Technology And Investment Corporation | Obstacle detection system |
US6816085B1 (en) | 2000-01-14 | 2004-11-09 | Michael N. Haynes | Method for managing a parking lot |
US7123166B1 (en) | 2000-11-17 | 2006-10-17 | Haynes Michael N | Method for managing a parking lot |
JP4233723B2 (ja) * | 2000-02-28 | 2009-03-04 | 本田技研工業株式会社 | 障害物検出装置、障害物検出方法、及び障害物検出プログラムを記録した記録媒体 |
US6801244B2 (en) * | 2000-02-29 | 2004-10-05 | Kabushiki Kaisha Toshiba | Obstacle detection apparatus and method |
US7195381B2 (en) | 2001-01-23 | 2007-03-27 | Donnelly Corporation | Vehicle interior LED lighting system |
US7370983B2 (en) | 2000-03-02 | 2008-05-13 | Donnelly Corporation | Interior mirror assembly with display |
US7167796B2 (en) | 2000-03-09 | 2007-01-23 | Donnelly Corporation | Vehicle navigation system for use with a telematics system |
JP4647055B2 (ja) * | 2000-03-03 | 2011-03-09 | 富士重工業株式会社 | 車両の運動制御装置 |
US6396408B2 (en) | 2000-03-31 | 2002-05-28 | Donnelly Corporation | Digital electrochromic circuit with a vehicle network |
JP3427817B2 (ja) * | 2000-03-31 | 2003-07-22 | 株式会社デンソー | 車両用障害物認識方法及び装置、記録媒体 |
US6734896B2 (en) * | 2000-04-28 | 2004-05-11 | Matsushita Electric Industrial Co., Ltd. | Image processor and monitoring system |
US7852462B2 (en) * | 2000-05-08 | 2010-12-14 | Automotive Technologies International, Inc. | Vehicular component control methods based on blind spot monitoring |
JP2001344597A (ja) * | 2000-05-30 | 2001-12-14 | Fuji Heavy Ind Ltd | 融合視界装置 |
JP4953498B2 (ja) | 2000-07-12 | 2012-06-13 | 富士重工業株式会社 | フェールセーフ機能を有する車外監視装置 |
JP4925498B2 (ja) | 2000-07-12 | 2012-04-25 | 富士重工業株式会社 | フェールセーフ機能を有する車外監視装置 |
JP3671825B2 (ja) * | 2000-09-22 | 2005-07-13 | 日産自動車株式会社 | 車間距離推定装置 |
US6724489B2 (en) * | 2000-09-22 | 2004-04-20 | Daniel Freifeld | Three dimensional scanning camera |
US6281806B1 (en) | 2000-10-12 | 2001-08-28 | Ford Global Technologies, Inc. | Driver road hazard warning and illumination system |
US6535242B1 (en) * | 2000-10-24 | 2003-03-18 | Gary Steven Strumolo | System and method for acquiring and displaying vehicular information |
RU2000128606A (ru) * | 2000-11-15 | 2002-10-27 | Тойота Дзидося Кабусики Кайся (Jp) | Устройство распознавания дорожной поверхности |
JP3630100B2 (ja) * | 2000-12-27 | 2005-03-16 | 日産自動車株式会社 | 車線検出装置 |
US7255451B2 (en) | 2002-09-20 | 2007-08-14 | Donnelly Corporation | Electro-optic mirror cell |
US7581859B2 (en) | 2005-09-14 | 2009-09-01 | Donnelly Corp. | Display device for exterior rearview mirror |
JP2002316633A (ja) | 2001-04-20 | 2002-10-29 | Fuji Heavy Ind Ltd | 車両運動制御装置 |
JP2002319091A (ja) | 2001-04-20 | 2002-10-31 | Fuji Heavy Ind Ltd | 後続車両認識装置 |
JP4230124B2 (ja) | 2001-04-20 | 2009-02-25 | 富士重工業株式会社 | 車両運動制御装置 |
JP4230132B2 (ja) * | 2001-05-01 | 2009-02-25 | パナソニック株式会社 | デジタル地図の形状ベクトルの符号化方法と位置情報伝達方法とそれを実施する装置 |
JP2003016429A (ja) * | 2001-06-28 | 2003-01-17 | Honda Motor Co Ltd | 車両周辺監視装置 |
US6882287B2 (en) | 2001-07-31 | 2005-04-19 | Donnelly Corporation | Automotive lane change aid |
GB2378301A (en) * | 2001-07-31 | 2003-02-05 | Hewlett Packard Co | Personal object recognition system for visually impaired persons |
US7697027B2 (en) | 2001-07-31 | 2010-04-13 | Donnelly Corporation | Vehicular video system |
JP3880837B2 (ja) * | 2001-11-02 | 2007-02-14 | 富士重工業株式会社 | 車外監視装置 |
JP3739693B2 (ja) * | 2001-11-09 | 2006-01-25 | 本田技研工業株式会社 | 画像認識装置 |
US6687577B2 (en) * | 2001-12-19 | 2004-02-03 | Ford Global Technologies, Llc | Simple classification scheme for vehicle/pole/pedestrian detection |
WO2003059697A1 (en) * | 2002-01-16 | 2003-07-24 | Autoliv Development Ab | A camera arrangement |
US6731204B2 (en) | 2002-02-19 | 2004-05-04 | Continental Teves, Inc. | Object detection system providing driver information through sound |
US20030156759A1 (en) * | 2002-02-19 | 2003-08-21 | Koninklijke Philips Electronics N.V. | Background-foreground segmentation using probability models that can provide pixel dependency and incremental training |
US7607509B2 (en) * | 2002-04-19 | 2009-10-27 | Iee International Electronics & Engineering S.A. | Safety device for a vehicle |
US6918674B2 (en) | 2002-05-03 | 2005-07-19 | Donnelly Corporation | Vehicle rearview mirror system |
EP1504276B1 (de) | 2002-05-03 | 2012-08-08 | Donnelly Corporation | Objektdetektionssystem für ein fahrzeug |
EP1514246A4 (de) | 2002-06-06 | 2008-04-16 | Donnelly Corp | Innenrückspiegelsystem mit kompass |
US7329013B2 (en) | 2002-06-06 | 2008-02-12 | Donnelly Corporation | Interior rearview mirror system with compass |
JP3904988B2 (ja) * | 2002-06-27 | 2007-04-11 | 株式会社東芝 | 画像処理装置およびその方法 |
US7113098B1 (en) | 2002-08-29 | 2006-09-26 | Melvin Hayes | Animal accident reduction systems, methods, and apparatuses |
JP4176430B2 (ja) * | 2002-09-18 | 2008-11-05 | 富士重工業株式会社 | 車外監視装置、及び、この車外監視装置を備えた走行制御装置 |
US7310177B2 (en) | 2002-09-20 | 2007-12-18 | Donnelly Corporation | Electro-optic reflective element assembly |
WO2004103772A2 (en) | 2003-05-19 | 2004-12-02 | Donnelly Corporation | Mirror assembly for vehicle |
US7274501B2 (en) | 2002-09-20 | 2007-09-25 | Donnelly Corporation | Mirror reflective element assembly |
KR100471268B1 (ko) * | 2002-10-28 | 2005-03-10 | 현대자동차주식회사 | 차간거리 측정 방법 |
US6808953B2 (en) * | 2002-12-31 | 2004-10-26 | Robert Bosch Gmbh | Gap tuning for surface micromachined structures in an epitaxial reactor |
US7263209B2 (en) | 2003-06-13 | 2007-08-28 | Sarnoff Corporation | Vehicular vision system |
JP4309184B2 (ja) * | 2003-06-20 | 2009-08-05 | 富士重工業株式会社 | 車両用運転支援装置 |
JP4364566B2 (ja) | 2003-07-04 | 2009-11-18 | 富士重工業株式会社 | 車両制動装置 |
WO2005013235A1 (de) * | 2003-07-25 | 2005-02-10 | Robert Bosch Gmbh | Vorrichtung zur klassifizierung wenigstens eines objekts in einem fahrzeugumfeld |
DE10336638A1 (de) * | 2003-07-25 | 2005-02-10 | Robert Bosch Gmbh | Vorrichtung zur Klassifizierung wengistens eines Objekts in einem Fahrzeugumfeld |
US7446924B2 (en) | 2003-10-02 | 2008-11-04 | Donnelly Corporation | Mirror reflective element assembly including electronic component |
US7308341B2 (en) | 2003-10-14 | 2007-12-11 | Donnelly Corporation | Vehicle communication system |
JP4574157B2 (ja) * | 2003-10-17 | 2010-11-04 | 富士重工業株式会社 | 情報表示装置および情報表示方法 |
JP3925488B2 (ja) * | 2003-11-11 | 2007-06-06 | 日産自動車株式会社 | 車両用画像処理装置 |
WO2005060640A2 (en) * | 2003-12-15 | 2005-07-07 | Sarnoff Corporation | Method and apparatus for object tracking prior to imminent collision detection |
JP3762406B2 (ja) * | 2003-12-17 | 2006-04-05 | 富士重工業株式会社 | 車輌用走行案内装置 |
JP4638143B2 (ja) * | 2003-12-26 | 2011-02-23 | 富士重工業株式会社 | 車両用運転支援装置 |
JP2005216200A (ja) * | 2004-02-02 | 2005-08-11 | Alpine Electronics Inc | 他車検出装置及び他車検出方法 |
JP4376653B2 (ja) * | 2004-02-17 | 2009-12-02 | 富士重工業株式会社 | 車外監視装置 |
DE102004009924A1 (de) * | 2004-02-23 | 2005-09-01 | Valeo Schalter Und Sensoren Gmbh | Verfahren und Warnvorrichtung zum grafischen Aufbereiten eines Bildes einer Kamera |
JP2005242606A (ja) * | 2004-02-26 | 2005-09-08 | Olympus Corp | 画像生成装置、画像生成プログラム、及び画像生成方法 |
US7526103B2 (en) | 2004-04-15 | 2009-04-28 | Donnelly Corporation | Imaging system for vehicle |
JP2007263563A (ja) | 2004-06-03 | 2007-10-11 | Matsushita Electric Ind Co Ltd | カメラモジュール |
JP3931891B2 (ja) * | 2004-07-05 | 2007-06-20 | 日産自動車株式会社 | 車載用画像処理装置 |
JP4899340B2 (ja) * | 2004-08-02 | 2012-03-21 | 日産自動車株式会社 | 運転感覚調整装置及び運転感覚調整方法 |
EP1626584A3 (de) * | 2004-08-11 | 2009-04-08 | Magna Donnelly GmbH & Co. KG | Fahrzeug mit Bildverarbeitungssystem und Verfahren zum Betrieb eines Bildverarbeitungssystems |
US7881496B2 (en) | 2004-09-30 | 2011-02-01 | Donnelly Corporation | Vision system for vehicle |
JP2006112962A (ja) * | 2004-10-15 | 2006-04-27 | Aisin Aw Co Ltd | 運転支援方法及び運転支援装置 |
US7639841B2 (en) * | 2004-12-20 | 2009-12-29 | Siemens Corporation | System and method for on-road detection of a vehicle using knowledge fusion |
US7720580B2 (en) | 2004-12-23 | 2010-05-18 | Donnelly Corporation | Object detection system for vehicle |
JP4341564B2 (ja) | 2005-02-25 | 2009-10-07 | 株式会社豊田中央研究所 | 対象物判定装置 |
US7231288B2 (en) * | 2005-03-15 | 2007-06-12 | Visteon Global Technologies, Inc. | System to determine distance to a lead vehicle |
JP4466571B2 (ja) * | 2005-05-12 | 2010-05-26 | 株式会社デンソー | ドライバ状態検出装置、車載警報装置、運転支援システム |
US7626749B2 (en) | 2005-05-16 | 2009-12-01 | Donnelly Corporation | Vehicle mirror assembly with indicia at reflective element |
JP4809019B2 (ja) * | 2005-08-31 | 2011-11-02 | クラリオン株式会社 | 車両用障害物検出装置 |
DE102005045017A1 (de) * | 2005-09-21 | 2007-03-22 | Robert Bosch Gmbh | Verfahren und Fahrerassistenzsystem zur sensorbasierten Anfahrtsteuerung eines Kraftfahrzeugs |
JP2007091025A (ja) * | 2005-09-28 | 2007-04-12 | Fuji Heavy Ind Ltd | 車両の前方監視装置 |
EP1949666B1 (de) | 2005-11-01 | 2013-07-17 | Magna Mirrors of America, Inc. | Innen-rückspiegel mit display |
FR2893173B1 (fr) * | 2005-11-10 | 2008-01-18 | Valeo Vision Sa | Procede d'evaluation, par un vehicule automobile, des caracteristiques d'un element frontal. |
US8194132B2 (en) * | 2006-01-20 | 2012-06-05 | Old World Industries, Llc | System for monitoring an area adjacent a vehicle |
DE102006005231A1 (de) * | 2006-02-02 | 2007-08-16 | Optotransmitter-Umweltschutz-Technologie E.V. | Entfernungsbestimmung, vorzugsweise zur Sichtweitenbestimmung |
US8050863B2 (en) * | 2006-03-16 | 2011-11-01 | Gray & Company, Inc. | Navigation and control system for autonomous vehicles |
US20070225914A1 (en) * | 2006-03-21 | 2007-09-27 | Hiroshi Kawazoe | Lane departure avoidance control |
FR2898986B1 (fr) * | 2006-03-24 | 2008-05-23 | Inrets | Detection d'obstacle |
JP4830604B2 (ja) * | 2006-04-17 | 2011-12-07 | 日産自動車株式会社 | 物体検出方法および物体検出装置 |
JP4432929B2 (ja) * | 2006-04-25 | 2010-03-17 | トヨタ自動車株式会社 | 駐車支援装置及び駐車支援方法 |
JP4793094B2 (ja) * | 2006-05-17 | 2011-10-12 | 株式会社デンソー | 走行環境認識装置 |
JP2008018832A (ja) * | 2006-07-12 | 2008-01-31 | Fuji Heavy Ind Ltd | 車両運動制御装置 |
JP4830696B2 (ja) * | 2006-07-31 | 2011-12-07 | オムロン株式会社 | 物体認識装置、監視システム、物体認識方法、物体認識プログラム、および該プログラムを記録した記録媒体 |
WO2008024639A2 (en) | 2006-08-11 | 2008-02-28 | Donnelly Corporation | Automatic headlamp control system |
JP4869835B2 (ja) * | 2006-08-24 | 2012-02-08 | 本田技研工業株式会社 | 車両周辺監視システム |
US20080059069A1 (en) * | 2006-08-30 | 2008-03-06 | Trutna William R | System and method for detecting an object in the path of a vehicle |
JP4832227B2 (ja) * | 2006-09-07 | 2011-12-07 | 富士重工業株式会社 | 物体検出装置および物体検出方法 |
WO2008038369A1 (fr) * | 2006-09-28 | 2008-04-03 | Pioneer Corporation | Dispositif de commande de conduite, procédé de commande de conduite, programme de commande de conduite et support d'enregistrement |
EP1931147B1 (de) * | 2006-12-04 | 2019-07-10 | Harman Becker Automotive Systems GmbH | Vorrichtung und verfahren zum verarbeiten eines bildes einer umgebung eines fahrzeuges |
JP2008153997A (ja) * | 2006-12-18 | 2008-07-03 | Matsushita Electric Ind Co Ltd | 固体撮像装置、カメラ、車両、監視装置及び固体撮像装置の駆動方法 |
EP2122599B1 (de) | 2007-01-25 | 2019-11-13 | Magna Electronics Inc. | Radarerfassungssystem für ein fahrzeug |
JP4914233B2 (ja) | 2007-01-31 | 2012-04-11 | 富士重工業株式会社 | 車外監視装置 |
JP4914234B2 (ja) * | 2007-01-31 | 2012-04-11 | 富士重工業株式会社 | 先行車両検出装置 |
ITPR20070006A1 (it) * | 2007-02-08 | 2008-08-09 | Techimp S P A | Procedimento per elaborare dati relativi a un'attivita di scariche elettriche parziali |
JP4386083B2 (ja) * | 2007-02-27 | 2009-12-16 | トヨタ自動車株式会社 | 駐車支援装置 |
JP5221886B2 (ja) | 2007-03-07 | 2013-06-26 | 富士重工業株式会社 | 物体検出装置 |
US7924316B2 (en) * | 2007-03-14 | 2011-04-12 | Aptina Imaging Corporation | Image feature identification and motion compensation apparatus, systems, and methods |
US7920746B2 (en) * | 2007-04-23 | 2011-04-05 | Aptina Imaging Corporation | Compressed domain image summation apparatus, systems, and methods |
JP4987573B2 (ja) | 2007-06-01 | 2012-07-25 | 富士重工業株式会社 | 車外監視装置 |
JP5234894B2 (ja) * | 2007-06-28 | 2013-07-10 | 富士重工業株式会社 | ステレオ画像処理装置 |
US7914187B2 (en) | 2007-07-12 | 2011-03-29 | Magna Electronics Inc. | Automatic lighting system with adaptive alignment function |
US8017898B2 (en) | 2007-08-17 | 2011-09-13 | Magna Electronics Inc. | Vehicular imaging system in an automatic headlamp control system |
WO2009036176A1 (en) | 2007-09-11 | 2009-03-19 | Magna Electronics | Imaging system for vehicle |
EP2037408B1 (de) * | 2007-09-14 | 2012-03-28 | Saab Ab | Verfahren, Computerprogramm und Vorrichtung zum Bestimmen der Gefahr einer Kollision in der Luft |
WO2009046268A1 (en) | 2007-10-04 | 2009-04-09 | Magna Electronics | Combined rgb and ir imaging sensor |
JP4856611B2 (ja) | 2007-10-29 | 2012-01-18 | 富士重工業株式会社 | 物体検出装置 |
JP4856612B2 (ja) | 2007-10-29 | 2012-01-18 | 富士重工業株式会社 | 物体検出装置 |
JP5172314B2 (ja) * | 2007-12-14 | 2013-03-27 | 日立オートモティブシステムズ株式会社 | ステレオカメラ装置 |
JP4856656B2 (ja) | 2008-01-22 | 2012-01-18 | 富士重工業株式会社 | 車両検出装置 |
JP4956452B2 (ja) | 2008-01-25 | 2012-06-20 | 富士重工業株式会社 | 車両用環境認識装置 |
JP4876080B2 (ja) | 2008-01-25 | 2012-02-15 | 富士重工業株式会社 | 環境認識装置 |
JP5137617B2 (ja) | 2008-02-27 | 2013-02-06 | 富士重工業株式会社 | 操舵支援装置 |
JP5073548B2 (ja) | 2008-03-27 | 2012-11-14 | 富士重工業株式会社 | 車両用環境認識装置および先行車追従制御システム |
US8154418B2 (en) | 2008-03-31 | 2012-04-10 | Magna Mirrors Of America, Inc. | Interior rearview mirror system |
US8060280B2 (en) * | 2008-04-15 | 2011-11-15 | Autoliv Asp, Inc. | Vision system for deploying safety systems |
US7898400B2 (en) * | 2008-04-15 | 2011-03-01 | Autoliv Asp, Inc. | Enhanced vision road detection system |
JP4567072B2 (ja) * | 2008-05-14 | 2010-10-20 | 本田技研工業株式会社 | 車両周辺監視装置 |
US20100020170A1 (en) | 2008-07-24 | 2010-01-28 | Higgins-Luthman Michael J | Vehicle Imaging System |
JP5089545B2 (ja) * | 2008-09-17 | 2012-12-05 | 日立オートモティブシステムズ株式会社 | 道路境界検出判断装置 |
US9487144B2 (en) | 2008-10-16 | 2016-11-08 | Magna Mirrors Of America, Inc. | Interior mirror assembly with display |
JP5182042B2 (ja) * | 2008-11-28 | 2013-04-10 | 富士通株式会社 | 画像処理装置、画像処理方法及びコンピュータプログラム |
CN101441076B (zh) * | 2008-12-29 | 2010-06-02 | 东软集团股份有限公司 | 一种检测障碍物的方法和装置 |
WO2010099416A1 (en) | 2009-02-27 | 2010-09-02 | Magna Electronics | Alert system for vehicle |
JP5188429B2 (ja) * | 2009-03-24 | 2013-04-24 | 富士重工業株式会社 | 環境認識装置 |
JP5278819B2 (ja) | 2009-05-11 | 2013-09-04 | 株式会社リコー | ステレオカメラ装置及びそれを用いた車外監視装置 |
US8376595B2 (en) | 2009-05-15 | 2013-02-19 | Magna Electronics, Inc. | Automatic headlamp control |
JP4858574B2 (ja) * | 2009-05-19 | 2012-01-18 | トヨタ自動車株式会社 | 物体検出装置 |
WO2011014497A1 (en) | 2009-07-27 | 2011-02-03 | Magna Electronics Inc. | Vehicular camera with on-board microcontroller |
EP2459416B2 (de) | 2009-07-27 | 2019-12-25 | Magna Electronics Inc. | Parkhilfesystem |
EP2473871B1 (de) | 2009-09-01 | 2015-03-11 | Magna Mirrors Of America, Inc. | Abbildungs- und anzeigesystem für fahrzeuge |
JP5039765B2 (ja) * | 2009-09-17 | 2012-10-03 | 日立オートモティブシステムズ株式会社 | 車両制御装置 |
JP5440927B2 (ja) | 2009-10-19 | 2014-03-12 | 株式会社リコー | 測距カメラ装置 |
US8890955B2 (en) | 2010-02-10 | 2014-11-18 | Magna Mirrors Of America, Inc. | Adaptable wireless vehicle vision system based on wireless communication error |
JP5135380B2 (ja) * | 2010-04-12 | 2013-02-06 | 住友重機械工業株式会社 | 処理対象画像生成装置、処理対象画像生成方法、及び操作支援システム |
US9117123B2 (en) | 2010-07-05 | 2015-08-25 | Magna Electronics Inc. | Vehicular rear view camera display system with lifecheck function |
US9077958B2 (en) * | 2010-08-30 | 2015-07-07 | Honda Motor Co., Ltd. | Road departure warning system |
WO2012068331A1 (en) | 2010-11-19 | 2012-05-24 | Magna Electronics Inc. | Lane keeping system and lane centering system |
US9900522B2 (en) | 2010-12-01 | 2018-02-20 | Magna Electronics Inc. | System and method of establishing a multi-camera image using pixel remapping |
US9264672B2 (en) | 2010-12-22 | 2016-02-16 | Magna Mirrors Of America, Inc. | Vision display system for vehicle |
WO2012103193A1 (en) | 2011-01-26 | 2012-08-02 | Magna Electronics Inc. | Rear vision system with trailer angle detection |
JP5693994B2 (ja) | 2011-02-16 | 2015-04-01 | 富士重工業株式会社 | 車両検出装置 |
JP5760220B2 (ja) * | 2011-04-11 | 2015-08-05 | オプテックス株式会社 | 距離画像カメラおよびこれを用いた対象物の面形状認識方法 |
US9194943B2 (en) | 2011-04-12 | 2015-11-24 | Magna Electronics Inc. | Step filter for estimating distance in a time-of-flight ranging system |
WO2012145819A1 (en) | 2011-04-25 | 2012-11-01 | Magna International Inc. | Image processing method for detecting objects using relative motion |
US10019841B2 (en) | 2011-05-18 | 2018-07-10 | Magna Electronics Inc. | Driver assistance systems for vehicle |
US9605971B2 (en) * | 2011-06-17 | 2017-03-28 | Robert Bosch Gmbh | Method and device for assisting a driver in lane guidance of a vehicle on a roadway |
US10793067B2 (en) | 2011-07-26 | 2020-10-06 | Magna Electronics Inc. | Imaging system for vehicle |
KR101316433B1 (ko) * | 2011-09-14 | 2013-10-08 | 현대자동차주식회사 | 차량 주변정보 제공 시스템 및 그 방법 |
WO2013043661A1 (en) | 2011-09-21 | 2013-03-28 | Magna Electronics, Inc. | Vehicle vision system using image data transmission and power supply via a coaxial cable |
WO2013048994A1 (en) | 2011-09-26 | 2013-04-04 | Magna Electronics, Inc. | Vehicle camera image quality improvement in poor visibility conditions by contrast amplification |
US9146898B2 (en) | 2011-10-27 | 2015-09-29 | Magna Electronics Inc. | Driver assist system with algorithm switching |
US10071687B2 (en) | 2011-11-28 | 2018-09-11 | Magna Electronics Inc. | Vision system for vehicle |
KR101340014B1 (ko) * | 2011-12-09 | 2013-12-10 | 에스엘 주식회사 | 위치 정보 제공 장치 및 방법 |
US9297641B2 (en) * | 2011-12-12 | 2016-03-29 | Mobileye Vision Technologies Ltd. | Detection of obstacles at night by analysis of shadows |
JP5459324B2 (ja) * | 2012-01-17 | 2014-04-02 | 株式会社デンソー | 車両周辺監視装置 |
WO2013126715A2 (en) | 2012-02-22 | 2013-08-29 | Magna Electronics, Inc. | Vehicle camera system with image manipulation |
US8694224B2 (en) | 2012-03-01 | 2014-04-08 | Magna Electronics Inc. | Vehicle yaw rate correction |
US8948954B1 (en) * | 2012-03-15 | 2015-02-03 | Google Inc. | Modifying vehicle behavior based on confidence in lane estimation |
US9760092B2 (en) * | 2012-03-16 | 2017-09-12 | Waymo Llc | Actively modifying a field of view of an autonomous vehicle in view of constraints |
US10609335B2 (en) | 2012-03-23 | 2020-03-31 | Magna Electronics Inc. | Vehicle vision system with accelerated object confirmation |
US9466215B2 (en) * | 2012-03-26 | 2016-10-11 | Robert Bosch Gmbh | Multi-surface model-based tracking |
US9751465B2 (en) | 2012-04-16 | 2017-09-05 | Magna Electronics Inc. | Vehicle vision system with reduced image color data processing by use of dithering |
US10089537B2 (en) | 2012-05-18 | 2018-10-02 | Magna Electronics Inc. | Vehicle vision system with front and rear camera integration |
US9340227B2 (en) | 2012-08-14 | 2016-05-17 | Magna Electronics Inc. | Vehicle lane keep assist system |
US9135798B2 (en) * | 2012-09-01 | 2015-09-15 | Honda Motor Co., Ltd. | Vehicle periphery monitoring device |
DE102013217430A1 (de) | 2012-09-04 | 2014-03-06 | Magna Electronics, Inc. | Fahrerassistenzsystem für ein Kraftfahrzeug |
US9446713B2 (en) | 2012-09-26 | 2016-09-20 | Magna Electronics Inc. | Trailer angle detection system |
US9558409B2 (en) | 2012-09-26 | 2017-01-31 | Magna Electronics Inc. | Vehicle vision system with trailer angle detection |
US10659763B2 (en) * | 2012-10-09 | 2020-05-19 | Cameron Pace Group Llc | Stereo camera system with wide and narrow interocular distance cameras |
KR101976390B1 (ko) * | 2012-10-19 | 2019-08-28 | 현대모비스 주식회사 | 차량용 사고 기록 장치 및 방법 |
EP2911028B1 (de) * | 2012-10-22 | 2018-07-25 | Yamaha Hatsudoki Kabushiki Kaisha | Abstandsmessvorrichtung und fahrzeug damit |
JP6079131B2 (ja) | 2012-10-25 | 2017-02-15 | 富士通株式会社 | 画像処理装置、方法、及びプログラム |
JP6376429B2 (ja) * | 2012-11-13 | 2018-08-22 | 株式会社リコー | 対象地点到達検知装置、対象地点到達検知用プログラム、移動体機器制御システム及び移動体 |
US9090234B2 (en) | 2012-11-19 | 2015-07-28 | Magna Electronics Inc. | Braking control system for vehicle |
US9743002B2 (en) | 2012-11-19 | 2017-08-22 | Magna Electronics Inc. | Vehicle vision system with enhanced display functions |
US10025994B2 (en) | 2012-12-04 | 2018-07-17 | Magna Electronics Inc. | Vehicle vision system utilizing corner detection |
US9481301B2 (en) | 2012-12-05 | 2016-11-01 | Magna Electronics Inc. | Vehicle vision system utilizing camera synchronization |
ES2478091B2 (es) * | 2012-12-17 | 2015-03-27 | Universidad De Alicante | Dispositivo y método para la detección de obstáculos aéreos para invidentes |
US9063548B1 (en) | 2012-12-19 | 2015-06-23 | Google Inc. | Use of previous detections for lane marker detection |
JP5754470B2 (ja) * | 2012-12-20 | 2015-07-29 | 株式会社デンソー | 路面形状推定装置 |
US9081385B1 (en) | 2012-12-21 | 2015-07-14 | Google Inc. | Lane boundary detection using images |
DE102013200409A1 (de) * | 2013-01-14 | 2014-07-17 | Robert Bosch Gmbh | Verfahren und Vorrichtung zum Überwachen eines Umfelds eines Fahrzeugs und Verfahren zum Durchführen einer Notbremsung |
DE102013200387A1 (de) * | 2013-01-14 | 2014-07-17 | Robert Bosch Gmbh | Erstellung einer Hinderniskarte |
US9232200B2 (en) * | 2013-01-21 | 2016-01-05 | Devin L. Norman | External vehicle projection system |
KR20140094284A (ko) * | 2013-01-22 | 2014-07-30 | 한국전자통신연구원 | 물체특성의 계층화를 통한 원격 조작용 환경가시화 방법 및 그 장치 |
US9092986B2 (en) | 2013-02-04 | 2015-07-28 | Magna Electronics Inc. | Vehicular vision system |
US20140218529A1 (en) | 2013-02-04 | 2014-08-07 | Magna Electronics Inc. | Vehicle data recording system |
JP6054777B2 (ja) | 2013-03-01 | 2016-12-27 | 日立オートモティブシステムズ株式会社 | ステレオカメラ装置 |
JP6344638B2 (ja) * | 2013-03-06 | 2018-06-20 | 株式会社リコー | 物体検出装置、移動体機器制御システム及び物体検出用プログラム |
US10027930B2 (en) | 2013-03-29 | 2018-07-17 | Magna Electronics Inc. | Spectral filtering for vehicular driver assistance systems |
US9327693B2 (en) | 2013-04-10 | 2016-05-03 | Magna Electronics Inc. | Rear collision avoidance system for vehicle |
FR3004570B1 (fr) * | 2013-04-11 | 2016-09-02 | Aldebaran Robotics | Procede d'estimation de la deviation angulaire d'un element mobile relativement a une direction de reference |
US10232797B2 (en) | 2013-04-29 | 2019-03-19 | Magna Electronics Inc. | Rear vision system for vehicle with dual purpose signal lines |
US9508014B2 (en) | 2013-05-06 | 2016-11-29 | Magna Electronics Inc. | Vehicular multi-camera vision system |
US10567705B2 (en) | 2013-06-10 | 2020-02-18 | Magna Electronics Inc. | Coaxial cable with bidirectional data transmission |
US9260095B2 (en) | 2013-06-19 | 2016-02-16 | Magna Electronics Inc. | Vehicle vision system with collision mitigation |
US20140375476A1 (en) | 2013-06-24 | 2014-12-25 | Magna Electronics Inc. | Vehicle alert system |
JP6150164B2 (ja) * | 2013-07-01 | 2017-06-21 | 株式会社リコー | 情報検出装置、移動体機器制御システム、移動体及び情報検出用プログラム |
US9098752B2 (en) * | 2013-08-09 | 2015-08-04 | GM Global Technology Operations LLC | Vehicle path assessment |
US9619716B2 (en) | 2013-08-12 | 2017-04-11 | Magna Electronics Inc. | Vehicle vision system with image classification |
US10326969B2 (en) | 2013-08-12 | 2019-06-18 | Magna Electronics Inc. | Vehicle vision system with reduction of temporal noise in images |
DE102013217915A1 (de) * | 2013-09-09 | 2015-03-12 | Conti Temic Microelectronic Gmbh | Verfahren und Vorrichtung zur Objekterkennung aus tiefenaufgelösten Bilddaten |
JP5886809B2 (ja) * | 2013-09-27 | 2016-03-16 | 富士重工業株式会社 | 車外環境認識装置 |
US9499139B2 (en) | 2013-12-05 | 2016-11-22 | Magna Electronics Inc. | Vehicle monitoring system |
US9988047B2 (en) | 2013-12-12 | 2018-06-05 | Magna Electronics Inc. | Vehicle control system with traffic driving control |
US10160382B2 (en) | 2014-02-04 | 2018-12-25 | Magna Electronics Inc. | Trailer backup assist system |
JP5874756B2 (ja) * | 2014-02-07 | 2016-03-02 | トヨタ自動車株式会社 | 区画線検出システム及び区画線検出方法 |
JP2015172846A (ja) * | 2014-03-11 | 2015-10-01 | 株式会社リコー | 画像処理装置、機器制御システム、および画像処理プログラム |
JP6087858B2 (ja) * | 2014-03-24 | 2017-03-01 | 株式会社日本自動車部品総合研究所 | 走行区画線認識装置及び走行区画線認識プログラム |
US9623878B2 (en) | 2014-04-02 | 2017-04-18 | Magna Electronics Inc. | Personalized driver assistance system for vehicle |
US9487235B2 (en) | 2014-04-10 | 2016-11-08 | Magna Electronics Inc. | Vehicle control system with adaptive wheel angle correction |
US9405293B2 (en) * | 2014-05-30 | 2016-08-02 | Nissan North America, Inc | Vehicle trajectory optimization for autonomous vehicles |
JP5936792B2 (ja) * | 2014-06-25 | 2016-06-22 | 三菱電機株式会社 | 建築限界測定図の作成装置、建築限界測定図データの作成装置および建築限界測定図の作成方法 |
US9849895B2 (en) | 2015-01-19 | 2017-12-26 | Tetra Tech, Inc. | Sensor synchronization apparatus and method |
CA2893017C (en) | 2015-01-19 | 2020-03-24 | Tetra Tech, Inc. | Light emission power control apparatus and method |
CA2892952C (en) | 2015-01-19 | 2019-10-15 | Tetra Tech, Inc. | Protective shroud |
US10349491B2 (en) | 2015-01-19 | 2019-07-09 | Tetra Tech, Inc. | Light emission power control apparatus and method |
JP6416654B2 (ja) * | 2015-02-17 | 2018-10-31 | トヨタ自動車株式会社 | 白線検出装置 |
US10362293B2 (en) | 2015-02-20 | 2019-07-23 | Tetra Tech, Inc. | 3D track assessment system and method |
US10286855B2 (en) | 2015-03-23 | 2019-05-14 | Magna Electronics Inc. | Vehicle vision system with video compression |
US10819943B2 (en) | 2015-05-07 | 2020-10-27 | Magna Electronics Inc. | Vehicle vision system with incident recording function |
US10567736B2 (en) | 2015-06-23 | 2020-02-18 | Kyocera Corporation | Three-dimensional object detection apparatus, stereo camera apparatus, vehicle, and three-dimensional object detection method |
JP6587435B2 (ja) * | 2015-06-29 | 2019-10-09 | キヤノン株式会社 | 画像処理装置、情報処理方法及びプログラム |
US10078789B2 (en) | 2015-07-17 | 2018-09-18 | Magna Electronics Inc. | Vehicle parking assist system with vision-based parking space detection |
JP6606369B2 (ja) * | 2015-07-21 | 2019-11-13 | 株式会社Soken | 物体検出装置及び物体検出方法 |
US10086870B2 (en) | 2015-08-18 | 2018-10-02 | Magna Electronics Inc. | Trailer parking assist system for vehicle |
JP6530685B2 (ja) * | 2015-09-15 | 2019-06-12 | 株式会社デンソーアイティーラボラトリ | 物体検出装置、物体検出システム、物体検出方法および物体検出プログラム |
US10875403B2 (en) | 2015-10-27 | 2020-12-29 | Magna Electronics Inc. | Vehicle vision system with enhanced night vision |
JP6577595B2 (ja) * | 2015-11-25 | 2019-09-18 | 株式会社日立製作所 | 車両用外界認識装置 |
US11285878B2 (en) | 2015-12-17 | 2022-03-29 | Magna Electronics Inc. | Vehicle vision system with camera line power filter |
US11277558B2 (en) | 2016-02-01 | 2022-03-15 | Magna Electronics Inc. | Vehicle vision system with master-slave camera configuration |
US11433809B2 (en) | 2016-02-02 | 2022-09-06 | Magna Electronics Inc. | Vehicle vision system with smart camera video output |
US10132971B2 (en) | 2016-03-04 | 2018-11-20 | Magna Electronics Inc. | Vehicle camera with multiple spectral filters |
US10055651B2 (en) | 2016-03-08 | 2018-08-21 | Magna Electronics Inc. | Vehicle vision system with enhanced lane tracking |
JP6289546B2 (ja) * | 2016-06-17 | 2018-03-07 | 三菱電機株式会社 | 駐車支援装置 |
DE102016220079B4 (de) | 2016-10-14 | 2023-04-06 | Audi Ag | Verfahren zur Ermittlung von Entfernungsdaten |
DE102016223171A1 (de) * | 2016-11-23 | 2018-05-24 | Robert Bosch Gmbh | Verfahren und System zum Detektieren eines sich innerhalb eines Parkplatzes befindenden erhabenen Objekts |
DE102016223180A1 (de) * | 2016-11-23 | 2018-05-24 | Robert Bosch Gmbh | Verfahren und System zum Detektieren eines sich innerhalb eines Parkplatzes befindenden erhabenen Objekts |
DE102016223185A1 (de) * | 2016-11-23 | 2018-05-24 | Robert Bosch Gmbh | Verfahren und System zum Detektieren eines sich innerhalb eines Parkplatzes befindenden erhabenen Objekts |
CN110431602A (zh) * | 2017-03-23 | 2019-11-08 | 索尼互动娱乐股份有限公司 | 信息处理系统、用于控制信息处理系统的控制方法和程序 |
JP6967715B2 (ja) * | 2017-04-18 | 2021-11-17 | パナソニックIpマネジメント株式会社 | カメラ校正方法、カメラ校正プログラム及びカメラ校正装置 |
JP6293334B2 (ja) * | 2017-04-26 | 2018-03-14 | オリンパス株式会社 | 撮像装置、撮像方法およびプログラム |
JP7146370B2 (ja) * | 2017-05-19 | 2022-10-04 | 新明和工業株式会社 | 特装車両 |
WO2018212284A1 (ja) * | 2017-05-19 | 2018-11-22 | パイオニア株式会社 | 測定装置、測定方法およびプログラム |
JPWO2018212286A1 (ja) * | 2017-05-19 | 2020-03-19 | パイオニア株式会社 | 測定装置、測定方法およびプログラム |
JP6970577B2 (ja) | 2017-09-29 | 2021-11-24 | 株式会社デンソー | 周辺監視装置および周辺監視方法 |
JP7071102B2 (ja) * | 2017-11-28 | 2022-05-18 | 株式会社Subaru | 車外環境認識装置 |
JP6968691B2 (ja) * | 2017-12-27 | 2021-11-17 | 株式会社ミツバ | 障害物検出装置 |
US10625760B2 (en) | 2018-06-01 | 2020-04-21 | Tetra Tech, Inc. | Apparatus and method for calculating wooden crosstie plate cut measurements and rail seat abrasion measurements based on rail head height |
US10807623B2 (en) | 2018-06-01 | 2020-10-20 | Tetra Tech, Inc. | Apparatus and method for gathering data from sensors oriented at an oblique angle relative to a railway track |
US10730538B2 (en) | 2018-06-01 | 2020-08-04 | Tetra Tech, Inc. | Apparatus and method for calculating plate cut and rail seat abrasion based on measurements only of rail head elevation and crosstie surface elevation |
US11377130B2 (en) | 2018-06-01 | 2022-07-05 | Tetra Tech, Inc. | Autonomous track assessment system |
WO2020003510A1 (ja) * | 2018-06-29 | 2020-01-02 | 富士通株式会社 | 特定方法、判定方法、特定プログラム、判定プログラムおよび情報処理装置 |
JP7165012B2 (ja) * | 2018-09-28 | 2022-11-02 | 株式会社Subaru | 車両用ステレオカメラ装置 |
WO2020232443A1 (en) | 2019-05-16 | 2020-11-19 | Tetra Tech, Inc. | Autonomous track assessment system |
JP7229129B2 (ja) | 2019-09-05 | 2023-02-27 | 京セラ株式会社 | 物体検出装置、物体検出システム、移動体及び物体検出方法 |
JP7262350B2 (ja) | 2019-09-12 | 2023-04-21 | 京セラ株式会社 | 路面検出装置、物体検出装置、物体検出システム、移動体及び物体検出方法 |
JP7206172B2 (ja) | 2019-09-19 | 2023-01-17 | 京セラ株式会社 | 物体検出装置、物体検出システム、移動体及び物体検出方法 |
JP7278915B2 (ja) | 2019-09-19 | 2023-05-22 | 京セラ株式会社 | 物体検出装置、物体検出システム、移動体及び物体検出方法 |
JP7308112B2 (ja) | 2019-09-19 | 2023-07-13 | 京セラ株式会社 | 物体検出装置、物体検出システム、移動体及び物体検出方法 |
JP7308115B2 (ja) | 2019-09-24 | 2023-07-13 | 京セラ株式会社 | 物体検出装置、物体検出システム、移動体及び物体検出方法 |
CN110837814B (zh) * | 2019-11-12 | 2022-08-19 | 深圳创维数字技术有限公司 | 车辆导航方法、装置及计算机可读存储介质 |
DE102020208066B3 (de) * | 2020-06-30 | 2021-12-23 | Robert Bosch Gesellschaft mit beschränkter Haftung | Verfahren Objekterkennung Computerprogramm, Speichermedium und Steuereinrichtung |
US11417119B2 (en) | 2020-10-06 | 2022-08-16 | Wipro Limited | Method and system for navigating vehicles based on road conditions determined in real-time |
US11968639B2 (en) | 2020-11-11 | 2024-04-23 | Magna Electronics Inc. | Vehicular control system with synchronized communication between control units |
WO2022145036A1 (ja) * | 2020-12-29 | 2022-07-07 | 三菱電機株式会社 | 経路生成装置、経路生成方法及び経路生成プログラム |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5527707B2 (de) * | 1974-07-08 | 1980-07-22 | ||
JPH01242916A (ja) * | 1988-03-24 | 1989-09-27 | Aisin Seiki Co Ltd | 車上距離検出装置 |
US4916302A (en) * | 1985-02-09 | 1990-04-10 | Canon Kabushiki Kaisha | Apparatus for and method of measuring distances to objects present in a plurality of directions |
US4985847A (en) * | 1987-01-14 | 1991-01-15 | Hitachi, Ltd. | Visual sensor system |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3812636A (en) * | 1971-05-26 | 1974-05-28 | Robertson Co H H | Sheet metal decking unit and composite floor construction utilizing the same |
JPS5819166B2 (ja) * | 1978-08-17 | 1983-04-16 | 株式会社東芝 | 電荷転送形トランスバ−サルフイルタの直流電荷補償方式 |
JPS59197816A (ja) * | 1983-04-25 | 1984-11-09 | Nippon Denso Co Ltd | 車間距離検出装置 |
JPS62155140A (ja) * | 1985-12-27 | 1987-07-10 | Aisin Warner Ltd | 車両制御用道路画像入力方式 |
JPS63314618A (ja) * | 1987-06-17 | 1988-12-22 | Nissan Motor Co Ltd | 自律走行車両制御装置 |
US4872051A (en) * | 1987-10-01 | 1989-10-03 | Environmental Research Institute Of Michigan | Collision avoidance alarm system |
FI83822C (fi) * | 1989-02-02 | 1991-08-26 | Valtion Teknillinen | Foerfarande och anordning foer iakttagande av trafikfoerhaollanden. |
US4970653A (en) * | 1989-04-06 | 1990-11-13 | General Motors Corporation | Vision method of detecting lane boundaries and obstacles |
US5161632A (en) * | 1990-06-01 | 1992-11-10 | Mitsubishi Denki K.K. | Tracking control device for a vehicle |
JPH04313199A (ja) * | 1991-03-20 | 1992-11-05 | Mitsubishi Electric Corp | 車間距離検出装置 |
JP3167752B2 (ja) * | 1991-10-22 | 2001-05-21 | 富士重工業株式会社 | 車輌用距離検出装置 |
-
1992
- 1992-03-23 JP JP4065347A patent/JPH05265547A/ja active Pending
-
1993
- 1993-03-15 US US08/031,728 patent/US5410346A/en not_active Expired - Lifetime
- 1993-03-18 GB GB9305576A patent/GB2265779B/en not_active Expired - Fee Related
- 1993-03-19 DE DE4308776A patent/DE4308776C2/de not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5527707B2 (de) * | 1974-07-08 | 1980-07-22 | ||
US4916302A (en) * | 1985-02-09 | 1990-04-10 | Canon Kabushiki Kaisha | Apparatus for and method of measuring distances to objects present in a plurality of directions |
US4985847A (en) * | 1987-01-14 | 1991-01-15 | Hitachi, Ltd. | Visual sensor system |
JPH01242916A (ja) * | 1988-03-24 | 1989-09-27 | Aisin Seiki Co Ltd | 車上距離検出装置 |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19904097A1 (de) * | 1999-02-02 | 2000-08-03 | Valeo Schalter & Sensoren Gmbh | System und Verfahren zum Überwachen eines Bereichs an der Seite eines Fahrzeugs |
DE19904097B4 (de) * | 1999-02-02 | 2006-06-14 | Valeo Schalter Und Sensoren Gmbh | System und Verfahren zum Überwachen eines Bereichs an der Seite eines Fahrzeugs |
DE19926559A1 (de) * | 1999-06-11 | 2000-12-21 | Daimler Chrysler Ag | Verfahren und Vorrichtung zur Detektion von Objekten im Umfeld eines Straßenfahrzeugs bis in große Entfernung |
US7046822B1 (en) | 1999-06-11 | 2006-05-16 | Daimlerchrysler Ag | Method of detecting objects within a wide range of a road vehicle |
DE10030421B4 (de) * | 1999-06-23 | 2006-10-05 | Honda Giken Kogyo K.K. | Fahrzeugumgebungsüberwachungssystem |
DE19932520A1 (de) * | 1999-07-12 | 2001-02-01 | Hirschmann Austria Gmbh Rankwe | Vorrichtung zur Steuerung eines Sicherheitssystems |
DE10103924B4 (de) * | 2000-01-31 | 2005-05-25 | Yazaki Corp. | Vorrichtung zur Umgebungsüberwachung eines Fahrzeugs |
DE10025678A1 (de) * | 2000-05-24 | 2001-12-20 | Daimler Chrysler Ag | Kamerabasiertes Precrash-Erkennungssystem |
DE10025678B4 (de) * | 2000-05-24 | 2006-10-19 | Daimlerchrysler Ag | Kamerabasiertes Precrash-Erkennungssystem |
DE10127034A1 (de) * | 2001-06-02 | 2002-12-05 | Opel Adam Ag | Verfahren und Vorrichtung zur Ermittlung eines Spurverlaufs einer Fahrbahn |
DE10164516A1 (de) * | 2001-12-19 | 2003-07-10 | Magna Auteca Ag Weiz | Elektronisches Fahrzeugrückblicksystem |
DE10244148A1 (de) * | 2002-09-23 | 2004-04-08 | Daimlerchrysler Ag | Verfahren und Vorrichtung zur videobasierten Beobachtung und Vermessung der seitlichen Umgebung eines Fahrzeugs |
DE102004050020A1 (de) * | 2004-10-13 | 2006-05-04 | Daimlerchrysler Ag | Auswertevorrichtung, Auswerteverfahren und Verwendung einer Auswertevorrichtung für einen Hochgeschwindigkeitsversuch |
DE102004050020B4 (de) * | 2004-10-13 | 2008-04-30 | Daimler Ag | Auswertevorrichtung und Auswerteverfahren für einen Crashversuch |
DE102005023862A1 (de) * | 2005-05-24 | 2006-11-30 | Valeo Schalter Und Sensoren Gmbh | Spurerkennungssystem und Betriebsverfahren hierfür |
Also Published As
Publication number | Publication date |
---|---|
GB2265779B (en) | 1996-05-08 |
GB2265779A (en) | 1993-10-06 |
JPH05265547A (ja) | 1993-10-15 |
GB9305576D0 (en) | 1993-05-05 |
US5410346A (en) | 1995-04-25 |
DE4308776A1 (de) | 1993-09-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE4308776C2 (de) | Einrichtung zum Überwachen des Außenraums eines Fahrzeugs | |
DE4235619C2 (de) | Entfernungsbestimmungseinrichtung für Automobile | |
DE4446452B4 (de) | Fahrleitvorrichtung und Fahrleitverfahren für ein Fahrzeug | |
DE10029866B4 (de) | Objekterkennungssystem | |
DE10251880B4 (de) | Bilderkennungsvorrichtung | |
DE69428737T2 (de) | Fahrzeugerkennungsgerät | |
DE10026586B4 (de) | Objekterfassungssystem | |
DE102007002419B4 (de) | Fahrzeugumgebungsüberwachungsgerät, -verfahren und -programm | |
DE10029423B4 (de) | Objekterkennungssystem | |
DE102008030555B4 (de) | Vorrichtung zur Verarbeitung von Stereobildern | |
DE60308782T2 (de) | Vorrichtung und Methode zur Hinderniserkennung | |
DE69505214T2 (de) | System zur Verarbeitung von Fahrbahnbildsignalen für Fahrzeuge | |
DE102010020867B4 (de) | Strassenform-Erkennungsvorrichtung | |
DE102014116140B4 (de) | Einparkhilfsvorrichtung und Einparkhilfsverfahren für ein Fahrzeug | |
EP1589484B1 (de) | Verfahren zur Erkennung und/oder Verfolgung von Objekten | |
DE10296593B4 (de) | Fahrunterstützungsvorrichtung | |
DE69121369T2 (de) | Steuervorrichtung für einen sich selbständig bewegenden Körper und Verfahren zur Auswertung der Daten davon | |
DE60030640T2 (de) | Bildverarbeitungsvorrichtung | |
DE602004012962T2 (de) | Echtzeit-hinderniserkennung mit einer kalibrierten kamera und bekannter ego-bewegung | |
DE4344485A1 (de) | Fahrumgebungs-Überwachungsgerät | |
WO2013029722A2 (de) | Verfahren zur umgebungsrepräsentation | |
DE10030421A1 (de) | Fahrzeugumgebungsüberwachungssystem | |
DE102004033114A1 (de) | Verfahren zur Kalibrierung eines Abstandsbildsensors | |
DE112012002885T5 (de) | Verfahren und Vorrichtung zur bildbasierten Fahrzeugerfassung und Entfernungsmessung | |
DE102010012262A1 (de) | Bildverarbeitungsvorrichtung |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
D2 | Grant after examination | ||
8364 | No opposition during term of opposition | ||
8328 | Change in the person/name/address of the agent |
Free format text: PATENTANWAELTE REICHEL UND REICHEL, 60322 FRANKFURT |
|
8320 | Willingness to grant licences declared (paragraph 23) | ||
8339 | Ceased/non-payment of the annual fee |