DE19614975A1 - Gesichtsbildverarbeitungssystem - Google Patents
GesichtsbildverarbeitungssystemInfo
- Publication number
- DE19614975A1 DE19614975A1 DE19614975A DE19614975A DE19614975A1 DE 19614975 A1 DE19614975 A1 DE 19614975A1 DE 19614975 A DE19614975 A DE 19614975A DE 19614975 A DE19614975 A DE 19614975A DE 19614975 A1 DE19614975 A1 DE 19614975A1
- Authority
- DE
- Germany
- Prior art keywords
- eye
- face image
- processing system
- image processing
- shape
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/02—Alarms for ensuring the safety of persons
- G08B21/06—Alarms for ensuring the safety of persons indicating a condition of sleep, e.g. anti-dozing alarms
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/597—Recognising the driver's state or behaviour, e.g. attention or drowsiness
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2503/00—Evaluating a particular growth phase or type of persons or animals
- A61B2503/20—Workers
- A61B2503/22—Motor vehicles operators, e.g. drivers, pilots, captains
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/18—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Ophthalmology & Optometry (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Business, Economics & Management (AREA)
- Emergency Management (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Emergency Alarm Devices (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Auxiliary Drives, Propulsion Controls, And Safety Devices (AREA)
- Eye Examination Apparatus (AREA)
Description
Die vorliegende Erfindung betrifft ein Gesichtsbildverarbei
tungssystem zum Erfassen zahlreicher Zustände, beispielsweise
einem unklaren Erwachungszustand oder einem Dös- oder
Dämmerzustand eines Autofahrers oder dergleichen, anhand den
geöffneten oder geschlossenen Zuständen seiner Augen.
Nachfolgend wird ein bekanntes System unter Bezug auf die
Fig. 63 bis 65B beschrieben. Die Fig. 63 zeigt ein Diagramm
zum Darstellen der Aufbaustruktur des bekannten Systems zum
Erfassen des Fahrerzustands, das beispielsweise in dem
offengelegten japanischen Patent Nr. 6-32154 beschrieben ist.
Wie in Fig. 63 gezeigt ist, enthält das bekannte System: eine
Bildeingabevorrichtung 1 zum Eingeben von Daten zum
Darstellen eines Bilds des Gesichtes eines Fahrers und zum
Durchführen einer Analog-Digital-(A/D)-Umsetzung bei den
Bilddaten; eine Binärumsetzvorrichtung 2 für die
Binärumsetzung des Gesichtsbilds, das von der
Bildeingabevorrichtung 1 eingegeben (und durch diese
umgesetzt) wird; eine Vorrichtung zum Festlegen des
momentanen Augapfelbereichs 3 zum Bestimmen der Stelle, an
der sich der momentane Bereich eines Augapfels in dem binär
umgesetzten Bild befindet; eine Augapfel-Detektorvorrichtung
4 zum Detektieren eines Augapfels in dem momentanen Bereich
des Augapfels auf der Grundlage fortlaufender schwarzer Pixel
(oder Bildelemente), die entlang der Längsrichtung hiervon
(insbesondere der Y-Richtung) angeordnet sind; eine
Vorrichtung zum Detektieren eines geöffneten oder
geschlossenen Auges 5 zum Erfassen des geöffneten oder
geschlossenen Auges des Fahrers auf der Grundlage der Zahl
der fortlaufenden schwarzen Pixel des detektierten Augapfels;
und eine Vorrichtung zum Beurteilen des Fahrerzustands 6 zum
Beurteilen des Zustands des Fahrers in Abhängigkeit von dem
Muster des geöffneten oder geschlossenen Auges, das durch die
Vorrichtung zum Detektieren eines geöffneten/geschlossenen
Auges detektiert wird.
Die Fig. 64 zeigt ein Binärbild zum Darstellen eines
Ortsbereichs des Augapfels 7, der durch die Vorrichtung zum
Detektieren des geöffneten/geschlossenen Auges 5 zu
verarbeiten ist.
Ein Betrieb des bekannten Systems wird wie folgt
durchgeführt. Wie in Fig. 63 gezeigt ist, wird ein
Gesichtsbild eines Fahrers, das unter Einsatz der
Bildeingabevorrichtung 1 aufgenommen wird, in der
Binärumsetzvorrichtung 2 binär umgewandelt und demnach in ein
Binärbild umgesetzt. In dem Binärbild wird der Ortsbereich
des Augapfels 7 durch die Vorrichtung zum Festlegen des
momentanen Augapfelbereichs 3 festgestellt. Der Augapfel des
Fahrers wird in dem Bereich 7 durch die Augapfel-
Detektorvorrichtung 4 detektiert. Ferner wird der geöffnete
oder geschlossene Zustand des Auges durch die Vorrichtung zum
Detektieren des geöffneten/geschlossenen Auges detektiert.
Die Muster der geöffneten und geschlossenen Augen werden bei
der Vorrichtung zum Beurteilen des Fahrerzustands 6
eingegeben, worauf der Döszustand oder dergleichen des
Fahrers festgestellt wird.
Ferner wird der Betrieb der Vorrichtung zum Detektieren des
geöffneten/geschlossenen Auges nachfolgend detailliert
beschrieben. Insbesondere bei Detektion eines geöffneten oder
geschlossenen Auges in dem Binärbild, in dem beispielsweise
ein linkes Auge eingestellt ist, wie in Fig. 64 gezeigt ist,
sucht die Vorrichtung zum Detektieren des
geöffneten/geschlossenen Auges einen Bereich (insbesondere
durch Scannen), in dem Abszissenwerte (insbesondere
Koordinaten entlang einer seitlichen Richtung) der Pixel in
dem Bereich von X1 bis X2 liegen und Ordinaten (insbesondere
Koordinaten entlang der Y- oder Längsrichtung) in dem Bereich
von YB (insbesondere dem Ordinatenwert des Suchstartpunkts)
bis (YB - 50) bei schwarzen Pixeln liegen. Die Längsabtastung
einer Zeile oder Spalte von Pixeln wird bei allen in
seitlicher Richtung angeordneten Spalten des Ortsbereichs des
Augapfels 7 wiederholt und sequentiell durchgeführt. Bei
Abschluß des Scannvorgangs der Spalten über die gesamte
Breite des gesamten Ortsbereichs des Augapfels 7 wird die
Maximalzahl fortlaufender schwarzer Pixel als Größe für die
Längsrichtung (insbesondere die Y-Richtung) des abgebildeten
Augapfels des linken Auges erhalten. Demnach wird ein
Schwellwert zum Detektieren des geöffneten/geschlossenen
Zustands eines Auges vorab auf der Grundlage von Daten im
Hinblick auf die Maximalzahl fortlaufender schwarzer Pixel
festgelegt, für die Fälle mit geöffneten und geschlossenen
Zuständen. Anschließend läßt sich die Detektion der
geöffneten/geschlossenen Zustände eines Auges durch Vergleich
der Maximalzahl fortlaufender schwarzer Pixel, die durch den
zuvor erläuterten Abtastbetrieb erhalten wird, mit dem
festgelegten Schwellwert erzielen.
Wie oben beschrieben, wird bei dem bekannten System die
Technik eingesetzt, bei der die Maximalzahl fortlaufender
schwarzer Pixel, die entlang der Längsrichtung (insbesondere
der Y-Richtung) angeordnet sind, für ein Auge bestimmt, damit
beurteilt werden kann, ob das Auge eines Fahrers geöffnet
oder geschlossen ist. Jedoch weist manchmal das Binärbild in
dem zu untersuchenden Bereich eine Form auf, die in Fig. 65A
oder 65B dargestellt ist, aufgrund des Vorhandenseins einer
Augenbraue oder eines Schattens. In einem solchen Fall ergibt
sich keine große Differenz zwischen der Maximalzahl L1
fortlaufender schwarzer Pixel entlang der Y-Richtung in dem
Fall des geöffneten Zustands des Auges und derjenigen L2 der
fortlaufenden schwarzen Pixel entlang derselben Richtung in
dem Fall des geschlossenen Zustands von diesem. Demnach tritt
bei dem bekannten System das Problem auf, daß ein Fehler bei
der Beurteilung auftritt, ob das Auge geöffnet oder
geschlossen ist.
Die vorliegende Erfindung wurde geschaffen, um das zuvor
genannte Problem bei dem genannten System zu lösen.
Demnach besteht eine Aufgabe der vorliegenden Erfindung in
der Schaffung eines Gesichtsbildverarbeitungssystems, mit dem
sich genau feststellen läßt, ob ein Auge geöffnet oder
geschlossen ist, selbst in den Fällen, in denen eine
Veränderung der Zahl fortlaufender schwarzer Pixel entlang
der Y-Richtung, die im Zeitpunkt während dem Schließen des
Auges auftritt, gering ist, und in denen sich eine
Veränderung der Maximalzahl fortlaufender schwarzer Pixel
entlang der Y-Richtung aufgrund einer Veränderung einer
Aufwärts- oder Abwärtsrichtung/Neigung eines Gesichts- oder
einer Veränderung der Links- oder Rechtsneigung des Gesichts
ergibt, durch Richten der Aufmerksamkeit auf eine Veränderung
der Augenform, die durch das Schließen des Auges bewirkt
wird.
Zum Lösen der vorgenannten Aufgabe wird gemäß der
vorliegenden Erfindung ein Gesichtsbildverarbeitungssystem
geschaffen, enthaltend: eine Kamera zum Aufnehmen eines
Gesichtsbilds; eine Bildeingabevorrichtung zum Eingeben eines
durch die Kamera gesendeten Videosignals; eine
Binärumsetzvorrichtung für die Binärumsetzung des durch die
Bildeingabevorrichtung eingegebenen Gesichtsbilds; eine
Augenextrahiervorrichtung zum Extrahieren eines Ortsbereichs
eines Auges, der ein Auge enthält, aus dem binär umgesetzten
Gesichtsbild; eine Bewertungsfunktions-Berechnungsvorrichtung
zum Berechnen einer Formfunktion zum Darstellen einer
Formeigenschaft des Auges anhand des Ortsbereichs des Auges
und zum Berechnen einer Bewertungsfunktion gemäß der
Formfunktion; und eine Vorrichtung zum Beurteilen des
geöffneten oder geschlossenen Zustands zum Beurteilen anhand
der Bewertungsfunktion, ob das Auge geöffnet oder geschlossen
ist.
Ferner ist für den Fall einer Ausführungsform des
Gesichtsbildverarbeitungssystems der vorliegenden Erfindung
kennzeichnend, daß die Bewertungsfunktions-
Berechnungsvorrichtung eine Formfunktion erster Ordnung auf
der Grundlage des Binärbilds des Ortsbereichs des Auges
bestimmt und eine Formfunktion zweiter Ordnung gemäß der
Formfunktion erster Ordnung berechnet und ferner eine
Bewertungsfunktion gemäß der Formfunktion zweiter Ordnung
berechnet.
Ferner ist für den Fall einer anderen Ausführungsform des
Gesichtsbildverarbeitungssystems der vorliegenden Erfindung
kennzeichnend, daß die Bewertungsfunktions-
Berechnungsvorrichtung erste und zweite Formfunktionen anhand
des Binärbilds des Ortsbereichs des Auges bestimmt und eine
Berechnungsfunktion gemäß den ersten und zweiten
Formfunktionen berechnet.
Weitere Merkmale, Aufgaben und Vorteile der vorliegenden
Erfindung ergeben sich aus der folgenden Beschreibung
bevorzugter Ausführungsformen unter Bezug auf die beiliegende
Zeichnung, in der gleiche Bezugszeichen gleiche oder
entsprechende Teile über alle Ansichten hinweg kennzeichnen;
es zeigen:
Fig. 1 ein Diagramm zum Darstellen des Aufbaus der
Ausführungsform 1 der vorliegenden Erfindung;
Fig. 2 ein Diagramm zum Darstellen eines Verfahrens zum
Detektieren des geöffneten oder geschlossenen
Zustands eines Auges, das bei der Ausführungsform 1
der vorliegenden Erfindung eingesetzt wird;
Fig. 3 einen Graphen zum Darstellen, wie sich eine bei der
Ausführungsform 1 der vorliegenden Erfindung
eingesetzte Bewertungsfunktion über die Zeit
verändert;
Fig. 4 ein Diagramm zum Darstellen eines Verfahrens zum
Detektieren des geöffneten oder geschlossenen
Zustands eines Auges, das bei der Ausführungsform 2
der vorliegenden Erfindung eingesetzt wird;
Fig. 5 einen Graphen zum Darstellen, wie sich die bei der
Ausführungsform 2 der vorliegenden Erfindung
eingesetzte Bewertungsfunktion über die Zeit
verändert;
Fig. 6 ein Diagramm zum Darstellen eines Verfahrens zum
Detektieren des geöffneten oder geschlossenen
Zustands eines Auges, das bei der Ausführungsform 3
der vorliegenden Erfindung eingesetzt wird;
Fig. 7 einen Graphen zum Darstellen, wie sich eine bei der
Ausführungsform 3 der vorliegenden Erfindung
eingesetzte Bewertungsfunktion über die Zeit
verändert;
Fig. 8 ein Diagramm zum Darstellen eines Verfahrens zum
Detektieren des geöffneten oder geschlossenen
Zustands eines Auges, das bei der Ausführungsform 4
der vorliegenden Erfindung eingesetzt wird;
Fig. 9 einen Graphen zum Darstellen, wie sich eine bei der
Ausführungsform 4 der vorliegenden Erfindung
eingesetzte Bewertungsfunktion über die Zeit
verändert;
Fig. 10 ein Diagramm zum Darstellen eines Verfahrens zum
Detektieren des geöffneten oder geschlossenen
Zustands eines Auges, das bei der Ausführungsform 5
der vorliegenden Erfindung eingesetzt wird;
Fig. 11 einen Graphen zum Darstellen, wie sich eine bei der
Ausführungsform 5 der vorliegenden Erfindung
eingesetzte Bewertungsfunktion über die Zeit
verändert;
Fig. 12 ein Diagramm zum Darstellen eines Verfahrens zum
Detektieren des geöffneten oder geschlossenen
Zustands eines Auges, das bei der Ausführungsform 6
der vorliegenden Erfindung eingesetzt wird;
Fig. 13 einen Graphen zum Darstellen, wie sich eine bei der
Ausführungsform 6 der vorliegenden Erfindung
eingesetzte Bewertungsfunktion über die Zeit
verändert;
Fig. 14 ein Diagramm zum Darstellen eines Verfahrens zum
Detektieren des geöffneten oder geschlossenen
Zustands eines Auges, das bei der Ausführungsform 7
der vorliegenden Erfindung eingesetzt wird;
Fig. 15 einen Graphen zum Darstellen, wie sich eine bei der
Ausführungsform 7 der vorliegenden Erfindung
eingesetzte Bewertungsfunktion über die Zeit
verändert;
Fig. 16 ein Diagramm zum Darstellen eines Verfahrens zum
Detektieren des geöffneten oder geschlossenen
Zustands eines Auges, das bei der Ausführungsform 8
der vorliegenden Erfindung eingesetzt wird;
Fig. 17 einen Graphen zum Darstellen, wie sich eine bei der
Ausführungsform 8 der vorliegenden Erfindung
eingesetzte Bewertungsfunktion über die Zeit
verändert;
Fig. 18 ein Diagramm zum Darstellen eines Verfahrens zum
Detektieren des geöffneten oder geschlossenen
Zustands eines Auges, das bei der Ausführungsform 9
der vorliegenden Erfindung eingesetzt wird;
Fig. 19 einen Graphen zum Darstellen, wie sich eine bei der
Ausführungsform 9 der vorliegenden Erfindung
eingesetzte Bewertungsfunktion über die Zeit
verändert;
Fig. 20 ein Diagramm zum Darstellen eines Verfahrens zum
Detektieren des geöffneten oder geschlossenen
Zustands eines Auges, das bei der Ausführungsform
10 der vorliegenden Erfindung eingesetzt wird;
Fig. 21 einen Graphen zum Darstellen, wie sich eine bei der
Ausführungsform 10 der vorliegenden Erfindung
eingesetzte Bewertungsfunktion über die Zeit
verändert;
Fig. 22 ein Diagramm zum Darstellen eines Verfahrens zum
Detektieren des geöffneten oder geschlossenen
Zustands eines Auges, das bei der Ausführungsform
11 der vorliegenden Erfindung eingesetzt wird;
Fig. 23 einen Graphen zum Darstellen, wie sich eine bei der
Ausführungsform 11 der vorliegenden Erfindung
eingesetzte Bewertungsfunktion über die Zeit
verändert;
Fig. 24 ein Diagramm zum Darstellen eines Verfahrens zum
Detektieren des geöffneten oder geschlossenen
Zustands eines Auges, das bei der Ausführungsform
12 der vorliegenden Erfindung eingesetzt wird;
Fig. 25 einen Graphen zum Darstellen, wie sich eine bei der
Ausführungsform 12 der vorliegenden Erfindung
eingesetzte Bewertungsfunktion über die Zeit
verändert;
Fig. 26 ein Diagramm zum Darstellen eines Verfahrens zum
Detektieren des geöffneten oder geschlossenen
Zustands eines Auges, das bei der Ausführungsform
13 der vorliegenden Erfindung eingesetzt wird;
Fig. 27 einen Graphen zum Darstellen, wie sich eine bei der
Ausführungsform 13 der vorliegenden Erfindung
eingesetzte Bewertungsfunktion über die Zeit
verändert;
Fig. 28 ein Diagramm zum Darstellen eines Verfahrens zum
Detektieren des geöffneten oder geschlossenen
Zustands eines Auges, das bei der Ausführungsform
14 der vorliegenden Erfindung eingesetzt wird;
Fig. 29 einen Graphen zum Darstellen, wie sich eine bei der
Ausführungsform 14 der vorliegenden Erfindung
eingesetzte Bewertungsfunktion über die Zeit
verändert;
Fig. 30 ein Diagramm zum Darstellen eines Verfahrens zum
Detektieren des geöffneten oder geschlossenen
Zustands eines Auges, das bei der Ausführungsform
15 der vorliegenden Erfindung eingesetzt wird;
Fig. 31 einen Graphen zum Darstellen, wie sich eine bei der
Ausführungsform 15 der vorliegenden Erfindung
eingesetzte Bewertungsfunktion über die Zeit
verändert;
Fig. 32 ein Diagramm zum Darstellen eines Verfahrens zum
Detektieren des geöffneten oder geschlossenen
Zustands eines Auges, das bei der Ausführungsform
16 der vorliegenden Erfindung eingesetzt wird;
Fig. 33 einen Graphen zum Darstellen, wie sich eine bei der
Ausführungsform 16 der vorliegenden Erfindung
eingesetzte Bewertungsfunktion über die Zeit
verändert;
Fig. 34 ein Diagramm zum Darstellen eines Verfahrens zum
Detektieren des geöffneten oder geschlossenen
Zustands eines Auges, das bei der Ausführungsform
17 der vorliegenden Erfindung eingesetzt wird;
Fig. 35 einen Graphen zum Darstellen, wie sich eine bei der
Ausführungsform 17 der vorliegenden Erfindung
eingesetzte Bewertungsfunktion über die Zeit
verändert;
Fig. 36 ein Diagramm zum Darstellen eines Verfahrens zum
Detektieren des geöffneten oder geschlossenen
Zustands eines Auges, das bei der Ausführungsform
18 der vorliegenden Erfindung eingesetzt wird;
Fig. 37 einen Graphen zum Darstellen, wie sich eine bei der
Ausführungsform 18 der vorliegenden Erfindung
eingesetzte Bewertungsfunktion über die Zeit
verändert;
Fig. 38 ein Diagramm zum Darstellen eines Verfahrens zum
Detektieren des geöffneten oder geschlossenen
Zustands eines Auges, das bei der Ausführungsform
19 der vorliegenden Erfindung eingesetzt wird;
Fig. 39 einen Graphen zum Darstellen, wie sich eine bei der
Ausführungsform 19 der vorliegenden Erfindung
eingesetzte Bewertungsfunktion über die Zeit
verändert;
Fig. 40 ein Diagramm zum Darstellen eines Verfahrens zum
Detektieren des geöffneten oder geschlossenen
Zustands eines Auges, das bei der Ausführungsform
20 der vorliegenden Erfindung eingesetzt wird;
Fig. 41 einen Graphen zum Darstellen, wie sich eine bei der
Ausführungsform 20 der vorliegenden Erfindung
eingesetzte Bewertungsfunktion über die Zeit
verändert;
Fig. 42 ein Diagramm zum Darstellen eines Verfahrens zum
Detektieren des geöffneten oder geschlossenen
Zustands eines Auges, das bei der Ausführungsform
21 der vorliegenden Erfindung eingesetzt wird;
Fig. 43 einen Graphen zum Darstellen, wie sich eine bei der
Ausführungsform 21 der vorliegenden Erfindung
eingesetzte Bewertungsfunktion über die Zeit
verändert;
Fig. 44 ein Diagramm zum Darstellen eines Verfahrens zum
Detektieren des geöffneten oder geschlossenen
Zustands eines Auges, das bei der Ausführungsform
22 der vorliegenden Erfindung eingesetzt wird;
Fig. 45 einen Graphen zum Darstellen, wie sich eine bei der
Ausführungsform 22 der vorliegenden Erfindung
eingesetzte Bewertungsfunktion über die Zeit
verändert;
Fig. 46 ein Diagramm zum Darstellen eines Verfahrens zum
Detektieren des geöffneten oder geschlossenen
Zustands eines Auges, das bei der Ausführungsform
23 der vorliegenden Erfindung eingesetzt wird;
Fig. 47 ein Diagramm zum Darstellen eines Verfahrens zum
Detektieren des geöffneten oder geschlossenen
Zustands eines Auges, das bei der Ausführungsform
24 der vorliegenden Erfindung eingesetzt wird;
Fig. 48 ein Diagramm zum Darstellen eines Verfahrens zum
Detektieren des geöffneten oder geschlossenen
Zustands eines Auges, das bei der Ausführungsform
25 der vorliegenden Erfindung eingesetzt wird;
Fig. 49 einen Graphen zum Darstellen, wie sich eine bei der
Ausführungsform 25 der vorliegenden Erfindung
eingesetzte Bewertungsfunktion mit der Zeit
verändert;
Fig. 50 ein Diagramm zum Darstellen eines Verfahrens zum
Detektieren des geöffneten oder geschlossenen
Zustands eines Auges, das bei der Ausführungsform
26 der vorliegenden Erfindung eingesetzt wird;
Fig. 51 einen Graphen zum Darstellen, wie sich die bei der
Ausführungsform 26 der vorliegenden Erfindung
eingesetzte Bewertungsfunktion über die Zeit
verändert;
Fig. 52 ein Diagramm zum Darstellen eines Verfahrens zum
Detektieren des geöffneten oder geschlossenen
Zustands eines Auges, das bei der Ausführungsform
27 der vorliegenden Erfindung eingesetzt wird;
Fig. 53 einen Graphen zum Darstellen, wie sich die bei der
Ausführungsform 27 der vorliegenden Erfindung
eingesetzte Bewertungsfunktion über die Zeit
verändert;
Fig. 54 ein Diagramm zum Darstellen eines Verfahrens zum
Detektieren des geöffneten oder geschlossenen
Zustands eines Auges, das bei der Ausführungsform
28 der vorliegenden Erfindung eingesetzt wird;
Fig. 55 einen Graphen zum Darstellen, wie sich die bei der
Ausführungsform 28 der vorliegenden Erfindung
eingesetzte Bewertungsfunktion über die Zeit
verändert;
Fig. 56 ein Diagramm zum Darstellen eines Verfahrens zum
Detektieren des geöffneten oder geschlossenen
Zustands eines Auges, das bei der Ausführungsform
29 der vorliegenden Erfindung eingesetzt wird;
Fig. 57 einen Graphen zum Darstellen, wie sich die bei der
Ausführungsform 29 der vorliegenden Erfindung
eingesetzte Bewertungsfunktion über die Zeit
verändert;
Fig. 58 ein Diagramm zum Darstellen eines Verfahrens zum
Detektieren des geöffneten oder geschlossenen
Zustands eines Auges, das bei der Ausführungsform
30 der vorliegenden Erfindung eingesetzt wird;
Fig. 59 einen Graphen zum Darstellen, wie sich die bei der
Ausführungsform 30 der vorliegenden Erfindung
eingesetzte Bewertungsfunktion über die Zeit
verändert;
Fig. 60 ein Diagramm zum Darstellen des Aufbaus der
Ausführungsform 31 der vorliegenden Erfindung;
Fig. 61 ein Diagramm zum Darstellen eines Verfahrens zum
Extrahieren eines möglichen Ortsbereichs für ein
Auge der Ausführungsform 31 der vorliegenden
Erfindung;
Fig. 62 ein Diagramm zum Darstellen des Aufbaus der
Ausführungsform 32 der vorliegenden Erfindung;
Fig. 63 ein Diagramm zum Darstellen des Aufbaus des
bekannten Systems zum Detektieren des Zustands
eines Fahrers;
Fig. 64 ein Diagramm zum Darstellen des bekannten
Verfahrens zum Detektieren des geöffneten oder
geschlossenen Zustands eines Auges; und
Fig. 65A und 65B Diagramme zum Darstellen des Problems im
Zusammenhang mit dem bekannten Verfahren beim
Detektieren des geöffneten oder geschlossenen
Zustands eines Auges.
Nun werden bevorzugte Ausführungsformen der vorliegenden
Erfindung detailliert unter Bezug auf die beiliegende
Zeichnung beschrieben.
Zunächst wird nachfolgend die Ausführungsform 1 der
vorliegenden Erfindung unter Bezug auf die Fig. 1 bis 3
beschrieben. Die Fig. 1 zeigt ein Diagramm zum prinzipiellen
Darstellen des Aufbaus eines Gesichtsbildverarbeitungssystems,
das die vorliegende Erfindung realisiert, insbesondere die
Ausführungsform 1 der vorliegenden Erfindung.
Wie in Fig. 1 gezeigt ist, enthält dieses
Gesichtsbildverarbeitungssystem insbesondere die
Ausführungsform 1 der vorliegenden Erfindung, eine Kamera 11,
eine Bildeingabevorrichtung 12, eine Binärumsetzvorrichtung
13, eine Extrahiervorrichtung für das Auge 14, eine
Bewertungsfunktions-Berechnungsvorrichtung 15 und eine
Vorrichtung zum Beurteilen des geöffneten oder geschlossenen
Zustands.
Die Kamera 11 ist beispielsweise eine CCD-TV-Kamera, die mit
einer Instrumententafel versehen ist, und zum Aufnehmen eines
Bilds des Gesichts eines Fahrers eingesetzt wird. Ferner wird
ein analoges Bildsignal (oder Videosignal), das von dieser
Kamera 11 ausgegeben wird, durch die zuvor erwähnten
Vorrichtungen 12 bis 16 verarbeitet. Weiterhin wird dann,
wenn festgestellt wird, daß sich der Fahrer in einem
Döszustand befindet, die Aufmerksamkeit des Fahrers
beispielsweise durch Abgabe eines Brummtons, durch Abgeben
einer Sprechwarnung oder durch Vibrieren des Fahrersitzes
erregt. Zudem wird - wenn es erforderlich ist - ein Fahrzeug
beispielsweise durch Betätigen einer Bremse angehalten.
Ein durch die Kamera 11 aufgenommenes Gesichtsbild wird bei
der Bildeingabevorrichtung 12 eingegeben, wonach eine A/D-
Umsetzung bei den Daten zum Darstellen des Gesichtsbilds
durchgeführt wird, um hierdurch das Gesichtsbild in ein
digitales Halbtonbild (insbesondere ein digitales Gradienten-
oder Grauskalenbild) umzusetzen. Anschließend erfolgt die
Binärumsetzung des digitalen Halbtonbilds durch die
Binärumsetzvorrichtung 13 unter Einsatz eines festgelegten
Schwellwerts. Insbesondere wird das digitale Halbtonbild in
ein Binärbild umgesetzt, das beispielsweise aus schwarzen und
weißen Pixeln besteht. Anschließend wird ein Ortsbereich des
Auges durch die Extrahiervorrichtung für das Auge 14
extrahiert. Diese Extrahiervorrichtung für das Auge 14
bestimmt den Mittelpunkt oder Schwerpunkt beispielsweise
durch Berechnen des Mittelwerts oder des Durchschnitts der
Koordinaten der schwarzen Pixel. Ferner extrahiert die
Extrahievorrichtung für das Auge 14 ein rechteckiges Gebiet
des festgelegten Seitenbereichs (insbesondere des
festgelegten Bereichs entlang der X-Richtung), in dem ein
Cluster der schwarzen Pixel am nächsten an dem Mittelpunkt
oder Schwerpunkt liegt, als Ortsbereich des Auges.
Anschließend berechnet die Bewertungsfunktions-
Berechnungsvorrichtung 15 eine Formfunktion zum Darstellen
der Form oder der Eigenschaft des gesamten binären Augbildes,
das in dem Ortsbereich des Auges enthalten ist. Anschließend
berechnet die Bewertungsfunktions-Berechnungsvorrichtung 15
eine Bewertungsfunktion, die erhalten wird, indem die
Aufmerksamkeit auf die gekrümmte Form des Auges anhand dieser
Formfunktion gelenkt wird. Anschließend erfaßt die
Bewertungsfunktions-Berechnungsvorrichtung 15 den Wert K
dieser Bewertungsfunktion in einem Speicher. Ferner bestimmt
die Vorrichtung zum Beurteilen des geöffneten oder
geschlossenen Zustands 16 einen Schwellwert anhand des Wertes
K der zeitvarianten Bewertungsfunktion und bestimmt, ob das
Auge geöffnet oder geschlossen ist.
Die Fig. 2 zeigt ein Diagramm zum Darstellen eines
Verfahrens, das bei der Ausführungsform 1 der vorliegenden
Erfindung eingesetzt wird, um festzustellen, ob das Auge
geöffnet oder geschlossen ist. Dieses Diagramm zeigt die
Beziehung zwischen dem Zeitablauf (ausgehend von einem
Zeitpunkt TA, in dem das Auge geöffnet ist, bis zu einem
anderen Zeitpunkt TC, in dem das Auge geschlossen ist, mit
einem dazwischenliegenden Zwischenzeitpunkt TB), den sich
während des Zeitraums verändernden Binärbildern des
Ortsbereichs des Auges 8 und "Histogrammen", die
Formfunktionen erster Ordnung sind und hier als Graphen
definiert sind, die die Verteilung der Werte darstellen, die
durch Akkumulierung der Binärtonpegel der Pixel entlang der
Y-Richtung entsprechend jeder der X-Koordinaten in dem
Ortsbereich des Auges 8 erhalten werden, sowie von
Approximationslinien als Formfunktionen zweiter Ordnung, die
auf der Grundlage der Formfunktionen erster Ordnung berechnet
werden. Zusätzlich wird jedes der Y-Histogramme praktisch
durch Scannen des Ortsbereichs des Auges 8 entlang der Y-
Richtung und Zählen (insbesondere durch Addition der Zahl)
der schwarzen Pixel gemäß jeder der X-Koordinaten erhalten
(nebenbei bemerkt, stellt SUM den Zählwert (insbesondere die
Gesamtzahl) der schwarzen Pixel entsprechend jeder der X-
Koordinaten dar).
Die Fig. 3 zeigt eine Veränderung des Wertes K der
Bewertungsfunktion als Gradienten der Approsimationslinie,
die anhand des in Fig. 2 gezeigten Y-Histogramms berechnet
wird.
Ferner entspricht eine Linie 9 einer Approximationslinie, die
durch Einsatz eines Verfahrens mit minimalen Fehlerquadraten
(insbesondere einer Methode der kleinsten Quadrate) erhalten
wird, mit einem Verlauf, dessen Form ausreichend mit der Form
eines festgelegten Teils der anhand der Y-Koordinaten
dargestellten Kurve übereinstimmt (insbesondere dem Zählwert
SUM), jeweils gemäß den X-Koordinaten von L (gemäß dem linken
Ende des Ortsbereichs des Auges 8) bis (L + 20). In diesem
Fall wird das Verfahren der kleinsten Quadrate gemäß der
folgenden Gleichung (1) durchgeführt. Ferner entspricht K dem
Gradienten der Approximationslinie 9 und stellt demnach den
Wert der Bewertungsfunktion dar. Es sei angemerkt, daß in der
Gleichung (1) jede Summation im Hinblick auf X zwischen L und
(L + 20) durchgeführt wird.
K = {20 Σ (XSUM) - Σ X Σ SUM}/{20 Σ (X²) - (Σ X)²} (1)
Wie in Fig. 2 gezeigt ist, verändert sich die Form des Y-
Histogramms, wenn sich der Zustand des Auges von dem
geöffneten Zustand zu dem geschlossenen Zustand verändert.
Demnach ist in dem Zeitpunkt TC, in dem das Auge geöffnet
ist, der Wert K der Bewertungsfunktion niedrig, wie in Fig. 3
gezeigt ist. Demnach kann aufbauend auf einem Ergebnis durch
das Sammeln von Abtastdaten und Festlegen eines Schwellwerts
KB gemäß der Tendenz der Abtastwerte K bestimmt werden, ob
das Auge geöffnet oder geschlossen ist. Insbesondere dann,
wenn beispielsweise der Wert K der Bewertungsfunktion
niedriger als der Schwellwert KB ist, wird festgestellt, daß
das Auge geschlossen ist.
Ferner wird eine Approximationslinie 10, die für die Form des
gesamten Auges substituiert wird, insbesondere der Form des
gesamten Bereichs des Ortsbereichs des Auges 8, entsprechend
erhalten. Anschließend wird der Gradient der
Approximationslinie 10 berechnet. Weiterhin wird die
Differenz zwischen den Gradienten der Approximationslinie 9
und 10 als Bewertungsfunktion benützt. Hierdurch bestehen bei
dieser Ausführungsform Vorteile oder Wirkungen dahingehend,
daß die Wahrscheinlichkeit eines Auftretens einer
fehlerhaften Entscheidung aufgrund der Neigung des Gesichts
des Fahrers reduziert ist und daß hierdurch die Genauigkeit
beim Durchführen einer Beurteilung des geöffneten oder
geschlossenen Zustands des Auges verbessert ist. Es sei
bemerkt, daß der Wert der Bewertungsfunktion in diesem Fall
eine Tendenz entsprechend derjenigen der in Fig. 3 gezeigten
Funktion aufweist.
Weiterhin wird in dem zuvor erläuterten Fall die Form des
festgelegten Bereichs in dem linken Endabschnitt des Auges
zum Erhalten der Bewertungsfunktion benützt. Jedoch läßt
sich, obgleich das Vorzeichen der Funktion umgekehrt ist, ein
entsprechendes Ergebnis in dem Fall erhalten, in dem die Form
des festgelegten Bereichs des rechten Endabschnitts des
Auges, beispielsweise des Bereichs der X-Koordinaten von R
bis (R - 20), hierfür eingesetzt wird. Es sei bemerkt, daß
der Wert der Bewertungsfunktion in diesem Fall ebenso eine
Tendenz entsprechend derjenigen der in Fig. 3 gezeigten
Funktion aufweist.
Zusätzlich läßt sich die Präzision beim Durchführen einer
Beurteilung des geöffneten oder geschlossenen Zustands des
Auges verbessern, indem der Wert einer Funktion als Wert der
Bewertungsfunktion eingesetzt wird, der durch eine der
Approximationslinien dargestellt ist, deren Gradient größer
als derjenige der anderen Approximationslinie ist.
Nun wird die Ausführungsform 2 der vorliegenden Erfindung
nachfolgend unter Bezug auf die Fig. 4 und 5 beschrieben. Die
Fig. 4 zeigt ein Diagramm zum Darstellen eines Verfahrens zum
Detektieren der geöffneten oder geschlossenen Zustände eines
Auges, das bei der Ausführungsform 2 der vorliegenden
Erfindung eingesetzt wird. Dieses Diagramm zeigt die
Beziehung zwischen dem Zeitablauf (ausgehend von einem
Zeitpunkt TA, in dem das Auge geöffnet ist, zu einem anderen
Zeitpunkt TC, in dem das Auge geschlossen ist, über einen
dazwischenliegenden Zwischenzeitpunkt TB), der sich während
des Zeitablaufs verändernden Binärbilder des Ortsbereichs des
Auges 8 und der Formfunktionen erster Ordnung (insbesondere
Oberschranken-Formfunktionen), bei denen jeweils die
Koordinaten der oberen Schranken der Binärbilder eingesetzt
werden, sowie von Approximationslinien, die Formfunktionen
zweiter Ordnung sind und anhand der Formfunktionen erster
Ordnung berechnet werden. Zusätzlich wird jede der
Oberschranken-Formfunktionen praktisch erhalten, indem der
Ortsbereich des Auges 8 in Aufwärtsrichtung entlang der Y-
Richtung gescannt wird und die schwarzen Pixel für jede der
X-Koordinaten gezählt werden, bis das letzte schwarze Pixel
erfaßt wird (es sei bemerkt, das "UF" den Zählwert
(insbesondere die Gesamtzahl) der schwarzen Pixel für jede
der X-Koordinaten darstellt).
Die Fig. 5 zeigt eine Veränderung des Werts K der
Bewertungsfunktion, der der Gradient der Approximationslinie
ist, die anhand der in Fig. 4 gezeigten Oberschranken-
Formfunktion berechnet wird.
In dem Fall, in dem ein Verfahren gemäß der Ausführungsform 2
der vorliegenden Erfindung eingesetzt wird, verändert sich
bei geöffnetem oder geschlossenem Auge die Oberschranken-
Formfunktion, wie im Fall des Einsatzes des Verfahrens der
Ausführungsform 1 der Erfindung.
Nun wird die Ausführungsform 3 der vorliegenden Erfindung
nachfolgend unter Bezug auf die Fig. 6 und 7 beschrieben. Die
Fig. 6 zeigt ein Diagramm zum Darstellen eines Verfahrens zum
Erfassen des geöffneten oder geschlossenen Zustands eines
Auges, das bei der Ausführungsform 3 der vorliegenden
Erfindung eingesetzt wird. Dieses Diagramm zeigt die
Beziehung zwischen dem Zeitablauf (ausgehend von einem
Zeitpunkt TA, in dem das Auge geöffnet ist, zu einem anderen
Zeitpunkt TC, in dem das Auge geschlossen ist, über einen
zwischen liegenden Zwischenzeitpunkt TB), den sich während
dieses Zeitablaufs verändernden Binärbildern des Ortsbereichs
des Auges 8, und der Formfunktionen erster Ordnung
(insbesondere der Y-Mittenort-Formfunktionen), bei denen
jeweils die Form eines sogenannten Y-Mittenorts eingesetzt
wird (insbesondere die Linie oder Kurve zum Verbinden der
Zentren der Schnittpunkte des Binärbilds des Auges mit
parallel zur Y-Achse verlaufenden Linien), und von
Approximationslinien, die anhand der Formfunktionen erster
Ordnung berechnete Formfunktionen zweiter Ordnung sind.
Zusätzlich wird jede der Y-Mittenort-Formfunktionen praktisch
erhalten, indem der Ortsbereich des Auges 8 entlang der Y-
Richtung aufwärts abgetastet wird und die Y-Koordinaten des
ersten und letzten schwarzen Pixels für jede der X-
Koordinaten gemessen wird und indem der Mittelwert oder
Durchschnitt der Y-Koordinaten des ersten und letzten Pixels
für jede der X-Koordinaten bestimmt wird (es sei bemerkt, daß
"CF" den Mittelwert oder Durchschnitt der Y-Koordinaten des
ersten und letzten schwarzen Pixels für jede der X-
Koordinaten darstellt).
Die Fig. 7 zeigt eine Veränderung des Werts K der
Bewertungsfunktion, die dem Gradienten der
Approximationslinie entspricht, der durch die in Fig. 6
gezeigte Y-Mittenort-Formfunktion berechnet wird.
Im Fall des Einsatzes eines Verfahrens der Ausführungsform 3
der vorliegenden Erfindung verändert sich bei geöffnetem oder
geschlossenem Auge die Y-Mittenort-Formfunktion, wie im Fall
des bei der Ausführungsform 1 von dieser eingesetzten
Verfahrens. Demnach läßt sich detektieren, ob das Auge
geöffnet oder geschlossen ist. Es sei angemerkt, daß das bei
der Ausführungsform 3 eingesetzte Verfahren demjenigen der
Ausführungsform 1 entspricht, mit der Ausnahme, daß der Y-
Mittenort anstelle der Formfunktion erster Ordnung eingesetzt
wird.
Nun wird eine Ausführungsform 4 der vorliegenden Erfindung
nachfolgend unter Bezug auf die Fig. 8 und 9 beschrieben. Die
Fig. 8 zeigt ein Diagramm zum Darstellen eines Verfahrens zum
Erfassen des geöffneten oder geschlossenen Zustands eines
Auges, das bei der Ausführungsform 4 der vorliegenden
Erfindung eingesetzt wird. Dieses Diagramm zeigt die
Beziehung zwischen dem Zeitablauf (ausgehend von einem
Zeitpunkt TA, in dem das Auge geöffnet ist, zu einem anderen
Zeitpunkt TC, in dem das Auge geschlossen ist, über einen
dazwischenliegenden Zwischenzeitpunkt TB), den sich während
des Zeitablaufs verändernden Binärbildern des Ortsbereichs
des Auges 8, und Y-Histogrammen, die Formfunktionen erster
Ordnung sind, gemäß den Binärbildern des Ortsbereichs des
Auges, sowie von Approximationslinien, die Formfunktionen
zweiter Ordnung sind und anhand der Formfunktionen erster
Ordnung berechnet werden.
Die Fig. 9 zeigt eine Veränderung des Werts K der
Bewertungsfunktion, der die Differenz der Gradienten der
beiden anhand des in Fig. 8 gezeigten Y-Histogramms
berechneten Approximationslinien darstellt.
Ferner sind die Linien 9 und 9′ Approximationslinien, die
durch Einsatz eines Verfahrens der kleinsten Quadrate
erhalten werden, als Abbildungen mit einer Form, die
ausreichend nahe an den Formen der festgelegten linken und
rechten Endabschnitte des Y-Histogramms liegen, die einen
Bereich der X-Koordinaten zwischen L (gemäß dem linken Ende
des Ortsbereichs des Auges 8) bis (L + 20) und einem anderen
Bereich der X-Koordinaten von R (gemäß dem rechten Ende des
Ortsbereichs des Auges 8) bis (20 - R) entspricht. In diesem
Fall bildet die Differenz zwischen den Gradienten der
Approximationslinien 9 und 9′, die durch Einsatz der
folgenden- Gleichung (2) ausgedrückt wird, den Wert K der
Bewertungsfunktion. Es sei bemerkt, daß ihn der Gleichung (2)
jede Summierung des ersten Halbteils oder Punkts der linken
Seite hiervon im Hinblick auf X für L bis (L + 20)
durchgeführt wird und jede Summation des zweiten Halbteils
oder Punkts der rechten Seite hiervon im Hinblick auf X für R
bis (20 - R) durchgeführt wird.
K = {20 Σ (XSUM) - Σ X Σ SUM}/{20 Σ (X²) - (Σ X)²}
- {20 Σ (XSUM) - Σ X Σ SUM}/{20 Σ (X²) - (Σ X)²} (2)
- {20 Σ (XSUM) - Σ X Σ SUM}/{20 Σ (X²) - (Σ X)²} (2)
Wie in Fig. 8 gezeigt ist, verändert sich dann, wenn das Auge
geöffnet oder geschlossen ist, die Form des Y-Histogramms. Im
Ergebnis ist in dem Zeitpunkt TC, in dem das Auge geschlossen
ist, der Wert K der Bewertungsfunktion niedrig. Demnach wird
ein Schwellwert KB festgelegt, und es kann detektiert werden,
ob das Auge geöffnet oder geschlossen ist.
In dem Fall des bei dieser Ausführungsform 4 eingesetzten
Verfahrens werden die Formen festgelegter Bereiche sowohl des
linken und rechten Endabschnitts zum Erhalten der
Bewertungsfunktion derart eingesetzt, daß die Veränderung des
Werts K der Bewertungsfunktion aufgrund der Neigung des
Gesichts eines Fahrers gering wird. Demnach weist diese
Ausführungsform den Vorteil oder eine Wirkung dahingehend
auf, daß genau erfaßt werden kann, ob das Auge geöffnet oder
geschlossen ist.
Weiterhin wird in ähnlicher Weise eine Approximationslinie 10
gemäß dem gesamten Auge erhalten. Demnach läßt sich die Höhe
eines durch die drei Approximationslinien 9, 9′ und 10
gebildeten Dreiecks, die jeweils den festgelegten Bereichen
des linken Endabschnitts, des rechten Endabschnitts und des
gesamten Auges entsprechen, als Wert der Bewertungsfunktion
einsetzen. Somit weist diese Ausführungsform Vorteile und
Wirkungen dahingehend auf, daß sich die Wahrscheinlichkeit
eines Auftretens einer fehlerhaften Detektion aufgrund eines
Schattens am Rand des Auges reduzieren läßt und daß sich die
Genauigkeit beim Bestimmen des geöffneten oder geschlossenen
Zustands des Auges weiter verbessern läßt.
Nun wird eine Ausführungsform 5 der vorliegenden Erfindung
nachfolgend unter Bezug auf die Fig. 10 und 11 beschrieben.
Die Fig. 10 zeigt ein Diagramm zum Darstellen eines
Verfahrens zum Detektieren des geöffneten oder geschlossenen
Zustands eines Auges, das durch die Ausführungsform 5 der
vorliegenden Erfindung eingesetzt wird. Dieses Diagramm zeigt
die Beziehung zwischen dem Zeitablauf (ausgehend von einem
Zeitpunkt TA, in dem das Auge geöffnet ist, zu einem anderen
Zeitpunkt TC, in dem das Auge geschlossen ist, über einen
zwischenliegenden Zwischenzeitpunkt TB), den sich während des
Zeitraums verändernden Binärbildern des Ortsbereichs des
Auges 8, der Formfunktionen erster Ordnung (insbesondere der
Oberschranken-Formfunktionen), jeweils unter Einsatz der
Koordinaten der oberen Schranken der Binärbilder, sowie von
Approximationslinien, die Formfunktionen zweiter Ordnung
darstellen, die auf der Grundlage der Formfunktionen erster
Ordnung berechnet werden.
Die Fig. 11 zeigt eine Veränderung des Werts K der
Bewertungsfunktion, der gleich der Differenz zwischen den
Gradienten der beiden Approximationslinien ist, die durch die
Berechnung aufgrund der in Fig. 10 gezeigten Oberschranken-
Formfunktion erhalten werden.
In dem Fall, in dem das bei der Ausführungsform 5 der
vorliegenden Erfindung eingesetzte Verfahren durchgeführt
wird, verändert sich bei geöffnetem oder geschlossenem Auge
die Oberschranken-Formfunktion, in ähnlicher Weise wie in dem
Fall des bei der Ausführungsform 4 eingesetzten Verfahrens.
Demnach läßt sich erfassen, ob das Auge geöffnet oder
geschlossen ist. Es sei bemerkt, daß das bei der
Ausführungsform 5 eingesetzte Verfahren dem bei der
Ausführungsform 4 eingesetzten entspricht, mit der Ausnahme,
daß die Oberschranke als Formfunktion erster Ordnung
eingesetzt wird.
Nun wird eine Ausführungsform 6 der vorliegenden Erfindung
nachfolgend unter Bezug auf die Fig. 12 und 13 beschrieben.
Die Fig. 12 zeigt ein Diagramm zum Darstellen eines
Verfahrens zum Detektieren des geöffneten oder geschlossenen
Zustands eines Auges, das bei der Ausführungsform 6 der
vorliegenden Erfindung eingesetzt wird. Diese Figur zeigt die
Beziehung zwischen dem Zeitablauf (ausgehend von einem
Zeitpunkt TA, in dem das Auge geöffnet ist, zu einem anderen
Zeitpunkt TC, in dem das Auge geschlossen ist, über einen
zwischenliegenden Zwischenzeitpunkt TB), den sich während dem
Zeitraum verändernden Binärbildern des Ortsbereichs des Auges
8, und von Formfunktionen erster Ordnung (insbesondere Y-
Mittenort-Formfunktionen), jeweils unter Einsatz der Form,
die als Y-Mittenort bezeichnet wird, sowie von
Approximationslinien, die Formfunktionen zweiter Ordnung
sind, die auf Grundlage der Formfunktionen erster Ordnung
berechnet werden.
Die Fig. 13 zeigt eine Veränderung des Werts K der
Bewertungsfunktion, der die Differenz zwischen den Gradienten
der beiden Approximationslinien ist, die durch die Berechnung
auf Grundlage der in Fig. 12 gezeigten Y-Mittenort-
Formfunktionen erhalten werden.
In dem Fall, in dem das bei der Ausführungsform 6 der
vorliegenden Erfindung eingesetzte Verfahren durchgeführt
wird, verändert sich dann, wenn das Auge geöffnet oder
geschlossen ist, die Y-Mittenort-Formfunktion, in ähnlicher
Weise wie in dem Fall des bei der Ausführungsform 4
eingesetzten Verfahrens. Demnach läßt sich erfassen, ob das
Auge geöffnet oder geschlossen ist. Es sei bemerkt, daß das
bei der Ausführungsform 6 eingesetzte Verfahren ähnlich zu
dem bei der Ausführungsform 4 eingesetzten ist, mit der
Ausnahme, daß der Y-Mittenort als Formfunktion erster Ordnung
eingesetzt wird.
Nun wird eine Ausführungsform 7 der vorliegenden Erfindung
nachfolgend unter Bezug auf die Fig. 14 und 15 beschrieben.
Die Fig. 14 zeigt ein Diagramm zum Darstellen eines
Verfahrens zum Detektieren des geöffneten oder geschlossenen
Zustands eines Auges, das bei der Ausführungsform 4 der
vorliegenden Erfindung eingesetzt wird. Dieses Diagramm zeigt
die Beziehung zwischen dem Zeitablauf (ausgehend von einem
Zeitpunkt TA, in dem das Auge geöffnet ist, zu einem anderen
Zeitpunkt TC, in dem das Auge geschlossen ist, über einen
zwischenliegenden Zeitpunkt TB), den sich während dem
Zeitraum ändernden Binärbildern des Ortsbereichs des Auges 8,
und den Y-Histogrammen, die Formfunktionen erster Ordnung
gemäß den Binärbildern des Ortsbereichs des Auges 8 sind,
sowie von Approximationslinien, die auf Grundlage der
Formfunktionen erster Ordnung berechnete Formfunktionen
zweiter Ordnung sind.
Die Fig. 15 zeigt eine Veränderung des Werts K der
Bewertungsfunktion, der die Differenz zwischen den Gradienten
der beiden Approximationslinien ist, die auf der Grundlage
der in Fig. 14 gezeigten Y-Histrogramme berechnet werden.
Ferner sind die Linien 9 und 9′′ Approximationslinien, die
durch Einsatz eines Verfahrens der kleinsten Quadrate als
Abbildungen erhalten werden, deren Formen ausreichend nahe an
den Formen festgelegter Teile der Y-Histogramme liegen
(insbesondere einem Bereich der X-Koordinaten von LL bis (LL
+ 20) und einem anderen Bereich der X-Koordinaten von RR
(entsprechend dem rechten Endabschnitt des Ortsbereichs des
Auges 8) bis (20 - RR), die den äußeren Endabschnitten sowohl
des linken als auch des rechten Auges entsprechen. In diesem
Fall ist die Differenz zwischen den Gradienten der
Approximationslinien 9 und 9′′ der Wert K der
Bewertungsfunktion.
Wie in Fig. 14 gezeigt ist, ändert sich dann, wenn das Auge
geöffnet oder geschlossen ist, die Form des Y-Histogramms.
Hierdurch ist in dem Zeitpunkt TC, in dem das Auge
geschlossen ist, der Wert K der Bewertungsfunktion niedrig,
wie in Fig. 15 gezeigt ist. Demnach wird ein Schwellwert KB
festgelegt, und es läßt sich erfassen, ob das Auge geöffnet
oder geschlossen ist.
Ferner werden in diesem Fall die Formen festgelegter Bereiche
der äußeren Endabschnitte jeweils gemäß dem linken und
rechten Auge zum Erhalten der Bewertungsfunktion eingesetzt.
Jedoch läßt sich, obgleich das Vorzeichen der Funktion
umgekehrt ist, eine ähnliche Wirkung in dem Fall erzielen, in
dem die Formen der festgelegten Bereiche der inneren
Endabschnitte des linken und rechten Auges benützt werden.
In dem Fall des bei dieser Ausführungsform 7 eingesetzten
Verfahrens werden die symmetrischen Formen festgelegter
Bereiche sowohl dem linken als auch des rechten Endabschnitts
zum Erhalten der Bewertungsfunktion derart benützt, daß die
Veränderung des Werts K der Bewertungsfunktion aufgrund der
Neigung des Gesichts eines Fahrers gering wird. Demnach weist
diese Ausführungsform Vorteile und Wirkungen dahingehend auf,
daß sich fehlerhafte Detektionen aufgrund einer Form am Rand
des Auges reduzieren lassen und daß sich genau erfassen läßt,
ob das Auge geöffnet oder geschlossen ist.
Weiterhin weist in dem Fall, daß Bewertungsfunktionen jeweils
gemäß den festgelegten Bereichen der äußeren Endabschnitte
des linken und rechten Auges und den festgelegten Bereichen
der inneren Endabschnitte des linken und rechten Auges
berechnet werden und daß eine dieser Bewertungsfunktionen,
die sich während des Zeitablaufs stärker als die andere
Bewertungsfunktion verändert, eingesetzt wird, diese
Ausführungsform einen Vorteil dahingehend auf, daß sich die
Genauigkeit bei der Beurteilung der geöffneten oder
geschlossenen Zustände des Auges weiter verbessern läßt.
Nun wird eine Ausführungsform 8 der vorliegenden Erfindung
nachfolgend unter Bezug auf die Fig. 16 und 17 beschrieben.
Die Fig. 16 zeigt ein Diagramm zum Darstellen eines
Verfahrens zum Detektieren des geöffneten oder geschlossenen
Zustands eines Auges, das bei der Ausführungsform 8 der
vorliegenden Erfindung eingesetzt wird. Dieses Diagramm zeigt
die Beziehung zwischen dem Zeitablauf (ausgehend von einem
Zeitpunkt TA, in dem das Auge geöffnet ist, bis zu einem
anderen Zeitpunkt TC, in dem das Auge geschlossen ist, über
einen dazwischenliegenden Zwischenzeitpunkt TB), den sich
während dem Zeitraum verändernden Binärbildern des
Ortsbereichs des Auges 8, und Formfunktionen erster Ordnung
(insbesondere Oberschranken-Formfunktionen), jeweils unter
Einsatz der Koordinaten der Oberschranken der Binärbilder,
sowie von Approximationslinien, die als Formfunktionen
zweiter Ordnung auf der Grundlage der Formfunktionen erster
Ordnung berechnet werden.
Die Fig. 17 zeigt eine Veränderung des Werts K der
Bewertungsfunktion, der die Differenz zwischen den Gradienten
der beiden Approximationslinien ist, die durch die Berechnung
auf der Grundlage der in Fig. 16 gezeigten Oberschranken-
Formfunktion erhalten werden.
In dem Fall, in dem das bei der Ausführungsform 8 der
vorliegenden Erfindung eingesetzte Verfahren durchgeführt
wird, verändert sich bei geöffnetem oder geschlossenem Auge
die Oberschranken-Formfunktion, in ähnlicher Weise wie in dem
Fall des in der Ausführungsform 7 eingesetzten Verfahrens.
Demnach kann erfaßt werden, ob das Auge geöffnet oder
geschlossen ist.
Nun wird eine Ausführungsform 9 der vorliegenden Erfindung
nachfolgend unter Bezug auf die Fig. 18 und 19 beschrieben.
Die Fig. 18 zeigt ein Diagramm zum Darstellen eines
Verfahrens zum Detektieren des geöffneten oder geschlossenen
Zustands eines Auges, das durch die Ausführungsform 9 der
vorliegenden Erfindung eingesetzt wird. Diese Figur zeigt die
Beziehung zwischen dem Zeitablauf (ausgehend von einem
Zeitpunkt TA, in dem das Auge geöffnet ist, zu einem anderen
Zeitpunkt TC, in dem das Auge geschlossen ist, über einen
dazwischenliegenden Zwischenzeitpunkt TB), den sich während
des Zeitraums verändernden Binärbildern des Ortsbereichs des
Auges 8, und Formfunktionen erster Ordnung (insbesondere Y-
Mittenort-Formfunktionen), jeweils unter Einsatz der Form
dessen, was als Y-Mittenort bezeichnet wird, sowie von
Approximationslinien, die aus den Formfunktionen erster
Ordnung berechnete Formfunktionen zweiter Ordnung sind.
Fig. 19 zeigt eine Veränderung des Werts K der
Bewertungsfunktion, der die Differenz zwischen den Gradienten
der beiden Approximationslinien ist, die durch die Berechnung
auf der Grundlage der in Fig. 18 gezeigten Y-Mittenort-
Formfunktionen erhalten werden.
In dem Fall, in dem das durch die Ausführungsform 9 der
vorliegenden Erfindung eingesetzte Verfahren durchgeführt
wird, verändert sich bei geöffnetem oder geschlossenem Auge
die Y-Mittenort-Formfunktion, in ähnlicher Weise wie in dem
bei der Ausführungsform 7 durchgeführten Verfahren. Demnach
kann erfaßt werden, ob das Auge geöffnet oder geschlossen
ist.
Nun wird eine Ausführungsform 10 der vorliegenden Erfindung
nachfolgend unter Bezug auf die Fig. 20 und 21 beschrieben.
Die Fig. 20 zeigt ein Diagramm zum Darstellen eines
Verfahrens zum Detektieren des geöffneten oder geschlossenen
Zustands eines Auges, das durch die Ausführungsform 10 der
vorliegenden Erfindung eingesetzt wird. Dieses Diagramm zeigt
die Beziehung zwischen dem Zeitablauf (ausgehend von einem
Zeitpunkt TA, in dem das Auge geöffnet ist, zu einem anderen
Zeitpunkt TC, in dem das Auge geschlossen ist, über einen
dazwischenliegenden Zwischenzeitpunkt TB), den sich während
dem Zeitablauf verändernden Binärbildern des Ortsbereichs des
Auges, und der Y-Histogramme, die Formfunktionen erster
Ordnung gemäß den Binärbildern des Ortsbereichs des Auges 18
sind.
Die Fig. 21 zeigt eine Veränderung des Werts K der
Bewertungsfunktion, der der Differenz zwischen den beiden auf
der Grundlage der in Fig. 20 gezeigten Y-Histrogrammen
berechneten Mittelwerten oder Durchschnittswerten entspricht.
Im Fall dieser Ausführungsform 10 ist die Differenz zwischen
dem Mittelwert oder Durchschnittswert von Zählwerten der Wert
K der Bewertungsfunktion, die durch die folgende Gleichung
(3) gegeben ist, und zwar der für einen Teil des Y-
Histogramms gezeigten Zählwerte (SUM), der dem
Mittenabschnitt des Auges entspricht (insbesondere dem
Bereich der X-Koordinaten von (C - 5) bis (C + 5)), und der
für einen anderen Teil des Y-Historgramms gezeigten
Zählwerte, der dem linken Endabschnitt des Auges entspricht
(insbesondere dem Bereich der X-Koordinaten von L bis (L +
10)). Es sei bemerkt, daß in der Gleichung (3) jede
Summierung des ersten Halbteils oder -punkts von dessen
linken Seite im Hinblick auf X zwischen (C - 5) bis (C + 5)
durchgeführt wird und jede Summierung des zweiten Halbteils
oder -punkts der rechten Seite hiervon im Hinblick auf X von
L bis (L + 10) durchgeführt wird.
K = (Σ SUM)/10 - (Σ SUM)/10 (3)
Wie in Fig. 20 gezeigt ist, verändert sich bei geöffnetem
oder geschlossenem Auge die Form des Y-Histogramms. Im
Ergebnis ist dann, wenn das Auge geschlossen ist, der Wert K
der Bewertungsfunktion niedrig. Demnach wird ein Schwellwert
KB festgelegt, und es kann erfaßt werden, ob das Auge
geöffnet oder geschlossen ist.
Ferner wird im Fall dieser Ausführungsform der Mittelwert
oder Durchschnittswert der Zählwerte SUM in dem Teil des Y-
Histogramms, der dem linken Endabschnitt des Auges
entspricht, zum Erhalten der Bewertungsfunktion eingesetzt.
Jedoch lassen sich ähnliche Wirkungen in dem Fall erzielen,
daß der Mittelwert der Zählwerte SW in dem Teil des Y-
Histogramms zum Erhalten der Bewertungsfunktion eingesetzt
wird, der dem rechten Endabschnitt des Auges entspricht.
Nun wird eine Ausführungsform 11 der vorliegenden Erfindung
nachstehend unter Bezug auf die Fig. 22 und 23 beschrieben.
Die Fig. 22 zeigt ein Diagramm zum Darstellen eines
Verfahrens zum Detektieren des geöffneten oder geschlossenen
Zustands eines Auges, das durch die Ausführungsform 11 der
vorliegenden Erfindung eingesetzt wird. Diese Figur zeigt die
Beziehung zwischen dem Zeitablauf (ausgehend von einem
Zeitpunkt TA, in dem das Auge geöffnet ist, zu einem anderen
Zeitpunkt TC, in dem das Auge geschlossen ist, über einen
zwischenliegenden Zwischenzeitpunkt TB), den sich während des
Zeitraums verändernden Binärbildern des Ortsbereichs des
Auges 8, sowie von Formfunktionen (insbesondere
Oberschranken-Formfunktionen), die jeweils die Koordinaten
der Oberschranken der Binärbilder benützen.
Die Fig. 23 zeigt eine Veränderung des Werts K der
Bewertungsfunktion,, der die Differenz zwischen den beiden
Mittelwerten oder Durchschnittswerten ist, die durch die
Berechnung auf der Grundlage der in Fig. 22 gezeigten
Oberschranken-Formfunktion erhalten werden.
In dem Fall, in dem das durch diese Ausführungsform 11 der
vorliegenden Erfindung eingesetzte Verfahren durchgeführt
wird, verändert sich bei geöffnetem oder geschlossenem Auge
die Oberschranken-Formfunktion, in ähnlicher Weise wie in dem
Fall des Verfahrens, das durch die Ausführungsform 10
eingesetzt wird. Demnach läßt sich erfassen, ob das Auge
geöffnet oder geschlossen ist.
Nun wird eine Ausführungsform 12 der vorliegenden Erfindung
nachfolgend unter Bezug auf die Fig. 24 und 25 beschrieben.
Die Fig. 24 zeigt ein Diagramm zum Darstellen eines
Verfahrens zum Detektieren des geöffneten oder geschlossenen
Zustands eines Auges, das durch die Ausführungsform 12 der
vorliegenden Erfindung eingesetzt wird. Diese Figur zeigt die
Beziehung zwischen dem Zeitablauf (ausgehend von einem
Zeitpunkt TA, in dem das Auge geöffnet ist, zu einem anderen
Zeitpunkt TC, in dem das Auge geschlossen ist, über einen
zwischenliegenden Zwischenzeitpunkt TB), den sich während des
Zeitraums verändernden Binärbildern des Ortsbereichs des
Auges 8, und von Formfunktionen (insbesondere Y-Mittenort-
Formfunktionen), die jeweils die Form dessen benützen, was
als Y-Mittenort bezeichnet wird.
Die Fig. 25 zeigt eine Veränderung des Werts K der
Bewertungsfunktion, der der Differenz zwischen den beiden
Mittenwerten oder Durchschnittswerten entspricht, die durch
die Berechnung auf Grundlage der in Fig. 24 gezeigten Y-
Mittenort-Formfunktionen erhalten werden.
In dem Fall, in dem das durch die Ausführungsform 12 der
vorliegenden Erfindung eingesetzte Verfahren durchgeführt
wird, ändert sich bei geöffnetem oder geschlossenem Auge die
Y-Mittenort-Formfunktion, in ähnlicher Weise wie bei dem
durch die Ausführungsform 10 eingesetzten Verfahren. Demnach
kann erfaßt werden, ob das Auge geöffnet oder geschlossen
ist.
Nun wird eine Ausführungsform 13 der vorliegenden Erfindung
nachfolgend unter Bezug auf die Fig. 26 und 27 beschrieben.
Die Fig. 26 zeigt ein Diagramm zum Darstellen eines
Verfahrens zum Detektieren des geöffneten oder geschlossenen
Zustands eines Auges, das durch die Ausführungsform 13 der
vorliegenden Erfindung eingesetzt wird. Dieses Diagramm zeigt
die Beziehung zwischen dem Zeitablauf (ausgehend von einem
Zeitpunkt TA, in dem das Auge geöffnet ist, zu einem anderen
Zeitpunkt TC, in dem das Auge geschlossen ist, über einen
zwischenliegenden Zwischenzeitpunkt TB), den sich während
dieses Zeitraums verändernden Binärbildern des Ortsbereichs
des Auges 8, sowie von Y-Histogrammen, die jeweils den
Binärbildern entsprechen.
Die Fig. 27 zeigt eine Veränderung des Werts K der
Bewertungsfunktion, der der Differenz zwischen den beiden
Mittelwerten oder Durchschnittswerten entspricht, die auf der
Grundlage der in Fig. 26 gezeigten Y-Histogrammen berechnet
werden.
Im Fall dieser Ausführungsform 13 ergibt sich der Wert K der
Bewertungsfunktion, die durch die nachfolgende Gleichung (4)
gegeben ist, als Differenz zwischen dem Mittelwert oder
Durchschnittswert der Zählwerte (SUM) für einen Teil des Y-
Histogramms, der dem Mittenabschnitt des Auges entspricht
(insbesondere dem Bereich der X-Koordinaten von (C - 5) bis
(C + 5)), und demjenigen der Zählwerte von einem anderen Teil
der Y-Histogramme, der dem linken und rechten Endabschnitt
des Auges entspricht (insbesondere dem Bereich der X-
Koordinaten von L bis (L + 10) und dem Bereich der X-
Koordinaten von (R - 10) bis R. Es sei bemerkt, daß in der
Gleichung (4) die Summierung für den ersten Anteil für die
linke Seite im Hinblick auf X zwischen (C - 5) bis (C + 5)
durchgeführt wird und die zweite Summation (insbesondere die
linksseitige Summierung des zweiten Anteils) für deren
rechten Seite im Hinblick auf X von L bis (L + 10)
durchgeführt wird und die dritte Summierung (insbesondere die
rechtzeitige Summierung des zweiten Anteils) der rechten
Seite hiervon im Hinblick auf X von (R - 10) bis R
durchgeführt wird.
K = (Σ SUM)/10 - (Σ SUM + Σ SUM)/20 (4)
Wie in Fig. 26 gezeigt ist, verändert sich bei geöffnetem
oder geschlossenem Auge das Y-Histogramm. Im Ergebnis ist bei
geschlossenem Auge der Wert K der Bewertungsfunktion niedrig,
wie in Fig. 27 gezeigt ist. Demnach wird ein Schwellwert KB
festgelegt, und es kann erfaßt werden, ob das Auge geöffnet
oder geschlossen ist.
Nun wird eine Ausführungsform 14 der vorliegenden Erfindung
nachfolgend unter Bezug auf die Fig. 28 und 29 beschrieben.
Die Fig. 28 zeigt ein Diagramm zum Darstellen eines
Verfahrens zum Detektieren des geöffneten oder geschlossenen
Zustands eines Auges, das durch die Ausführungsform 14 der
vorliegenden Erfindung eingesetzt wird. Diese Figur zeigt die
Beziehung zwischen dem Zeitablauf (ausgehend von einem
Zeitpunkt TA, in dem das Auge geöffnet ist, bis zu einem
anderen Zeitpunkt TC, in dem das Auge geschlossen ist, über
einen zwischenliegenden Zwischenzeitpunkt TB), der sich
während des Zeitraums verändernden Binärbilder des
Ortsbereichs des Auges 8, und von Formfunktionen
(insbesondere Oberschranken-Formfunktionen), jeweils unter
Einsatz der Koordinaten der Oberschranken der Binärbilder.
Die Fig. 29 zeigt eine Veränderung des Werts K der
Bewertungsfunktion, der der Differenz zwischen den beiden
Mittenwerten oder Durchschnittswerten entspricht, die durch
die Berechnung auf Grundlage der in Fig. 28 gezeigten
Oberschranken-Formfunktionen erhalten werden.
In dem Fall, in dem das bei dieser Ausführungsform 14 der
vorliegenden Erfindung eingesetzte Verfahren durchgeführt
wird, verändert sich bei geöffnetem oder geschlossenem Auge
die Oberschranken-Formfunktion, in ähnlicher Weise wie in dem
Fall des bei der Ausführungsform 13 durchgeführten
Verfahrens. Demnach kann erfaßt werden, ob das Auge geöffnet
oder geschlossen ist.
Nun wird eine Ausführungsform 15 der vorliegenden Erfindung
nachfolgend unter Bezug auf die Fig. 30 und 31 beschrieben.
Die Fig. 30 zeigt ein Diagramm zum Darstellen eines
Verfahrens zum Detektieren eines geöffneten oder
geschlossenen Zustands eines Auges, das durch die
Ausführungsform 15 der vorliegenden Erfindung eingesetzt
wird. Diese Figur zeigt die Beziehung zwischen dem Zeitablauf
(ausgehend von einem Zeitpunkt TA, in dem das Auge geöffnet
ist, bis zu einem anderen Zeitpunkt TC, in dem das Auge
geschlossen ist, über einen dazwischenliegenden
Zwischenzeitpunkt TB), der sich während des Zeitraums
verändernden Binärbilder des Ortsbereichs des Auges 8, und
Formfunktionen (insbesondere Y-Mittenort-Formfunktionen),
jeweils unter Einsatz der Form dessen, was als Y-Mittenort
bezeichnet wird.
Die Fig. 31 zeigt eine Veränderung des Werts K der
Bewertungsfunktion, der der Differenz zwischen den beiden
Mittenwerten und Durchschnittswerten entspricht, die durch
die Berechnung auf der Grundlage der in Fig. 30 gezeigten Y-
Mittenort-Formfunktionen erhalten werden.
In dem Fall, in dem das durch die Ausführungsform 15 der
vorliegenden Erfindung eingesetzte Verfahren durchgeführt
wird, verändert sich dann, wenn das Auge geöffnet oder
geschlossen ist, die Y-Mittenort-Formfunktion, in ähnlicher
Weise, wie bei dem in der Ausführungsform 13 eingesetzten
Verfahren. Demnach kann erfaßt werden, ob das Auge geöffnet
oder geschlossen ist.
Nun wird eine Ausführungsform 16 der vorliegenden Erfindung
nachfolgend unter Bezug auf die Fig. 32 und 33 beschrieben.
Die Fig. 32 zeigt ein Diagramm zum Darstellen eines
Verfahrens zum Detektieren des geöffneten oder geschlossenen
Zustands eines Auges, das durch die Ausführungsform 16 der
vorliegenden Erfindung eingesetzt wird. Dieses Diagramm zeigt
die Beziehung zwischen dem Zeitablauf (ausgehend von einem
Zeitpunkt TA, in dem das Auge geöffnet ist, bis zu einem
anderen Zeitpunkt TC, in dem das Auge geschlossen ist, über
einen zwischenliegenden Zwischenzeitpunkt TB), der sich
während dieses Zeitraums verändernden Binärbilder des
Ortsbereichs des Auges 8, und von Y-Histogrammen, die jeweils
den Binärbildern zugeordnet sind.
Die Fig. 33 zeigt eine Veränderung des Werts K der
Bewertungsfunktion, der der Differenz zwischen den beiden
Mittenwerten oder Durchschnittswerten entspricht, die auf der
Grundlage der in Fig. 32 gezeigten Y-Histrogramme berechnet
werden.
In dem Fall dieser Ausführungsform 16 entspricht die
Differenz zwischen dem Mittenwert oder dem Durchschnittswert
der Summenwerte (SUM) für die beiden Teile der Y-Histogramme,
die jeweils den Mittenabschnitten des linken und rechten
Auges zugeordnet sind (insbesondere gemäß den Bereichen der
X-Koordinaten von ((LC - 5) bis (LC + 5) und (RC - 5) bis (RC
+ 5)), und den Summenwerten für die anderen beiden Teile der
Y-Histogramme gemäß den äußeren Endabschnitten (insbesondere
dem linken und rechten Endabschnitt) beider Augen
(insbesondere gemäß den Bereichen der X-Koordinaten von LL
bis (LL + 10) und dem Bereich der X-Koordinaten von (RR - 10)
bis RR) dem Wert K der Bewertungsfunktion, die durch die
nachfolgende Gleichung (5) gegeben ist. Es sei bemerkt, daß
in der Gleichung (5) der erste oder linksseitige Summenwert
des ersten Anteils der linken Seite hiervon im Hinblick auf X
von (LC - 5) bis (LC + 5) bestimmt wird und der zweite
rechtsseitige Summenwert des ersten Anteils der linken Seite
hiervon im Hinblick auf X von (RC - 5) bis (RC + 5) bestimmt
wird und der dritte Summenwert (insbesondere der linksseitige
Summenwert des zweiten Anteils) der rechten Seite hiervon im
Hinblick auf X von LL bis (LL + 10) bestimmt wird und der
vierte Summenwert (insbesondere der rechtsseitige Summenwert
des zweiten Anteils) der rechten Seite hiervon im Hinblick
auf X von (RR - 10) bis RR bestimmt wird.
K = (Σ SUM + Σ SUM)/20 - (Σ SUM + Σ SUM)/20 (5)
Wie in Fig. 32 gezeigt ist, verändert sich bei geöffnetem
oder geschlossenem Auge die Form des Y-Histogramms. Im
Ergebnis ist bei geschlossenem Auge der Wert K der
Bewertungsfunktion niedrig, wie in Fig. 33 gezeigt ist.
Deshalb wird ein Schwellwert zu KB festgelegt, und es kann
erfaßt werden, ob das Auge geöffnet oder geschlossen ist.
Ferner wird im Fall dieser Ausführungsform der Durchschnitt
der Zählwerte für die Y-Histogramme des festgelegten Bereichs
entsprechend den äußeren Endabschnitten beider Augen zum
Erhalten des Werts der Bewertungsfunktion eingesetzt. Jedoch
lassen sich ähnliche Wirkungen in dem Fall erzielen, in dem
der Durchschnitt der Zählwerte für die Y-Histogramme in dem
festgelegten Bereich gemäß den inneren Endabschnitten beider
Augen eingesetzt wird.
Nun wird eine Ausführungsform 17 der folgenden Erfindung
nachfolgend unter Bezug auf die Fig. 34 und 35 beschrieben.
Die Fig. 34 zeigt bin Diagramm zum Darstellen eines
Verfahrens zum Detektieren des geöffneten oder geschlossenen
Zustands eines Auges, das durch die Ausführungsform 14 (17)
der vorliegenden Erfindung eingesetzt wird. Diese Figur zeigt
die Beziehung zwischen dem Zeitablauf (ausgehend von einem
Zeitpunkt TA, in dem das Auge geöffnet ist, bis zu einem
anderen Zeitpunkt TC, in dem das Auge geschlossen ist, über
einen zwischenliegenden Zwischenzeitpunkt TB), der sich
während dieses Zeitraums verändernden Binärbilder des
Ortsbereichs des Auges 8, sowie von Formfunktionen
(insbesondere Oberschranken-Formfunktionen), jeweils unter
Einsatz der Koordinaten der Oberschranken der Binärbilder.
Die Fig. 35 zeigt eine Veränderung des Werts K der
Bewertungsfunktion, der der Differenz zwischen den beiden
Mittenwerten oder Durchschnittswerten entspricht, die durch
die Berechnung auf der Grundlage der in Fig. 34 gezeigten
Oberschranken-Formfunktion erhalten werden.
In dem Fall, in dem das durch die Ausführungsform 17 der
vorliegenden Erfindung eingesetzte Verfahren durchgeführt
wird, ändert sich bei geöffnetem oder geschlossenem Auge die
Oberschranken-Formfunktion in ähnlicher Weise wie bei dem
durch die Ausführungsform 16 eingesetzten Verfahren. Demnach
kann festgestellt werden, ob das Auge geöffnet oder
geschlossen ist.
Nun wird eine Ausführungsform 18 der vorliegenden Erfindung
nachfolgend unter Bezug auf die Fig. 36 und 37 beschrieben.
Die Fig. 36 zeigt ein Diagramm zum Darstellen eines
Verfahrens zum Detektieren des geöffneten oder geschlossenen
Zustands eines Auges, das durch die Ausführungsform 18 der
vorliegenden Erfindung eingesetzt wird. Diese Figur zeigt die
Beziehung zwischen dem Zeitablauf (ausgehend von einem
Zeitpunkt TA, in dem das Auge geöffnet ist, bis zu einem
anderen Zeitpunkt TC, in dem das Auge geschlossen ist, über
einen zwischenliegenden Zwischenzeitpunkt TB), der sich
während dieses Zeitraums verändernden Binärbilder des
Ortsbereichs des Auges 8, und von Formfunktionen
(insbesondere Y-Mittenort-Formfunktionen), jeweils unter
Einsatz der Form dessen, was als Y-Mittenort bezeichnet wird.
Die Fig. 37 zeigt eine Veränderung des Werts K der
Bewertungsfunktion, der der Differenz zwischen den beiden
Mittenwerten oder Durchschnittswerten entspricht, die durch
die Berechnung auf der Grundlage der in Fig. 37 gezeigten Y-
Mittenort-Formfunktionen erhalten werden.
In dem Fall, in dem das durch die Ausführungsform 18 der
vorliegenden Erfindung eingesetzte Verfahren durchgeführt
wird, ändert sich bei geöffnetem oder geschlossenem Auge die
Y-Mittenort-Formfunktion, in ähnlicher Weise, wie bei dem in
der Ausführungsform 16 eingesetzten Verfahren. Demnach kann
festgestellt werden, ob das Auge geöffnet oder geschlossen
ist.
Nun wird eine Ausführungsform 19 der vorliegenden Erfindung
nachfolgend unter Bezug auf die Fig. 38 und 39 beschrieben.
Die Fig. 38 zeigt ein Diagramm zum Darstellen eines
Verfahrens zum Detektieren eines geöffneten oder
geschlossenen Zustands eines Auges, das durch die
Ausführungsform 19 der vorliegenden Erfindung eingesetzt
wird. Dieses Diagramm zeigt die Beziehung zwischen dem
Zeitablauf (ausgehend von einem Zeitpunkt TA, in dem das Auge
geöffnet ist, bis zu einem anderen Zeitpunkt TC, in dem das
Auge geschlossen ist), der sich während dieses Zeitraums
verändernden Binärbilder des Ortsbereichs des Auges 8, sowie
von Y-Histogrammen, die Formfunktionen erster Ordnung sind,
gemäß den Binärbildern des Ortsbereichs des Auges 8, und von
Häufigkeitsverteilungskurven, die Formfunktionen zweiter
Ordnung sind und auf der Grundlage der Formfunktionen erster
Ordnung berechnet werden und jeweils die Häufigkeitsanteile A
der Summenwerte (SUM) darstellen.
Die Fig. 39 zeigt eine Veränderung des Werts K der
Bewertungsfunktion, die durch Ausführen von Berechnungen auf
Grundlage der in Fig. 38 gezeigten
Häufigkeitsverteilungskurven erhalten wird.
Ferner wird im Fall dieser Ausführungsform 19 der Wert K der
Bewertungsfunktion durch die folgende Gleichung (6) erhalten,
in der "MAX" dem Maximalwert der in den
Häufigkeitsverteilungskurven gezeigten kumulierten Häufigkeit
darstellt, und "POS" kennzeichnet den Wert des Exponenten J
in dem Zeitpunkt, wenn die kumulierte Häufigkeit den
Maximalwert "MAX" aufweist. Dieser Wert K zeigt den Umfang
der Zentrierung des Y-Histogramms an. Es sei bemerkt, daß bei
der Gleichung (6) die Summierung der rechten Seite hiervon im
Hinblick auf die kumulierte Häufigkeit (insbesondere der
Zählwert) von 0 bis zu dem Maximalwert erfolgt.
K = MAX/Σ {A(Pos-J) (6)
Wie in Fig. 38 gezeigt ist, verändert sich bei geöffnetem
oder geschlossenem Auge die Form der
Häufigkeitsverteilungskurve. Im Ergebnis ist, wie in Fig. 39
gezeigt ist, bei geschlossenem Auge der Wert K der
Bewertungsfunktion hoch. Demnach wird ein Schwellwert zu KB
festgelegt, und es kann erfaßt werden, ob das Auge geöffnet
oder geschlossen ist.
Nun wird eine Ausführungsform 20 der vorliegenden Erfindung
nachfolgend unter Bezug auf die Fig. 40 und 41 beschrieben.
Die Fig. 40 zeigt ein Diagramm zum Darstellen eines
Verfahrens zum Detektieren des geöffneten oder geschlossenen
Zustands eines Auges, das durch die Ausführungsform 20 der
vorliegenden Erfindung eingesetzt wird. Dieses Diagramm zeigt
die Beziehung zwischen dem Zeitablauf (ausgehend von einem
Zeitpunkt TA, in dem das Auge geöffnet ist, bis zu einem
anderen Zeitpunkt TC, in dem das Auge geschlossen ist), der
sich während dieses Zeitraums verändernden Binärbilder des
Ortsbereichs des Auges 8, und von Formfunktionen erster
Ordnung (insbesondere der Oberschranken-Formfunktionen), die
die (Y-)Koordinaten der Oberschranken der Binärbilder in dem
Ortsbereich des Auges 8 benützten, sowie von
Häufigkeitsverteilungskurven, die Formfunktionen zweiter
Ordnung sind und auf der Grundlage der Formfunktionen erster
Ordnung berechnet werden und hierbei die Häufigkeitsanteile A
der Werte (UF) der Oberschrankenfunktionen darstellen.
Die Fig. 41 zeigt eine Veränderung des Werts K der
Bewertungsfunktion, der durch Durchführen von Berechnungen
auf der Grundlage der in Fig. 40 gezeigten
Häufigkeitsverteilungskurven erhalten wird.
Ferner ändert sich in dem Fall, in dem das durch diese
Ausführungsform 20 eingesetzte Verfahren durchgeführt wird,
bei geöffnetem oder geschlossenem Auge die Form der
Häufigkeitsverteilungskurven, in ähnlicher Weise, wie in dem
Fall der zuvor erläuterten Ausführungsform 19. Demnach kann
festgestellt werden, ob das Auge geöffnet oder geschlossen
ist.
Nun wird eine Ausführungsform 21 der vorliegenden Erfindung
nachfolgend unter Bezug auf die Fig. 42 und 43 beschrieben.
Fig. 42 zeigt ein Diagramm zum Darstellen eines Verfahrens
zum Detektieren des geöffneten oder geschlossenen Zustands
eines Auges, das durch diese Ausführungsform 21 der
vorliegenden Erfindung eingesetzt wird. Dieses Diagramm zeigt
die Beziehung zwischen dem Zeitablauf (ausgehend von einem
Zeitpunkt TA, in dem das Auge geöffnet ist, bis zu einem
Zeitpunkt TC, in dem das Auge geschlossen ist), der sich
während dieses Zeitraums verändernden Binärbilder der
Ortsbereiche des Auges 8, und der Formfunktionen erster
Ordnung (insbesondere der Y-Mittenordnung-Formfunktionen),
die die Form der Y-Mittenlinien (oder -kurven) der
Binärbilder benützen, und von Häufigkeitsverteilungskurven,
die Formfunktionen zweiter Ordnung sind und auf der Grundlage
der Formfunktionen erster Ordnung berechnet werden und
jeweils die Häufigkeitsverteilung A der Werte (CF) der Y-
Mittenort-Formfunktionen darstellen.
Die Fig. 43 zeigt eine Veränderung des Werts K der
Bewertungsfunktion, die durch Durchführen der Berechnungen
auf der Grundlage der in Fig. 42 gezeigten
Häufigkeitsverteilungskurven erhalten wird.
Ferner verändert sich in dem Fall, in dem das durch diese
Ausführungsform 21 eingesetzte Verfahren durchgeführt wird,
bei geöffnetem oder geschlossenem Auge die Form der
Häufigkeitsverteilungskurve, in ähnlicher Weise wie im Fall
der zuvor erläuterten Ausführungsform 19. Demnach kann erfaßt
werden, ob das Auge geöffnet oder geschlossen ist.
Nun wird eine Ausführungsform 22 der vorliegenden Erfindung
nachfolgend unter Bezug auf die Fig. 44 und 45 beschrieben.
Die Fig. 44 zeigt ein Diagramm zum Darstellen eines
Verfahrens zum Detektieren des geöffneten oder geschlossenen
Zustands eines Auges, das durch diese Ausführungsform 22 der
vorliegenden Erfindung eingesetzt wird. Dieses Diagramm zeigt
die Beziehung zwischen dem Zeitablauf (ausgehend von einem
Zeitpunkt TA, in dem das Auge geöffnet ist, bis zu einem
Zeitpunkt TC, in dem das Auge geschlossen ist), der sich
während dieses Zeitraums verändernden Binärbilder des
Ortsbereichs des Auges 8, und von Y-Histogrammen
(insbesondere von Formfunktionen erster Ordnung) der
Binärbilder, sowie der Kreismittelpunkte, die Formfunktionen
zweiter Ordnung sind und auf der Grundlage der gekrümmten
Formen der Formfunktionen erster Ordnung erhalten werden, und
zwar durch Einsatz dessen, was als Speicherfilter bezeichnet
wird.
Die Fig. 45 zeigt eine Veränderung des Werts K der
Bewertungsfunktion, die durch Durchführen von Berechnungen
auf der Grundlage der in Fig. 44 gezeigten Y-Histogrammen
erhalten wird.
Die durch diese Ausführungsform 22 angezeigte Mittenposition
ist der Mittelpunkt eines Kreises, der auf der Grundlage der
gekrümmten Form der Formfunktion unter Einsatz des
Speichenfilters bestimmt wird. Ferner entspricht der Wert K
der Bewertungsfunktion der Differenz zwischen dem Maximalwert
der Formfunktion erster Ordnung und der Ordinate
(insbesondere der Y-Koordinate) dieses Mittelpunkts.
Wie in Fig. 44 gezeigt ist, verändert sich bei geöffnetem
oder geschlossenem Auge die Form des Y-Histogramms. Im
Ergebnis ist, wie in Fig. 45 gezeigt, bei geschlossenem Auge
der Wert K der Bewertungsfunktion hoch. Demnach wird ein
Schwellwert KB festgelegt, und es kann erfaßt werden, ob das
Auge geöffnet oder geschlossen ist.
Nun wird eine Ausführungsform 23 der vorliegenden Erfindung
nachfolgend unter Bezug auf die Fig. 46 beschrieben. Diese
Figur zeigt ein Diagramm zum Darstellen eines Verfahrens zum
Detektieren des geöffneten oder geschlossenen Zustands eines
Auges, das durch diese Ausführungsform 23 der vorliegenden
Erfindung eingesetzt wird. Dieses Diagramm zeigt die
Beziehung zwischen dem Zeitablauf (ausgehend von einem
Zeitpunkt TA, in dem das Auge geöffnet ist, bis zu einem
anderen Zeitpunkt TC, in dem das Auge geschlossen ist), den
sich während diesem Zeitraum verändernden Binärbildern des
Ortsbereichs des Auges 8, und der Formfunktionen erster
Ordnung (insbesondere von Oberschranken-Formfunktionen) der
Binärbilder, sowie der Mittelpunkte der Kreise, die
Formfunktionen zweiter Ordnung sind und auf der Grundlage der
gekrümmten Formen der Formfunktionen erster Ordnung durch
Einsatz des Speichenfilters erhalten werden.
In dem Fall der Ausführungsform 23 verändert sich bei
geöffnetem oder geschlossenem Auge die Formfunktion.
Hierdurch ist bei geschlossenem Auge der Wert K der
Bewertungsfunktion hoch. In einem extremen Fall, der in
dieser Figur gezeigt ist, ist bei geschlossenem Auge die
Positionsbeziehung zwischen dem konvexen Abschnitt und dem
konkaven Abschnitt umgekehrt, so daß ein
divergenter/überkritischer Zustand auftritt, in dem keine
Mitte erfaßt wird. Demnach kann erfaßt werden, ob das Auge
geöffnet oder geschlossen ist.
Nun wird eine Ausführungsform 24 der vorliegenden Erfindung
nachfolgend unter Bezug auf die Fig. 47 erläutert. Diese
Figur zeigt ein Diagramm zum Darstellen eines Verfahrens zum
Detektieren des geöffneten oder geschlossenen Zustands eines
Auges, das für diese Ausführungsform der Fig. 24 der
vorliegenden Erfindung eingesetzt wird. Dieses Diagramm zeigt
die Beziehung zwischen dem Zeitablauf (ausgehend von einem
Zeitpunkt TA, in dem das Auge geöffnet ist, und einem anderen
Zeitpunkt TC, in dem das Auge geschlossen ist), den sich
während dieses Zeitraums verändernden Binärwerten des
Ortsbereichs des Auges 8, und der Formfunktionen erster
Ordnung (insbesondere der Y-Mittenort-Formfunktionen), die
die Form der Y-Mittenlinien (oder -kurven) der Binärbilder
benützen, sowie der Mittelpunkte der Kreise, die
Formfunktionen zweiter Ordnung sind und auf der Grundlage der
gekrümmten Formen der Formfunktionen erster Ordnung durch
Einsatz der Speichenfilter erhalten werden.
In dem Fall des durch die Ausführungsform 24 eingesetzten
Verfahrens ändert sich bei geöffnetem oder geschlossenem Auge
die Formfunktion, in ähnlicher Weise wie in dem Fall des
durch die Ausführungsform 22 eingesetzten Verfahrens. Demnach
kann festgestellt werden, ob das Auge geöffnet oder
geschlossen ist.
Nun wird eine Ausführungsform 25 der vorliegenden Erfindung
nachfolgend unter Bezug auf die Fig. 48 und 49 beschrieben.
Die Fig. 48 zeigt ein Diagramm zum Darstellen eines
Verfahrens zum Detektieren eines geöffneten oder
geschlossenen Zustands eines Auges, das durch die
Ausführungsform 25 der vorliegenden Erfindung eingesetzt
wird. Diese Figur zeigt die Beziehung zwischen dem Zeitablauf
(ausgehend von einem Zeitpunkt TA, in dem das Auge geöffnet
ist, bis zu einem anderen Zeitpunkt TC, in dem das Auge
geschlossen ist, über einen zwischenliegenden
Zwischenzeitpunkt TB), der sich während dieses Zeitraums
verändernden Binärbilder der Ortsbereiche des Auges 8, der
ersten Formfunktion Ordnung (Oberschranken-Formfunktionen),
die die Y-Koordinaten der Oberschranken der Binärbilder
benützen, sowie von "X-Histogrammen" (insbesondere zweiter
Formfunktionen), die hier als Graphen zum Darstellen der
Verteilung der Werte definiert sind, die durch Akkumulieren
der Binärtonpegel der Pixel entlang der X-Richtung erhalten
werden, gemäß jeder der Y-Koordinaten in dem Ortsbereich des
Auges 8 für jedes der Binärbilder.
Die Fig. 49 zeigt eine Veränderung des Werts K der
Bewertungsfunktion, die auf der Grundlage der ersten
Formfunktion berechnet wird und der Y-Koordinate eines
Spitzenwerts in dem in Fig. 48 gezeigten X-Histogramm.
In dem Fall dieser Ausführungsform 25 entspricht die Summe
der Differenzen zwischen den Y-Koordinaten UF der
Oberschranke in dem festgelegten Bereich des Mittenabschnitts
des Auges (gemäß dem Bereich von X zwischen (C - 20) bis (C +
20)) und der Y-Koordinate POS des Spitzenwerts des X-
Histogramms dem Wert K der Bewertungsfunktion, die durch die
folgende Gleichung (7) bestimmt ist. Es sei bemerkt, daß in
der Gleichung (7) die Summierung der rechten Seite hiervon im
Hinblick auf X zwischen (C - 20) bis (C + 20) durchgeführt
wird.
K = Σ (UF - POS) (7)
Wie in Fig. 48 gezeigt ist, verändern sich bei geöffnetem
oder geschlossenem Auge die Form der ersten Formfunktion und
diejenige des X-Histogramms. Im Ergebnis ist bei
geschlossenem Auge der Wert K der Bewertungsfunktion niedrig,
wie in Fig. 49 gezeigt ist. Demnach wird ein Schwellwert KB
bestimmt, und es kann erfaßt werden, ob das Auge geöffnet
oder geschlossen ist.
Nun wird eine Ausführungsform 26 der vorliegenden Erfindung
nachfolgend unter Bezug auf die Fig. 50 und 51 beschrieben.
Die Fig. 50 zeigt ein Diagramm zum Darstellen eines
Verfahrens zum Detektieren eines geöffneten oder
geschlossenen Zustands eines Auges, das durch die
Ausführungsform 26 der vorliegenden Erfindung eingesetzt
wird. Diese Figur zeigt die Beziehung zwischen dem Zeitablauf
(ausgehend von einem Zeitpunkt TA, in dem das Auge geöffnet
ist, bis zu einem anderen Zeitpunkt TC, in dem das Auge
geschlossen ist, über einen zwischenliegenden
Zwischenzeitpunkt TB), der sich während dieses Zeitraums
verändernden Binärbilder des Ortsbereichs des Auges 8, erster
Formfunktionen (insbesondere Y-Mittenort-Formfunktionen), die
die Form des Y-Mittenorts der Binärbilder benützen, sowie von
X-Histogrammen (insbesondere zweiter Formfunktionen), die
jeweils den Binärbildern zugeordnet sind.
Die Fig. 51 zeigt eine Veränderung des Werts K der
Bewertungsfunktion, der auf der Grundlage der ersten
Formfunktion und der Y-Koordinate des Spitzenwerts des in
Fig. 50 gezeigten X-Histogramms berechnet wird.
In dem Fall dieser Ausführungsform 26 ändert sich bei
geöffnetem oder geschlossenem Auge die Form der ersten
Formfunktion und diejenige des X-Histogramms, in ähnlicher
Weise wie in dem Fall der zuvor erwähnten Ausführungsform 25.
Demnach wird ein Schwellwert KB bestimmt, und es kann erfaßt
werden, ob das Auge geöffnet oder geschlossen ist.
Nun wird eine Ausführungsform 27 der vorliegenden Erfindung
nachfolgend unter Bezug auf die Fig. 52 und 53 beschrieben.
Die Fig. 52 zeigt ein Diagramm zum Darstellen eines
Verfahrens zum Detektieren des geöffneten oder geschlossenen
Zustands eines Auges, das durch die Ausführungsform 27 der
vorliegenden Erfindung eingesetzt wird. Diese Figur zeigt die
Beziehung zwischen dem Zeitablauf (ausgehend von einem
Zeitpunkt TA, in dem das Auge geöffnet ist, bis zu einem
anderen Zeitpunkt TC, in dem das Auge geschlossen ist, über
einen zwischenliegenden Zwischenzeitpunkt TB, der sich
während diesem Zeitraum verändernden Binärbilder der
Ortsbereiche des Auges 8, der Mittelpunkte oder Schwerpunkte
(insbesondere erste Formfunktionen) festgelegter Abschnitte
oder Bereiche der Binärbilder eines Auges, sowie von Linien
zum Verbinden zweier der Mittelpunkte oder Schwerpunkte
(insbesondere zweite Formfunktionen) des festgelegten
Abschnitts oder Bereichs der Binärbilder des Auges.
Fig. 53 zeigt eine Veränderung des Werts K der
Bewertungsfunktion, die auf der Grundlage der in Fig. 52
gezeigten Formfunktionen berechnet wird.
Bei jedem der in Fig. 52 gezeigten Graphen, markiert "+" den
Mittelpunkt oder Schwerpunkt (XC, YC) eines festgelegten
Teils des Mittenabschnitts des Bilds des Auges, der den
Bereich von X zwischen (C - 5) bis (C + 5) zugeordnet ist,
und den Mittelpunkt oder Schwerpunkt (XL, YL) eines
festgelegten Teils des linken Endabschnitts des Bilds des
Auges, der dem Bereich von X zwischen L bis (L + 10)
zugeordnet ist. Jeder der Mittelpunkte oder Schwerpunkte
entspricht dem Mittelwert oder Durchschnitt der Koordinaten
schwarzer Pixel, die in dem entsprechenden Bildteil enthalten
sind. Beispielsweise sind die Mittelpunkte (XC, YC) oder
Schwerpunkte durch die folgende Gleichung (8) bestimmt, die
die Gesamtzahl N schwarzer Pixel in dem festgelegten Teil des
Mittenabschnitts des Bilds enthält.
(XC, YC) = (Σ X/N, Σ Y/N) (8)
In dem Fall dieser Ausführungsform 27 wird der Gradient einer
Linie 20 zum Verbinden des Mittelpunkts oder Schwerpunkts
(XC, YC) des festgelegten Teils des Mittenabschnitts des
Bilds des Auges mit dem Mittelpunkt oder Schwerpunkt (XL, YL)
des festgelegten Teils des linken Endabschnitts des Bilds
anhand der folgenden Gleichung (9) bestimmt und stellt den
Wert K der Bewertungsfunktion dar.
K = (YC - YL)/(XC - XL) (9)
Wie in Fig. 52 gezeigt ist, ändert sich bei geöffnetem oder
geschlossenem Auge die Form der ersten Formfunktion und
diejenige der zweiten Formfunktion. Im Ergebnis ist bei
geschlossenem Auge der Wert K der Bewertungsfunktion niedrig,
wie in Fig. 53 gezeigt ist. Demnach wird ein Schwellwert zu
KB festgelegt, und es kann erfaßt werden, ob das Auge
geöffnet oder geschlossen ist.
Weiterhin wird in dem Fall dieser Ausführungsform der
Durchschnitt der Werte der ersten Formfunktion, die dem
festgelegten Teil des linken Endabschnitts des Bilds des
Auges zugeordnet ist, zum Erhalten der Bewertungsfunktion
eingesetzt. Jedoch lassen sich ähnliche Wirkungen in dem Fall
erhalten, in dem der Durchschnitt der Werte der ersten
Formfunktion benützt wird, der dem festgelegten Teil des
rechten Endabschnitts des Bilds zugeordnet ist.
Nun wird eine Ausführungsform 28 der vorliegenden Erfindung
nachfolgend unter Bezug auf die Fig. 54 und 55 beschrieben.
Die Fig. 54 zeigt ein Diagramm zum Darstellen eines
Verfahrens zum Detektieren eines geöffneten oder
geschlossenen Zustands eines Auges 15132 00070 552 001000280000000200012000285911502100040 0002019614975 00004 15013, das durch die
Ausführungsform 28 der vorliegenden Erfindung eingesetzt
wird. Diese Figur zeigt die Beziehung zwischen dem Zeitablauf
(ausgehend von einem Zeitpunkt TA, in dem das Auge geöffnet
ist, bis zu einem anderen Zeitpunkt TC, in dem das Auge
geschlossen ist, über einen zwischenliegenden
Zwischenzeitpunkt TB), der sich während dieses Zeitraums
verändernden Binärbilder des Ortsbereichs des Auges 8, der
Mittelpunkte oder Schwerpunkte (insbesondere erste
Formfunktionen) festgelegter Abschnitte oder Bereiche der
Binärbilder eines Auges, sowie von Linien zum Verbinden
zweier der Schwerpunkte oder Mittelpunkte (insbesondere
zweite Formfunktionen) für festgelegte Abschnitte oder
Bereiche des Auges.
Die Fig. 55 zeigt eine Veränderung des Werts K der
Bewertungsfunktion, die auf der Grundlage der in Fig. 54
gezeigten Formfunktionen berechnet wird.
Im Fall dieser Ausführungsform 28 ist die Differenz zwischen
dem Gradienten einer Linie 20 zum Verbinden des Mittelpunkts
oder Schwerpunkts (XC, YC) des festgelegten Teils mit dem X-
Koordinatenbereich von (C - 5) bis (C + 5) und des
Mittenabschnitts des Bilds des Auges mit dem Mittelpunkt oder
Schwerpunkt (XL, YL) des festgelegten Teils mit dem X-
Koordinatenbereich von L bis (L + 10) bei dem linken
Endabschnitt des Bilds, sowie dem Gradienten einer anderen
Linie 20′ zum Verbinden des Mittelpunkts oder Schwerpunkts
(XC, YC) desselben (festgelegten) Teils des Mittenabschnitts
des Bilds des Auges mit dem Mittelpunkt oder Schwerpunkt (XR,
YR) des festgelegten Teils mit dem X-Koordinatenbereich von R
bis (10 - R) des linken Endabschnitts des Bilds anhand der
folgenden Gleichung (10) bestimmt, und diese bildet den Wert
K der Bewertungsfunktion.
K = (YC - YL)/(XC - XL) - (YC - YR)/(XC - XR) (10)
Wie in Fig. 54 gezeigt ist, verändert sich bei geöffnetem
oder geschlossenem Auge die Form der ersten Formfunktion und
diejenige der zweiten Formfunktion. Im Ergebnis ist bei
geschlossenem Auge der Wert K der Bewertungsfunktion niedrig,
wie in Fig. 55 gezeigt ist. Demnach wird ein Schwellwert zu
KB festgelegt, und es kann erfaßt werden, ob das Auge
geöffnet oder geschlossen ist.
Nun wird eine Ausführungsform 29 der vorliegenden Erfindung
nachstehend unter Bezug auf die Fig. 56 und 57 beschrieben.
Die Fig. 56 zeigt ein Diagramm zum Darstellen eines
Verfahrens zum Detektieren des geöffneten oder geschlossenen
Zustands eines Auges, das durch die Ausführungsform 29 der
vorliegenden Erfindung eingesetzt wird. Diese Figur zeigt die
Beziehung zwischen dem Zeitablauf (ausgehend von einem
Zeitpunkt TA, in dem das Auge geöffnet ist, bis zu einem
anderen Zeitpunkt TC, in dem das Auge geschlossen ist, über
einen zwischenliegenden Zwischenzeitpunkt TB), der sich
während dieses Zeitraums verändernden Binärbilder des
Ortsbereichs des Auges 8, der Mittelpunkte oder Schwerpunkte
(insbesondere erste Formfunktionen) festgelegter Abschnitte
oder Bereiche der Binärbilder eines Auges, sowie zwei Linien,
von denen jede zwei der Mittelpunkte oder Schwerpunkte
(insbesondere zweite Formfunktionen) des festgelegten
Abschnitts oder Bereichs der Binärbilder des Auges gemäß
jedem der Zeitpunkte TA, TB und TC verbindet.
Die Fig. 57 zeigt eine Veränderung des Werts K der
Bewertungsfunktion, der auf der Grundlage der in Fig. 56
gezeigten Formfunktionen berechnet wird.
In dem Fall dieser Ausführungsform 29 wird anhand der
folgenden Gleichung (11) die Differenz zwischen dem
Gradienten einer Linie 20 zum Verbinden des Mittelpunkts oder
Schwerpunktes (XCL, YCL) des festgelegten Teils mit dem X-
Koordinatenbereich von (LC - 5) bis (LC + 5) des
Mittenabschnitts des Bilds des linken Auges mit dem
Mittelpunkt oder Schwerpunkt (XLL, YLL) des festgelegten
Teils mit dem X-Koordinatenbereich von LL bis (LL + 10) des
linken Endabschnitts des Auges und dem Gradienten einer
anderen Linie 20′′ zum Verbinden des Mittelpunkts oder
Schwerpunkts (XCR, YCR) des zugeordneten (festgelegten) Teils
mit dem X-Koordinatenbereich von (RC - 5) bis (RC + 5) des
Mittenabschnitts des Bilds des rechten Auges mit dem
Mittelpunkt oder Schwerpunkt (XRR, YRR) des festgelegten
Teils mit dem X-Koordinatenbereich zwischen RR und (10 - RR)
des linken Endabschnitts des Auges bestimmt, und diese bildet
den Wert K der Bewertungsfunktion.
K = (YCL - YLL)/(XCL - XLL)
- (YCR - YRR)/(XCR - XRR) (11)
Wie in Fig. 56 gezeigt ist, verändert sich bei geöffnetem
oder geschlossenem Auge die Form der ersten Formfunktion und
diejenige der zweiten Formfunktion. Im Ergebnis ist bei
geschlossenem Auge der Wert K der Bewertungsfunktion niedrig,
wie in Fig. 57 gezeigt ist. Demnach wird ein Schwellwert KB
festgelegt, und es kann festgelegt werden, ob das Auge
geöffnet oder geschlossen ist.
Ferner werden in diesem Fall die Formen festgelegter Bereiche
jeweils der äußeren Endabschnitte gemäß dem linken und
rechten Auge zum Erhalten der Bewertungsfunktion eingesetzt.
Jedoch läßt sich eine ähnliche Wirkung in dem Fall erzielen,
in dem die Formen festgelegter Bereiche der inneren
Endabschnitte des linken und rechten Auges benützt werden.
Nun wird eine Ausführungsform 30 der vorliegenden Erfindung
nachfolgend unter Bezug auf die Fig. 58 und 59 beschrieben.
Die Fig. 58 zeigt ein Diagramm zum Darstellen eines
Verfahrens zum Detektieren des geöffneten oder geschlossenen
Zustands eines Auges, das durch die Ausführungsform 30 der
vorliegenden Erfindung eingesetzt wird. Diese Figur zeigt die
Beziehung zwischen dem Zeitablauf (ausgehend von einem
Zeitpunkt TA, in dem das Auge geöffnet ist, bis zu einem
anderen Zeitpunkt TC, in dem das Auge geschlossen ist, über
einen zwischenliegenden Zeitpunkt TB), der sich während
dieses Zeitraums verändernden Binärbilder des Ortsbereichs
des Auges 8, und von X-Histogrammen (insbesondere
Formfunktionen) zum Darstellen der Häufigkeit der Werte, die
durch die Akkumulierung der Binärtonpegel der Pixel entlang
der X-Richtung gemäß jeder der Y-Koordinaten für jedes der
Binärbilder erhalten werden. Ferner wird jedes der X-
Histogramme praktisch durch Scannen des Ortsbereichs des
Auges 8 entlang der X-Richtung und durch Zählen der schwarzen
Pixel gemäß jeder der Y-Koordinaten erhalten (es sei bemerkt,
daß "SUMX" den Zählwert (insbesondere die Gesamtzahl) der
schwarzen Pixel gemäß jeder der Y-Koordinaten entspricht).
Die Fig. 59 zeigt eine Veränderung des Werts K der
Bewertungsfunktion, der auf der Grundlage des in Fig. 58
gezeigten X-Histogramms berechnet wird.
In dem Fall dieser Ausführungsform 30 werden die Y-
Koordinaten POS, U und D des Spitzenwerts des X-Histogramms
und des oberen Endes und des unteren Endes hiervon erfaßt.
Ferner wird der Wert K der Bewertungsfunktion anhand der
relativen Positionsbeziehung erhalten, wie sie durch die
nachfolgende Gleichung (12) ausgedrückt wird. Es sei bemerkt,
daß in diesem Fall der Wert K der Bewertungsfunktion die
Relativposition des Spitzenwerts in dem X-Histogramm anzeigt.
K = (U - POS)/( POS - D) (12)
Wie in Fig. 58 gezeigt ist, ändert sich bei geöffnetem und
geschlossenem Auge die Form des X-Histogramms. Im Ergebnis
ist bei geschlossenem Auge der Wert K der Bewertungsfunktion
niedrig, wie in Fig. 59 gezeigt ist. Demnach wird ein
Schwellwert KB festgelegt, und es kann erfaßt werden, ob das
Auge geöffnet oder geschlossen ist.
Nun wird eine Ausführungsform 31 der vorliegenden Erfindung
nachfolgend unter Bezug auf die Fig. 60 und 61 beschrieben.
Die Fig. 60 zeigt ein Diagramm zum Darstellen der Anordnung
dieser Ausführungsform 31 der vorliegenden Erfindung. Die
Fig. 61 zeigt ein Diagramm zum Darstellen eines Verfahrens
dieser Ausführungsform 31 zum Extrahieren eines möglichen
Ortsbereichs für ein Auge anhand des Binärbilds eines
Gesichts.
Wie in Fig. 60 gezeigt ist, ist gemäß dieser Ausführungsform
31 eine Kamera 11 vorgesehen, sowie eine
Bildeingabevorrichtung 12, eine Binärumsetzvorrichtung 13,
eine Bewertungsfunktions-Berechnungsvorrichtung 15A und eine
Extrahiervorrichtung für ein Auge 14A.
Ein Teil des Betriebs dieser Ausführungsform 31 stimmt mit
einem Teil des Betriebs der zuvor erläuterten Ausführungsform
1 zwischen dem Beginn bis zu der Binärumsetzung überein.
Jedoch bestimmt die Bewertungsfunktions-
Berechnungsvorrichtung 15A zunächst den Mittelpunkt oder
Schwerpunkt 31 anhand des Durchschnitts der Koordinaten der
schwarzen Pixel eines Binärbilds 30. Anschließend werden
rechteckige Bereiche, die in den festgelegten Bereichen
entlang der X-Richtung auf der linken und rechten Seite
dieses Mittelpunkts oder Schwerpunkts 31 vorliegen, als
Ortsbereiche des Auges 32 festgelegt. Ferner werden in dem
Ortsbereich das Auges 32 X-Histogramme 33 (insbesondere 33a
und 33b) generiert. Anschließend werden Bandbereiche auf der
Grundlage der X-Histogramme festgelegt. Ferner werden Y-
Histogramme 34 (insbesondere 34a und 34b) erzeugt, zum
Darstellen der Verteilung der Werte, die durch die
Akkumulierung der Binärtonpegel der Pixel entlang der Y-
Richtung der Spalten der Randbereiche erhalten werden. Dann
werden schraffierte mögliche Bereiche 35 (insbesondere 35a
und 35b) für einen Ortsbereich eines Auges extrahiert.
Hierbei werden Bewertungsfunktionen gemäß einer der zuvor
erläuterten Ausführungsformen der vorliegenden Erfindung, die
jeweils allen möglichen Bereichen 35 zugeordnet sind, durch
die Bewertungsfunktions-Berechnungsvorrichtung 15A berechnet.
Anschließend werden die berechneten Werte der
Bewertungsfunktionen in einem Speicher erfaßt. Hierbei ist zu
erwähnen, daß sich bei einem Blinken die Form eines Auges
verändert und sich der Wert K der zugeordneten
Bewertungsfunktion verändert und daß sich im Gegensatz hierzu
die Form einer Augenbraue und diejenige des Rahmens einer
Brille über die Zeit kaum verändert und daß somit eine
Veränderung des Werts K der zugeordneten Bewertungsfunktion
sehr gering ist. Demnach überprüft die Extrahiervorrichtung
für ein Auge 14A, wie sich die Werte K der
Bewertungsfunktionen über die Zeit verändern. Ferner
unterscheidet die Extrahiervorrichtung für ein Auge 14A
zwischen dem Auge, den Brauen und dem Rahmen einer Brille
gemäß den Werten K der Bewertungsfunktionen und den hierbei
auftretenden Veränderungen. Demnach extrahiert die
Extrahiervorrichtung für ein Auge 14A den Ortsbereich eines
Auges und beurteilt, ob das Auge geöffnet oder geschlossen
ist.
Nun wird eine Ausführungsform 32 der vorliegenden Erfindung
nachfolgend unter Bezug auf die Fig. 62 beschrieben. Die Fig.
62 zeigt ein Diagramm zum Darstellen des Aufbaus dieser
Ausführungsform 32 der vorliegenden Erfindung. Diese
Ausführungsform ist eine Kombination der zuvor erläuterten
Ausführungsform 1 und der zuvor erwähnten Ausführungsform 31.
Die Bewertungsfunktionen einer der vorhergehenden
Ausführungsformen, die jeweils sämtlichen möglichen Bereichen
35 zugeordnet sind, werden durch die Bewertungsfunktions-
Berechnungsfunktion 15A berechnet. Anschließend werden die
berechneten Werte der Berechnungsfunktionen in einem Speicher
erfaßt. Hierbei ist zu erwähnen, daß sich bei einem Zwinker
die Form eines Auges verändert und daß sich der Wert K der
zugeordneten Bewertungsfunktion verändert und daß sich im
Gegensatz hierzu die Form einer Braue und diejenige des
Rahmens einer Brille über die Zeit kaum verändert, und
demnach ist die Veränderung des Werts K der zugeordneten
Bewertungsfunktion sehr gering. Demnach überprüft die
Extrahiervorrichtung für ein Auge 14B, ob sich die Werte K
der Bewertungsfunktionen über die Zeit verändern. Ferner
unterscheidet die Extrahiervorrichtung für das Auge/die
Vorrichtung zum Beurteilen des geöffneten oder geschlossenen
Zustands 14B zwischen dem Auge, der Braue und dem Rahmen
einer Brille in Übereinstimmung mit den Werten K der
Bewertungsfunktionen und deren Veränderungen. Demnach
extrahiert die Extrahiervorrichtung für ein Auge/die
Vorrichtung zum Beurteilen des geöffneten oder geschlossenen
Zustands 14B den Ortsbereich eines Auges. Gleichzeitig
bestimmt die Extrahiervorrichtung für das Auge/die
Vorrichtung zum Beurteilen des geöffneten oder geschlossenen
Zustands 14B einen Schwellwert für den Wert K der
Bewertungsfunktion und beurteilt anschließend, ob das Auge
geöffnet oder geschlossen ist.
Jede der zuvor erläuterten Ausführungsformen der vorliegenden
Erfindung kann genau beurteilen, ob ein Auge geöffnet oder
geschlossen ist, selbst in den Fällen, in denen die
Veränderung der Zahl fortlaufender schwarzer Pixel entlang
der Y-Richtung gering ist, was in dem Zeitpunkt des
Schließens des Auges der Fall ist, und in dem sich die
Veränderung der Maximalzahl fortlaufender schwarzer Pixel
entlang der Y-Richtung aus einer Veränderung einer Aufwärts-
oder Abwärtsrichtung eines Gesichts oder aus einer
Veränderung der Links- oder Rechtsneigung des Gesichts
ergibt, indem die Aufmerksamkeit auf eine Veränderung der
Form des Auges gerichtet wird, die durch das Schließen des
Auges bewirkt wird. Weiterhin wurden bei der vorhergehenden
Beschreibung der Ausführungsformen der vorliegenden Erfindung
diejenigen Fälle beschrieben, bei denen die vorliegende
Erfindung bei Automobilen angewandt wird. Jedoch kann die
vorliegende Erfindung auf alle Arten von Fahrzeugen angewandt
werden, beispielsweise einem Zug, einer Einschienenbahn,
einem Flugzeug oder einem Schiff.
Obgleich die bevorzugten Ausführungsformen der vorliegenden
Erfindung oben beschrieben wurden, ist zu erkennen, daß die
vorliegende Erfindung nicht hierauf beschränkt ist und daß
weitere Modifikationen ohne einem Abweichen von dem
Sinngehalt der Erfindung für die mit dem Stand der Technik
Vertrauten offensichtlich sind.
Demnach wird der Schutzbereich der vorliegenden Erfindung
ausschließlich durch die nachfolgenden Patentansprüche
bestimmt.
Claims (35)
1. Gesichtsbildverarbeitungssystem, enthaltend:
eine Kamera zum Aufnehmen eines Gesichtsbilds;
eine Bildeingabevorrichtung zum Eingeben eines durch die Kamera gesendeten Videosignals;
eine Binärumsetzvorrichtung für die Binärumsetzung des durch die Bildeingabevorrichtung eingegebenen Gesichtsbilds;
eine Augenextrahiervorrichtung zum Extrahieren eines Ortsbereichs eines Auges, der ein Auge enthält, aus dem binär umgesetzten Gesichtsbild;
eine Bewertungsfunktions-Berechnungsvorrichtung zum Berechnen einer Formfunktion zum Darstellen einer Formeigenschaft des Auges anhand des Ortsbereichs des Auges und zum Berechnen einer Bewertungsfunktion gemäß der Formfunktion; und
eine Vorrichtung zum Beurteilen des geöffneten oder geschlossenen Zustands zum Beurteilen anhand der Bewertungsfunktion, ob das Auge geöffnet oder geschlossen ist.
eine Kamera zum Aufnehmen eines Gesichtsbilds;
eine Bildeingabevorrichtung zum Eingeben eines durch die Kamera gesendeten Videosignals;
eine Binärumsetzvorrichtung für die Binärumsetzung des durch die Bildeingabevorrichtung eingegebenen Gesichtsbilds;
eine Augenextrahiervorrichtung zum Extrahieren eines Ortsbereichs eines Auges, der ein Auge enthält, aus dem binär umgesetzten Gesichtsbild;
eine Bewertungsfunktions-Berechnungsvorrichtung zum Berechnen einer Formfunktion zum Darstellen einer Formeigenschaft des Auges anhand des Ortsbereichs des Auges und zum Berechnen einer Bewertungsfunktion gemäß der Formfunktion; und
eine Vorrichtung zum Beurteilen des geöffneten oder geschlossenen Zustands zum Beurteilen anhand der Bewertungsfunktion, ob das Auge geöffnet oder geschlossen ist.
2. Gesichtsbildverarbeitungssystem nach Anspruch 1, dadurch
gekennzeichnet, daß die Bewertungsfunktions-
Berechnungsvorrichtung eine Formfunktion erster Ordnung
auf der Grundlage des Binärbilds des Ortsbereichs des
Auges bestimmt und eine Formfunktion zweiter Ordnung
gemäß der Formfunktion erster Ordnung berechnet und
ferner eine Bewertungsfunktion gemäß der Formfunktion
zweiter Ordnung berechnet.
3. Gesichtsbildverarbeitungssystem nach Anspruch 2, dadurch
gekennzeichnet, daß die Formfunktion zweiter Ordnung
eine Approximationslinie gemäß der Formfunktion erster
Ordnung ist.
4. Gesichtsbildverarbeitungssystem nach Anspruch 3, dadurch
gekennzeichnet, daß die Bewertungsfunktion ein Gradient
der Approximationslinie ist.
5. Gesichtsbildverarbeitungssystem nach Anspruch 4, dadurch
gekennzeichnet, daß die Formfunktion erster Ordnung
eine Oberschranke des Binärbilds des Ortsbereichs des
Auges ist.
6. Gesichtsbildverarbeitungssystem nach Anspruch 5, dadurch
gekennzeichnet, daß die Approximationslinie durch
Einsatz eines Verfahrens der geringsten Quadrate als
eine Linie mit einer Form erhalten wird, die nahe an
einer Form eines festgelegten Bereichs eines
Endabschnitts der Oberschranke liegt.
7. Gesichtsbildverarbeitungssystem nach Anspruch 2, dadurch
gekennzeichnet, daß die Formfunktion zweiter Ordnung aus
zwei Approximationslinien gemäß der Formfunktion erster
Ordnung besteht.
8. Gesichtsbildverarbeitungssystem nach Anspruch 7, dadurch
gekennzeichnet, daß die Bewertungsfunktion einer
Differenz zwischen den Gradienten der beiden
Approximationslinien entspricht.
9. Gesichtsbildverarbeitungssystem nach Anspruch 8, dadurch
gekennzeichnet, daß die Formfunktion erster Ordnung eine
Oberschranke des Binärbilds des Ortsbereichs des Auges
ist.
10. Gesichtsbildverarbeitungssystem nach Anspruch 9, dadurch
gekennzeichnet, daß die beiden Approximationslinien
unter Einsatz eines Verfahrens der geringsten Quadrate
als Abbildungen erhalten werden, deren Formen jeweils
nahe derjenigen eines festgelegten Bereichs eines
Endabschnitts der Oberschranke eines Gesamtbereichs der
Schranke liegt.
11. Gesichtsbildverarbeitungssystem nach Anspruch 9, dadurch
gekennzeichnet, daß die beiden Approximationslinien
unter Einsatz eines Verfahrens der geringsten Quadrate
als Abbildungen erhalten werden, deren Formen jeweils
nahe an derjenigen eines festgelegten Bereichs eines
linken Endabschnitts der Oberschranke und eines
festgelegten Bereichs eines rechten Endabschnitts
hiervon liegen.
12. Gesichtsbildverarbeitungssystem nach Anspruch 8, dadurch
gekennzeichnet, daß die ersten Formfunktionen obere
Schranken des linken und rechten Auges in dem Binärbild
des Ortsbereichs des Auges sind.
13. Gesichtsbildverarbeitungssystem nach Anspruch 12,
dadurch gekennzeichnet, daß die beiden
Approximationslinien unter Einsatz eines Verfahrens der
geringsten Quadrate als Abbildungen erhalten werden,
deren Formen jeweils nahe an derjenigen eines
festgelegten Bereichs eines Endabschnitts der
Oberschranke des linken Auges und eines festgelegten
Bereichs eines Endabschnitts der Oberschranke des
rechten Auges liegen.
14. Gesichtsbildverarbeitungssystem nach Anspruch 2, dadurch
gekennzeichnet, daß die Formfunktion zweiter Ordnung
einem Durchschnitt der Werte der Formfunktion erster
Ordnung an zwei Stellen entspricht.
15. Gesichtsbildverarbeitungssystem nach Anspruch 14,
dadurch gekennzeichnet, daß die Bewertungsfunktion einer
Differenz zwischen den Durchschnittswerten der Werte der
Formfunktion erster Ordnung an zwei Stellen entspricht.
16. Gesichtsbildverarbeitungssystem nach Anspruch 15,
dadurch gekennzeichnet, daß die Formfunktion erster
Ordnung einer Oberschranke des Binärbilds des
Ortsbereichs des Auges entspricht.
17. Gesichtsbildverarbeitungssystem nach Anspruch 16,
dadurch gekennzeichnet, daß der Durchschnitt der Werte
der Formfunktion erster Ordnung an zwei Stellen anhand
festgelegter Bereiche eines Mittenabschnitts und eines
Endabschnitts der Oberschranke erhalten wird.
18. Gesichtsbildverarbeitungssystem nach Anspruch 16,
dadurch gekennzeichnet, daß der Durchschnitt der Werte
an den zwei Stellen anhand festgelegter Bereiche eines
Mittenabschnitts und beider Endabschnitte der
Oberschranke erhalten wird.
19. Gesichtsbildverarbeitungssystem nach Anspruch 15,
dadurch gekennzeichnet, daß die Formfunktionen erster
Ordnung Oberschranken des linken und rechten Auges in
dem Binärbild des Ortsbereichs des Auge sind.
20. Gesichtsbildverarbeitungssystem nach Anspruch 19,
dadurch gekennzeichnet, daß der Durchschnitt der Werte
der Formfunktion erster Ordnung an den zwei Stellen
anhand festgelegter Bereiche des Mittenabschnitts sowohl
der Augen und der Endabschnitte der Oberschranken beider
Augen erhalten wird.
21. Gesichtsbildverarbeitungssystem nach Anspruch 2, dadurch
gekennzeichnet, daß die Formfunktion erster Ordnung ein
Mittelpunkt eines festgelegten Bereichs eines Bilds
eines Auges in dem Binärbild des Ortsbereichs des Auges
ist.
22. Gesichtsbildverarbeitungssystem nach Anspruch 21,
dadurch gekennzeichnet, daß die Formfunktion zweiter
Ordnung eine durch die beiden Mittelpunkte laufende
Linie ist.
23. Gesichtsbildverarbeitungssystem nach Anspruch 22,
dadurch gekennzeichnet, daß die Bewertungsfunktion einer
Differenz zwischen einem Gradienten einer ersten Linie
und einem Gradienten einer zweiten Linie entspricht.
24. Gesichtsbildverarbeitungssystem nach Anspruch 23,
dadurch gekennzeichnet, daß die erste Linie eine durch
einen Mittelpunkt eines Mittenabschnitts des Bilds des
Auges und einem Mittelpunkt eines linken Endabschnitts
hiervon laufende Linie ist und daß die zweite Linie eine
durch den Mittelpunkt des Mittenabschnitts des Bilds des
Auges und einem Mittelpunkt eines rechten Endabschnitts
hiervon laufende Linie ist.
25. Gesichtsbildverarbeitungssystem nach Anspruch 21,
dadurch gekennzeichnet, daß die Funktionen erster
Ordnung einem Mittelpunkt eines festgelegten Bereichs
eines Bilds eines linken Auges in dem Binärbild des
Ortsbereichs des Auges und einem Mittelpunkt eines
festgelegten Bereichs eines Bilds eines hierin
enthaltenen rechten Auges entsprechen.
26. Gesichtsbildverarbeitungssystem nach Anspruch 25,
dadurch gekennzeichnet, daß die Funktionen zweiter
Ordnung einer ersten Linie entsprechen, die durch die
beiden Mittelpunkte eines Abschnitts eines Bilds eines
linken Auges verlaufen, sowie einer zweiten Linie, die
durch die beiden Mittelpunkte eines Abschnitts eines
Bilds eines rechten Auges verlaufen.
27. Gesichtsbildverarbeitungssystem nach Anspruch 26,
dadurch gekennzeichnet, daß die Bewertungsfunktion einer
Differenz zwischen einem Gradienten der ersten Linie und
einem Gradienten der zweiten Linie entspricht.
28. Gesichtsbildverarbeitungssystem nach Anspruch 27,
dadurch gekennzeichnet, daß die erste Linie eine durch
einen Mittelpunkt eines Mittenabschnitts des Bilds des
linken Auges und einem Mittelpunkt eines linken
Endabschnitts hiervon verlaufenden Linie entspricht und
die zweite Linie einer durch den Mittelpunkt des
Mittenabschnitts des Bilds des rechten Auges und einem
Mittelpunkt eines rechten Endabschnitts hiervon
verlaufenden Linie entspricht.
29. Gesichtsbildverarbeitungssystem nach Anspruch 1, dadurch
gekennzeichnet, daß die Bewertungsfunktions-
Berechnungsvorrichtung erste und zweite Formfunktionen
anhand des Binärbilds des Ortsbereichs des Auges
bestimmt und eine Berechnungsfunktion gemäß den ersten
und zweiten Formfunktionen berechnet.
30. Gesichtsbildverarbeitungssystem nach Anspruch 29,
dadurch gekennzeichnet, daß die erste Formfunktion eine
Oberschranke des Binärbilds des Ortsbereichs des Auges
ist.
31. Gesichtsbildverarbeitungssystem nach Anspruch 30,
dadurch gekennzeichnet, daß die zweite Formfunktion ein
X-Histogramm des Binärbilds des Ortsbereichs des Auges
ist.
32. Gesichtsbildverarbeitungssystem gemäß Anspruch 31,
dadurch gekennzeichnet, daß die Bewertungsfunktion einer
Differenz zwischen der Oberschranke und einem
Spitzenwert des X-Histogramms entspricht.
33. Gesichtsbildverarbeitungssystem nach Anspruch 32,
dadurch gekennzeichnet, daß die Bewertungsfunktion einer
Summe der Differenzen zwischen den Koordinaten der
Oberschranke und der Spitzenwerte des X-Histogramms in
einem Mittenabschnitt des Binärbilds entspricht.
34. Gesichtsbildverarbeitungssystem, enthaltend:
eine Kamera zum Aufnehmen eines Gesichtsbilds;
eine Bildeingabevorrichtung zum Eingeben eines durch die Kamera gesendeten Videosignals;
eine Binärumsetzvorrichtung für die Binärumsetzung des durch die Bildeingabevorrichtung eingegebenen Gesichtsbilds;
eine Bewertungsfunktions-Berechnungsvorrichtung zum Extrahieren eines Extrahierbereichs eines Auges anhand des binär umgesetzten Gesichtsbilds, zum Berechnen einer Formfunktion zum Darstellen einer Formeigenschaft eines Auges in dem möglichen Ortsbereich eines Auges anhand des extrahierten Augenbereichs und zum Berechnen einer Bewertungsfunktion gemäß der Formfunktion; und
eine Extrahiervorrichtung für ein Auge zum Extrahieren eines Ortsbereichs eines Auges, der ein Auge enthält, gemäß der Bewertungsfunktion.
eine Kamera zum Aufnehmen eines Gesichtsbilds;
eine Bildeingabevorrichtung zum Eingeben eines durch die Kamera gesendeten Videosignals;
eine Binärumsetzvorrichtung für die Binärumsetzung des durch die Bildeingabevorrichtung eingegebenen Gesichtsbilds;
eine Bewertungsfunktions-Berechnungsvorrichtung zum Extrahieren eines Extrahierbereichs eines Auges anhand des binär umgesetzten Gesichtsbilds, zum Berechnen einer Formfunktion zum Darstellen einer Formeigenschaft eines Auges in dem möglichen Ortsbereich eines Auges anhand des extrahierten Augenbereichs und zum Berechnen einer Bewertungsfunktion gemäß der Formfunktion; und
eine Extrahiervorrichtung für ein Auge zum Extrahieren eines Ortsbereichs eines Auges, der ein Auge enthält, gemäß der Bewertungsfunktion.
35. Gesichtsbildverarbeitungssystem, enthaltend:
eine Kamera zum Aufnehmen eines Gesichtsbilds;
eine Bildeingabevorrichtung zum Eingeben eines durch die Kamera gesendeten Videosignals;
eine Binärumsetzvorrichtung für die Binärumsetzung des durch die Bildeingabevorrichtung eingegebenen Gesichtsbilds;
eine Bewertungsfunktions-Berechnungsvorrichtung zum Extrahieren eines Extrahierbereichs eines Auges anhand des binär umgesetzten Gesichtsbilds, zum Berechnen einer Formfunktion zum Darstellen einer Formeigenschaft eines Auges in dem möglichen Ortsbereich eines Auges anhand des extrahierten Augenbereichs und zum Berechnen einer Bewertungsfunktion gemäß der Formfunktion; und
eine Vorrichtung für die Augenextrahierung/zum Beurteilen des geöffneten oder geschlossenen Zustands des Auges zum Extrahieren eines Ortsbereichs des Auges, der ein Auge enthält, gemäß der Bewertungsfunktion, und zum Beurteilen anhand der Bewertungsfunktion, ob das Auge geöffnet oder geschlossen ist.
eine Kamera zum Aufnehmen eines Gesichtsbilds;
eine Bildeingabevorrichtung zum Eingeben eines durch die Kamera gesendeten Videosignals;
eine Binärumsetzvorrichtung für die Binärumsetzung des durch die Bildeingabevorrichtung eingegebenen Gesichtsbilds;
eine Bewertungsfunktions-Berechnungsvorrichtung zum Extrahieren eines Extrahierbereichs eines Auges anhand des binär umgesetzten Gesichtsbilds, zum Berechnen einer Formfunktion zum Darstellen einer Formeigenschaft eines Auges in dem möglichen Ortsbereich eines Auges anhand des extrahierten Augenbereichs und zum Berechnen einer Bewertungsfunktion gemäß der Formfunktion; und
eine Vorrichtung für die Augenextrahierung/zum Beurteilen des geöffneten oder geschlossenen Zustands des Auges zum Extrahieren eines Ortsbereichs des Auges, der ein Auge enthält, gemäß der Bewertungsfunktion, und zum Beurteilen anhand der Bewertungsfunktion, ob das Auge geöffnet oder geschlossen ist.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP19364795A JP3426060B2 (ja) | 1995-07-28 | 1995-07-28 | 顔画像処理装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
DE19614975A1 true DE19614975A1 (de) | 1997-01-30 |
DE19614975C2 DE19614975C2 (de) | 2000-01-13 |
Family
ID=16311429
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE19614975A Expired - Fee Related DE19614975C2 (de) | 1995-07-28 | 1996-04-16 | Gesichtsbildverarbeitungssystem |
Country Status (3)
Country | Link |
---|---|
US (1) | US5805720A (de) |
JP (1) | JP3426060B2 (de) |
DE (1) | DE19614975C2 (de) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2096577A3 (de) * | 2008-02-29 | 2013-11-06 | Canon Kabushiki Kaisha | Informationsverarbeitungsvorrichtung, Verfahren zur Bestimmung des Öffnungs-/Schließungsgrads von Augen, computerlesbarer Datenträger und Bilderfassungsvorrichtung |
Families Citing this family (62)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2907120B2 (ja) * | 1996-05-29 | 1999-06-21 | 日本電気株式会社 | 赤目検出補正装置 |
US7630006B2 (en) | 1997-10-09 | 2009-12-08 | Fotonation Ireland Limited | Detecting red eye filter and apparatus using meta-data |
US7042505B1 (en) | 1997-10-09 | 2006-05-09 | Fotonation Ireland Ltd. | Red-eye filter method and apparatus |
US7738015B2 (en) | 1997-10-09 | 2010-06-15 | Fotonation Vision Limited | Red-eye filter method and apparatus |
DE19803158C1 (de) * | 1998-01-28 | 1999-05-06 | Daimler Chrysler Ag | Vorrichtung zur Vigilanzzustandsbestimmung |
JP3600755B2 (ja) | 1999-05-13 | 2004-12-15 | 三菱電機株式会社 | 顔画像処理装置 |
JP3695990B2 (ja) * | 1999-05-25 | 2005-09-14 | 三菱電機株式会社 | 顔画像処理装置 |
CN1144166C (zh) * | 1999-06-17 | 2004-03-31 | 现代自动车株式会社 | 瞌睡驾驶警告系统的驾驶员瞌睡检测方法 |
US6728401B1 (en) | 2000-08-17 | 2004-04-27 | Viewahead Technology | Red-eye removal using color image processing |
US20020180608A1 (en) | 2001-05-04 | 2002-12-05 | Sphericon Ltd. | Driver alertness monitoring system |
JP3963789B2 (ja) * | 2002-06-24 | 2007-08-22 | デジタルファッション株式会社 | 眼検出装置、眼検出プログラム、そのプログラムを記録する記録媒体及び眼検出方法 |
WO2004040531A1 (en) * | 2002-10-28 | 2004-05-13 | Morris Steffin | Method and apparatus for detection of drownsiness and for monitoring biological processes |
US7792335B2 (en) * | 2006-02-24 | 2010-09-07 | Fotonation Vision Limited | Method and apparatus for selective disqualification of digital images |
US8036458B2 (en) | 2007-11-08 | 2011-10-11 | DigitalOptics Corporation Europe Limited | Detecting redeye defects in digital images |
US8254674B2 (en) | 2004-10-28 | 2012-08-28 | DigitalOptics Corporation Europe Limited | Analyzing partial face regions for red-eye detection in acquired digital images |
US7920723B2 (en) | 2005-11-18 | 2011-04-05 | Tessera Technologies Ireland Limited | Two stage detection for photographic eye artifacts |
US7689009B2 (en) | 2005-11-18 | 2010-03-30 | Fotonation Vision Ltd. | Two stage detection for photographic eye artifacts |
US7336821B2 (en) | 2006-02-14 | 2008-02-26 | Fotonation Vision Limited | Automatic detection and correction of non-red eye flash defects |
US7792970B2 (en) | 2005-06-17 | 2010-09-07 | Fotonation Vision Limited | Method for establishing a paired connection between media devices |
US7970182B2 (en) | 2005-11-18 | 2011-06-28 | Tessera Technologies Ireland Limited | Two stage detection for photographic eye artifacts |
US8170294B2 (en) | 2006-11-10 | 2012-05-01 | DigitalOptics Corporation Europe Limited | Method of detecting redeye in a digital image |
US7574016B2 (en) | 2003-06-26 | 2009-08-11 | Fotonation Vision Limited | Digital image processing using face detection information |
US9412007B2 (en) | 2003-08-05 | 2016-08-09 | Fotonation Limited | Partial face detector red-eye filter method and apparatus |
US20050140801A1 (en) * | 2003-08-05 | 2005-06-30 | Yury Prilutsky | Optimized performance and performance for red-eye filter method and apparatus |
US8520093B2 (en) | 2003-08-05 | 2013-08-27 | DigitalOptics Corporation Europe Limited | Face tracker and partial face tracker for red-eye filter method and apparatus |
US7435227B2 (en) * | 2004-09-13 | 2008-10-14 | Biocognisafe (Bcs) Technologies | Method and apparatus for generating an indication of a level of vigilance of an individual |
US20080080744A1 (en) * | 2004-09-17 | 2008-04-03 | Mitsubishi Electric Corporation | Face Identification Apparatus and Face Identification Method |
US20060149426A1 (en) * | 2005-01-04 | 2006-07-06 | Unkrich Mark A | Detecting an eye of a user and determining location and blinking state of the user |
US7253739B2 (en) | 2005-03-10 | 2007-08-07 | Delphi Technologies, Inc. | System and method for determining eye closure state |
US7253738B2 (en) * | 2005-03-10 | 2007-08-07 | Delphi Technologies, Inc. | System and method of detecting eye closure based on edge lines |
US7746235B2 (en) * | 2005-03-10 | 2010-06-29 | Delphi Technologies, Inc. | System and method of detecting eye closure based on line angles |
JP2006260397A (ja) * | 2005-03-18 | 2006-09-28 | Konica Minolta Holdings Inc | 開眼度推定装置 |
US7599577B2 (en) | 2005-11-18 | 2009-10-06 | Fotonation Vision Limited | Method and apparatus of correcting hybrid flash artifacts in digital images |
US7650034B2 (en) * | 2005-12-14 | 2010-01-19 | Delphi Technologies, Inc. | Method of locating a human eye in a video image |
US7804983B2 (en) * | 2006-02-24 | 2010-09-28 | Fotonation Vision Limited | Digital image acquisition control and correction method and apparatus |
EP2033142B1 (de) | 2006-06-12 | 2011-01-26 | Tessera Technologies Ireland Limited | Fortschritte bei der erweiterung der aam-techniken aus grauskalen- zu farbbildern |
US8102417B2 (en) * | 2006-10-25 | 2012-01-24 | Delphi Technologies, Inc. | Eye closure recognition system and method |
KR100791389B1 (ko) * | 2006-12-26 | 2008-01-07 | 삼성전자주식회사 | 스트럭쳐드 라이트를 이용한 거리 측정 장치 및 방법 |
US8055067B2 (en) | 2007-01-18 | 2011-11-08 | DigitalOptics Corporation Europe Limited | Color segmentation |
JP2010520567A (ja) | 2007-03-05 | 2010-06-10 | フォトネーション ビジョン リミテッド | 顔の位置および向きを用いた赤目の誤検出フィルタリング |
JP4848303B2 (ja) * | 2007-03-15 | 2011-12-28 | アイシン精機株式会社 | 眼開閉判別装置及びプログラム |
JP4309928B2 (ja) * | 2007-03-15 | 2009-08-05 | アイシン精機株式会社 | 瞼検出装置、瞼検出方法、及び、プログラム |
DE102008007152B4 (de) | 2007-03-30 | 2019-01-17 | Volkswagen Ag | Verfahren zur Parametrisierung des Augenöffnungsgrades eines Fahrers eines Kraftfahrzeugs |
CN101388070B (zh) * | 2007-09-14 | 2011-11-30 | 鸿富锦精密工业(深圳)有限公司 | 选择最佳时机捕获影像的系统及方法 |
US8503818B2 (en) | 2007-09-25 | 2013-08-06 | DigitalOptics Corporation Europe Limited | Eye defect detection in international standards organization images |
US8750578B2 (en) | 2008-01-29 | 2014-06-10 | DigitalOptics Corporation Europe Limited | Detecting facial expressions in digital images |
US8212864B2 (en) | 2008-01-30 | 2012-07-03 | DigitalOptics Corporation Europe Limited | Methods and apparatuses for using image acquisition data to detect and correct image defects |
US8570176B2 (en) * | 2008-05-28 | 2013-10-29 | 7352867 Canada Inc. | Method and device for the detection of microsleep events |
CN101616500B (zh) * | 2008-06-23 | 2012-08-22 | 深圳富泰宏精密工业有限公司 | 移动设备及其密码设置方法 |
US8081254B2 (en) | 2008-08-14 | 2011-12-20 | DigitalOptics Corporation Europe Limited | In-camera based method of detecting defect eye with high accuracy |
WO2010136593A2 (en) * | 2009-05-29 | 2010-12-02 | Tessera Technologies Ireland Limited | Methods and apparatuses for foreground, top-of-the-head separation from background |
US8971628B2 (en) | 2010-07-26 | 2015-03-03 | Fotonation Limited | Face detection using division-generated haar-like features for illumination invariance |
WO2013008303A1 (ja) * | 2011-07-11 | 2013-01-17 | トヨタ自動車株式会社 | 赤目検出装置 |
JP5418579B2 (ja) * | 2011-12-06 | 2014-02-19 | 株式会社デンソー | 開閉眼検出装置 |
DE102012208822A1 (de) * | 2012-05-25 | 2013-11-28 | Robert Bosch Gmbh | Verfahren und Vorrichtung zur Fahrerzustandserkennung |
US9335819B1 (en) * | 2014-06-26 | 2016-05-10 | Audible, Inc. | Automatic creation of sleep bookmarks in content items |
KR20170057313A (ko) | 2014-09-09 | 2017-05-24 | 토르벡 인코포레이티드 | 웨어러블 디바이스를 활용하여 개인의 각성을 모니터링하고 통보를 제공하기 위한 방법들 및 장치 |
DE102015225109A1 (de) * | 2015-12-14 | 2017-06-14 | Robert Bosch Gmbh | Verfahren und Vorrichtung zum Klassieren von Augenöffnungsdaten zumindest eines Auges eines Insassen eines Fahrzeugs und Verfahren und Vorrichtung zum Erfassen einer Schläfrigkeit und/oder eines Sekundenschlafes eines Insassen eines Fahrzeugs |
US10238335B2 (en) | 2016-02-18 | 2019-03-26 | Curaegis Technologies, Inc. | Alertness prediction system and method |
CN107977622B (zh) * | 2017-11-30 | 2021-10-26 | 西安科锐盛创新科技有限公司 | 基于瞳孔特征的眼睛状态检测方法 |
CN112622876B (zh) * | 2021-03-09 | 2021-05-14 | 天津所托瑞安汽车科技有限公司 | 车辆质心位置确定方法、装置、设备和存储介质 |
DE102021123849A1 (de) | 2021-09-15 | 2023-03-16 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren und Überwachungseinrichtung zum Bestimmen eines Augenzustands einer Person und Kraftfahrzeug |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0632154A (ja) * | 1992-07-18 | 1994-02-08 | Nissan Motor Co Ltd | 運転者の状態検出装置 |
DE4441332A1 (de) * | 1993-11-11 | 1995-05-18 | Mitsubishi Electric Corp | Fahrer-Fotografiervorrichtung |
DE19509689A1 (de) * | 1994-03-10 | 1995-09-14 | Mitsubishi Electric Corp | Körperzustands-Erfassungsapparat |
DE19613614A1 (de) * | 1995-05-10 | 1996-11-14 | Mitsubishi Electric Corp | Vorrichtung zur Bearbeitung eines Bildes eines Gesichts |
DE19603287A1 (de) * | 1995-07-06 | 1997-01-09 | Mitsubishi Electric Corp | Gesichtsbildaufnahmevorrichtung |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2541688B2 (ja) * | 1990-05-21 | 1996-10-09 | 日産自動車株式会社 | 眼位置検出装置 |
JP2522859B2 (ja) * | 1990-12-14 | 1996-08-07 | 日産自動車株式会社 | 眼位置検出装置 |
JP2973676B2 (ja) * | 1992-01-23 | 1999-11-08 | 松下電器産業株式会社 | 顔画像特徴点抽出装置 |
JPH06308918A (ja) * | 1993-04-21 | 1994-11-04 | Fujitsu Ltd | 画面表示制御方法及び画面表示制御装置 |
US5422690A (en) * | 1994-03-16 | 1995-06-06 | Pulse Medical Instruments, Inc. | Fitness impairment tester |
US5570698A (en) * | 1995-06-02 | 1996-11-05 | Siemens Corporate Research, Inc. | System for monitoring eyes for detecting sleep behavior |
-
1995
- 1995-07-28 JP JP19364795A patent/JP3426060B2/ja not_active Expired - Fee Related
-
1996
- 1996-03-11 US US08/612,815 patent/US5805720A/en not_active Expired - Lifetime
- 1996-04-16 DE DE19614975A patent/DE19614975C2/de not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0632154A (ja) * | 1992-07-18 | 1994-02-08 | Nissan Motor Co Ltd | 運転者の状態検出装置 |
DE4441332A1 (de) * | 1993-11-11 | 1995-05-18 | Mitsubishi Electric Corp | Fahrer-Fotografiervorrichtung |
DE19509689A1 (de) * | 1994-03-10 | 1995-09-14 | Mitsubishi Electric Corp | Körperzustands-Erfassungsapparat |
DE19613614A1 (de) * | 1995-05-10 | 1996-11-14 | Mitsubishi Electric Corp | Vorrichtung zur Bearbeitung eines Bildes eines Gesichts |
DE19603287A1 (de) * | 1995-07-06 | 1997-01-09 | Mitsubishi Electric Corp | Gesichtsbildaufnahmevorrichtung |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2096577A3 (de) * | 2008-02-29 | 2013-11-06 | Canon Kabushiki Kaisha | Informationsverarbeitungsvorrichtung, Verfahren zur Bestimmung des Öffnungs-/Schließungsgrads von Augen, computerlesbarer Datenträger und Bilderfassungsvorrichtung |
US8624994B2 (en) | 2008-02-29 | 2014-01-07 | Canon Kabushiki Kaisha | Information processing apparatus, eye open/closed degree determination method, computer-readable storage medium, and image sensing apparatus |
Also Published As
Publication number | Publication date |
---|---|
US5805720A (en) | 1998-09-08 |
JP3426060B2 (ja) | 2003-07-14 |
JPH0944684A (ja) | 1997-02-14 |
DE19614975C2 (de) | 2000-01-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE19614975C2 (de) | Gesichtsbildverarbeitungssystem | |
DE19609455C2 (de) | Gesichtsbild-Verarbeitungssystem | |
DE69610689T2 (de) | System zum Klassifizieren von Fingerabdrücken | |
DE19934925B4 (de) | Fahrzeugbereich-Erkennungsvorrichtung und Fahrzeugbereich-Bestimmungsverfahren | |
DE2831582C2 (de) | Verfahren zur Identifizierung einer Person und Vorrichtung zur Durchführung des Verfahrens | |
DE3751612T2 (de) | Gerät zum lesen eines nummernschildes. | |
DE60307967T2 (de) | Bildverarbeitungsverfahren für die untersuchung des erscheinungsbildes | |
DE69833999T2 (de) | Verfahren zur automatischen erkennung menschlicher augen in digitalbildern | |
DE69329554T2 (de) | Verfahren zur identifizierung von objekten unter verwendung von datenverarbeitungstechniken | |
EP1062640B1 (de) | Verfahren zum verifizieren der authentizität eines im rahmen einer personenerkennung aufgenommenen bildes | |
DE4406020C1 (de) | Verfahren zur automatisierten Erkennung von Objekten | |
DE69024537T2 (de) | Infrarot-Überwachungssystem | |
DE60224324T2 (de) | Verfahren und Vorrichtung zur Verarbeitung von Fahrzeugbildern | |
DE69027633T2 (de) | Automatische Fahrzeugführung entlang Führungslinien | |
DE102014117102B4 (de) | Spurwechselwarnsystem und Verfahren zum Steuern des Spurwechselwarnsystems | |
DE60217589T2 (de) | Vorrichtung und Verfahren zur Detektion von weissen Linien | |
DE19847261A1 (de) | Verfahren und System zur Personenerkennung mit modellbasierter Gesichtsfindung | |
DE112010003914T5 (de) | Verfahren und Vorrichtung zur Erkennung von Müdigkeit am Steuer sowie ein Fahrzeug | |
DE69623564T2 (de) | Gerät zur Extraktion von Fingerabdruckmerkmalen | |
AT523045A4 (de) | Verfahren und Vorrichtung zur Sitzgurterkennung | |
EP1143373B1 (de) | Verfahren zur störanteilsfreien Bilderfassung mittels eines elektronischen Sensors | |
DE69821225T2 (de) | Verfahren zur kontrolle der oberfläche einer laufenden materialbahn mit vorklassifikation von ermittelten unregelmässigkeiten | |
EP0750764B1 (de) | Verfahren und anordnung zur fuzzy-regelung | |
DE69600320T2 (de) | Verfahren zur automatischen Erkennung von auswertbaren Zonen in Bildern von mechanischen Teilen | |
DE102018222797A1 (de) | Informationsverarbeitungsvorrichtung, Bildverarbeitungsverfahren und Aufzeichnungsmedium, auf dem das Bildverarbeitungsprogramm gespeichert ist |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
D2 | Grant after examination | ||
8364 | No opposition during term of opposition | ||
8320 | Willingness to grant licences declared (paragraph 23) | ||
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |
Effective date: 20121101 |