DE19609455A1 - Erfassung des geöffneten/geschlossenen Zustands von Augen auf der Grundlage einer Untersuchung der Beziehung zwischen Augen- und Augenbrauenbildern in Eingangs-Gesichtsbildern - Google Patents
Erfassung des geöffneten/geschlossenen Zustands von Augen auf der Grundlage einer Untersuchung der Beziehung zwischen Augen- und Augenbrauenbildern in Eingangs-GesichtsbildernInfo
- Publication number
- DE19609455A1 DE19609455A1 DE19609455A DE19609455A DE19609455A1 DE 19609455 A1 DE19609455 A1 DE 19609455A1 DE 19609455 A DE19609455 A DE 19609455A DE 19609455 A DE19609455 A DE 19609455A DE 19609455 A1 DE19609455 A1 DE 19609455A1
- Authority
- DE
- Germany
- Prior art keywords
- image
- eye
- eyebrow
- face
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/02—Alarms for ensuring the safety of persons
- G08B21/06—Alarms for ensuring the safety of persons indicating a condition of sleep, e.g. anti-dozing alarms
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Business, Economics & Management (AREA)
- Emergency Management (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Auxiliary Drives, Propulsion Controls, And Safety Devices (AREA)
- Emergency Alarm Devices (AREA)
Description
Die vorliegende Erfindung betrifft allgemein die
Bildmustererkennung, und insbesondere
Gesichtsbild-Bearbeitungssysteme mit einer Erfassung und Überwachung des
geöffneten oder geschlossenen Zustands zumindest eines
Augenbildes, welches unter Verwendung von
Gesichtsbild-Verarbeitungsverfahren herausgezogen wird. Weiterhin betrifft
die vorliegende Erfindung eine
Gesichtsbild-Verarbeitungsvorrichtung zur Verwendung in Sicherheitssystemen,
die dazu dient, die sichere Fortsetzung angestrebter
Handarbeiten dadurch sicherzustellen, daß beim Auftreten des
Einschlafens oder Schlafens während der Arbeit ein Alarm
ausgelöst wird.
Als eines von Bildmustererkennungsverfahren weist ein
Gesichtsbild-Verarbeitungssystem einen weiten Einsatzbereich
auf, beispielsweise bei einer Vorrichtung zur Erfassung des
Einschlafens einer Person, beispielsweise des Fahrers eines
Kraftfahrzeugs, durch Überwachung des offenen/geschlossenen
Zustands seiner oder ihrer Augen (im Falle einer Fahrerin). Ein
derartiges Fahrerzustandsüberwachungssystem wurde
beispielsweise in der veröffentlichten, ungeprüften japanischen
Patentanmeldung Nr. 6-227278 beschrieben, und ist insgesamt so
wie in Fig. 33 gezeigt ausgebildet. Die Vorrichtung nach dem
Stand der Technik gemäß Fig. 33 weist einen
Bildeingabeabschnitt 82 auf, um ein eingegebenes Gesichtsbild
eines Fahrers zu erhalten, einen Digitalisierer 83 zum
Digitalisieren des von dem Gesichtseingabeabschnitt 82
erhaltenen Bilds zur Erzeugung eines binären
Gesichtsbildsignals, und eine Augapfelvorhandenseinsbereichs
Einstellvorrichtung 56 zur Bestimmung des exakten Ortes eines
Augapfelbildbereichs in dem binären Gesichtsbild. Ein Detektor
57 für den offenen/geschlossenen Zustand des Auges ist so
ausgebildet, daß er den geöffneten oder geschlossenen Zustand
eines Auges innerhalb des so ermittelten
Augapfelvorhandenseinsbereichs feststellt. Der Detektor 57 ist
an eine Fahrzustands-Identifizierungsvorrichtung 86
angeschlossen, welche den momentanen Zustand des Fahrer s auf
der Grundlage des sich ergebenden Musters des
geöffneten/geschlossenen Auges feststellt, welches von dem
Detektor 57 für das geschlossene/geöffnete Auge festgestellt
wird. Eine Ermittlungsfehler-Identifizierungsvorrichtung 84 ist
dazu vorgesehen, das Auftreten irgendeines Fehlers bei der
Ermittlung des Augapfelvorhandenseinsbereichs festzustellen,
auf der Grundlage der Erfassungsergebnisse des Detektors 57 für
den offenen/geschlossenen Zustand. Weiterhin ist eine
Rücksetzvorrichtung 85 vorgesehen, um den
Augenvorhandenseinsbereich in Reaktion auf die
Erfassungsfehler-Identifizierungsergebnisse zu modifizieren
oder zu aktualisieren.
Der Betriebsablauf der aus dem Stand der Technik bekannten
Vorrichtung wird unter Bezugnahme auf die Fig. 33 bis 36
beschrieben. Wenn ein Gesichtsbild eines betreffenden Fahrers
erhalten und von dem Bildeingabeabschnitt 62 eingegeben wird,
wird das sich ergebende Gesichtsbild dann dem Digitalisierer 83
zugeführt, der es zur Erzeugung eines binären
Gesichtsbildsignals digitalisiert. Dieses Bildsignal wird der
Augapfelvorhandenseinsbereichs-Einstellvorrichtung 56
zugeführt, welche aus dem Gesichtsbild einen
Augapfelbildabschnitt heraus zieht, um den Ort dieses Augapfels
zu bestimmen und einzustellen, also den dort vorhandenen
Augapfelvorhandenseinsbereich. Die Ermittlung des geöffneten
oder geschlossenen Zustands durch den hierfür vorgesehenen
Detektor 57 wird innerhalb eines Fensters 58 (sh. Fig. 34)
durchgeführt, welches aus dem Gesichtsbild herausgenommen wird,
so daß es den Augapfelbildabschnitt enthält, der durch die
Augapfelvorhandenseinsbereichs-Einstellvorrichtung 56
eingestellt wird. Der Detektor 57 für den
geöffneten/geschlossenen Zustand kann als
Feststellungsverfahren für den geöffneten/geschlossenen Zustand
eine von zwei unterschiedlichen Vorgehensweisen einsetzen, wie
nachstehend noch genauer erläutert wird.
Bei einer ersten Vorgehensweise zur Ermittlung des
offenen/geschlossenen Zustands eines Auges wird eine Iris in
dem Gesichtsbildfenster 58 von Fig. 3 festgestellt, welches
den Augapfelvorhandenseinsbereich darstellt. Wie aus Fig. 35
hervorgeht, kann diese Iris dadurch festgestellt werden, daß
(i) ein bestimmter Kreis 59, der durch einen vorgegebenen Punkt
(x, y) als Zentrum definiert wird, innerhalb des Fensters 58
definiert wird, sowie vier schlitzförmige, rechteckige
Markierungen 60, die von dem Zentrumspunkt (x, y) in vier
Radialrichtungen ausgehen, (ii) jede mögliche Differenz bei der
Gesamtsumme der Helligkeitswerte jeweiliger weißer Abschnitte
der rechteckigen Markierungen 60 und von deren schraffierten
Abschnitten berechnet wird, und (iii) als das Iriszentrum ein
Punkt bestimmt wird, der eine maximale Helligkeitsdifferenz
zeigt.
Die Erfassung des geöffneten/geschlossenen Zustands des Auges
wird auf der Grundlage der Erfassung einer derartigen maximalen
Helligkeitsdifferenz an dem so bestimmten Iriszentrum
durchgeführt. Wenn zu diesem Zeitpunkt für einen vorbestimmten
Zeitraum keine maximale Helligkeitsdifferenz festgestellt wird,
stellt dann die Erfassungsfehler-Identifizierungsvorrichtung 84
fest, daß die Augenerfassung versagt, und ein Erfassungsfehler
oder Meßfehler aufgetreten ist. Sobald ein derartiger
Augenerfassungsfehler stattfindet, zwingt die
Rücksetzvorrichtung 85 die Augapfelvorhandenseinsbereichs-Einstellvorrichtung
56 zu einer Rücksetzung des
Augapfelvorhandenseinsbereichs.
Eine zweite Vorgehensweise zur Erfassung des
offenen/geschlossenen Zustands des Auges ist folgendermaßen.
Wie aus Fig. 36 hervorgeht, wird das Augenfenster 58 vertikal
abgetastet, um nach irgendwelchen durchgehenden schwarzfarbigen
Bildelementen (Pixeln) zu suchen, um ein Augapfelbild zu
erfassen, und um hierdurch einen spezifischen Bildabschnitt
aufzufinden, der aus einer Maximalanzahl 63 durchgehender
schwarzer Pixel besteht. Die Berechnung dieser maximalen
durchgehenden Anzahl schwarzer Pixel 63 wird wiederholt in
Bezug auf mehrere Bilder durchgeführt; die sich hierbei
ergebenden Maximal- und Minimalwerte werden zur Einstellung
eines geeigneten Schwellenwertes verwendet. Nachdem der
Schwellenwert eingestellt wurde, kann der
geöffnete/geschlossene Zustand eines Auges oder mehrerer Augen
dadurch festgestellt werden, daß die maximale Anzahl 63
durchgehender schwarzer Pixel mit dem Schwellenwert verglichen
wird. Zu diesem Zeitpunkt kann die
Erfassungsfehler-Identifizierungsvorrichtung 84 feststellen, daß während eines
vorbestimmten Zeitraums die maximale Anzahl 63 durchgehender
schwarzer Pixel unverändert bleibt; falls dies der Fall ist,
wird daraus geschlossen, daß keine korrekte Augenerfassung
erfolgt. In Reaktion auf die Bestimmung eines derartigen
Augapfel-Erfassungsfehlers veranlaßt die Rücksetzvorrichtung 85
dann die Augapfelvorhandenseinsbereichs-Einstellvorrichtung 56
zur Durchführung eines Augapfelvorhandenseinsbereichs-Rücksetzvorgangs,
also zur Wiederholung eines entsprechenden
Augapfelvorhandenseinsbereichs-Einstellvorgangs in Bezug auf
einen unterschiedlichen Gesichtsbildbereich.
Wie aus der voranstehenden Erläuterung deutlich wird, ist die
Vorrichtung nach dem Stand der Technik so aufgebaut, daß sie
die erforderliche Information, die zur Bestimmung verwendet
wird, ob ein Fahrer einschläft oder nicht, dadurch erlangt, daß
Variationen eines Irisabschnitts untersucht werden, der aus
einem Augenfenster festgestellt wird, welches aus einem binären
Gesichtsbild stammt. Alternativ hierzu ist die Vorrichtung nach
dem Stand der Technik so ausgebildet, daß sie (i) einen
möglichen Augapfelvorhandenseinsbereich erfaßt, aus welchem die
Information erhältlich ist, ob ein Fahrer einschläft, durch
vertikale Abtastung des Augenfensters 58 zur Suche nach einer
Reihe durchgehender schwarzer Bildpunkte darin, (ii) die
maximale Anzahl durchgehender schwarzer Pixel berechnet wird,
und (iii) schließlich bestimmt wird, ob die Augapfelerfassung
erfolgreich ist oder nicht, durch Analyse überwachter
Änderungen der Anzahl durchgehender schwarzer Bildpunkte
während eines vorbestimmten Zeitraums.
Ein Nachteil bei diesem Stand der Technik besteht darin, daß
die Augapfelerfassung instabil ist, und darüber hinaus weniger
verläßlich, aus folgenden Gründen. Bei einem erfaßten
Gesichtsbild eines Fahrers können Schatten auftreten, infolge
von Änderungen von Bildaufnahmelichtstrahlen, die auf das
Gesicht des Fahrers auftreffen, und/oder infolge von Änderungen
der Ausrichtung des Gesichts des Fahrers zum Zeitpunkt der
Bildaufnahme. Wenn dies der Fall ist, kann der binäre
Augapfelvorhandenseinsbereich, der aus einem digitalisierten
Gesichtsbild herausgezogen wurde, instabil werden, was dazu
führt, daß ein gewünschtes Augapfelbild seine Position
gegenüber dem eigentlichen Ort verschiebt, oder ein
Augapfelbild zu einer Ellipsenform verformt wird. Wenn die
Ermittlung des geöffneten/geschlossenen Zustands eines Auges
durch Erfassung eines Irisbildes in einem derartig instabilen
Zustand durchgeführt wird, ist die Vorrichtung nach dem Stand
der Technik unfähig, das Auftreten von Erfassungsfehlern zu
unterdrücken oder auszuschalten.
Ein weiterer Nachteil des Standes der Technik besteht darin,
daß ein fehlerhafter Schwellenwert möglicherweise eingestellt
werden kann, abhängig von dem aktuellen binären Zustand eines
eingegebenen Gesichtsbildes, wodurch die Erfassung des
geöffneten/geschlossenen Zustands infolge der Tatsache versagt,
daß die Vorrichtung nach dem Stand der Technik sich nur auf
einen Augenabschnitt des Augapfelvorhandenseinsbereichs in dem
eingegebenen Gesichtsbild konzentriert und einen Schwellenwert
mit einem derartigen Augenabschnitt als Bezugsgröße festlegt.
Ein Ziel der vorliegenden Erfindung besteht daher in der
Bereitstellung eines neuen und verbesserten
Gesichtsbild-Bearbeitungsverfahrens.
Ein weiteres Ziel der Erfindung besteht in der Bereitstellung
einer neuen und verbesserten
Gesichtsbild-Verarbeitungsvorrichtung, welche den geöffneten oder
geschlossenen Zustand eines Auges mit höherer Genauigkeit
bestimmen kann.
Ein weiteres Ziel der Erfindung besteht in der Bereitstellung
einer neuen und verbesserten Gesichtsbild-
Bearbeitungsvorrichtung, welche exakt den
geöffneten/geschlossenen Zustand des Auges eines Fahrers unter
Verwendung bestimmter Information feststellen kann, nämlich von
Änderungen von Relativpositionen eines Augenbildes und eines
Augenbrauenbildes, deren Zustand sich innerhalb eines erfaßten,
eingegebenen Gesichtsbildes nicht ändern.
Entsprechend den voranstehend angegebenen Zielen richtet sich
die vorliegende Erfindung auf ein spezifisches
Gesichtsbild-Verarbeitungssystem, welches den geöffneten oder geschlossenen
Zustand zumindest eines Auges einer überwachten Person erfaßt,
durch Analyse der Positionsbeziehung zwischen einem Augenbild
und dessen zugeordnetem Augenbrauenbild in einem eingegebenen
Gesichtsbild, statt nur den Zustand eines bloßen Irisbildes zu
erfassen.
Gemäß einer Zielrichtung der vorliegenden Erfindung weist eine
Gesichtsbild-Verarbeitungsvorrichtung einen Eingabeabschnitt
zur Annahme eines Eingangs/Gesichtsbildes einer Person auf,
eine Augenherausziehbereichs-Einstellvorrichtung zur Bestimmung
eines Augenherausziehbereiches innerhalb des
Eingangs-Gesichtsbilds, eine Herausziehvorrichtung zum Herausziehen aus
dem Augenherausziehbereich erster und zweiter Bildkomponenten
entsprechend einem Augenbrauenbild bzw. einem Augenbild, einen
ersten Detektor zur Erfassung von Relativpositionen der
herausgezogenen ersten und zweiten Bildkomponenten, und einen
zweiten Detektor zur Erfassung des Schließungsgrades des
Augenbildes durch Untersuchung von Variationen bei den erfaßten
Relativpositionen.
Gemäß einer weiteren Zielrichtung der Erfindung weist eine
Gesichtsbild-Bearbeitungsvorrichtung einen
Gesichtsbild-Eingabeabschnitt auf, um ein Eingangs-Gesichtsbild eines
überwachten Gesichts zu erhalten, eine Augenherausziehbereichs-
Einstellvorrichtung zur Einstellung eines
Augenherausziehbereichs innerhalb des Eingangs-Gesichtsbilds,
eine Gesichtsbild-Eigenschaftsherausziehvorrichtung zum
Herausziehen eines Augenbrauenbildes und eines Augenbildes aus
dem Augenherausziehbereich, einen Flächendetektor zur Erfassung
der Fläche des Augenbrauenbilds und der Fläche des Augenbilds,
eine Flächenverhältnisberechnungsvorrichtung zur Berechnung
eines Flächenverhältnisses des Augenbrauenbildes und des
Augenbildes, und einen Schließgraddetektor zur Erfassung des
Grades eines geöffneten oder geschlossenen Zustands eines
Auges, durch Untersuchung von Variationen des
Flächenverhältnisses zwischen den Flächen des Augenbrauenbildes
und des Augenbildes, das von der
Flächenverhältnisberechnungsvorrichtung berechnet wird.
Gemäß einer weiteren Zielrichtung der Erfindung weist eine
Gesichtsbild-Verarbeitungsvorrichtung einen
Gesichtsbild-Eingabeabschnitt auf, um ein Eingangs-Gesichtsbild eines
überwachten Gesichts zu erhalten, eine
Augenherausziehbereichs-Einstellvorrichtung zur Einstellung eines
Augenherausziehbereichs innerhalb des Eingangs-Gesichtsbilds,
eine Gesichtsbild-Eigenschaftsherausziehvorrichtung zum
Herausziehen eines Augenbrauenbildes und eines Augenbildes aus
dem Augenherausziehbereich, einen Breitenmeßabschnitt zur
Messung einer Breite bestimmter Abschnitte sowohl des
Augenbrauenbildes als auch des Augenbildes entlang der Länge
des Gesichts, eine Breitenverhältnis-Berechnungsvorrichtung zur
Berechnung eines Breitenverhältnisses zwischen der Breite des
Augenbrauenbildes und der Breite des Augenbildes, und einen
Detektor zur Feststellung eines geöffneten oder geschlossenen
Zustands eines Auges auf der Grundlage von Variationen des
Breitenverhältnisses, welches von der
Breitenverhältnis-Berechnungsvorrichtung berechnet wird.
Die Erfindung wird nachstehend anhand zeichnerisch
dargestellter Ausführungsbeispiele näher erläutert, aus welchen
weitere Vorteile und Merkmale hervorgehen. Es zeigt:
Fig. 1 ein schematisches Blockschaltbild eines
Gesichtsbild-Verarbeitungssystems gemäß der vorliegenden
Erfindung;
Fig. 2 ein Blockschaltbild eines Bildverarbeitungsabschnitts
der Ausführungsform gemäß Fig. 1;
Fig. 3 ein Beispiel für ein Gesichtsbild, welches von einer
CCD-Überwachungskamera von Fig. 1 aufgenommen wird;
Fig. 4 eine Gesichtsbereichsschablone, die durch eine
Augenherausziehbereichs-Einstellvorrichtung, die in
Fig. 2 gezeigt ist, aus dem Gesichtsbild von Fig. 3
herausgenommen wird;
Fig. 5 zwei Augenherausziehbereiche, die aus dem
Eingangs-Gesichtsbild herausgenommen werden und das rechte und
das linke Auge eines überwachten Fahrers darstellen;
Fig. 6 eine Augenbereichsschablone, die durch einen
Gesichtsbild-Eigenschaftsherausziehabschnitt von
Fig. 2 erzeugt wird, um einen Augenbereich aus
jeweiligen Augenherausziehbereichen von Fig. 5
herauszuziehen;
Fig. 7 ein Augenbrauenbild und ein Augenbild, die unter
Verwendung der Augenbereichsschablone von Fig. 6
durch die Gesichtsbild-Eigenschaftsherausziehvorrichtung
von Fig. 2
herausgezogen werden;
Fig. 8 ein schematisches Blockschaltbild eines
Relativpositionsdetektors von Fig. 2;
Fig. 9 ein Modell, welches eine Entfernung zwischen
beabstandeten Augenbrauen- und Augenzentrumspunkten
zeigt, die von einem Augenbrauenzentrumsdetektor bzw.
einem Augenzentrumsdetektor ermittelt werden, der in
Fig. 8 gezeigt ist;
Fig. 10A und 10B jeweilige Bildmuster, die von einem
Detektor gemäß Fig. 2 für den offenen/geschlossenen
Zustand eines Auges erzeugt werden;
Fig. 11 ein schematisches Blockschaltbild einer
Gesichtsbild-Verarbeitungsvorrichtung gemäß einer zweiten
Ausführungsform der vorliegenden Erfindung;
Fig. 12 verschiedene Eigenschaften eines MAX/MIN-Filters,
welches in einem Digitalisierer von Fig. 11
verwendet wird;
Fig. 13 schematisch ein Muster eines binären Gesichtsbilds,
welches durch einen Digitalisierungsvorgang in einem
in Fig. 11 gezeigten Digitalisierer erhalten wird;
Fig. 14A und 14B Signalformen wesentlicher Signale, die im
Betrieb des Digitalisierers erzeugt werden;
Fig. 15A und 15B Bildmuster, die im Betrieb einer
Augenheraus ziehbereichs-Einstellvorrichtung von Fig.
11 erzeugt werden;
Fig. 16 ein schematisches Blockschaltbild einer
Gesichtsbild-Bearbeitungsvorrichtung gemäß einer dritten
Ausführungsform der Erfindung;
Fig. 17 ein Modell mit beabstandeten Augenbrauen- und
Augenbildkomponenten, die von einem
Relativpositionsdetektor gemäß der dritten
Ausführungsform von Fig. 16 bearbeitet werden
sollen;
Fig. 18A und 18B jeweilige Kombinationen von Bildmustern,
die von einem Detektor für den
geöffneten/geschlossenen Zustand eines Auges gemäß
der dritten Ausführungsform von Fig. 16 bearbeitet
werden sollen;
Fig. 19 ein schematisches Blockschaltbild eines
Relativpositionsdetektors gemäß einer vierten
Ausführungsform der Erfindung;
Fig. 20A und 20B Gesichtshistogrammprofile in Querrichtung,
die von einem Augenbrauenbild-Blockbearbeitungsabschnitt
von Fig. 19 erzeugt
werden;
Fig. 21A und 21B Gesichtshistogrammuster in Längsrichtung,
die von dem Augenbrauenbild-Blockbearbeitungsabschnitt
erzeugt werden;
Fig. 22 ein Bildmuster, welches eine Blockbearbeitung durch
den Augenbrauenbildblockprozessor erfährt;
Fig. 23 ein Modell beabstandeter Augenbrauen- und
Augenbildkomponenten, die von einem
Relativpositionsdetektor bei der vierten
Ausführungsform bearbeitet werden sollen;
Fig. 24A und 24B jeweilige Kombinationen von Bildmustern,
die von einem Detektor für den
geöffneten/geschlossenen Zustand des Auges bei der
vierten Ausführungsform bearbeitet werden sollen;
Fig. 25 eine Kombination von Augenbrauen- und
Augenbildkomponenten, die von einem
Relativpositionsdetektor gemäß einer fünften
Ausführungsform der Erfindung bearbeitet werden
sollen;
Fig. 26 eine Kombination von Augenbrauen- und
Augenbildkomponenten, die von einem
Relativpositionsdetektor gemäß einer sechsten
Ausführungsform der Erfindung bearbeitet werden
sollen;
Fig. 27 ein schematisches Blockschaltbild einer
Gesichtsbild-Bearbeitungsvorrichtung gemäß einer siebten
Ausführungsform der Erfindung;
Fig. 28 eine Kombination von Augenbrauen- und
Augenbildkomponenten, die von einem
Relativpositionsdetektor gemäß der siebten
Ausführungsform bearbeitet werden sollen;
Fig. 29A und 29B jeweilige Kombinationen von
Augenbrauen- und Augenbildkomponenten, die von einem Detektor für
den geöffneten/geschlossenen Zustand des Auges gemäß
der siebten Ausführungsform bearbeitet werden sollen;
Fig. 30 ein Blockschaltbild eines Relativpositionsdetektors
gemäß einer achten Ausführungsform der Erfindung;
Fig. 31 eine Kombination von Augenbrauen- und
Augenbildkomponenten, die von einem
Relativpositionsdetektor gemäß der achten
Ausführungsform der Erfindung bearbeitet werden
sollen;
Fig. 32A und 32B jeweilige Kombinationen von
Augenbrauen- und Augenbildkomponenten, die von einem Detektor für
den geöffneten/geschlossenen Zustand des Auges bei
der achten Ausführungsform bearbeitet werden sollen;
Fig. 33 ein Blockschaltbild einer
Gesichtsbild-Bearbeitungsvorrichtung nach dem Stand der Technik;
Fig. 34 ein Fenster entsprechend einem
Augapfelvorhandenseinsbereich, der aus einem
Eingangs-Gesichtsbild bei der Vorrichtung nach dem
Stand der Technik herausgezogen wurde;
Fig. 35 ein Modell, welches zur Erläuterung des
Betriebsablaufs eines Detektors für den
geöffneten/geschlossenen Zustand eines Auges beim
Stand der Technik verwendet wird; und
Fig. 36 ein Augapfelvorhandenseinsbereichsfenster, welches
von dem Detektor für den geöffneten/geschlossenen
Zustand eines Auges nach dem Stand der Technik
vertikal abgetastet wird.
In Fig. 1 ist eine Gesichtsbild-Bearbeitungsvorrichtung gemäß
der Erfindung gezeigt, welche vorzugsweise bei momentan
verfügbaren Fahrzeugsicherheitssystemen verwendet werden kann,
welche den geöffneten oder geschlossenen Zustand der Augen
einer Person überwachen, beispielsweise des Fahrers eines
Kraftfahrzeugs, und dadurch Sicherheit zur Verfügung stellen,
daß beim Auftreten eines Einschlafens oder eines Halbschlafs
beim Fahren ein Alarm übertragen wird. Der
Gesichtsbildprozessor weist eine CCD-Monitorkamera 1 zum
Erfassen oder "Photographieren" des Gesichts des Fahrers zur
Erzeugung eines Gesichtsbilddatensignals auf. Ein Bildspeicher
2 ist einer CCD-Kamera 1 zum Speichern der Gesichtsbilddaten
angeschlossen, die von der CCD-Kamera 1 stammen. Eine
Bildbearbeitungseinheit 3 ist an den Bildspeicher 2 zur
Durchführung von Bildbearbeitungsvorgängen auf der Grundlage
der in dem Bildspeicher 2 gespeicherten Daten angeschlossen.
Die Ausbildung des Gesichtsbildprozessors 3 von Fig. 1 ist in
Fig. 2 dargestellt. Der Bildprozessor 3 weist einen
Gesichtsbildeingabeabschnitt 4 auf. Die Bilddaten, welche das
Gesicht des Fahrers repräsentieren, wie es von der CCD-Kamera 1
aufgenommen wurde, und dann in dem Bildspeicher 2 gespeichert
werden (die Bilddaten werden nachstehend als das "Gesichtsbild"
bezeichnet), werden von dem Gesichtsbildeingabeabschnitt 4 an
einen Augenherausziehbereichs-Einstellabschnitt 5 geschickt.
Die Augenherausziehbereichs-Einstellvorrichtung 5 bestimmt
einen geeigneten Teil des Eingangs-Gesichtsbilds als
Augenherausziehbereich, welcher dazu verwendet wird, hieraus
eine Augenbildkomponente herauszuziehen. Ein
Gesichtsbild-Eigenschaftsherausziehabschnitt 6 ist an einen Ausgang der
Augenherausziehbereichs-Einstellvorrichtung 5 angeschlossen, um
aus dem Augenherausziehbereich bestimmte Arten
charakteristischer Bildkomponenten herauszuziehen, welche eine
Augenbraue bzw. ein Auge des überwachten Fahrers darstellen.
Die Herausziehvorrichtung 6 ist an ihrem Ausgang an einen
Relativpositions-Erfassungsabschnitt 7 angeschlossen, der so
arbeitet, daß er Relativpositionen der auf diese Weise
herausgezogenen Augenbrauen- und Augenbilder erfaßt. Die
Ergebnisse dieser Erfassung werden dann einem Detektorabschnitt
8 einer Endstufe zugeführt, der so arbeitet, daß er das
aktuelle Ausmaß des Schließzustandes zumindest eines Auges des
Fahrers dadurch feststellt, daß er Variationen der erfaßten
Relativpositionen untersucht, und hierdurch den geöffneten oder
geschlossenen Zustand des Auges bestimmt; in dieser Hinsicht
wird der Abschnitt 8 nachstehend als "Detektor für den
geöffneten/geschlossenen Zustand des Auges" bezeichnet. Der
Gesichtsbildprozessor gemäß einer bevorzugten Ausführungsform
der Erfindung ist so ausgebildet, daß er ein ausgewähltes
Schablonenanpassungskorrelationsverfahren dazu verwendet, aus
dem Eingangs-Gesichtsbild einige Herausziehgegenstände
herauszuziehen, einschließlich des Augenherausziehbereiches,
des Augenbrauenbildes und des Augenbildes, und zwar auf eine
Art und Weise, die nachstehend noch genauer erläutert wird.
Der Betriebsablauf des Gesichtsbildprozessors unter Verwendung
von Schablonen über Einstimmungsverfahren wird nunmehr unter
Bezugnahme auf die Fig. 4 bis 7 beschrieben. Der
Gesichtsbild-Eingabeabschnitt 4 nimmt ein Gesichtsbild 9 eines
Fahrers auf, wie es von der CCD-Kamera 1 erfaßt wird, und in
dem Speicher von Fig. 1 gespeichert ist. Die
Augenherausziehbereichs-Einstellvorrichtung 5 bestimmt dann
innerhalb des Gesichtsbildes 9 eine rechteckige
Gesichtsbildschablone 10, die in Fig. 4 gezeigt ist, welche im
wesentlichen dem Gesichtsbildabschnitt entspricht. Dann zieht
die Gesichtsbild-Eigenschaftsherausziehvorrichtung 6 aus der
Gesichtsbildschablone 10 zwei kleine rechteckige Bildabschnitte
12a, 12b heraus, die im wesentlichen dem rechten bzw. linken
Auge des Fahrers entsprechen, und aus welchen die
Gesichtsbilder herausgezogen werden sollen. Eine in Fig. 6
gezeigte Augenbereichsschablone 13 wird dazu verwendet, einen
Augenbereich aus jedem der Herausziehbereiche 12a, 12b für das
rechte bzw. linke Auge herauszuziehen, um hierdurch ein
Augenbrauenbild 15 und ein Augenbild 16 zur Verfügung zu
stellen, die unter Verwendung der Augenbereichsschablone 13
herausgezogen werden, wie in Fig. 7 gezeigt ist.
Die Augenherauszieh-Einstellvorrichtung 5 führt eine
Korrelationsarithmetikverarbeitung für die
Gesichtsbereichsschablone 10 und das Gesichtsbild 9 durch,
während vorher die Gesichtsbereichsschablone 10 eingestellt
wird, welche den Gesichtsbereich festlegt. Wenn während einer
derartigen Korrelationsbearbeitung eine bestimmte Position
aufgefunden wird, bei welcher das Korrelationsarithmetik-
Bearbeitungsergebnis S ein Minimum wird, wird diese Position
dann als der Gesichtsbereich 11 von Fig. 5 genommen. Es wird
darauf hingewiesen, daß das Korrelationsverarbeitungsergebnis S
folgendermaßen dargestellt werden kann:
S = | N-T |
wobei N die Helligkeit des Gesichtsbildes 9 ist, und T die
Helligkeit der Gesichtsbereichsschablone 10. In dem so
festgelegten Gesichtsbereich 11 wird dessen oberer linker
Abschnitt entlang der Länge des Gesichts des Fahrers als der
Herausziehbereich 12a für das linke Auge festgelegt, wogegen
dessen oberer rechter Abschnitt als der Herausziehbereich 12b
für das rechte Auge festgelegt wird. Ein entsprechender
Schablonenanpassungsvorgang wird in Bezug auf diese
Augenherausziehbereiche 12a, 12b durchgeführt, um hierdurch das
Augenbrauenbild 15 und das Augenbild 16 herauszuziehen, die in
Fig. 7 gezeigt sind.
In Bezug auf das Herausziehen der Augenbrauen- und Augenbilder
15, 16 erzeugt die Gesichtsbild-
Eigenschaftsherausziehvorrichtung 6 von Fig. 2 vorher die
Augenbereichsschablone 13, welche einen Augenbereich festlegt,
der das Bild eines Auges und das Bild einer Augenbraue enthält,
und führt dann eine geeignete Korrelationsarithmetikbearbeitung
für die Augenbereichsschablone 13 und den
Augenherausziehbereich 12a entsprechend der voranstehend
angegebenen Gleichung (1) durch. Falls sich eine bestimmte
Position findet, bei welcher das
Korrelationsbearbeitungsergebnis S ein Minimum ist, wird diese
Position dann als ein Augenbereich 14 ausgewählt. Innerhalb
dieses Augenbereichs wird eine weitere Korrelationsbearbeitung
unter Verwendung der Augenbereichsschablone 13 durchgeführt, um
das Vorhandensein einer Augenbraue und eines zugehörigen Auges
festzustellen, wodurch wie in Fig. 7 gezeigt das
Augenbrauenbild und das Augenbild 15 bzw. 16 hieraus
herausgezogen werden.
Daraufhin erfaßt der Relativpositionsdetektor 7 die
Relativpositionen des Augenbrauenbildes 15 und des Augenbildes
16, die auf diese Weise herausgezogen wurden. Wie aus Fig. 8
hervorgeht, weist der Relativpositionsdetektor 7 eine
Augenbrauenzentrums-Erfassungseinheit 71 auf, um die
Koordinaten eines Zentrumspunktes oder "Schwerpunktes" des
Augenbrauenbildes 15 in der Mitte zwischen den
gegenüberliegenden Kanten entlang der Breite des Gesichts zu
berechnen. Eine Augenzentrumserfassungseinheit 72 ist an den
Detektor 71 angeschlossen, um den Schwerpunkt des Augenbildes
16 in der Mitte entlang der Länge des Gesichts zu berechnen.
Eine Entfernungsmeßeinheit 73 ist an den Detektor 72 dazu
angeschlossen, die aktuelle Entfernung zwischen dem
Augenbrauenzentrum und dem Augenzentrum zu messen, die wie
voranstehend geschildert erfaßt wurden.
Wie aus Fig. 9 hervorgeht, berechnen der
Augenbrauenzentrumsdetektor 71 und der Augenzentrumsdetektor 72
die Positionen zweier Zentren oder "Schwerpunkte" 17, 18, die
entlang der Länge des Gesichts voneinander beabstandet sind, in
Bezug auf das Augenbrauenbild 15 bzw. das Augenbild 16. Es wird
darauf hingewiesen, daß ein Schwerpunkt (X, Y) unter Verwendung
der nachstehend angegebenen Gleichungen (2) und (3) erhalten
werden kann:
X = Xt/Gesamt (2)
Y = Yt/Gesamt (3)
Y = Yt/Gesamt (3)
wobei Xt die Gesamtsumme der x-Koordinatenwerte sämtlicher
Pixel xi des Bildes ist, "Gesamt" die Gesamtanzahl an Pixeln
(Xi, Yj) ist, und Yj die Gesamtsumme der y-Koordinatenwerte
sämtlicher Pixel yj ist. Es wird darauf hingewiesen, daß der
Zentrumswert X als der Schwerpunkt entlang der Länge des
Gesichts verwendet wird.
Dann mißt die Entfernungsmeßeinheit 73 eine aktuelle Entfernung
19 zwischen den Schwerpunkten 17, 18 in der Längsrichtung des
Gesichts. Der Detektor 8 für das geschlossene/geöffnete Auge
von Fig. 2 erfaßt den Schließzustand des Auges auf der
Grundlage der gemessenen Entfernung zwischen den Schwerpunkten
17, 18, um ein Erfassungssignal zu erzeugen, welches anzeigt,
in welchem Ausmaß das Auge geschlossen ist, was wiederum
angibt, ob der Fahrer beim Fahren schlummert oder nicht. Im
einzelnen ist, wenn wie in Fig. 10A gezeigt das Auge des
Fahrers geöffnet ist, infolge der Tatsache, daß er sich nicht
schläfrig fühlt, die sich ergebende Entfernung zwischen den
Schwerpunkten 17, 18 kleiner als ein vorbestimmter
Schwellenwert 20; wenn im Gegensatz hierzu das Auge des Fahrers
infolge des Auftretens eines Einschlafvorgangs geschlossen ist,
wird die sich ergebende Entfernung zwischen den Schwerpunkten
17, 18 größer als der Schwellenwert 20.
Daher kann der Detektor 8 für das geöffnete/geschlossene Auge
exakt den aktuellen geöffneten oder geschlossenen Zustand der
Augen des Fahrers feststellen, und zwar durch Vergleichen der
gemessenen Entfernung 20 zwischen den Schwerpunkten 17, 18 mit
einer Bezugsentfernung des Schwellenwertes 20. Bei dieser
Ausführungsform werden spezifisch der
Augenbrauenbildschwerpunkt und der Augenbildschwerpunkt als die
Bezugspunkte zur Erfassung von Variationen der
Positionsbeziehung zwischen den Augenbrauen- und Augenbildern
verwendet. Dies kann die Vorgänge zur Erfassung des
offenen/geschlossenen Zustands des Auges beschleunigen, während
die zugehörigen erforderlichen Algorithmen erheblich
vereinfacht werden.
Ein Gesichtsbildprozessor von Fig. 11 gemäß einer zweiten
Ausführungsform der Erfindung ist ähnlich wie in Fig. 2, wobei
die Augenherausziehbereichs-Einstellvorrichtung von Fig. 2
durch einen Digitalisierabschnitt 21 ersetzt ist. Während die
erste Ausführungsform das Ausmaß des Schließens des Auges unter
Verwendung der Augenbrauen- und Augenbilder feststellt, die
durch Schablonenanpassungsverfahren aus einem
Eingangs-Gesichtsbild herausgezogen wurden, ist die zweite
Ausführungsform so ausgebildet, daß Augenbrauen- und
Augenbilder in Form binärer Daten aus einem digitalisierten
Gesichtsbild herausgezogen werden, unter Verwendung eines
Filtervorgangs, und dazu verwendet werden, die Erfassung des
Schließzustandes des Auges zu erzielen.
Wie aus Fig. 11 hervorgeht, ist der Digitalisierer zwischen
den Gesichtsbild-Eingangsabschnitt 4 und die
Augenherausziehbereichs-Einstellvorrichtung 5 geschaltet. Ein
Eingangs-Gesichtsbild, welches durch den
Gesichtsbildeingabeabschnitt 4 erlangt wird, wird an den
Digitalisierer 21 geschickt, der auf eine Art und Weise
Filteroperationen durchführt, wie nachstehend noch genauer
erläutert wird, wodurch ein binäres
Gesichtsbilddatenausgangssignal erhalten wird. Das binäre
Gesichtsbild erfährt dann an der
Augenherausziehbereichs-Einstellvorrichtung 5 einen
Augenherausziehbereichs-Definitionsvorgang, um hierdurch einen Augenherausziehbereich
zu bestimmen, der aus dem binären Gesichtsbild herausgezogen
wurde. Der sich ergebende Augenherausziehbereich wird der
Gesichtsbild-Eigenschaftsherausziehvorrichtung 6 zugeführt,
welche aus dem Bereich ein Augenbrauenbild und ein Augenbild
herauszieht. Diese Bilder werden dann an den
Relativpositionsdetektor 7 geliefert, die die Relativpositionen
der herausgezogenen Augenbrauen- und Augenbilder erfaßt, um
deren Positionsbeziehung zu untersuchen. In Reaktion auf den
Empfang der Ergebnisse der Untersuchung stellt der Detektor 8
für den geöffneten/geschlossenen Zustand des Auges den
geöffneten bzw. geschlossenen Zustand des Auges durch
Untersuchung von Änderungen der Positionsbeziehung zwischen den
Augenbrauen- und Augenbildern fest.
Die zweite Ausführungsform arbeitet folgendermaßen.
Verschiedene Eigenschaften von MAX/MIN-Filterschaltungen zur
Verwendung in dem Digitalisierer 21 von Fig. 11 sind in Fig.
12 durch Teile (a) bis (d) bezeichnet. Der Digitalisierer 21
empfängt und digitalisiert ein Eingangs-Gesichtsbild von dem
Gesichtsbild-Eingabeabschnitt 4 zur Erzeugung eines
entsprechenden binären Datensignals, welches das Gesichtsbild
22 anzeigt, wie in Fig. 13 dargestellt ist.
Nach Empfang eines Bildsignals 24, welches einen Teil des
Eingangs-Gesichtsbildes darstellt, führt der Digitalisierer 21
eine MAX-Filteroperation mit dem Signal durch, um ein
MAX-gefiltertes Bildsignal 25 zu erzeugen, und führt dann eine
MIN-Filterung in Bezug auf das MAX-gefilterte Bildsignal 25 durch,
um ein MIN-gefiltertes Bildsignal 26 zu erzeugen, wobei die
beiden Signale 25, 26 im Abschnitt (a) von Fig. 12 gezeigt
sind. Fig. 12 zeigt auch einen Teil (b), nämlich ein Feld von
Pixeln 27 bis 29 entsprechend formatierten Pixeln, die durch
Formatierung von Helligkeitswerten der Bildsignale 24 bis 26
erhalten werden. Es wird darauf hingewiesen, daß ein
quadratischer Rahmen, der einen Helligkeitswert umgibt, einen
einzelnen Pixel repräsentiert, und daß bei den
Helligkeitswerten nur zur Vereinfachung angenommen wird, daß
sie einen Bereich von 0 bis 20 aufweisen.
Zuerst wird mit dem Eingangs-Gesichtsbild eine MAX-Filterung
durch ein MAX-Filter durchgeführt, welches eine festgelegte
Länge aufweist (nachstehend als die "Filtergröße" bezeichnet),
wenn die Pixelnummer gleich a ist, und den Helligkeitswert
eines Zentrumspixels des Bildes in den maximalen
Helligkeitswert umwandelt. Es wird angenommen, daß die
Pixelnummer a gleich 5 ist. Wenn ein Pixelfeld 27 eine
MAX-Filterung in seinen schraffierten Abschnitten erfährt, die im
Teil (b) von Fig. 12 gezeigt sind, wird der Helligkeitswert
eines Pixels 27a, der im Zentrum eines derartigen Filterraums
liegt, dann von 8 auf 10 umgewandelt, infolge der Tatsache, daß
der maximale Helligkeitswert gleich 10 ist.
Ein ähnlicher MAX-Filtervorgang wird wiederholt, während das
Eingangsbild dazu veranlaßt wird, aufeinander folgend in der
Position nach rechts um jeweils einen Pixel als Einheit
verschoben zu werden. Hierdurch kann das im Teil (b) von Fig.
12 gezeigte Pixelfeld 27 in ein Pixelfeld 28 umgewandelt
werden. Nach der Beendigung der MAX-Filterung wird dann mit dem
sich ergebenden MAX-gefilterten Bild eine MIN-Filterung
durchgeführt. Das MIN-Filter weist die gleiche Filtergröße auf
wie das MAX-Filter, und wandelt die Helligkeit eines
Filter-Zentrumspixels in den minimalen Helligkeitswert um, der in dem
Filterraum aufgefunden wird.
Infolge der Durchführung einer derartigen MIN-Filterung in
Bezug auf die schraffierten Abschnitte des Pixelfeldes 28, die
im Teil (b) von Fig. 12 gezeigt sind, nach Beendigung der
MAX-Filterung, wird der Helligkeitswert eines Pixels 28b, der sich
im Zentrum des Filterraums befindet, von 12 in 10 umgewandelt,
infolge der Tatsache, daß der minimale Helligkeitswert in
diesem Falle 10 beträgt.
Die MIN-Filterung wird wiederholt, während das Eingangsbild
dazu veranlaßt wird, aufeinanderfolgend seine Position nach
rechts in Intervallen von jeweils der Größe eines Pixels zu
verschieben, was dazu führt, daß das Pixelfeld 28 in ein
aktualisiertes Pixelfeld 29 umgewandelt wird, welches im Teil
(b) von Fig. 12 gezeigt ist. Das sich ergebende
MIN/MAX-gefilterte Bild wird dann so bearbeitet, daß von ihm das
Eingangsbild subtrahiert wird, wodurch ein Bereich niedriger
Helligkeit herausgezogen wird, der eine geringere Breite als
die Größe des Filters aufweist. Im einzelnen wird bei dem
dargestellten Beispiel der Helligkeitswert des Pixelfeldes 27
von dem Helligkeitswert des Pixelfeldes 29 subrahiert, welches
im Teil (b) von Fig. 12 gezeigt ist, um ein neues Pixelfeld zu
erzeugen, das im Teil (d) von Fig. 12 dargestellt ist, und
welches dann in ein elektrisches Bildsignal umgewandelt wird,
wie im Teil (d) von Fig. 12 gezeigt ist.
Während der voranstehend geschilderten Filteroperationen sind
sowohl das MAX-Filter als auch das MIN-Filter so ausgebildet,
daß sie ihre Umwandlungen im Zentrum eines ursprünglich
gefilterten Bildes beginnen, und die Umwandlungen im Zentrum
endgültiger gefilterter Bilder beenden. Dies führt dazu, daß
die MAX-gefilterten Bilddaten einem Feld von Pixeln 28c bis 28d
entsprechen, und daß die MIN-gefilterten Bilddaten einem Feld
von Pixeln 29e bis 29f entsprechen, die im Teil (b) in Fig. 12
gezeigt sind. Im Ergebnis wird das Bild, das schließlich durch
die MAX/MIN-Filteroperationen erhalten wird, mit kleineren
Abmessungen versehen als in der Filterstartposition und der
Filterendposition, und zwar um eine Länge entsprechend "a-1"
Pixeln.
Der Digitalisierer 21 von Fig. 11 arbeitet folgendermaßen. Bei
der vorliegenden Ausführungsform wird die Filterung
nacheinander in Bezug auf jede von mehreren parallelen
Abtastzeilen 30 entlang der Länge des Gesichts durchgeführt,
wie in Fig. 13 dargestellt ist. Dies führt dazu, wie aus Fig.
14A hervorgeht, daß ein Bildsignal 31 nach der Beendigung der
MAX/MIN-Filteroperationen mit dem Eingangs-Gesichtsbild
erhalten wird, wobei die Filterlängen den Breiten von
Augenbrauen und Augen entsprechen. In diesem Fall werden
darüber hinaus einige zusätzliche Bildkomponenten ebenfalls
herausgezogen, welche eine Nase und die Lippen eines Mundes
darstellen, die eine geringere Breite aufweisen als die
Augenbrauen und Augen. Aus einer Betrachtung des Impulsmusters
von Fig. 14A geht hervor, daß infolge der Tatsache, daß die
charakteristischen Punkte 31a der Augenbrauen- und Augenbilder
eine größere Helligkeitsdifferenz aufweisen als die anderen,
die umgebenden Punkte, ihre Helligkeitswerte erhöht sind,
nachdem die Subtraktionsbearbeitung durchgeführt wurde.
Im Gegensatz hierzu bleiben bei Schatten oder Bildern der
Kleidung eines überwachten Fahrers die Helligkeitsunterschiede
kleiner als die anderen, wie aus einer Pulskomponente 31b in
Fig. 14A hervorgeht. Unter Berücksichtigung dieser Tatsachen
wird ein Schwellenwertpegel 32 auf einen festen Schwellenwert
eingestellt, wie in Fig. 14A gezeigt ist, so daß die
Impulskomponenten 31a, 31b des Bildsignals 31 dadurch in binäre
Form umgewandelt werden können, daß der Schwellenwertpegel 32
so genutzt wird, daß jene (31a) Impulse, die größer sind oder
ein "höheres" Potential aufweisen als der Schwellenwertpegel
32, in entsprechende Impulse mit fester Höhe umgewandelt
werden, und jene (31b), die kleiner oder "niedriger" sind,
sowie der Schwellenwertpegel 32 vernachlässigt werden, wodurch
ein binäres Impulssignal erzeugt wird, das in Fig. 14B
dargestellt ist. Das gefilterte Gesichtsbild ist in Fig. 13
gezeigt. Es wird darauf hingewiesen, daß schwarz gefärbte
Abschnitte in dieser und den folgenden Figuren, auf die
nachstehend noch Bezug genommen wird, binäre Bildabschnitte
oder Komponenten bezeichnen sollen, die eine größere
Helligkeitsdifferenz aufweisen als der Schwellenwertpegel 32.
Anders ausgedrückt weisen schwarze Bereiche einen Logikwert "1"
oder "High" auf, wogegen der weiße Hintergrund einen Logikwert
von "0" oder "Low" aufweist.
Nachdem der Digitalisierungsvorgang beendet ist, wird dann ein
Augenherausziehbereich von der
Augenherauszieh-Einstellvorrichtung 5 von Fig. 11 herausgezogen, auf die
nachstehend geschilderte Art und Weise. Zuerst berechnet die
Augenherauszieh-Einstellvorrichtung 5 die Position eines
Bezugspunktes 33 (sh. Fig. 15A) für den gesamten Bereich des
sich ergebenden binären Bildes 22 von Fig. 13. Der Bezugspunkt
33 ist ein bestimmter Punkt, der typisch für sämtliche
schwarzen binären Bildabschnitte ist; in diesem Sinn kann der
Bezugspunkt 33 alternativ hierzu als "Schwerpunkt" bezeichnet
werden. Der Schwerpunkt 33 kann dadurch aufgefunden werden, daß
Berechnungen ähnlich jenen wie in den Gleichungen (2) und (3)
durchgeführt werden, die weiter voranstehend angegeben wurde,
mit Ausnahme der Tatsache, daß "xi" und yj" in diesem Fall dazu
verwendet werden, schwarze Bildbereiche in dem binären Bild 22
festzulegen.
Nachdem die Berechnung des Schwerpunkts 33 beendet ist, wird
dann ein Teilbereich 34 auf der Grundlage des Schwerpunkts 33
festgelegt. Dieser Bereich 33 kann möglicherweise ein
Gesichtsbild enthalten; in dieser Beziehung wird er nachstehend
als der "Gesichtsbereich" bezeichnet. Der Gesichtsbereich 34
ist so definiert, daß er einen rechteckigen Rahmen aufweist,
der einige oder sämtliche der Eigenschaften eines Gesichts
(zumindest die Augen) enthält. Dies wird dadurch durchgeführt,
daß die Tatsache berücksichtigt wird, daß der Gesichtsbereich
34 zumindest teilweise den Hauptabschnitt des
Eingangs-Gesichtsbilds mit erhöhter Wahrscheinlichkeit enthalten kann,
und daß der Schwerpunkt eines menschlichen Gesichts gewöhnlich
zwischen der Nase und den Augen im Zentrum des Gesichts liegt.
Ein Schwerpunkt 35 in Bezug auf den Gesichtsbereich 34 kann
durch ähnliche Berechnungen aufgefunden werden, wie sie in den
voranstehend angegebenen Gleichungen (2) und (3) angegeben
sind. Der Schwerpunkt 35 wird zur Festlegung eines
Augenherausziehbereiches verwendet, wie nachstehend unter
Bezugnahme auf Fig. 15B geschildert wird. Es wird angenommen,
daß der Schwerpunkt 35 des Gesichtsbereiches 34 in der Nähe der
Nase liegt. Der Gesichtsbereich 34 wird in Hälften unterteilt,
wobei der Schwerpunkt 35 das Zentrum der Unterteilung
darstellt, wobei eine der Hälften (also der linke Teil der um
90° gedrehten Gesichtsdarstellung von Fig. 15A)
höchstwahrscheinlich Augenbilder enthält, und die andere Hälfte
(also der rechte Teil der Darstellung in Fig. 15A) die
Nasen- und Mundbilder enthalten kann. Der linke Halbbereich wird, wie
in Fig. 15B gezeigt, als ein Augenherausziehbereich 36
bestimmt. Dieser Bereich 36 wird dann durch eine Linie
unterteilt, die durch die beiden Schwerpunkte 33, 35
hindurchgeht, und zwar in ein Paar benachbarter Abschnitte 36a
und 36b; ein Abschnitt 36b dient als Augenherausziehbereich für
das rechte Auge, wogegen der andere Bereich 36a als
Augenherausziehbereich für das linke Auge dient.
Die Gesichtsbild-Eigenschaftsherausziehvorrichtung 6 von Fig.
11 zieht verschiedene Eigenschaften aus dem binären
Gesichtsbild heraus, durch (i) Erkennung eines von zwei
schwarzen Bereichen, der an der Oberseite entlang der Länge des
Gesichts innerhalb jedes der Augenherausziehbereiche 36a, 36b
liegt, als ein Augenbrauenbild 15, und durch (ii)
Interpretation des anderen Bereiches an der unteren Seite als
Augenbild 16. Die folgenden Operationen des
Relativpositionsdetektors 7 und des Detektors 8 für den
geöffneten/geschlossenen Zustand des Auges, nämlich das
Auffinden von "Schwerpunkten" für die Augenbrauen- und
Augenbilder, und die Festlegung des Augenschließungsgrades auf
der Grundlage von Variationen der Entfernung zwischen diesen,
sind ähnlich wie bei der ersten Ausführungsform.
Bei der zweiten Ausführungsform lassen sich ähnliche Vorteile
wie bei der ersten Ausführungsform in Bezug auf eine Erfassung
des geöffneten/geschlossenen Zustands des Auges mit hoher
Geschwindigkeit durch eine vereinfachte Vorgehensweise
erzielen. Darüber hinaus kann die zweite Ausführungsform eine
erhöhte Genauigkeit für die Feststellung zur Verfügung stellen,
infolge der Tatsache, daß die Erfassung des
geöffneten/geschlossenen Zustands des Auges unter Einsatz einer
genauen Untersuchung der aktuellen Variationen der Form binärer
Augenbilder ohne Graustufenabschnitte durchgeführt wird.
Ein gemeinsames Merkmal der ersten und zweiten Ausführungsform
besteht darin, daß der Relativpositionsdetektor dazu
ausgebildet ist, eine Entfernung zwischen den Zentren oder
"Schwerpunkten" der Augenbrauen- und Augenbilder festzustellen,
und daß der Detektor für den geöffneten/geschlossenen Zustand
des Auges dazu vorgesehen ist, den geöffneten oder
geschlossenen Zustand der Augen des Fahrers zu ermitteln. Der
Betriebsablauf dieses Detektors ist folgendermaßen: Wenn die
festgestellte Entfernung größer ist als der Schwellenwert, der
einen festen Wert aufweist, so stellt der Detektor für den
geöffneten/geschlossenen Zustand des Auges fest, daß die Augen
zumindest teilweise geschlossen sind; wenn die erfaßte
Entfernung kleiner als der Schwellenwertpegel ist, so bestimmt
der Detektor, daß die Augen geöffnet sind.
Ein Gesichtsbildprozessor gemäß einer dritten Ausführungsform
der Erfindung ist in Fig. 16 gezeigt. Dieser Prozessor weist
einen Augenbrauenzentrumserfassungsabschnitt 71 auf, zur
Erfassung eines Zentrums oder "Schwerpunkts" 17 eines
Augenbrauenbildes 15, einen Augenrepräsentations-
Positionserfassungsabschnitt 74 zur Erfassung des Maximalwertes
im oberen Zentrum eines Augenbildes 16 entlang der Länge eines
menschlichen Gesichts, und zur Festlegung der Position
zumindest eines repräsentativen Punktes (der repräsentativen
Position des Auges) entlang der Gesichtslänge, sowie einen
Entfernungsmeßabschnitt 73 zur Messung der aktuellen Entfernung
zwischen den repräsentativen Positionen des Augenbrauenzentrums
und des Auges.
Die dritte Ausführungsform arbeitet folgendermaßen. Da der
Betriebsablauf des Augenschwerpunktdetektors 71 ähnlich ist wie
bei der ersten Ausführungsform, erfolgt zur Vereinfachung
insoweit keine erneute Beschreibung. Die nachstehende
Beschreibung beginnt mit der Operation des
Augenrepräsentationspositionsdetektors 74.
Wie in Fig. 17 gezeigt, erfaßt dieser Detektor 74 (i) einen
Maximalwert 73a in der oberen Zentrumsposition des Augenbildes 16,
welches von der Gesichtsbild-Eigenschaftsherausziehvorrichtung 6
herausgezogen wird, und
(ii) ein Paar von Augenrepräsentationspositionen 37b, 37c des
Augenbildes 16, welche zwei gegenüberliegenden Kanten (beiden
Seitenkanten) eines Auges entsprechen, und entlang der Breite
eines menschlichen Gesichts beabstandet sind. Die Festlegung
dieser charakteristischen Punkte 37a bis 73c kann durch das
folgende Verfahren erfolgen. Zuerst wird die Anzahl einer Reihe
durchgehender schwarzer Pixel in einem Augenbild gezählt, um
ein entsprechendes Histogramm zur Verfügung zu stellen. Dann
wird ein Spitzenwert in dem Histogramm aufgefunden, um diesen
Spitzenwert als momentanen Maximalwert festzustellen. Dann wird
nach Minimalwerten gesucht, die auf der rechten und linken
Seite des Spitzenwertes in dem Histogramm auftreten, und diese
werden als die Augenrepräsentationspositionen 37a, 37b gewählt.
Während einer derartigen Operation werden darüber hinaus
erforderliche Koordinatenwerte einschließlich des
Augenbrauenschwerpunkts, des Maximalwertes 37a, und der
Augenrepräsentationspositionen 37b, 37c berechnet. Sind die
Augen des Fahrers geschlossen, weil dieser eingenickt ist, so
liegt der Koordinatenwert des Maximums 37a in der Mitte oder
beinahe im Zentrum zwischen den Koordinatenwerten der
Augenrepräsentationspositionen 37b, 37c.
Sobald die jeweiligen Positionen ermittelt sind, erfaßt dann
der Entfernungsmeßabschnitt 73 (i) eine Entfernung 38a zwischen
dem Augenbrauenschwerpunkt 17 und dem Maximalwert 37a sowie
(ii) Entfernungen 38b, 38c zwischen dem Schwerpunkt 17 und
jeweiligen Augenrepräsentationspositionen 37b, 37c durch
Untersuchung jeweiliger, auf diese Weise erhaltener
Koordinatenwerte, wie in den Fig. 18A und 18B gezeigt ist.
Daraufhin stellt der Detektor 8 für den Öffnungs/Schließzustand
des Auges den aktuellen Schließungsgrad der Augen fest, auf der
Grundlage von Variationen der Entfernungswerte 38a bis 38c, die
wie voranstehend geschildert ermittelt wurden, auf ähnliche
Weise wie bei den vorherigen Ausführungsformen. Wie aus Fig.
18A hervorgeht ist dann, wenn die Augen des Fahrers offen sind,
die sich ergebende "mittlere" Entfernung 38a kürzer als die
verbleibenden "Kantenabstände" 38b, 38c, wobei dazwischen eine
wachsende Differenz beobachtet wird. Wenn andererseits wie in
Fig. 18B gezeigt die Augen geschlossen sind, so zeigt die
mittlere Entfernung 38a nicht länger eine signifikante
Differenz, im Vergleich zu den Kantenentfernungen 38b und 38c.
Mit der dritten Ausführungsform ist es möglich, die
Geschwindigkeit der Erfasssungsverarbeitung zu erhöhen, infolge
der Ausführung der Erfassung des geöffneten/geschlossenen
Zustands des Auges unter Verwendung der binären Bilddaten.
Darüber hinaus kann auch die Genauigkeit der Erfassung des
geöffneten/geschlossenen Zustands der Augen wesentlich erhöht
werden, infolge der Tatsache, daß diese Erfassung auf der
Grundlage der tatsächlich gemessenen Änderungen der Form des
Auges durchgeführt wird.
Ein Gesichtsbildprozessor gemäß einer vierten Ausführungsform
der Erfindung weist einen in Fig. 16 dargestellten
Relativpositionsdetektor auf. Während die erste bis dritte
Ausführungsform die vollständig herausgezogenen
Augenbrauen- und Augenbilder als Objekte für die Erfassung des
geöffneten/geschlossenen Zustandes des Auges verwenden, ist die
vierte Ausführungsform so ausgebildet, daß (i) das
Augenbrauenbild, welches sich nicht infolge einer
Öffnungs/Schließbewegung eines Auges ändert, aus einem binären
Gesichtsbild unter Verwendung eines Blockrahmens mit fester
Fläche herausgezogen wird, und dann (ii) der
geöffnete/geschlossene Zustand des Auges dadurch erfaßt wird,
daß Variationen der Entfernung zwischen einem derartigen Block-
bearbeiteten Augenbrauenbild und dem Augenbild untersucht
werden. Wie aus Fig. 19 hervorgeht, weist der
Relativpositionsdetektor einen
Augenbrauenbild-Blockbearbeitungsabschnitt 75 auf, um ein Augenbrauenbild 15 in
eine Gruppe von Blockabschnitten umzuwandeln, einen
Augenbrauenbezugspositionseinstellabschnitt 76 zur Festlegung
einer Bezugsposition der Augenbrauenblöcke entlang der Länge
eines menschlichen Gesichts, und einen Entfernungsmeßabschnitt
73 ähnlich wie bei der vorherigen Ausführungsform.
Der Betriebsablauf dieser Ausführungsform wird unter Bezugnahme
auf die Fig. 20A bis 20B, 21A bis 21B sowie 22 beschrieben.
Die Blockumwandlungsbearbeitung wird entweder für einige
ausgewählte schwarze Pixel innerhalb eines vorbestimmten
Bereiches eines binären Gesichtsbilds durchgeführt, oder für
bestimmte Pixel, welche Schwellenwerte aufweisen, die größer
als ein vorbestimmter Wert sind, innerhalb eines bestimmten
Bereiches eines nicht binären Bildes. Die Beschreibung erfolgt
in Bezug auf die erstgenannte Alternative, da die zweite
Alternative ähnlich durchgeführt werden kann.
Zuerst wird die Anzahl von Pixeln in einem Feld schwarzer Pixel
entlang der Breite eines menschlichen Gesichts innerhalb des
vorbestimmten Bereiches des binären Gesichtsbildes gezählt. Die
Zählung der Anzahl schwarzer Pixel wird in Bezug auf die
Richtung der x-Koordinate durchgeführt. Der sich ergebende
x-Koordinatenzählwert wird dazu verwendet, ein in Fig. 20A
dargestelltes Histogramm in Querrichtung des Gesichts zur
Verfügung zu stellen, in welchem die Vertikalachse die Anzahl
schwarzer Pixel und die Horizontalachse die x-Koordinatenwerte
angibt. Dann erfolgt, wie in Fig. 20B gezeigt, eine Suche nach
irgendwelchen Spitzenwerten, bei welchen Extremmalpunkte der
Anzahl schwarzer Pixel größer werden als ein Wert 40a in dem
Histogramm. Für jeden Spitzenwert wird eine Startposition 40ci
und eine Endposition 40di eingestellt, die jeweils eine Anzahl
schwarzer Pixel aufweisen, der größer als ein Wert 40e, sowie
eine Entfernung, die kleiner als ein Wert 40b ist, um einen
begrenzten Bereich entlang der x-Koordinatenachse festzulegen.
Anders ausgedrückt wird jeder Spitzenwert des
Verteilungsprofils für die Anzahl schwarzer Pixel in Fig. 20B
weggeschnitten", durch eine Linie, die parallel zur
x-Koordinatenachse verläuft und zwei spezifische Punkte der
Anzahl schwarzer Pixel verbindet, die gleich dem Wert 40e ist,
wobei dieser Punkt dem Startpunkt 40ci bzw. dem Endpunkt 40di
entspricht.
Dann werden, wie in Fig. 21 gezeigt, mehrere streifenförmige
Bereiche 40ai festgelegt, welche jeweiligen Spitzenwerten
entsprechen, und die jeweils eine spezifische Breite aufweisen,
die durch die Start- und Endpositionen 40ci bzw. 40di
festgelegt ist. Für jeden Streifen 40ai wird die Anzahl
schwarzer Pixel gezählt, die in Richtung der y-Koordinatenachse
ausgerichtet sind, wodurch ein Histogramm gemäß Fig. 21A in
Längsrichtung des Gesichts zur Verfügung gestellt wird. Dann
wird aus jedem Streifen zumindest ein Abschnitt herausgezogen,
der von seinem benachbarten Block um eine Entfernung
beabstandet ist, die größer als ein Wert 41c ist, und eine
größere Anzahl schwarzer Pixel als einen Wert 41b enthält.
Jeder herausgezogene Abschnitt wird als ein Einheitsblock 42i
verwendet. Schließlich legt der Augenbrauenblockprozessor 75 in
dem binären Gesichtsbild ein Paar von Augenbildblöcken 43 fest,
die in Fig. 22 gezeigt sind, durch Wiederholung der
Blockumwandlungsprozedur in y-Richtung, die für das
Augenbrauenbild 15 durchgeführt wurde. Zu diesem Zeitpunkt
werden auch der Maximalwert 37a und
Augenrepräsentationspositionen 37b, 37c eines Augenbildes im
wesentlichen ebenso wie bei den vorherigen Ausführungsformen
erhalten, mit Ausnahme der Tatsache, daß ihre Koordinaten unter
Verwendung der Maximalwertposition der Augenbrauenblöcke 43 als
Bezugsposition festgelegt werden.
Wie aus Fig. 23 hervorgeht, nimmt die
Augenbrauenbezugspositions-Einstellvorrichtung 76 von Fig. 19
die Maximalwertposition der Augenbrauenblöcke 43 entlang der
Länge des Gesichts als Bezugsposition 44. Der
Entfernungsmeßabschnitt 73 führt dann die erforderlichen
Messungen auf der Grundlage jeweiliger Werte 45a, 45b und 45c
durch, die jeweils Entfernungen von den
Augenrepräsentationspositionen 37a, 37b bzw. 37c angeben, die
von dem Augenrepräsentationspositionsdetektor 74 festgestellt
werden.
Auch bei der vorliegenden Ausführungsform wird der Detektor 8
für den geöffneten/geschlossenen Zustand des Auges verwendet,
der den geöffneten oder geschlossenen Zustand der Augen auf der
Grundlage der Beziehung zwischen den Entfernungen 45a bis 45c
im vorliegenden Fall ermittelt. Wie aus den Fig. 24A und 24B
hervorgeht, zeigt dann, wenn eine Person ihre Augen öffnet, die
Entfernung 45a eine extreme Differenz gegenüber den übrigen
Entfernungen 45b, 45c in einem entsprechenden, blockgewandelten
Bild; wenn dagegen die Person ihre Augen schließt,
unterscheidet die sich ergebende Entfernung 45a geringfügig von
den übrigen Entfernungen 45b, 45c, so daß keine extreme
Differenz zwischen der Entfernung 45a und den anderen
Entfernungen 45b, 45c vorhanden ist. Daher wird es mit dieser
Ausführungsform möglich, eine Erfassung des geöffneten oder
geschlossenen Zustands der Augen mit höherer Genauigkeit
durchzuführen, selbst wenn sich die Form der Augenbrauenbilder
bei möglicherweise auftretenden Änderungen der
Gesichtsbildaufnahmezustände ändert.
Nunmehr wird eine fünfte Ausführungsform der Erfindung
beschrieben, die ähnlich der vierten Ausführungsform ist, mit
Ausnahme der Tatsache, daß die vierte Ausführungsform die
Maximalwertposition von Augenbrauenblöcken 43 entlang der Länge
eines menschlichen Gesichts als Bezugsposition verwendet,
wogegen die fünfte Ausführungsform die Bezugsposition unter
Verwendung einer Minimalwertposition bestimmt. In diesem Fall
erkennt, wie in Fig. 25 gezeigt ist, die
Augenbrauenbezugspositions-Einstellvorrichtung 76 von Fig. 19
die Minimalwertposition eines Augenbrauenbildblockes 43 als
Bezugsposition 46. Hierbei werden der Maximalwert 37a und die
Koordinatenwerte der Augenrepräsentationspositionen 37b, 37c
eines Augenbildes auf im wesentlichen dieselbe Weise wie bei
der vierten Ausführungsform erhalten, mit der Ausnahme, daß
ihre Koordinaten durch die Minimalwertposition des
Augenbrauenblocks 43 als Bezugsposition festgelegt werden. Auf
der Grundlage der jeweiligen Koordinatenwerte mißt dann der
Entfernungsmeßabschnitt 73 jeweilige Entfernungen 47a, 47b, 47c
zwischen der Bezugsposition 46 und den
Augenrepräsentationspositionen 37a, 37b, 37c (vgl. Fig. 23),
die von dem Augenrepräsentationspositionsdetektor 74
festgestellt werden.
Der Detektor 8 für den geöffneten/geschlossenen Zustand des
Auges erfaßt den geöffneten oder geschlossenen Zustand von
Augen auf der Grundlage der Beziehungen zwischen den so
erhaltenen Entfernungen 47a bis 47c. Wie unter Bezugnahme auf
die in den Fig. 24A und 24B gezeigten Lehren festgestellt
werden kann, zeigt dann, wenn die Augen einer Person geöffnet
sind, die Entfernung 47a eine extreme Differenz gegenüber den
übrigen Entfernungen 47b, 47c in einem entsprechenden,
blockgewandelten Bild; wenn die Person die Augen schließt, so
gibt es im wesentlichen keine extreme Differenz zwischen der
Entfernung 45a und den anderen Entfernungen 47b, 47c. Daher ist
es auch bei der vorliegenden Ausführungsform möglich, eine
Erfassung des geöffneten oder geschlossenen Zustands der Augen
mit höherer Genauigkeit durchzuführen, selbst wenn die
Augenbrauenbilder eine unterschiedliche Form bei möglichen
Änderungen der Gesichtsfeldaufnahmebedingungen zeigen.
Die fünfte Ausführungsform kann so abgeändert werden, daß die
Bezugsposition ein Punkt in der Mitte oder im Zentrum von
Augenbrauenbildblöcken 43 entlang der Gesichtslänge ist, statt
die Minimalwertposition der Blöcke wie bei der fünften
Ausführungsform. Eine derartige Anordnung wird nachstehend als
eine sechste Ausführungsform der Erfindung beschrieben. Wie aus
Fig. 26 hervorgeht, nimmt die Augenbrauenbezugspositions-
Einstellvorrichtung 76 (sh. Fig. 19) als Bezugsposition 48
einen Punkt in der Mitte eines Augenbrauenbildblockes 43
entlang der Länge des Gesichts. Hierbei werden der Maximalwert
37a und die Koordinatenwerte von Augenrepräsentationspositionen
37b, 37c eines Augenbildes ebenfalls im wesentlichen auf
dieselbe Weise wie bei der fünften Ausführungsform erhalten,
abgesehen von der Tatsache, daß ihre Koordinaten so festgelegt
werden, daß die Zentrumsposition des Augenbrauenblocks 43 die
Bezugsposition darstellt. Der Entfernungsmeßabschnitt 73 mißt
dann auf der Grundlage der jeweiligen Koordinatenwerte
jeweilige Entfernungen 49a, 49b, 49c zwischen der
Bezugsposition 46 und den Augenrepräsentationspositionen 37a,
37b, 37c (sh. Fig. 23), die von dem
Augenrepräsentationspositionsdetektor 74 festgestellt werden.
Der Detektor 8 für den geöffneten/geschlossenen Zustand des
Auges erfaßt den geöffneten oder geschlossenen Zustand der
Augen auf der Grundlage der Beziehung zwischen den so
erhaltenen Entfernungen 49a bis 49c. Wie unter Berücksichtigung
der Lehren der Fig. 24A und 24B festgestellt werden kann,
zeigt dann, wenn die Augen einer Person geöffnet sind, die
Entfernung 49a eine extreme Differenz in Bezug auf die übrigen
Entfernungen 49b, 49c; wenn andererseits die Person die Augen
schließt, so gibt es keine extreme Differenz zwischen der
Entfernung 49a und den anderen Entfernungen 49b, 49c. Daher
kann auch diese Ausführungsform eine exakte Erfassung des
geöffneten/geschlossenen Zustands der Augen durchführen, selbst
wenn sich die Form der Augenbrauenbilder bei möglichen
Änderungen der Gesichtsbildaufnahmebedingungen ändert.
Ein Gesichtsbildprozessor gemäß einer siebten Ausführungsform
der Erfindung ist in Fig. 27 gezeigt. Während die zweite bis
sechste Ausführungsform den geöffneten/geschlossenen Zustand
der Augen dadurch ermitteln, daß die relative
Positionsbeziehung zwischen einem Augenbrauenbildblock und dem
zugehörigen Augenbild untersucht wird, ist die siebte
Ausführungsform so ausgebildet, daß auch mit dem Augenbild
zusammen mit dem Augenbrauenblock eine Blockbearbeitung
durchgeführt wird, wodurch der geöffnete/geschlossene Zustand
der Augen dadurch ermittelt werden kann, daß Variationen ihres
Flächenverhältnisses untersucht werden. Die in Fig. 27
gezeigte Anordnung ist ähnlich der Anordnung von Fig. 2, wobei
der Relativpositionsdetektor 7 durch eine Reihenschaltung eines
Augenbrauenbildblock-Bearbeitungsabschnitts 75, eines
Augenbild-Berechnungsabschnitts 77, eines
Flächenerfassungsabschnitts 78 und eines
Flächenverhältnisberechnungsabschnitts 79 ersetzt ist. Der
Augenbrauenbildblockprozessor 75 und der
Augenbildblockprozessor 77 führen eine
Blockumwandlungsbearbeitung für ein Augenbrauenbild bzw. ein
Augenbild durch, im wesentlichen auf dieselbe Weise wie
voranstehend geschildert, wodurch ein Augenbrauenbildblock 43
und ein zugehöriger, entsprechender Augenbildblock 50 zur
Verfügung gestellt werden, wie in Fig. 28 gezeigt ist.
Dann stellt der Flächendetektor 78 die exakte Fläche jedes
Blocks auf der Grundlage der Koordinatenwerte jeweiliger
"blockförmiger" Bildabschnitte fest. Die festgestellte Fläche
("51a" in Fig. 28) des Augenbrauenblocks 43 bleibt im
wesentlichen konstant, unabhängig von dem geöffneten oder
geschlossenen Zustand eines Auges, wogegen die Fläche ("51b" in
Fig. 28) des Augenblocks 50 sich ändern kann, abhängig von dem
geöffneten/geschlossenen Zustand des Auges. Die
Flächenverhältnisberechnungsvorrichtung 79 berechnet dann das
Flächenverhältnis der Blöcke 43 und 51. Der Detektor 8 für den
geöffneten/geschlossenen Zustand des Auges erfaßt den
geöffneten/geschlossenen Zustand des Auges durch Untersuchung
von Änderungen des Flächenverhältnisses.
Die vorliegende Ausführungsform arbeitet folgendermaßen. Der
Augenbildblockprozessor 77 wandelt das Augenbild 16 (vgl. Fig.
7) in ein entsprechendes Bildblockmuster um, im wesentlichen
auf dieselbe Weise wie bei dem Augenbrauenbildblockprozessor
75, wodurch der sich ergebende Block ein Augenblock 50 wird.
Der Flächendetektor 78 berechnet die Fläche jedes der
Augenbrauen- und Augenblöcke 43 bzw. 50, wie durch "51a" bzw.
"51b" in Fig. 28 dargestellt.
Dann berechnet die Flächenverhältnisberechnungsvorrichtung 79
das Verhältnis der Augenfläche 51b zur Augenbrauenfläche 51a.
Auf der Grundlage von Änderungen dieses Flächenverhältnisses
ermittelt dann der Detektor 8 für den geöffneten/geschlossenen
Zustand des Auges den geöffneten oder geschlossenen Zustand
eines betreffenden Auges. Wie aus den Fig. 29A und 29B
hervorgeht, ist das Flächenverhältnis kleiner, wenn das Auge
geschlossen ist, als wenn es geöffnet ist. Daher ist es bei
dieser Ausführungsform möglich, eine exakte Erfassung des
geöffneten oder geschlossenen Zustands der Augen selbst dann
durchzuführen, wenn sich die Form der Augenbrauen- und
Augenbilder bei möglichen Änderungen der
Gesichtsbildaufnahmebedingungen ändert.
Ein Gesichtsbildprozessor gemäß einer achten Ausführungsform
der Erfindung ist in Fig. 30 gezeigt. Während die siebte
Ausführungsform den geöffneten/geschlossenen Zustand von Augen
durch Untersuchung von Variationen des Flächenverhältnisses der
Augenbrauen- und Augenbildblöcke feststellt, ist die achte
Ausführungsform so ausgebildet, daß diese Erfassung auf der
Grundlage von Variationen des Verhältnisses der Breite des
Augenbrauenblocks entlang der Länge des Gesichts und der Breite
des Augenblocks durchgeführt wird.
Die achte Ausführungsform, die in Fig. 30 gezeigt ist, ist
ähnlich jener von Fig. 27, wobei der Flächendetektor 78 und
die Flächenverhältnisberechnungsvorrichtung 79 durch einen
Blockbreitenmeßabschnitt 80 und einen
Breitenverhältnisberechnungsabschnitt 81 ersetzt sind. Der
Abschnitt 80 wird dazu verwendet, die Breite jedes der
Augenbrauenblöcke 43 und der Augenblöcke 50 entlang der Länge
des Gesichtes zu messen. Der Abschnitt 81 dient zur Berechnung
des Verhältnisses der Breiten der Augenbrauen- und Augenblöcke
43 bzw. 50.
Die vorliegende Ausführungsform arbeitet wie folgt. Nach
Empfang des Augenbrauenblocks 43 und des Augenblocks 50, die
wie in Fig. 31 erfaßt wurden, mißt der
Blockbreitenmeßabschnitt 80 die Breiten 53, 54 jeweiliger
Blöcke entlang der Länge des Gesichts auf der Grundlage von
deren Koordinatenwerten. Die
Breitenverhältnisberechnungsvorrichtung 81 berechnet dann das
Verhältnis der Augenbreite 54 zur Augenbrauenbreite 53.
Der Detektor 8 für den geöffneten/geschlossenen Zustand des
Auges erfaßt den geöffneten oder geschlossenen Zustand von
Augen auf der Grundlage von Änderungen des
Breitenverhältnisses. Aus den Fig. 32A und 32B wird
deutlich, daß das Breitenverhältnis kleiner ist, wenn das Auge
geschlossen ist, als wenn dieses geöffnet ist. Dies führt dazu,
daß auch diese Ausführungsform eine exakte Erfassung des
geöffneten/geschlossenen Zustands der Augen durchführen kann,
selbst wenn sich die Form der Augenbrauenbilder bei möglichen
Änderungen der Gesichtsbildaufnahmebedingungen ändert.
Wie voranstehend geschildert kann durch die vorliegende
Erfindung die Erfassung des geöffneten/geschlossenen Zustands
der Augen einer Person erfolgreich sowohl in Bezug auf die
Genauigkeit als auch die Verläßlichkeit verbessert werden,
infolge der Tatsache, daß diese Erfassung auf der Erfassung der
Positionsbeziehung zumindest eines Augenbrauenbildes und eines
zugehörigen, entsprechenden Augenbildes beruht, wobei das
Augenbrauenbild natürlicherweise im Zustand unverändert bleiben
kann, und seine Position einfach feststellbar ist, sobald das
zugeordnete Augenbild erfaßt wurde.
Zwar wurde die Erfindung im einzelnen unter Bezugnahme auf ihre
bevorzugten Ausführungsformen gezeigt und beschrieben, jedoch
wird Fachleuten auf diesem Gebiet deutlich werden, daß sich die
voranstehenden und weitere Änderungen der Form und Einzelheiten
vornehmen lassen, ohne vom Wesen und Umfang der Erfindung
abzuweichen.
Claims (11)
1. Gesichtsbild-Verarbeitungssystem mit:
einer Eingabevorrichtung, um ein Eingangsbild zu erhalten, welches ein Gesicht einer Person darstellt;
einer Augenheraus ziehbereichs-Einstellvorrichtung zur Bestimmung eines Augenherausziehbereiches innerhalb des Eingangs-Gesichtsbilds;
einer Herausziehvorrichtung zum Herausziehen erster und zweiter Bildabschnitte aus dem Augenherausziehbereich, wobei die ersten und zweiten Bildabschnitte einem Augenbrauenbild bzw. einem Augenbild entsprechen;
einer ersten Detektorvorrichtung zur Erfassung von Relativpositionen der herausgezogenen ersten und zweiten Bildabschnitte; und
einer zweiten Detektorvorrichtung zur Erfassung eines geöffneten oder geschlossenen Zustands des Augenbilds durch Untersuchung von Variationen der erfaßten Relativpositionen.
einer Eingabevorrichtung, um ein Eingangsbild zu erhalten, welches ein Gesicht einer Person darstellt;
einer Augenheraus ziehbereichs-Einstellvorrichtung zur Bestimmung eines Augenherausziehbereiches innerhalb des Eingangs-Gesichtsbilds;
einer Herausziehvorrichtung zum Herausziehen erster und zweiter Bildabschnitte aus dem Augenherausziehbereich, wobei die ersten und zweiten Bildabschnitte einem Augenbrauenbild bzw. einem Augenbild entsprechen;
einer ersten Detektorvorrichtung zur Erfassung von Relativpositionen der herausgezogenen ersten und zweiten Bildabschnitte; und
einer zweiten Detektorvorrichtung zur Erfassung eines geöffneten oder geschlossenen Zustands des Augenbilds durch Untersuchung von Variationen der erfaßten Relativpositionen.
2. System nach Anspruch 1,
dadurch gekennzeichnet, daß die erste
Detektorvorrichtung Variationen der Relativpositionen des
Augenbrauenbildes und des Augenbildes auf der Grundlage
von Änderungen der Entfernung zwischen diesen Bildern
feststellt.
3. System nach Anspruch 1,
dadurch gekennzeichnet, daß die erste
Detektorvorrichtung aufweist:
eine Bezugspositions-Einstellvorrichtung zur Einstellung einer Bezugsposition des Augenbrauenbildes entlang der Länge des Gesichts;
eine Augeneigenschaftspositionsdetektorvorrichtung zur Erfassung eines Maximalwertes eines Punktes in der Mitte des Augenbildes entlang der Länge des Gesichts und einer Position zumindest eines repräsentativen Punktes des Augenbildes entlang der Länge des Gesichts; und
eine Entfernungsmeßvorrichtung zur Messung einer Entfernung zwischen der Bezugsposition und dem repräsentativen Punkt.
eine Bezugspositions-Einstellvorrichtung zur Einstellung einer Bezugsposition des Augenbrauenbildes entlang der Länge des Gesichts;
eine Augeneigenschaftspositionsdetektorvorrichtung zur Erfassung eines Maximalwertes eines Punktes in der Mitte des Augenbildes entlang der Länge des Gesichts und einer Position zumindest eines repräsentativen Punktes des Augenbildes entlang der Länge des Gesichts; und
eine Entfernungsmeßvorrichtung zur Messung einer Entfernung zwischen der Bezugsposition und dem repräsentativen Punkt.
4. System nach Anspruch 1,
dadurch gekennzeichnet, daß die erste
Detektorvorrichtung aufweist:
eine Schwerpunktdetektorvorrichtung zur Erfassung jeweiliger Zentren des Augenbrauenbildes und des Augenbildes entlang der Breite des Gesichts; und
eine Entfernungsmeßvorrichtung zur Messung einer Entfernung zwischen den Zentren des Augenbrauenbildes und des Augenbildes, die auf die voranstehend geschilderte Weise erfaßt wurden.
eine Schwerpunktdetektorvorrichtung zur Erfassung jeweiliger Zentren des Augenbrauenbildes und des Augenbildes entlang der Breite des Gesichts; und
eine Entfernungsmeßvorrichtung zur Messung einer Entfernung zwischen den Zentren des Augenbrauenbildes und des Augenbildes, die auf die voranstehend geschilderte Weise erfaßt wurden.
5. Vorrichtung nach Anspruch 1,
dadurch gekennzeichnet, daß die
Augenherausziehbereichs-Einstellvorrichtung aufweist:
eine Digitalisierungsvorrichtung zum Digitalisieren des Eingangs-Gesichtsbildes zur Bereitstellung eines entsprechenden binären Bildes, und zur Bestimmung eines Augenherausziehbereiches innerhalb des binären Bildes.
eine Digitalisierungsvorrichtung zum Digitalisieren des Eingangs-Gesichtsbildes zur Bereitstellung eines entsprechenden binären Bildes, und zur Bestimmung eines Augenherausziehbereiches innerhalb des binären Bildes.
6. Gesichtsbild-Bearbeitungssystem mit:
einer Gesichtsbild-Eingabevorrichtung zur Bereitstellung eines Eingangs-Gesichtsbildes eines überwachten Gesichts;
einer Augenheraus ziehbereichs-Einstellvorrichtung zur Einstellung eines Augenherausziehbereiches innerhalb eines Eingangs-Gesichtsbilds;
einer Gesichtsbild-Eigenschaftsherausziehvorrichtung zum Herausziehen erster und zweiter Bildabschnitte entsprechend einem Augenbrauenbild und einem Augenbild aus dem Augenherausziehbereich;
einer Flächendetektorvorrichtung zur Erfassung von Flächen des herausgezogenen Augenbrauenbilds und des herausgezogenen Augenbilds;
einer Flächenverhältnisberechnungsvorrichtung zur Verwendung der genannten Flächen zur Berechnung eines Flächenverhältnisses zwischen dem Augenbrauenbild und dem Augenbild; und
einer Detektorvorrichtung zur Erfassung des Ausmaßes eines geöffneten oder geschlossenen Zustands eines Auges auf der Grundlage von Änderungen des Flächenverhältnisses, welches von der Flächenverhältnisberechnungsvorrichtung berechnet wird.
einer Gesichtsbild-Eingabevorrichtung zur Bereitstellung eines Eingangs-Gesichtsbildes eines überwachten Gesichts;
einer Augenheraus ziehbereichs-Einstellvorrichtung zur Einstellung eines Augenherausziehbereiches innerhalb eines Eingangs-Gesichtsbilds;
einer Gesichtsbild-Eigenschaftsherausziehvorrichtung zum Herausziehen erster und zweiter Bildabschnitte entsprechend einem Augenbrauenbild und einem Augenbild aus dem Augenherausziehbereich;
einer Flächendetektorvorrichtung zur Erfassung von Flächen des herausgezogenen Augenbrauenbilds und des herausgezogenen Augenbilds;
einer Flächenverhältnisberechnungsvorrichtung zur Verwendung der genannten Flächen zur Berechnung eines Flächenverhältnisses zwischen dem Augenbrauenbild und dem Augenbild; und
einer Detektorvorrichtung zur Erfassung des Ausmaßes eines geöffneten oder geschlossenen Zustands eines Auges auf der Grundlage von Änderungen des Flächenverhältnisses, welches von der Flächenverhältnisberechnungsvorrichtung berechnet wird.
7. Vorrichtung nach Anspruch 6,
gekennzeichnet durch:
eine Vorrichtung zur Umwandlung sowohl des Augenbrauenbildes als auch des Augenbildes in entsprechende Blockabschnitte, die jeweils einen Rahmen mit einer festgelegten Fläche aufweisen, und zur Bereitstellung von Augenbrauen-Bildblöcken und Augen-Bildblöcken; und
wobei die Flächendetektorvorrichtung die Fläche jedes der Augenbrauen-Bildblöcke und der Augen-Bildblöcke feststellt.
eine Vorrichtung zur Umwandlung sowohl des Augenbrauenbildes als auch des Augenbildes in entsprechende Blockabschnitte, die jeweils einen Rahmen mit einer festgelegten Fläche aufweisen, und zur Bereitstellung von Augenbrauen-Bildblöcken und Augen-Bildblöcken; und
wobei die Flächendetektorvorrichtung die Fläche jedes der Augenbrauen-Bildblöcke und der Augen-Bildblöcke feststellt.
8. Vorrichtung nach Anspruch 6,
dadurch gekennzeichnet, daß die
Augenherausziehbereichs-Einstellvorrichtung aufweist:
eine Digitalisierungsvorrichtung zum Digitalisieren des Eingangs-Gesichtsbildes zur Bereitstellung eines entsprechenden binären Bildes, und zur Bestimmung eines Augenherausziehbereiches innerhalb des binären Bildes.
eine Digitalisierungsvorrichtung zum Digitalisieren des Eingangs-Gesichtsbildes zur Bereitstellung eines entsprechenden binären Bildes, und zur Bestimmung eines Augenherausziehbereiches innerhalb des binären Bildes.
9. Gesichtsbild-Bearbeitungsvorrichtung mit:
einer Gesichtsbild-Eingabevorrichtung zur Bereitstellung eines Eingangs-Gesichtsbildes eines überwachten Gesichts;
einer Augenherausziehbereichs-Einstellvorrichtung zur Einstellung eines Augenherausziehbereiches innerhalb des Eingangs-Gesichtsbilds;
einer Gesichtsbild-Eigenschaftsherausziehvorrichtung zum Herausziehen eines Augenbrauenbildes und eines Augenbildes aus dem Augenherausziehbereich;
einer Meßvorrichtung zur Messung einer Breite bestimmter Abschnitte sowohl des Augenbrauen- als auch Augenbildes entlang der Länge des Gesichts;
einer Berechnungsvorrichtung zur Berechnung eines Breitenverhältnisses zwischen der Breite des Augenbrauenbildes und der Breite des Augenbildes; und
einer Detektorvorrichtung zur Erfassung eines geöffneten oder geschlossenen Zustands eines Auges auf der Grundlage von Änderungen des Breitenverhältnisses, welches von der Berechnungsvorrichtung berechnet wird.
einer Gesichtsbild-Eingabevorrichtung zur Bereitstellung eines Eingangs-Gesichtsbildes eines überwachten Gesichts;
einer Augenherausziehbereichs-Einstellvorrichtung zur Einstellung eines Augenherausziehbereiches innerhalb des Eingangs-Gesichtsbilds;
einer Gesichtsbild-Eigenschaftsherausziehvorrichtung zum Herausziehen eines Augenbrauenbildes und eines Augenbildes aus dem Augenherausziehbereich;
einer Meßvorrichtung zur Messung einer Breite bestimmter Abschnitte sowohl des Augenbrauen- als auch Augenbildes entlang der Länge des Gesichts;
einer Berechnungsvorrichtung zur Berechnung eines Breitenverhältnisses zwischen der Breite des Augenbrauenbildes und der Breite des Augenbildes; und
einer Detektorvorrichtung zur Erfassung eines geöffneten oder geschlossenen Zustands eines Auges auf der Grundlage von Änderungen des Breitenverhältnisses, welches von der Berechnungsvorrichtung berechnet wird.
10. Vorrichtung nach Anspruch 9,
gekennzeichnet durch:
eine Vorrichtung zur Umwandlung sowohl des Augenbrauenbildes als auch des Augenbildes in entsprechende Blockabschnitte, die jeweils einen Rahmen mit fester Fläche aufweisen, und zur Bereitstellung von Augenbrauen-Bildblöcken und Augen-Bildblöcken; und
eine Breitenmeßvorrichtung zur Messung der Breite sowohl der Augenbrauen-Bildblöcke als auch der Augen-Bildblöcke entlang der Länge des Gesichts.
eine Vorrichtung zur Umwandlung sowohl des Augenbrauenbildes als auch des Augenbildes in entsprechende Blockabschnitte, die jeweils einen Rahmen mit fester Fläche aufweisen, und zur Bereitstellung von Augenbrauen-Bildblöcken und Augen-Bildblöcken; und
eine Breitenmeßvorrichtung zur Messung der Breite sowohl der Augenbrauen-Bildblöcke als auch der Augen-Bildblöcke entlang der Länge des Gesichts.
11. Vorrichtung nach Anspruch 9,
dadurch gekennzeichnet, daß die
Augenherausziehbereichs-Einstellvorrichtung aufweist:
eine Digitalisierungsvorrichtung zum Digitalisieren des Eingangs-Gesichtsbildes zur Bereitstellung eines entsprechenden binären Bildes, und zur Festlegung eines Augenherausziehbereiches innerhalb des binären Bildes.
eine Digitalisierungsvorrichtung zum Digitalisieren des Eingangs-Gesichtsbildes zur Bereitstellung eines entsprechenden binären Bildes, und zur Festlegung eines Augenherausziehbereiches innerhalb des binären Bildes.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP19366195A JP3350296B2 (ja) | 1995-07-28 | 1995-07-28 | 顔画像処理装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
DE19609455A1 true DE19609455A1 (de) | 1997-01-30 |
DE19609455C2 DE19609455C2 (de) | 2000-06-08 |
Family
ID=16311675
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE19609455A Expired - Fee Related DE19609455C2 (de) | 1995-07-28 | 1996-03-11 | Gesichtsbild-Verarbeitungssystem |
Country Status (3)
Country | Link |
---|---|
US (1) | US5878156A (de) |
JP (1) | JP3350296B2 (de) |
DE (1) | DE19609455C2 (de) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112270808A (zh) * | 2020-10-23 | 2021-01-26 | 湖南行必达网联科技有限公司 | 一种防疲劳驾驶方法、装置及车辆 |
Families Citing this family (108)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10960A (ja) * | 1996-06-12 | 1998-01-06 | Yazaki Corp | 運転者監視装置 |
US6184926B1 (en) * | 1996-11-26 | 2001-02-06 | Ncr Corporation | System and method for detecting a human face in uncontrolled environments |
US6252976B1 (en) * | 1997-08-29 | 2001-06-26 | Eastman Kodak Company | Computer program product for redeye detection |
US5892837A (en) * | 1997-08-29 | 1999-04-06 | Eastman Kodak Company | Computer program product for locating objects in an image |
KR100295850B1 (ko) * | 1997-12-17 | 2001-11-22 | 이계안 | 졸음운전경보시스템의졸음운전판단방법 |
FR2773521B1 (fr) * | 1998-01-15 | 2000-03-31 | Carlus Magnus Limited | Procede et dispositif pour surveiller en continu l'etat de vigilance du conducteur d'un vehicule automobile, afin de detecter et prevenir une tendance eventuelle a l'endormissement de celui-ci |
DE19803158C1 (de) * | 1998-01-28 | 1999-05-06 | Daimler Chrysler Ag | Vorrichtung zur Vigilanzzustandsbestimmung |
JP3453085B2 (ja) * | 1998-07-23 | 2003-10-06 | ジーイー横河メディカルシステム株式会社 | X線ct装置 |
US6060989A (en) * | 1998-10-19 | 2000-05-09 | Lucent Technologies Inc. | System and method for preventing automobile accidents |
US6163277A (en) * | 1998-10-22 | 2000-12-19 | Lucent Technologies Inc. | System and method for speed limit enforcement |
JP3600755B2 (ja) * | 1999-05-13 | 2004-12-15 | 三菱電機株式会社 | 顔画像処理装置 |
JP3969894B2 (ja) * | 1999-05-24 | 2007-09-05 | 三菱電機株式会社 | 顔画像処理装置 |
JP3695990B2 (ja) * | 1999-05-25 | 2005-09-14 | 三菱電機株式会社 | 顔画像処理装置 |
JP2000350123A (ja) | 1999-06-04 | 2000-12-15 | Fuji Photo Film Co Ltd | 画像選択装置、カメラ、画像選択方法及び記録媒体 |
US6130617A (en) * | 1999-06-09 | 2000-10-10 | Hyundai Motor Company | Driver's eye detection method of drowsy driving warning system |
JP2001010368A (ja) * | 1999-06-17 | 2001-01-16 | Hyundai Motor Co Ltd | 居眠り運転警報システムの居眠り運転判断方法 |
TW445434B (en) * | 1999-08-04 | 2001-07-11 | Cyberlink Corp | System and method for automatically extracting facial features |
US6167333A (en) * | 1999-08-19 | 2000-12-26 | Lucent Technologies Inc. | Highway information system |
US6310542B1 (en) | 1999-08-19 | 2001-10-30 | Lucent Technologies Inc. | Cognitive system for a vehicle and its occupants |
US7076088B2 (en) * | 1999-09-03 | 2006-07-11 | Honeywell International Inc. | Near-infrared disguise detection |
DE60045263D1 (de) * | 1999-09-14 | 2010-12-30 | Toshiba Kk | Vorrichtung und Verfahren zur Gesichtsphotographie |
US6898300B1 (en) * | 1999-10-29 | 2005-05-24 | Fuji Photo Film Co., Ltd. | Image processing method and apparatus |
JP2001307076A (ja) * | 2000-04-24 | 2001-11-02 | Niles Parts Co Ltd | 眼の状態検出装置、居眠り検出装置 |
AUPQ896000A0 (en) * | 2000-07-24 | 2000-08-17 | Seeing Machines Pty Ltd | Facial image processing system |
JP4469476B2 (ja) * | 2000-08-09 | 2010-05-26 | パナソニック株式会社 | 眼位置検出方法および眼位置検出装置 |
US7200246B2 (en) * | 2000-11-17 | 2007-04-03 | Honeywell International Inc. | Object detection |
US6711279B1 (en) * | 2000-11-17 | 2004-03-23 | Honeywell International Inc. | Object detection |
US6792134B2 (en) * | 2000-12-19 | 2004-09-14 | Eastman Kodak Company | Multi-mode digital image processing method for detecting eyes |
US6841780B2 (en) * | 2001-01-19 | 2005-01-11 | Honeywell International Inc. | Method and apparatus for detecting objects |
US7176440B2 (en) * | 2001-01-19 | 2007-02-13 | Honeywell International Inc. | Method and apparatus for detecting objects using structured light patterns |
WO2002061666A1 (de) * | 2001-01-29 | 2002-08-08 | Siemens Aktiengesellschaft | Personenerkennung mit handyunterstützung |
JP3486613B2 (ja) * | 2001-03-06 | 2004-01-13 | キヤノン株式会社 | 画像処理装置およびその方法並びにプログラム、記憶媒体 |
US7027621B1 (en) * | 2001-03-15 | 2006-04-11 | Mikos, Ltd. | Method and apparatus for operator condition monitoring and assessment |
US7027619B2 (en) * | 2001-09-13 | 2006-04-11 | Honeywell International Inc. | Near-infrared method and system for use in face detection |
US7058209B2 (en) * | 2001-09-20 | 2006-06-06 | Eastman Kodak Company | Method and computer program product for locating facial features |
US7239726B2 (en) * | 2001-12-12 | 2007-07-03 | Sony Corporation | System and method for effectively extracting facial feature information |
JP2004013319A (ja) * | 2002-06-04 | 2004-01-15 | Earth Beat Inc | 画像中の物体認識方法 |
HK1053239A2 (en) * | 2002-10-09 | 2003-09-26 | Titanium Tech Ltd | Apparatus and method for recognizing images |
ATE412223T1 (de) * | 2002-10-24 | 2008-11-15 | L 1 Identity Solutions Ag | Prüfung von bildaufnahmen von personen |
US7202792B2 (en) * | 2002-11-11 | 2007-04-10 | Delphi Technologies, Inc. | Drowsiness detection system and method |
US7609853B2 (en) * | 2002-12-11 | 2009-10-27 | The Nielsen Company (Us), Llc | Detecting a composition of an audience |
US7203338B2 (en) * | 2002-12-11 | 2007-04-10 | Nielsen Media Research, Inc. | Methods and apparatus to count people appearing in an image |
KR100464040B1 (ko) * | 2002-12-16 | 2005-01-03 | 엘지전자 주식회사 | 얼굴 움직임을 이용한 이동 통신 단말기의 제어 방법 |
JP2004254298A (ja) * | 2003-01-30 | 2004-09-09 | Ricoh Co Ltd | 画像処理装置、プログラム及び記憶媒体 |
JP2004304765A (ja) * | 2003-03-20 | 2004-10-28 | Fuji Photo Film Co Ltd | 画像記録装置および方法並びにプログラム |
JP2004348674A (ja) * | 2003-05-26 | 2004-12-09 | Noritsu Koki Co Ltd | 領域検出方法及びその装置 |
JP3673834B2 (ja) * | 2003-08-18 | 2005-07-20 | 国立大学法人山口大学 | 眼球運動を用いた視線入力コミュニケーション方法 |
US7331671B2 (en) * | 2004-03-29 | 2008-02-19 | Delphi Technologies, Inc. | Eye tracking method based on correlation and detected eye movement |
JP4177779B2 (ja) * | 2004-03-31 | 2008-11-05 | 富士フイルム株式会社 | 画像表示制御装置および方法ならびに画像表示制御装置を制御するプログラム |
US20080080744A1 (en) * | 2004-09-17 | 2008-04-03 | Mitsubishi Electric Corporation | Face Identification Apparatus and Face Identification Method |
KR100590572B1 (ko) * | 2004-12-15 | 2006-06-19 | 삼성전자주식회사 | 눈 위치 검출 방법 및 장치 |
JP2006254229A (ja) * | 2005-03-11 | 2006-09-21 | Fuji Photo Film Co Ltd | 撮像装置、撮像方法及び撮像プログラム |
JP2006260397A (ja) * | 2005-03-18 | 2006-09-28 | Konica Minolta Holdings Inc | 開眼度推定装置 |
US7676063B2 (en) * | 2005-03-22 | 2010-03-09 | Microsoft Corp. | System and method for eye-tracking and blink detection |
US7301465B2 (en) * | 2005-03-24 | 2007-11-27 | Tengshe Vishwas V | Drowsy driving alarm system |
US7650034B2 (en) * | 2005-12-14 | 2010-01-19 | Delphi Technologies, Inc. | Method of locating a human eye in a video image |
JP4127296B2 (ja) * | 2006-06-09 | 2008-07-30 | ソニー株式会社 | 撮像装置、および撮像装置制御方法、並びにコンピュータ・プログラム |
US7742621B2 (en) * | 2006-06-13 | 2010-06-22 | Delphi Technologies, Inc. | Dynamic eye tracking system |
US7620216B2 (en) * | 2006-06-14 | 2009-11-17 | Delphi Technologies, Inc. | Method of tracking a human eye in a video image |
FR2905586B1 (fr) * | 2006-09-28 | 2009-04-17 | Siemens Vdo Automotive Sas | "procede de localisation des pupilles" |
US8102417B2 (en) * | 2006-10-25 | 2012-01-24 | Delphi Technologies, Inc. | Eye closure recognition system and method |
US20080166052A1 (en) * | 2007-01-10 | 2008-07-10 | Toshinobu Hatano | Face condition determining device and imaging device |
US8045766B2 (en) * | 2007-02-16 | 2011-10-25 | Denso Corporation | Device, program, and method for determining sleepiness |
JP4259585B2 (ja) * | 2007-03-08 | 2009-04-30 | 株式会社デンソー | 眠気判定装置,プログラムおよび眠気判定方法 |
JP4375420B2 (ja) * | 2007-03-26 | 2009-12-02 | 株式会社デンソー | 眠気警報装置、及びプログラム |
JP4898532B2 (ja) * | 2007-04-13 | 2012-03-14 | 富士フイルム株式会社 | 画像処理装置および撮影システム並びに瞬き状態検出方法、瞬き状態検出プログラムおよびそのプログラムが記録された記録媒体 |
JP4985117B2 (ja) * | 2007-06-06 | 2012-07-25 | 株式会社ニコン | 画像処理プログラム、および画像処理装置 |
US8031970B2 (en) * | 2007-08-27 | 2011-10-04 | Arcsoft, Inc. | Method of restoring closed-eye portrait photo |
US9117119B2 (en) | 2007-09-01 | 2015-08-25 | Eyelock, Inc. | Mobile identity platform |
WO2009029765A1 (en) * | 2007-09-01 | 2009-03-05 | Global Rainmakers, Inc. | Mirror system and method for acquiring biometric data |
US9036871B2 (en) | 2007-09-01 | 2015-05-19 | Eyelock, Inc. | Mobility identity platform |
CN100463000C (zh) * | 2007-09-27 | 2009-02-18 | 上海交通大学 | 基于级联分类和哈夫圆变换的人眼状态检测方法 |
JP5055166B2 (ja) | 2008-02-29 | 2012-10-24 | キヤノン株式会社 | 眼の開閉度判定装置、方法及びプログラム、撮像装置 |
US8570176B2 (en) * | 2008-05-28 | 2013-10-29 | 7352867 Canada Inc. | Method and device for the detection of microsleep events |
US8411963B2 (en) * | 2008-08-08 | 2013-04-02 | The Nielsen Company (U.S.), Llc | Methods and apparatus to count persons in a monitored environment |
JP5276381B2 (ja) * | 2008-08-27 | 2013-08-28 | 安川情報システム株式会社 | 眼部領域検出装置、眼部領域検出方法および眼部領域検出プログラム |
KR101480564B1 (ko) | 2008-10-21 | 2015-01-12 | 삼성전자주식회사 | 안면 인식을 이용한 알람 제어 장치 및 방법 |
JP4788786B2 (ja) * | 2009-02-09 | 2011-10-05 | 株式会社デンソー | 眠気検出装置,プログラムおよび眠気検出方法 |
JP5270415B2 (ja) * | 2009-03-19 | 2013-08-21 | トヨタ自動車株式会社 | 眠気判定装置及びプログラム |
KR101032726B1 (ko) * | 2009-09-01 | 2011-05-06 | 엘지이노텍 주식회사 | 눈 상태 검출방법 |
FR2958431B1 (fr) * | 2010-03-30 | 2012-08-17 | Solystic | Dispositif de traitement d'objets avec un systeme pour surveiller en temps reel la qualite des images des objets |
JP5641813B2 (ja) | 2010-08-17 | 2014-12-17 | キヤノン株式会社 | 撮像装置及び撮像方法、画像処理装置及び画像処理方法 |
JP2012068948A (ja) * | 2010-09-24 | 2012-04-05 | Renesas Electronics Corp | 顔属性推定装置およびその方法 |
JP5627511B2 (ja) * | 2011-03-03 | 2014-11-19 | アイシン精機株式会社 | 状態推定装置、状態推定方法及びプログラム |
US9380978B2 (en) * | 2011-06-29 | 2016-07-05 | Bruce Reiner | Method and apparatus for real-time measurement and analysis of occupational stress and fatigue and performance outcome predictions |
US8620088B2 (en) | 2011-08-31 | 2013-12-31 | The Nielsen Company (Us), Llc | Methods and apparatus to count people in images |
WO2013035704A1 (ja) * | 2011-09-05 | 2013-03-14 | 富山県 | 居眠り検出方法と装置 |
JP5418579B2 (ja) * | 2011-12-06 | 2014-02-19 | 株式会社デンソー | 開閉眼検出装置 |
US9075453B2 (en) * | 2011-12-29 | 2015-07-07 | Khalifa University of Science, Technology & Research (KUSTAR) | Human eye controlled computer mouse interface |
AU2014208275A1 (en) * | 2013-08-02 | 2015-02-19 | Vermeer Manufacturing Company | Remote Control System |
USD751437S1 (en) | 2014-12-30 | 2016-03-15 | Tk Holdings Inc. | Vehicle occupant monitor |
US10532659B2 (en) | 2014-12-30 | 2020-01-14 | Joyson Safety Systems Acquisition Llc | Occupant monitoring systems and methods |
US10614328B2 (en) | 2014-12-30 | 2020-04-07 | Joyson Safety Acquisition LLC | Occupant monitoring systems and methods |
US9533687B2 (en) | 2014-12-30 | 2017-01-03 | Tk Holdings Inc. | Occupant monitoring systems and methods |
TWI536279B (zh) * | 2015-04-22 | 2016-06-01 | 緯創資通股份有限公司 | 人眼偵測方法及系統 |
US10007845B2 (en) | 2015-07-06 | 2018-06-26 | Pixart Imaging Inc. | Eye state detecting method and eye state detecting system |
US9984282B2 (en) * | 2015-12-10 | 2018-05-29 | Perfect Corp. | Systems and methods for distinguishing facial features for cosmetic application |
US11144756B2 (en) | 2016-04-07 | 2021-10-12 | Seeing Machines Limited | Method and system of distinguishing between a glance event and an eye closure event |
TWI647666B (zh) * | 2017-08-28 | 2019-01-11 | 緯創資通股份有限公司 | 瞌睡偵測裝置及其瞌睡偵測方法 |
EP3809310B1 (de) * | 2018-07-16 | 2023-11-08 | Honor Device Co., Ltd. | Verfahren und elektronische vorrichtung zum erkennen von offenen und geschlossenen zuständen des auges |
CN110585592B (zh) * | 2019-07-31 | 2022-11-22 | 济南瞳星智能科技有限公司 | 一种个性化电子针灸装置及其生成方法与生成装置 |
US11711638B2 (en) | 2020-06-29 | 2023-07-25 | The Nielsen Company (Us), Llc | Audience monitoring systems and related methods |
CN112036311A (zh) * | 2020-08-31 | 2020-12-04 | 北京字节跳动网络技术有限公司 | 基于眼部状态检测的图像处理方法、装置及存储介质 |
KR102501112B1 (ko) * | 2021-04-09 | 2023-02-16 | 티맵모빌리티 주식회사 | 졸음운전 감지장치 및 졸음운전 감지장치의 동작 방법 |
US11860704B2 (en) | 2021-08-16 | 2024-01-02 | The Nielsen Company (Us), Llc | Methods and apparatus to determine user presence |
US11758223B2 (en) | 2021-12-23 | 2023-09-12 | The Nielsen Company (Us), Llc | Apparatus, systems, and methods for user presence detection for audience monitoring |
US12088882B2 (en) | 2022-08-26 | 2024-09-10 | The Nielsen Company (Us), Llc | Systems, apparatus, and related methods to estimate audience exposure based on engagement level |
CN116386120B (zh) * | 2023-05-24 | 2023-08-18 | 杭州企智互联科技有限公司 | 一种用于智慧校园宿舍的无感监控管理系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4441332A1 (de) * | 1993-11-11 | 1995-05-18 | Mitsubishi Electric Corp | Fahrer-Fotografiervorrichtung |
DE19509689A1 (de) * | 1994-03-10 | 1995-09-14 | Mitsubishi Electric Corp | Körperzustands-Erfassungsapparat |
DE19603287A1 (de) * | 1995-07-06 | 1997-01-09 | Mitsubishi Electric Corp | Gesichtsbildaufnahmevorrichtung |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4975969A (en) * | 1987-10-22 | 1990-12-04 | Peter Tal | Method and apparatus for uniquely identifying individuals by particular physical characteristics and security system utilizing the same |
JP2522859B2 (ja) * | 1990-12-14 | 1996-08-07 | 日産自動車株式会社 | 眼位置検出装置 |
JPH0546743A (ja) * | 1991-08-09 | 1993-02-26 | Matsushita Electric Ind Co Ltd | 個人識別装置 |
JP2936943B2 (ja) * | 1993-02-03 | 1999-08-23 | 日産自動車株式会社 | 運転者の状態検出装置 |
US5482048A (en) * | 1993-06-30 | 1996-01-09 | University Of Pittsburgh | System and method for measuring and quantitating facial movements |
JPH07101265A (ja) * | 1993-10-01 | 1995-04-18 | Toyota Motor Corp | 運転状態検出装置 |
US5481622A (en) * | 1994-03-01 | 1996-01-02 | Rensselaer Polytechnic Institute | Eye tracking apparatus and method employing grayscale threshold values |
JP2937030B2 (ja) * | 1994-09-14 | 1999-08-23 | 三菱電機株式会社 | 画像処理装置及び人物状態判定装置 |
-
1995
- 1995-07-28 JP JP19366195A patent/JP3350296B2/ja not_active Expired - Fee Related
-
1996
- 1996-02-12 US US08/597,715 patent/US5878156A/en not_active Expired - Lifetime
- 1996-03-11 DE DE19609455A patent/DE19609455C2/de not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4441332A1 (de) * | 1993-11-11 | 1995-05-18 | Mitsubishi Electric Corp | Fahrer-Fotografiervorrichtung |
DE19509689A1 (de) * | 1994-03-10 | 1995-09-14 | Mitsubishi Electric Corp | Körperzustands-Erfassungsapparat |
DE19603287A1 (de) * | 1995-07-06 | 1997-01-09 | Mitsubishi Electric Corp | Gesichtsbildaufnahmevorrichtung |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112270808A (zh) * | 2020-10-23 | 2021-01-26 | 湖南行必达网联科技有限公司 | 一种防疲劳驾驶方法、装置及车辆 |
Also Published As
Publication number | Publication date |
---|---|
JPH0944685A (ja) | 1997-02-14 |
US5878156A (en) | 1999-03-02 |
DE19609455C2 (de) | 2000-06-08 |
JP3350296B2 (ja) | 2002-11-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE19609455C2 (de) | Gesichtsbild-Verarbeitungssystem | |
DE69612700T2 (de) | Merkmallokalisierung in einem Bild | |
DE2831582C2 (de) | Verfahren zur Identifizierung einer Person und Vorrichtung zur Durchführung des Verfahrens | |
DE19614975C2 (de) | Gesichtsbildverarbeitungssystem | |
DE60313941T2 (de) | Personendetektion durch Gesichtsdetektion und Bewegungsdetektion | |
DE69032326T2 (de) | Dynamisches verfahren um gegenstände zu erkennen und bildverarbeitungsgerät dafür | |
DE60123378T2 (de) | Digitales Bildverarbeitungsverfahren mit verschiedenen Arbeitsweisen zum Erkennen von Augen | |
DE68928895T2 (de) | Verfahren und Gerät für universelle adaptiv lernende Bildmessung und -erkennung | |
DE69522844T2 (de) | Bildverarbeitungsverfahren zur örtlichen Bestimmung des Zentrums und der Objekte, die sich gegen einen Hintergrund abheben, und Vorrichtung zur Durchführung des Verfahrens | |
DE69410604T2 (de) | Biometrische identifizierung von personen | |
DE60307583T2 (de) | Auswertung der Schärfe eines Bildes der Iris eines Auges | |
EP1062640B1 (de) | Verfahren zum verifizieren der authentizität eines im rahmen einer personenerkennung aufgenommenen bildes | |
EP2584493B1 (de) | Verfahren zur Unterscheidung zwischen einem realen Gesicht und einer zweidimensionalen Abbildung des Gesichts in einem biometrischen Erfassungsprozess | |
DE69730811T2 (de) | Anlage zur Bilderkennung | |
DE4406020C1 (de) | Verfahren zur automatisierten Erkennung von Objekten | |
DE60217589T2 (de) | Vorrichtung und Verfahren zur Detektion von weissen Linien | |
DE102005000646A1 (de) | Vorrichtung, Verfahren und Programm zum Erfassen von sich bewegenden Objekten | |
DE602005001627T2 (de) | Vorrichtung zur Extraktion von Fussgängern | |
DE112009000949T5 (de) | Detektion eines freien Fahrpfads für ein Fahrzeug | |
WO2007107214A2 (de) | Verfahren und vorrichtung zur korrespondenzbestimmung, vorzugsweise zur dreidimensionalen rekonstruktion einer szene | |
DE102007050568A1 (de) | Verfahren und Einrichtung zur Objekterkennung in einem Bild | |
EP3245943A1 (de) | Verfahren zur berührungslosen ermittlung und aufbereitung von schlafbewegungsdaten | |
EP1180258B1 (de) | Mustererkennung mittels prüfung zusätzlicher merkmale nach teilverarbeitung | |
DE19883010B4 (de) | Verfahren und Vorrichtung zum Erkennen eines sich bewegenden Objekts in einer Abfolge von Farbvollbildern | |
EP1143373A1 (de) | Verfahren zur störanteilsfreien Bilderfassung mittels eines elektronischen Sensors |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
D2 | Grant after examination | ||
8364 | No opposition during term of opposition | ||
8320 | Willingness to grant licences declared (paragraph 23) | ||
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |
Effective date: 20121002 |