Nothing Special   »   [go: up one dir, main page]

WO2005064438A2 - Bediensystem für ein fahrzeug - Google Patents

Bediensystem für ein fahrzeug Download PDF

Info

Publication number
WO2005064438A2
WO2005064438A2 PCT/EP2004/014321 EP2004014321W WO2005064438A2 WO 2005064438 A2 WO2005064438 A2 WO 2005064438A2 EP 2004014321 W EP2004014321 W EP 2004014321W WO 2005064438 A2 WO2005064438 A2 WO 2005064438A2
Authority
WO
WIPO (PCT)
Prior art keywords
voice
control means
dialog
voice control
menu
Prior art date
Application number
PCT/EP2004/014321
Other languages
English (en)
French (fr)
Other versions
WO2005064438A3 (de
Inventor
Rainer Daude
Günter METSCH
Original Assignee
Daimlerchrysler Ag
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daimlerchrysler Ag filed Critical Daimlerchrysler Ag
Priority to JP2006546001A priority Critical patent/JP2007519553A/ja
Priority to US10/584,463 priority patent/US20080021598A1/en
Publication of WO2005064438A2 publication Critical patent/WO2005064438A2/de
Publication of WO2005064438A3 publication Critical patent/WO2005064438A3/de

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • G01C21/3608Destination input or retrieval using speech input, e.g. using speech recognition
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/22Display screens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/28Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/29Instruments characterised by the way in which information is handled, e.g. showing information on plural displays or prioritising information according to driving conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/60Instruments characterised by their location or relative disposition in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/80Arrangements for controlling instruments
    • B60K35/81Arrangements for controlling instruments for controlling displays
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/148Instrument input by voice
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/90Calibration of instruments, e.g. setting initial or reference parameters; Testing of instruments, e.g. detecting malfunction
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/21Voice
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/228Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context

Definitions

  • the invention relates to an operating system for a vehicle according to the preamble of patent claim 1.
  • DE 197 52 056 AI describes an operating system for a motor vehicle.
  • two display areas are displayed on a screen in a menu structure with several menu levels.
  • a first display area is arranged as a frame around the second display area.
  • eight fields with entries that correspond to executable applications and are arranged vertically and horizontally are displayed in the first display area.
  • An entry is selected by a sliding or tilting movement of the manual actuating means with several degrees of freedom of adjustment in the direction of the position of the corresponding entry in the first display area.
  • a selected entry is activated by pressing the manual control.
  • several vertically arranged entries are displayed in a second menu level in the second display area, which are assigned to the activated entry in the first menu level.
  • the one in the second display area displayed entries are selected by rotating the manual actuating means and activated by pressing the manual actuating means.
  • the activated second display area and the second menu level are exited by the sliding or tilting movement of the manual actuating means in the direction of a position of one of the entries in the first display area.
  • the operating system is then again in the first display area on the first menu level.
  • EP 1 342 605 AI describes an operating system for a motor vehicle with a screen display, a manual actuating means with several degrees of freedom of adjustment and means for voice control.
  • the screen display comprises several display areas for displaying entries of a menu structure with several menu levels, the entries of the menu structure being selectable and / or activatable by the manual actuation means and / or the voice control means.
  • the entries of the menu structure shown on the screen display simultaneously form the keywords that can currently be entered for voice-operated menu navigation.
  • No. 4,827,520 describes an operating system for a motor vehicle with a screen display, a plurality of manual actuating means which are arranged in the vicinity of the screen display, and means for voice control.
  • the screen display comprises several display areas for displaying entries of a menu structure with several menu levels, the entries of the menu structure being selectable and / or activatable by the manual actuation means and / or the voice control means.
  • the entries in the menu structure shown on the screen or on the manual actuating means simultaneously form the keywords that can currently be entered for the voice-operated menu navigation.
  • US 4,797,924 describes an operating system for a motor vehicle with a screen display, several manual actuating means and means for voice control.
  • the various vehicle components such as telephone system, radio, etc.
  • the terms that can be entered are hierarchically arranged in a command structure with a plurality of command levels, wherein only terms of a current command level can be entered and understood and executed by the voice control means.
  • the object of the invention is to provide an improved operating system for a vehicle, by means of which an intuitive voice control is made possible and the operating comfort is improved.
  • the invention solves this problem by providing an operating system for a vehicle with the features of claim 1.
  • the invention is based on the idea that, depending on a current menu level and / or an active display area and / or a current cursor position, voice control means determine an operating intention of the user and, after their activation, at least one voice dialog associated with the determined operating intention for selection and / or Start activation of one or more entries from the menu structure.
  • the voice control means continuously determine the current menu level and / or the active display area and / or the current cursor position in the menu structure.
  • the voice control means receive the information about the currently activated application and / or the currently active display area and / or the current cursor position in the menu structure, for example from an evaluation and control unit.
  • the voice control means know the current state and the current position within the menu structure, although the entries in the menu structure can also be selected using a manual actuating means.
  • the operating system according to the invention thus achieves an optimized link between manual operation and voice operation and a consistent operating concept is achieved across all input and / or output channels.
  • the voice control means in a first voice dialog prompt for a specific voice input when the voice control means have recognized that the current menu and / or cursor position suggest a certain intention to operate and thus a specific voice dialog.
  • the voice control means After the request for voice input, the voice control means expect the specific voice input in the first voice dialog.
  • the voice control means in a second voice dialog output possible keywords for selection when the voice control means have recognized that the current menu and / or cursor position suggest several possible voice dialogs, ie that it is not clear which operator action the user wants to perform.
  • the voice control means await the voice input of one of the key words output in the second language dialog.
  • a third voice dialog which comprises any sequence of the first and / or second voice dialog, i.e. Any number of voice dialogues of the first or second type can be strung together. This advantageously makes it possible to carry out successive selection steps in the form of speech dialogues.
  • the voice control means are activated for the duration of the current voice dialog so that the user does not have to reactivate the voice control means during the voice dialog.
  • the representation of the menu structure on the screen display can be updated in accordance with the voice dialog steps, i.e. For example, selected application menus, function menus, submenus and / or corresponding display areas are opened, activated and displayed. This makes it possible for the user to switch between voice input and manual input as desired and, if necessary, to check the progress of the selection process on the screen.
  • the operating system according to the invention implements a uniform operating concept for voice control and manual operation, which enables the user to: to operate the menu structure with several menu levels by means of voice control means and / or the manual actuating means without having to remember voice commands or having to read the possible voice commands from the screen display.
  • the possible change between the input channels, ie between voice input and manual input improves the intuitive operation and ease of use. In addition, faster operation is possible by saving dialog steps.
  • FIG. 1 shows a block diagram of an operating system for a motor vehicle
  • FIG. 2 shows a schematic illustration of a screen display from FIG. 1 in a first menu level
  • FIG. 3 shows a schematic illustration of the screen display from FIG. 1 in a second menu level
  • FIG. 4 shows a schematic illustration of the screen display from FIG. 1 in the second menu level
  • FIG. 5 shows a schematic illustration of the screen display from FIG. 1 in a third menu level
  • FIG. 6 shows a schematic illustration of the screen display from FIG. 1 in a fourth menu level
  • the operating system 1 for a motor vehicle comprises a screen display 2, a manual actuating means 3, a control and evaluation unit 4, voice control means 6 and several vehicle systems, such as a navigation system, a heating and air conditioning system, a mobile phone, a video system, an audio system, etc., which are shown collectively as an element 5.
  • vehicle systems transmit signals to the evaluation and control unit 4, from which the control and evaluation unit 4 determines current system states. All applications and / or functions and / or subfunctions and / or options and / or status displays in different menu levels of a menu structure are operated by the manual actuating means 3.
  • predetermined applications and / or functions and / or subfunctions and / or options and / or status displays in different menu levels of the menu structure, redundant for operation with the manual actuating means 3, can be operated with the voice control means 6 by means of a corresponding voice input.
  • the voice control means 6 comprise, for example, voice input means 6.2, for example at least one microphone, a voice recognition unit 6.1, voice output means 6.3, for example at least one loudspeaker and at least one storage unit 6.4.
  • the manual actuation means 3 has seven degrees of freedom of adjustment for the selection and / or activation of entries shown in an active display area. It can be pushed in four directions as shown by the arrow in Fig. 1, i.e. in a positive x direction, a negative x direction, in a positive y direction or in a negative y direction. In addition, it can be rotated clockwise or counterclockwise about a z axis, not shown, perpendicular to the plane of the drawing and in the direction of the negative z direction, i.e. pressed into the drawing plane.
  • Turning the manual actuating means 3 clockwise moves a cursor on the screen display 2 in downward direction. depending on a horizontal or vertical orientation of the entries shown on the screen display 2 to the right or down, turning counterclockwise moves the cursor to the left or up.
  • Pushing the manual actuating means 3 in FIG. 1 upwards, ie forwards in the direction of the front screen, ie in the positive y direction moves the cursor on the screen display 2 upwards, pushing in FIG. 1 downwards, ie backwards in negative y direction, moves the cursor down on the screen display 2.
  • Moving to the right, ie in the positive x direction moves the cursor to the right on the screen display 2, pushing to the left, ie in the negative x direction, moves the cursor to the left.
  • the selection and / or activation of an entry shown on the screen display 2 is carried out by pushing or rotating the manual actuating means 3. Redundant for pushing vertically along an axis, i.e. for pushing in the y direction, or for pushing horizontally along an axis, i.e. for pushing in the x direction, the manual actuating means 3 can be rotated about the z axis.
  • the slide direction for selecting an entry corresponds to the orientation of the entries shown in the active display area.
  • the shift direction that is orthogonal to the selection slide direction leads to leaving the active display area.
  • the activation of a selected entry may require the manual actuation means 3 to be pressed.
  • the menu structure shown on the screen display can be operated by voice input of key words.
  • the entries shown on the screen display 2 can have a marking which is designed, for example, as a special optical representation and can be achieved by a different color and / or a different intensity and / or a different size and / or a different shape. 2 to 6, this is shown in bold.
  • the entries 1.1 to 5.7 shown on the screen display can also be stored as possible keywords in the memory 6.4 of the speech recognition means 6.
  • a manual actuation of a PTT button (push-to-talk button) is provided in the illustrated embodiment, which is preferably arranged in the grip area of the user, for example on the steering wheel.
  • the function of the PTT button can also be taken over by the manual actuating means 6.
  • the screen display 2 comprises in a first menu level a graphical basic structure of five vertically arranged, horizontal display areas 210 to 250. This graphical basic structure is constant over the majority of the different menu levels of the menu structure.
  • the screen display 2 is designed, for example, as an eight inch screen with an aspect ratio of 15: 9.
  • the graphic basic structure of the display area 230 is variable across the majority of the different menu levels of the menu structure, i.e. the graphic design of this central display area 230 can be very varied be different.
  • the graphic design of this central display area 230 can be very varied be different.
  • the display areas 210, 220, 240 and 250 one or more horizontally arranged entries 1.1 to 5.7 can be displayed.
  • the display areas 210, 220, 240 and 250 in FIG. 2 each comprise a different number of entries in the first menu level.
  • the first display area 210 thus comprises five entries 1.1 to 1.5, the second display area 220 five entries 2.1 to 2.5, the fourth display area comprises no entry and the fifth display area comprises seven entries 5.1 to 5.7. 2, the second display area 220 is activated and the hatched entry 2.1 (navigation system) is selected.
  • the hatched representation should indicate that the cursor is on entry 2.1.
  • the entries 1.1 to 5.7 of the display areas 210 to 250 shown on the screen display 2 can be arranged according to their content-related importance or frequency of use.
  • the schematic representation of the screen display 2 in FIGS. 2 to 6 is adapted with special entries to the operation for a motor vehicle.
  • the first display area 210 is designed as a status line which displays various status displays 1.1 to 1.5 from different applications.
  • the main function of the status line is the representation of important current system states, which are determined by the control and evaluation unit 4 as a function of signals from the vehicle systems 5.
  • the entries or status displays 1.1 to 1.5 can only be selected and activated with the manual actuating means 3.
  • the status line shows, for example, whether a traffic information station is activated, whether the heating and air conditioning system works in recirculation or fresh air mode, whether the activated carbon filter is activated, etc.
  • the first display area 210 which is designed as a status line, can contain a plurality of operable and non-operable entries 1.1 to 1.5, which are shown or hidden depending on the system state.
  • the operability of some entries can allow direct access to important functions without requiring a change of application. If an entry is selected from the status line, this can immediately lead to an associated function. For example, by activating a letter symbol, a display area in a ComTel application, i.e. in a communication or telephone application, can be activated and opened. Activating a telephone receiver symbol can activate and open another display area in the ComTel application group. Activating a TP symbol deactivates a traffic program, i.e. a traffic information station. In addition, various status indicators that cannot be selected, such as a satellite dish for displaying GPS reception or a field strength, can be displayed.
  • the second display area 220 is an application line for displaying different selectable and predefinable application groups 2.1 to 2.5, in particular a navigation (Navi), an audio, a telephone / communication (Tel / Com), a video and a vehicle application group , executed, the number and position of the entries to be displayed, ie the application groups 2.1 to 2.5 are constant and the graphical representation of the entries to be displayed is variable depending on an activated application group.
  • the activation of one of the application groups 2.1 to 2.5 which is not already active, leads to a change to the associated application and to an activation of the fourth display area 240 for displaying functions and / or subfunctions belonging to the activated application. If an application does not have functions or subfunctions, then by activating this application in the second display area 220, the third display area 230 can be activated and the options for operation associated with this application can be displayed.
  • the arrangement of the application groups in the second display area 220 is constant and can be determined from left to right according to frequency of use or importance. Selecting an application or application group leads to an immediate activation of at least one other display area and can be carried out by manual input with the manual actuating means 3 or by voice input via the voice control means.
  • the entries 2.1 through 2.5 of the application line 220 which are marked in bold, are stored as keywords in the memory 6.4 of the speech control means 6 and are available to the speech recognizer 6.1. Since none of the entries from one of the five display areas 210 to 250 has yet been activated, the entire screen in FIG. 2 corresponds to the active display area.
  • the third display area 230 is designed as an application area for displaying details and operating a selected and activated application.
  • the number and the position as well as the graphic representation of the ones to be displayed Entries depend on the activated application 2.1 to 2.5.
  • the graphical representation and operability of the third representation area 230 is variable and can therefore be adapted well to a strongly varying functionality or requirements of the different applications 2.1 to 2.5.
  • the fourth display area 240 is designed as a function line for displaying and selecting functions and / or sub-functions and / or options of an activated application 2.1 to 2.5.
  • the number and the position and the graphical representation of the entries to be displayed, i.e. The functions and / or sub-functions depend on the activated application 2.1 to 2.5 and / or on the menu level.
  • the basic graphic structure is constant across all menu levels of the menu structure.
  • the fifth display area 250 is designed as a main application line.
  • a presettable application can be displayed in this display area 250.
  • the number and the position of the entries 5.1 to 5.7 to be displayed are constant for the preset application and the content and the graphic representation of the entries 5.1 to 5.7 to be displayed are variable and / or constant depending on current system states.
  • the preset application is preferably used to operate an air conditioning system in the vehicle.
  • the entry 5.1 (climate), which can be selected and / or activated via a voice input, is marked in bold.
  • the displayed values of a set parameter such as air temperature, blower strength, etc., can vary.
  • the current system states relate in particular to relevant states for temperature control in the vehicle interior, such as, for example, outside temperature, intensity of solar radiation, interior temperature, air humidity, etc.
  • 3 shows the screen display 2 in a further menu level after the entry 2.1 (Navi) in the second display area 220 has been selected and activated by pressing the manual actuating means 3 or has been selected and activated by voice input of the entry 2.1 “navigation”
  • the activation of the entry 2.1 opens and activates the application menu, not shown, assigned to the entry 2.1, from which an entry "map display” was selected.
  • the entries 4.1 to 4.3 of the function line belonging to the navigation application are displayed in the fourth display area 240.
  • a display area 230.1 im belonging to the map display is displayed third display area 230 opened.
  • the display area 230.1 shows a section of a street map.
  • Fig. 4 shows a representation of the screen display 2 in the same menu level as in Fig. 3, in which the entry 4.3 "target” was selected by manual input with the manual actuating means 3 or by voice input. The selection of the entry 4.3 "target "is shown in Fig. 4 by the hatched representation of the field with the entry 4.3.
  • FIG. 5 shows a representation of the screen display 2 in a further menu level, in which the entry 4.3 “target” from the function line was activated by a corresponding input and a display area 240.1 assigned to the entry 4.3 “target” was opened as a function menu.
  • the function menu is designed as a vertical list with seven entries 240.1.1 to 240.1.7.
  • the cursor marks the first entry 240.1.1 "Address entry” in this function menu. This is indicated by the hatched representation of the associated field.
  • FIG. 6 shows a representation of the screen display 2 in a further menu level, in which the entry 240.1.1 “address input” from the function menu 240.1 was activated by an appropriate input and a display area 240.2 assigned to the entry 240.1.1 “address input” was opened as a submenu has been.
  • the submenu is designed as a vertical list with three entries 240.2.1 to 240.2.3.
  • the cursor marks the first entry 240.2.1 "Location" in this function menu. This is indicated by the hatched representation of the associated field.
  • Voice dialogs according to the invention are described below with reference to FIGS. 4 to 6, which are performed by the voice control means 6 depending on the current menu level and / or the currently active display area.
  • the voice control means 6 are activated in the menu level from FIG. 6 with the activated display area 240.2, for example by actuating the special PTT key (not shown) (push-to-talk key) or the manual actuation means 3, then the voice control means 6 start one first speech dialog and ask the user in a first dialog step to enter the place name, for example by means of a speech: "Please speak (or spell) the place name".
  • the voice dialog is initiated directly by the voice control means 6 according to the invention the cursor when activating the voice control means 6, for example, on the entry 240.2.2 "street", then the voice control means 6 request the entry of a street name.
  • the voice control means 6 await the requested voice input in a further dialog step, for example the voice input of the place name or the street name.
  • the first voice dialog according to the invention has ended and the user must reactivate the voice control means 6 for a new voice input.
  • the voice control means 6 If the voice control means 6 are activated in the menu level from FIG. 5 with the activated display area 240.1, then the voice control means 6 start a second voice dialog which, in a first dialog step, the user prompts you to make a selection from a list, for example by means of a speech: "Please select: enter address, name or special destination”. Then, in a second dialog step, the voice control means (6) expect the input of one of the key words "address", "name” or "special destination” without the user having to reactivate the voice control means.
  • the current cursor position no clear operating intentions of the user, since several operating intentions are possible, namely the destination input via an address, a name or a special destination, so that the system outputs the possible voice commands to the user in the form of an acoustic list for selection.
  • a further voice dialog comprises a sequence of successive first and second voice dialogs which are carried out without a new manual actuation. If the user chooses "enter name" in the second voice dialog described above, the user can, for example, be asked in a further dialog step to enter the desired target name under which the target is stored in memory 6.4, for example in an address book.
  • the speech control means 6 can, after entering the name, request the user in further dialogue steps to specify the entry, for example, by asking "Where to navigate: private or business?" after entering the name "Müller". After specifying the voice input "private", the route guidance is then started.
  • the user decides to enter the address by voice input “enter address”, the user reaches the menu level shown in FIG. 6 and the active one Display area 240.2.
  • the entry of a street name can be requested, which the user carries out in a further dialog step can make a corresponding voice entry of a street name.
  • the user can then be asked in a further dialog step for voice input of a house number, etc.
  • the third voice dialog is ended by the voice control means 6 when all dialog steps that build on one another have been processed.
  • the voice control means (6) remain activated for the duration of the current voice dialog, so that the user does not have to carry out any further manual operation during such a voice dialog.
  • a query can first be issued as to whether the user wants to make another voice input provided in the voice dialog. This query can preferably be output by the voice control means 6 as a yes-no question. If, for example, a street name is provided as the next entry, then the voice output “Would you like to enter a street name?” Can be output and in the positive case the entry of a street name can then be requested.
  • the representation of the menu structure on the screen display 2 is updated in accordance with the voice dialog steps while the voice dialogs according to the invention are being carried out.
  • the display of the screen display 2 from FIG. 5 changes to the display from FIG. 6 when the user selects the entry 240.1.1 "Address input" in the speech dialog described above.
  • the voice control means (6) continuously determine the current menu level and / or the active display area (210 to 250) in the menu structure, for example by requesting appropriate information from the evaluation and control unit 4 become.
  • the speech dialogues according to the invention can be used in all menu levels.
  • the voice dialogs according to the invention are particularly suitable for entering destinations into a navigation system or for operating a telephone.
  • the specification of ambiguous terms entered for example when entering a destination in a navigation system, if several destinations with the entered name, e.g. Foster, are possible or when dialing a name when using the telephone if there are several entries for a given name, e.g. Müller or several telephone numbers such as private, business or mobile, can then be carried out in several voice dialogs based on each other.
  • the block-by-block entry of the digits, which are requested in succession by the voice control means is made easier.
  • the voice control means determine the user's intention to operate and, after their activation, start at least one voice dialog for the selection and / or activation of one or more entries from the menu structure.
  • the operating system according to the invention implements a uniform operating concept for voice control and manual operation, which enables the user to operate the menu structure with several menu levels by means of voice control means and / or the manual actuating means without having to remember a voice command or the possible ones Read voice commands from the on-screen display.
  • the possible change between the input channels, ie between voice input and manual input improves the intuitive operation and ease of use. In addition, faster operation is possible by saving dialog steps.

Landscapes

  • Engineering & Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Abstract

Die Erfindung betrifft ein Bediensystem für ein Fahrzeug mit einer Bildschirmanzeige (2) mit mehreren Darstellungsberei­chen zur Darstellung von Einträgen einer Menüstruktur mit mehreren Menüebenen, einem manuellen Betätigungsmittel (3) zur Auswahl und/oder Aktivierung von mindestens einem Ein­trag in einer aktuellen Menüebene aus der Menüstruktur, Sprachsteuermitteln (6) für eine redundante Auswahl und/oder Aktivierung von mindestens einem Eintrag aus der Menüstruk­tur. Erfindungsgemäß werten die Sprachsteuermittel (6) die aktuelle Menüebene und/oder einen aktiven Darstellungsbe­reich und/oder eine aktuelle Cursorposition aus und ermit­teln in Abhängigkeit von der Auswertung eine Bedienabsicht, wobei die Sprachsteuermittel (6) nach ihrer Aktivierung min­destens einen der ermittelten Bedienabsicht zugeordneten Sprachdialog zur Auswahl und/oder Aktivierung von einem oder mehreren Einträgen aus der Menüstruktur starten.

Description

Bediensystem für ein Fahrzeug
Die Erfindung betrifft ein Bediensystem für ein Fahrzeug nach dem Oberbegriff des Patentanspruchs 1.
In modernen Fahrzeugen werden zunehmend multimediale Bediensysteme eingesetzt. Beispielhaft wird hier das Comand-System in der Mercedes-Benz S-Klasse angegeben.
Die DE 197 52 056 AI beschreibt ein Bediensystem für ein Kraftfahrzeug. Bei diesem Bediensystem werden auf einer Bildschirmanzeige in einer Menüstruktur mit mehreren Menüebenen zwei Darstellungsbereiche angezeigt. Ein erster Darstellungsbereich ist als Rahmen um den zweiten Darstellungsbereich angeordnet. In einer ersten Menüebene werden im ersten Darstellungsbereich acht Felder mit Einträgen angezeigt, die ausführbaren Applikationen entsprechen und vertikal und horizontal angeordnet sind. Die Auswahl eines Eintrags erfolgt durch eine Schiebe- oder Kippbewegung des manuellen Betätigungsmittels mit mehreren Verstellfreiheitsgraden in Richtung der Position des entsprechenden Eintrags im ersten Darstellungsbereich. Durch Drücken des manuellen Betätigungsmittels wird ein angewählter Eintrag aktiviert. Nach der Aktivierung werden in einer zweiten Menüebene im zweiten Darstellungsbereich mehrere vertikal angeordnete Einträge angezeigt, die dem aktivierten Eintrag in der ersten Menüebene zugeordnet sind. Die im zweiten Darstellungsbereich angezeigten Einträge werden durch eine Drehbewegung des manuellen Betätigungsmittels ausgewählt und durch Drücken des manuellen Betätigungsmittels aktiviert. Der aktivierte zweite Darstellungsbereich und die zweite Menüebene werden durch die Schiebe- oder Kippbewegung des manuellen Betätigungsmittels in Richtung einer Position eines der Einträge im ersten Darstellungsbereich verlassen. Das Bediensystem befindet sich dann wieder im ersten Darstellungsbereich in der ersten Menüebene .
Die EP 1 342 605 AI beschreibt ein Bediensystem für ein Kraftfahrzeug mit einer Bildschirmanzeige, einem manuellen Betätigungsmittel mit mehreren Verstellfreiheitsgraden und Mittel zur Sprachsteuerung. Die Bildschirmanzeige umfasst mehrere Darstellungsbereiche zur Anzeige von Einträgen einer Menüstruktur mit mehreren Menüebenen, wobei die Einträge der Menüstruktur durch das manuelle Betätigungsmittel und/oder die Sprachsteuermittel auswählbar und/oder aktivierbar sind. Die auf der Bildschirmanzeige dargestellten Einträge der Menüstruktur bilden gleichzeitig die aktuell eingebbaren Schlüsselworte zur sprachbedienten Menüführung.
Die US 4,827,520 beschreibt ein Bediensystem für ein Kraftfahrzeug mit einer Bildschirmanzeige, mehreren manuellen Betätigungsmitteln, die im Umfeld der Bildschirmanzeige angeordnet sind, und Mittel zur Sprachsteuerung. Die Bildschirmanzeige umfasst mehrere Darstellungsbereiche zur Anzeige von Einträgen einer Menüstruktur mit mehreren Menüebenen, wobei die Einträge der Menüstruktur durch die manuellen Betätigungsmittel und/oder die Sprachsteuermittel auswählbar und/oder aktivierbar sind. Die auf der Bildschirmanzeige o- der auf den manuellen Betätigungsmitteln dargestellten Einträge der Menüstruktur bilden gleichzeitig die aktuell eingebbaren Schlüsselworte zur sprachbedienten Menüführung. Die US 4,797,924 beschreibt ein Bediensystem für ein Kraftfahrzeug mit einer Bildschirmanzeige, mehreren manuellen Betätigungsmitteln und Mittel zur Sprachsteuerung. Die verschiedenen Fahrzeugkomponenten, wie Telefonsystem, Radio usw. können sowohl über die manuellen Betätigungsmittel als auch über die Sprachsteuermittel bedient werden. Zur Sprachbedienung sind die eingebbaren Begriffe in einer Befehlsstruktur mit mehreren Befehlsebenen hierarchisch geordnet, wobei nur Begriffe einer aktuellen Befehlsebene eingebbar sind und von den Sprachsteuermitteln verstanden und ausgeführt werden.
Aufgabe der Erfindung ist es, ein verbessertes Bediensystem für ein Fahrzeug anzugeben, durch das eine intuitive Sprachbedienung ermöglicht und der Bedienkomfort verbessert wird.
Die Erfindung löst diese Aufgabe durch Bereitstellung eines Bediensystems für ein Fahrzeug mit den Merkmalen des Patentanspruchs 1.
Vorteilhafte Ausführungsformen und Weiterbildungen der Erfindung sind in den abhängigen Ansprüchen angegeben.
Die Erfindung beruht auf der Idee, dass Sprachsteuermittel in Abhängigkeit von einer aktuellen Menüebene und/oder von einem aktiven Darstellungsbereich und/oder von einer aktuellen Cursorposition eine Bedienabsicht des Benutzers ermitteln und nach ihrer Aktivierung mindestens einen der ermittelten Bedienabsicht zugeordneten Sprachdialog zur Auswahl und/oder Aktivierung von einem oder mehreren Einträgen aus der Menüstruktur starten. In vorteilhafter Ausgestaltung des erfindungsgemäßen Bediensystems ermitteln die Sprachsteuermittel fortlaufend die aktuelle Menüebene und/oder den aktiven Darstellungsbereich und/oder die aktuelle Cursorposition in der Me'nüstruktur. Die Informationen über die aktuell aktivierte Applikation und/oder den aktuell aktiven Darstellungsbereich und/oder die augenblickliche Cursorposition in der Menüstruktur erhalten die Sprachsteuermittel beispielsweise von einer Auswerte- und Steuereinheit. Dadurch kennen die Sprachsteuermittel den aktuellen Zustand und die aktuelle Position innerhalb der Menüstruktur, obwohl die Auswahl von Einträgen der Menüstruktur auch über ein manuelles Betätigungsmittel erfolgen kann. Durch das erfindungsgemäße Bediensystem wird somit eine optimierte Verknüpfung von manueller Bedienung und Sprachbedienung erreicht und ein durchgängiges Bedienkonzept über alle Eingabe- und/oder Ausgabekanäle erzielt.
In Ausgestaltung der Erfindung fordern die Sprachsteuermittel in einem ersten Sprachdialog zu einer bestimmten Spracheingabe auf, wenn die Sprachsteuermittel erkannt haben, dass die augenblickliche Menü- und/oder Cursorposition eine bestimmte Bedienabsicht und damit einen bestimmten Sprachdialog nahe legen.
Nach der Aufforderung zur Spracheingabe erwarten die Sprachsteuermittel im ersten Sprachdialog die bestimmte Spracheingabe .
In weiterer Ausgestaltung der Erfindung geben die Sprachsteuermittel in einem zweiten Sprachdialog mögliche Schlüsselworte zur Auswahl aus, wenn die Sprachsteuermittel erkannt haben, dass die augenblicklicht Menü- und/oder Cursorposition mehrere mögliche Sprachdialoge nahe legen, d.h. dass nicht eindeutig ist, welche Bedienhandlung der Benutzer ausführen möchte.
Nach der Aufforderung zur Auswahl eines der Schlüsselworte erwarten die Sprachsteuermittel im zweiten Sprachdialog die Spracheingabe eines der ausgegebenen Schlüsselworte.
In einer vorteilhaften Weiterbildung des erfindungsgemäßen Bediensystems ist ein dritter Sprachdialog vorgesehen, der eine beliebige Abfolge des ersten und/oder zweiten Sprachdialogs umfasst, d.h. es können beliebig viele Sprachdialoge des ersten oder zweiten Typs aneinander gereiht werden. Dadurch ist es in vorteilhafter Weise möglich, aufeinander aufbauende Auswahlschritte in Form von Sprachdialogen nacheinander auszuführen.
In weiterer Ausgestaltung sind die Sprachsteuermittel für die Dauer des augenblicklichen Sprachdialogs aktiviert, so dass der Benutzer während des Sprachdialogs die Sprachsteuermittel nicht erneut aktivieren muss.
In weiterer Ausgestaltung wird die Darstellung der Menüstruktur auf der Bildschirmanzeige entsprechend den Sprachdialogschritten aktualisierbar, d.h. es werden beispielsweise ausgewählte Applikationsmenüs, Funktionsmenüs, Untermenüs und/oder entsprechende Darstellungsbereiche geöffnet, aktiviert und dargestellt. Dadurch ist es möglich, dass der Benutzer zwischen der Spracheingabe und der manuellen Eingabe beliebig wechseln und bei Bedarf den Fortgang des Auswahl- Vorgangs auf der Bildschirmanzeige kontrollieren kann.
Durch das erfindungsgemäße Bediensystem wird ein einheitliches Bedienkonzept für die Sprachbedienung und die manuelle Bedienung umgesetzt, das den Benutzer in die Lage versetzt, die Menüstruktur mit mehreren Menüebenen mittels Sprachsteuermitteln und/oder dem manuellen Betätigungsmittel zu bedienen, ohne sich Sprachbefehl merken zu müssen oder die möglichen Sprachbefehle von der Bildschirmanzeige ablesen zu müssen. Durch den möglichen Wechsel zwischen den Eingabekanälen, d.h. zwischen Spracheingabe und manueller Eingabe, verbessern sich die intuitive Bedienung und der Bedienkomfort. Zudem ist eine schnellere Bedienung durch Einsparen von Dialogschritten möglich.
Vorteilhafte Ausführungsformen der Erfindung sind in den Zeichnungen dargestellt und werden nachfolgend beschrieben. Es zeigen:
Dabei zeigen:
Fig. 1 ein Blockschaltbild eines Bediensystems für ein Kraftfahrzeug;
Fig. 2 eine schematische Darstellung einer Bildschirmanzeige aus Fig. 1 in einer ersten Menüebene;
Fig. 3 eine schematische Darstellung der Bildschirmanzeige aus Fig. 1 in einer zweiten Menüebene;
Fig. 4 eine schematische Darstellung der Bildschirmanzeige aus Fig. 1 in der zweiten Menüebene;
Fig. 5 eine schematische Darstellung der Bildschirmanzeige aus Fig. 1 in einer dritten Menüebene;
Fig. 6 eine schematische Darstellung der Bildschirmanzeige aus Fig. 1 in einer vierten Menüebene;
Wie aus Fig. 1 ersichtlich ist, umfasst das Bediensystem 1 für ein Kraftfahrzeug eine Bildschirmanzeige 2, ein manuelles Betätigungsmittel 3, eine Steuer- und Auswerteeinheit 4, Sprachsteuermittel 6 und mehrere Fahrzeugsysteme, wie ein Navigationssystem, eine Heizungs- und Klimaanlage, ein Mobiltelefon, ein Videosystem, ein Audiosystem usw. , die zu- sammengefasst als ein Element 5 dargestellt sind. Die Fahrzeugsysteme übertragen Signale an die Auswerte- und Steuereinheit 4, aus denen die Steuer- und Auswerteeinheit 4 aktuelle Systemzustände ermittelt. Die Bedienung aller Applikationen und/oder Funktionen und/oder Subfunktionen und/oder Optionen und/oder Statusanzeigen in verschiedenen Menüebenen einer Menüstruktur erfolgt durch das manuelle Betätigungsmittel 3. Zusätzlich können vorgegebene Applikationen und/oder Funktionen und/oder Subfunktionen und/oder Optionen und/oder Statusanzeigen in verschiedenen Menüebenen der Menüstruktur, redundant zur Bedienung mit dem manuellen Betätigungsmittel 3 , mit den Sprachsteuermitteln 6 durch eine entsprechende Spracheingabe bedient werden.
Die Sprachsteuermittel 6 umfassen beispielsweise Spracheingabemittel 6.2, beispielsweise mindestens ein Mikrofon, eine Spracherkennungseinheit 6.1, Sprachausgabemittel 6.3, beispielsweise mindestens einen Lautsprecher und mindestens eine Speichereinheit 6.4.
•Das manuelle Betätigungsmittel 3 verfügt zur Auswahl und/oder Aktivierung von in einem aktiven Darstellungsbereich dargestellten Einträgen über sieben Verstellfreiheits- grade. Es kann in vier Richtungen gemäß Pfeildarstellung in Fig. 1 geschoben werden, d.h. in eine positive x-Richtung, eine negative x-Richtung, in eine positive y-Richtung oder in eine negative y-Richtung. Zudem kann es um eine nicht dargestellte, zur Zeichenebene senkrechte z-Achse im Uhrzeigersinn oder im Gegenuhrzeigersinn gedreht und in Richtung der negativen z-Richtung, d.h. in die Zeichenebene hinein gedrückt werden.
Das Drehen des manuellen Betätigungsmittels 3 im Uhrzeigersinn bewegt einen Cursor auf der Bildschirmanzeige 2 in Ab- hängigkeit von einer horizontalen oder vertikalen Ausrichtung der auf der Bildschirmanzeige 2 dargestellten Einträge nach rechts bzw. nach unten, das Drehen gegen den Uhrzeigersinn bewegt den Cursor nach links bzw. nach oben. Das Schieben des manuellen Betätigungsmittels 3 in Fig. 1 nach oben, d.h. nach vorne in Richtung Frontscheibe, d.h. in positive y-Richtung, bewegt den Cursor auf der Bildschirmanzeige 2 nach oben, das Schieben in Fig. 1 nach unten, d.h. nach hinten in negative y-Richtung, bewegt den Cursor auf der Bildschirmanzeige 2 nach unten. Das Schieben nach rechts, d.h. in positive x-Richtung, bewegt den Cursor auf der Bildschirmanzeige 2 nach rechts, das Schieben nach links, d.h. in negative x-Richtung, bewegt den Cursor nach links.
Die Auswahl und/oder Aktivierung eines auf der Bildschirmanzeige 2 dargestellten Eintrags erfolgt durch Schieben oder Drehen des manuellen Betätigungsmittels 3. Redundant zum vertikalen Schieben entlang einer Achse, d.h. zum Schieben in y-Richtung, oder zum horizontalen Schieben entlang einer Achse, d.h. zum Schieben in x-Richtung, kann das manuelle Betätigungsmittel 3 um die z-Achse gedreht werden. Die Schieberichtung zur Auswahl eines Eintrags entspricht dabei der Ausrichtung der im aktiven Darstellungsbereich dargestellten Einträge. Die jeweils zur Auswahlschieberichtung orthogonale Schieberichtung führt zum Verlassen des aktiven Darstellungsbereichs. Zusätzlich kann zur Aktivierung eines ausgewählten Eintrags das Drücken des manuellen Betätigungsmittels 3 erforderlich sein.
Redundant zur Auswahl und/oder Aktivierung von Einträgen aus der Menüstruktur mit dem manuellen Betätigungsmittel 3 kann die auf der Bildschirmanzeige dargestellte Menüstruktur durch eine Spracheingabe von Schlüsselworten bedient werden. Die auf der Bildschirmanzeige 2 dargestellten Einträge, die mittels Sprache eingebbar sind, können eine Kennzeichnung aufweisen, die beispielsweise als besondere optische Darstellung ausgeführt ist und durch eine andere Farbe und/oder eine andere Intensität und/oder eine andere Größe und/oder eine andere Form erzielbar ist. In den Fig. 2 bis 6 ist dies durch Fettdruck dargestellt . Zudem können die auf der Bildschirmanzeige dargestellten Einträge 1.1 bis 5.7 auch als mögliche Schlüsselworte im Speicher 6.4 der Spracherken- nungsmittel 6 abgelegt sein. Zur Aktivierung der Sprachsteuermittel 6 ist beim dargestellten Ausführungsbeispiel eine manuelle Betätigung einer PTT-Taste (Push-to-Talk-Taste) vorgesehen, die vorzugsweise im Griffbereich des Benutzers, beispielsweise am Lenkrad angeordnet ist. Die Funktion der PTT-Taste kann auch vom manuellen Betätigungsmittel 6 übernommen werden.
Wie aus Fig. 2 ersichtlich ist, umfasst die Bildschirmanzeige 2 in einer ersten Menüebene eine grafische Grundstruktur von fünf vertikal angeordneten, horizontalen Darstellungsbereichen 210 bis 250. Diese grafische Grundstruktur ist über die Mehrzahl der verschiedenen Menüebenen der Menüstruktur hinweg konstant. Die Bildschirmanzeige 2 ist beispielsweise als acht Zoll Bildschirm mit einem Seitenverhältnis von 15:9 ausgeführt .
Die grafische Grundstruktur des Darstellungsbereichs 230 ist in Abhängigkeit von einer aktivierten Applikation und/oder Funktion und/oder Subfunktion und/oder Option und/oder Statusanzeige über die Mehrzahl der verschiedenen Menüebenen der Menüstruktur hinweg variabel, d.h. die grafische Gestaltung dieses zentralen Darstellungsbereiches 230 kann sehr unterschiedlich sein. In den vier Darstellungsbereichen 210, 220, 240 und 250 können jeweils ein oder mehrere horizontal angeordnete Einträge 1.1 bis 5.7 dargestellt werden. Beispielhaft umfassen die Darstellungsbereiche 210, 220, 240 und 250 in Fig. 2 in der ersten Menüebene jeweils eine verschiedene Anzahl von Einträgen. So umfasst der erste Darstellungsbereich 210 fünf Einträge 1.1 bis 1.5, der zweite Darstellungsbereich 220 fünf Einträge 2.1 bis 2.5, der vierte Darstellungsbereich umfasst keinen Eintrag und der fünfte Darstellungsbereich umfasst sieben Einträge 5.1 bis 5.7. In Fig. 2 ist der zweite Darstellungsbereich 220 aktiviert und der schraffierte Eintrag 2.1 (Navi) ausgewählt. Durch die schraffierte Darstellung soll angezeigt werden, dass sich der Cursor auf dem Eintrag 2.1 befindet.
Die Einträge 1.1 bis 5.7 der auf der Bildschirmanzeige 2 dargestellten Darstellungsbereiche 210 bis 250 können entsprechend ihrer inhaltlichen Wichtigkeit oder Anwendungshäufigkeit angeordnet sein.
Die schematische Darstellung der Bildschirmanzeige 2 in den Fig. 2 bis 6 ist mit speziellen Einträgen auf die Bedienung für ein Kraftfahrzeug angepasst. Wie aus Fig. 2 ersichtlich ist, ist der erste Darstellungsbereich 210 als Statuszeile ausgeführt, die verschiedene Statusanzeigen 1.1 bis 1.5 aus unterschiedlichen Applikationen darstellt. Die Hauptfunktion der Statuszeile ist die Darstellung wichtiger aktueller Systemzustände, die von der Steuer- und Auswerteeinheit 4 in Abhängigkeit von Signalen von den Fahrzeugsystemen 5 ermittelt werden. Die Einträge bzw. Statusanzeigen 1.1 bis 1.5 sind im dargestellten Ausführungsbeispiel nur mit dem manuellen Betätigungsmittel 3 auswählbar und aktivierbar. Zur Ermittlung der aktuellen Systemzustände werden beispielsweise die Signale vom Navigationssystem mit Ortungseinheit, von der Heizungs- und Klimaanlage, vom Mobiltelefon, vom Videosystem, vom Audiosystem usw. ausgewertet. In der Statuszeile wird beispielsweise angezeigt, ob ein Verkehrsfunksender aktiviert ist, ob die Heizungs- und Klimaanlage im Umluft oder Frischluftbetrieb arbeitet, ob der Aktivkohlefilter aktiviert ist usw.
Der als Statuszeile ausgeführte erste Darstellungsbereich 210 kann mehrere bedienbare und nicht bedienbare Einträge 1.1 bis 1.5 enthalten, die abhängig vom Systemzustand ein- oder ausgeblendet sind. Die Bedienbarkeit einiger Einträge kann einen direkten Zugriff auf wichtige Funktionen ermöglichen, ohne einen Wechsel der Applikation erforderlich zu machen. Wird ein Eintrag aus der Statuszeile ausgewählt, so kann dies unmittelbar zu einer zugehörigen Funktion führen. Beispielsweise kann durch eine Aktivierung eines Brief- Symbols ein Darstellungsbereich in einer Applikation ComTel, d.h. in einer Kommunikations- oder Telefonapplikation, aktiviert und geöffnet werden. Eine Aktivierung eines Telefonhörer-Symbols kann einen anderen Darstellungsbereich in der Applikationsgruppe ComTel aktivieren und öffnen. Die Aktivierung eines TP-Symbols deaktiviert ein Traffic Programm, d.h. einen Verkehrsfunksender. Zudem können verschiedene nicht anwählbare Statusanzeigen, wie eine Satellitenschüssel zur Anzeige des GPS-Empfangs oder einer Feldstärke, angezeigt werden.
Der zweite Darstellungsbereich 220 ist als Applikationszeile zur Darstellung von verschiedenen auswählbaren und vorgebbaren Applikationsgruppen 2.1 bis 2.5, insbesondere einer Na- vigations- (Navi), einer Audio-, einer Telefon/Kommunikations- (Tel/Com) , einer Video- und einer Fahrzeugapplikationsgruppe, ausgeführt, wobei die Anzahl und Position der darzustellenden Einträge, d.h. der Applikations- gruppen 2.1 bis 2.5, konstant sind und die grafische Darstellung der darzustellenden Einträge in Abhängigkeit von einer aktivierten Applikationsgruppe variabel ist. Die Aktivierung einer der Applikationsgruppen 2.1 bis 2.5, die nicht bereits aktiv ist, führt zu einem Wechsel in die zugehörige Applikation und zu einer Aktivierung des vierten Darstellungsbereichs 240 zur Darstellung von zur aktivierten Applikation gehörenden Funktion und/oder Subfunktionen. Verfügt eine Applikation nicht über Funktionen bzw. Subfunktionen, dann kann durch eine Aktivierung dieser Applikation im zweiten Darstellungsbereich 220 der dritte Darstellungsbereich 230 aktiviert werden und die zu dieser Applikation gehörenden Optionen zur Bedienung angezeigt werden.
Die Anordnung der Applikationsgruppen im zweiten Darstellungsbereich 220 ist konstant und kann nach Benutzungshäufigkeit bzw. Wichtigkeit von links nach rechts festgelegt werden. Ein Auswählen einer Applikation oder Applikationsgruppe führt zu einer unmittelbaren Aktivierung mindestens eines anderen Darstellungsbereichs und kann durch eine manuelle Eingabe mit dem manuellen Betätigungsmittel 3 oder durch eine Spracheingabe über die Sprachsteuermittel ausgeführt werden. Die durch Fettdruck gekennzeichneten Einträge 2.1 bis 2.5 der Applikationszeile 220 sind als Schlüsselworte im Speicher 6.4 der Sprachsteuermittel 6 gespeichert und stehen dem Spracherkenner 6.1 zur Verfügung. Da noch keiner der Einträge aus einem der fünf Darstellungsbereich 210 bis 250 aktiviert wurde, entspricht in Fig. 2 der gesamte Bildschirm dem aktiven Darstellungsbereich.
Der dritte Darstellungsbereich 230 ist als Applikationsbereich zur Detaildarstellung und Bedienung einer ausgewählten und aktivierten Applikation ausgeführt. Die Anzahl und die Position sowie die grafische Darstellung der darzustellenden Einträge sind von der aktivierten Applikation 2.1 bis 2.5 abhängig. Die grafische Darstellung und Bedienbarkeit des dritten Darstellungsbereiches 230 ist variabel und kann deshalb gut an eine stark variierende Funktionalität bzw. Anforderungen der verschiedenen Applikationen 2.1 bis 2.5 an- gepasst werden.
Der vierte Darstellungsbereich 240 ist als Funktionszeile zur Darstellung und Auswahl von Funktionen und/oder Unterfunktionen und/oder Optionen einer aktivierten Applikation 2.1 bis 2.5 ausgeführt. Die Anzahl und die Position und die grafische Darstellung der darzustellenden Einträge, d.h. der Funktionen und/oder Unterfunktionen sind von der aktivierten Applikation 2.1 bis 2.5 und/oder von der Menüebene abhängig. Die grafische Grundstruktur ist über alle Menüebenen der Menüstruktur konstant .
Der fünfte Darstellungsbereich 250 ist als Hauptapplikati- onszeile ausgeführt. In diesem Darstellungsbereich 250 ist eine voreinstellbare Applikation darstellbar. Die Anzahl und die Position der darzustellenden Einträge 5.1 bis 5.7 sind für die voreingestellte Applikation konstant und die Inhalte und die grafische Darstellung der darzustellenden Einträge 5.1 bis 5.7 sind in Abhängigkeit von aktuellen Systemzuständen variabel und/oder konstant. Vorzugsweise dient die voreingestellte Applikation zur Bedienung einer Klimaanlage im Fahrzeug. Der über eine Spracheingabe auswählbare und/oder aktivierbare Eintrag 5.1 (Klima) ist durch Fettdruck gekennzeichnet. Die angezeigten Werte eines eingestellten Parameters, wie z.B. Lufttemperatur, Gebläsestärke usw., können variieren. Die aktuellen Systemzustände betreffen insbesondere relevante Zustände zur Temperaturregelung im Fahrzeuginnenraum, wie z.B. Außentemperatur, Intensität der Sonneneinstrahlung, Innenraumtemperatur, Luftfeuchtigkeit usw. Fig. 3 zeigt die Bildschirmanzeige 2 in einer weiteren Menü- ebene, nachdem der Eintrag 2.1 (Navi) im zweiten Darstellungsbereich 220 ausgewählt und durch Drücken des manuellen Betätigungsmittels 3 aktiviert wurde bzw. durch eine Spracheingabe des Eintrags 2.1 „Navigation" ausgewählt und aktiviert wurde. Die Aktivierung des Eintrags 2.1 öffnet und aktiviert das dem Eintrag 2.1 zugeordnete nicht dargestellte Applikationsmenü aus dem ein Eintrag „Kartendarstellung" ausgewählt wurde. Durch die Aktivierung des Eintrags 2.1 „Navi" werden im vierten Darstellungsbereich 240 die zur Navigationsapplikation gehörenden Einträge 4.1 bis 4.3 der Funktionszeile angezeigt. Außerdem wird durch die Aktivierung des Eintrags 2.1 „Navi" und durch die Aktivierung der Kartendarstellung ein zur Kartendarstellung gehörender Darstellungsbereich 230.1 im dritten Darstellungsbereich 230 geöffnet. Der Darstellungsbereich 230.1 zeigt einen Ausschnitt einer Straßenkarte.
Durch die manuelle Aktivierung oder durch die Aktivierung mittels Spracheingabe des im Applikationsmenü ausgewählten Eintrags „Kartendarstellung" gelangt man zu der in Fig. 3 dargestellten Bildschirmanzeige 2, in der die Applikation „Kartendarstellung" der Applikationsgruppe „Navigation" mit den Einstellungen aktiv ist, die vor dem letzten Verlassen der Applikation eingestellt wurden. In der Funktionszeile 240 ist der Eintrag 4.1 ausgewählt. Die aktuell angezeigten Einträge 4.1 bis 4.3 der Funktionszeile 240 sind durch Fettdruck markiert und können geöffnet werden, wenn eine der Funktionen durch eine entsprechende Auswahl und Aktivierung des zugeordneten Eintrags aus der Funktionszeile 240 aktiviert wird. Fig. 4 zeigt eine Darstellung der Bildschirmanzeige 2 in der gleichen Menüebene wie in Fig. 3, bei welcher der Eintrag 4.3 „Ziel" durch eine manuelle Eingabe mit dem manuellen Betätigungsmittel 3 oder durch eine Spracheingabe ausgewählt wurde. Die Auswahl des Eintrags 4.3 „Ziel" wird in Fig. 4 durch die schraffierte Darstellung des Feldes mit dem Eintrag 4.3 angezeigt.
Fig. 5 zeigt eine Darstellung der Bildschirmanzeige 2 in einer weiteren Menüebene, bei welcher der Eintrag 4.3 „Ziel" aus der Funktionszeile durch eine entsprechende Eingabe aktiviert wurde und ein dem Eintrag 4.3 „Ziel" zugeordneter Darstellungsbereich 240.1 als Funktionsmenü geöffnet wurde. Das Funktionsmenü ist im dargestellten Ausführungsbeispiel als vertikale Liste mit sieben Einträgen 240.1.1 bis 240.1.7 ausgeführt. Der Cursor markiert den ersten Eintrag 240.1.1 „Adresseneingabe" in diesem Funktionsmenü. Dies wird durch die schraffierte Darstellung des zugehörigen Feldes angezeigt .
Fig. 6 zeigt eine Darstellung der Bildschirmanzeige 2 in einer weiteren Menüebene, bei welcher der Eintrag 240.1.1 „Adresseneingabe" aus dem Funktionsmenü 240.1 durch eine entsprechende Eingabe aktiviert wurde und ein dem Eintrag 240.1.1 „Adresseneingabe" zugeordneter Darstellungsbereich 240.2 als Untermenü geöffnet wurde. Das Untermenü ist im dargestellten Ausführungsbeispiel als vertikale Liste mit drei Einträgen 240.2.1 bis 240.2.3 ausgeführt. Der Cursor markiert den ersten Eintrag 240.2.1 „Ort" in diesem Funktionsmenü. Dies wird durch die schraffierte Darstellung des zugehörigen Feldes angezeigt.
Anhand der Fig. 4 bis 6 werden nachfolgend erfindungsgemäße Sprachdialoge beschrieben, die von den Sprachsteuermitteln 6 in Abhängigkeit von der augenblicklichen Menüebene und/oder vom augenblicklich aktiven Darstellungsbereich gestartet werden.
Werden in der Menüebene aus Fig. 6 mit dem aktivierten Darstellungsbereich 240.2 die Sprachsteuermittel 6 aktiviert, beispielsweise durch eine Betätigung der speziellen nicht dargestellten PTT-Taste (Push-to-Talk-Taste) oder des manuellen Betätigungsmittels 3, dann starten die Sprachsteuermittel 6 einen ersten Sprachdialog und fordern den Benutzer in einem ersten Dialogschritt auf, den Ortsnamen einzugeben, beispielsweise durch eine Sprachausgabe: "Bitte sprechen (o- der buchstabieren) Sie den Ortsnamen" . Durch die augenblickliche Cursorposition innerhalb der Menüstruktur, hier durch die Cursorposition auf dem Eintrag 240.2.1 „Ort", ist die Bedienabsicht des Benutzers mit hoher Wahrscheinlichkeit erkennbar, so dass in diesem Zusammenhang der Sprachdialog erfindungsgemäß unmittelbar von den Sprachsteuermitteln 6 initiiert wird. Befindet sich der Cursor bei der Aktivierung der Sprachsteuermittel 6 beispielsweise auf dem Eintrag 240.2.2 „Straße", dann fordern die Sprachsteuermittel 6 die Eingabe eines Straßennamens an. Nach der Sprachausgabe erwarten die Sprachsteuermittel 6 in einem weiteren Dialogschritt die angeforderte Spracheingabe, beispielsweise die Spracheingabe des Ortsnamens bzw. des Straßennamens. Nach der Eingabe des Ortsnamens bzw. des Straßennamens durch den Benutzer ist der erste erfindungsgemäße Sprachdialog beendet und für eine erneute Spracheingabe muss der Benutzer erneut die Sprachsteuermittel 6 aktivieren.
Werden in der der Menüebene aus Fig. 5 mit dem aktivierten Darstellungsbereich 240.1 die Sprachsteuermittel 6 aktiviert, dann starten die Sprachsteuermittel 6 einen zweiten Sprachdialog, der in einem ersten Dialogschritt den Benutzer auffordert eine Auswahl aus einer ausgegebenen Aufzählung zu treffen, beispielsweise durch eine Sprachausgabe: "Bitte wählen Sie: Adresse, Namen oder Sonderziel eingeben". Anschließend erwarten die Sprachsteuermittel (6) in einem zweiten Dialogschritt die Eingabe eines der ausgegebenen Schlüsselworte „Adresse", „Namen" oder „Sonderziel", ohne dass der Benutzer die Sprachsteuermittel erneut aktivieren muss . In der dargestellten Menüebene und im aktiven Darstellungsbereich 240.1 legt die aktuelle Cursorposition keine eindeutige Bedienabsicht des Benutzers nahe, da mehrere Bedienabsichten möglich sind, nämlich die Zieleingabe über eine Adresse, einen Namen oder ein Sonderziel, so dass das System dem Benutzer die möglichen Sprachkommandos in Form einer akustischen Aufzählung zur Auswahl ausgibt.
In Ausgestaltung des erfindungsgemäßen Bediensystems umfasst ein weiterer Sprachdialog eine Abfolge von aufeinander aufbauenden ersten und zweiten Sprachdialogen, die ohne erneute manuelle Betätigung ausgeführt werden. Entscheidet sich der Benutzer im oben beschriebenen zweiten Sprachdialog für die Spracheingabe „Namen eingeben", so kann beispielsweise in einem weiteren Dialogschritt der Benutzer zur Eingabe des gewünschten Zielnamens aufgefordert werden, unter dem das Ziel im Speicher 6.4, beispielsweise in einem Adressbuch, abgelegt ist. Zur Weiterführung des Sprachdialogs können die Sprachsteuermittel 6 nach der Eingabe des Namens den Benutzer in weiteren Dialogschritten zur Präzisierung der Eingabe auffordern, beispielsweise durch die Nachfrage „Wohin soll navigiert werden: Privat oder geschäftlich?" nach der Eingabe des Namens „Müller". Nach der Präzisierung durch die Spracheingabe „Privat" wird dann die Zielführung gestartet. Entscheidet sich der Benutzer durch eine Spracheingabe „Adresse eingeben" für die Adresseneingabe, so gelangt der Benutzer zur in Fig. 6 dargestellten Menüebene und dem aktiven Darstellungsbereich 240.2. Im dargestellten Ausführungsbei- spiel kann bei der Cursorposition aus Fig. 6 nach Abfrage des Ortsnamens und der entsprechenden Spracheingabe des Benutzers, nachfolgend in einem weiteren Dialogschritt, durch eine entsprechende Sprachausgabe, die Eingabe eines Straßennamens angefordert werden, die der Benutzer in einem weiteren Dialogschritt durch eine entsprechende Spracheingabe eines Straßennamens vornehmen kann. Anschließend kann der Benutzer in einem weiteren Dialogschritt zur Spracheingabe einer Hausnummer aufgefordert werden usw. Der dritte Sprachdialog wird von den Sprachsteuermitteln 6 beendet, wenn alle aufeinander aufbauenden Dialogschritte abgearbeitet sind. Für die Dauer des augenblicklichen Sprachdialogs bleiben die Sprachsteuermittel (6) aktiviert, so dass der Benutzer während eines solchen Sprachdialogs keine weitere manuelle Betätigung vornehmen muss. Vor einer Aufforderung zu einer weiteren Spracheingabe, kann zunächst eine Abfrage ausgegeben werden, ob der Benutzer eine weitere im Sprachdialog vorgesehene Spracheingabe vornehmen will. Diese Abfrage kann von den Sprachsteuermitteln 6 vorzugsweise als ja-nein-Frage ausgegeben werden. Ist beispielsweise als nächste Eingabe ein Straßennamen vorgesehen, dann kann die Sprachausgabe „Möchten Sie einen Straßennamen eingeben?", ausgegeben werden und im positiven Fall kann anschließend die Eingabe eines Straßennamens angefordert werden.
Während der Durchführung der erfindungsgemäßen Sprachdialoge wird im dargestellten Ausführungsbeispiel die Darstellung der Menüstruktur auf der Bildschirmanzeige 2 entsprechend den Sprachdialogschritten aktualisiert. So wechselt die Darstellung der Bildschirmanzeige 2 aus Fig. 5 beispielsweise zur Darstellung aus Fig. 6, wenn der Benutzer den Eintrag 240.1.1 „Adresseneingabe" im oben beschriebenen Sprachdialog auswählt . Um in den verschiedenen Menüebenen die entsprechenden sinnvollen Sprachdialoge initiieren zu können, ermitteln die Sprachsteuermittel (6) fortlaufend die aktuelle Menüebene und/oder den aktiven Darstellungsbereich (210 bis 250) in der Menüstruktur, indem beispielsweise entsprechende Informationen von der Auswerte- und Steuereinheit 4 angefordert werden.
Grundsätzlich sind die erfindungsgemäßen Sprachdialoge in allen Menüebenen einsetzbar. Die erfindungsgemäßen Sprachdi- aϊoge eignen sich aber insbesondere für die Zieleingabe in ein Navigationssystem oder für die Bedienung eines Telefons. Die Präzisierung von eingegebenen mehrdeutigen Begriffen, beispielsweise bei der Zieleingabe in ein Navigationssystem, wenn mehrere Ziele mit dem eingegebenen Namen, z.B. Frei- burg, möglich sind oder bei der Namenswahl bei der Telefonbedienung, wenn mehrere Einträge für einen eingegebenen Namen, z.B. Müller bzw. mehrere Telefonnummern wie privat, geschäftlich oder mobil, vorhanden sind, kann dann in mehreren auf einander aufbauenden Sprachdialogen durchgeführt werden. Zudem wird bei der Eingabe einer Telefonnummer die blockweise Eingabe der Ziffern erleichtert, die von den Sprachsteuermitteln nacheinander angefordert werden.
Die im Zusammenhang mit den Zeichnungen beschriebenen Aus- führungsformen zeigen, dass die Erfindung zur Bedienung der verschiedensten Applikationen und/oder Funktionen benutzt werden kann. Die erfindungsgemäßen Sprachsteuermittel ermitteln in Abhängigkeit von der aktuellen Menüebene und/oder vom aktiven Darstellungsbereich und/oder von der Cursorposition die Bedienabsicht des Benutzers und starten nach ihrer Aktivierung mindestens einen Sprachdialog zur Auswahl und/oder Aktivierung von einem oder mehreren Einträgen aus der Menüstruktur. Durch das erfindungsgemäße Bediensystem wird ein einheitliches Bedienkonzept für die Sprachbedienung und die manuelle Bedienung umgesetzt, das den Benutzer in die Lage versetzt, die Menüstruktur mit mehreren Menüebenen mittels Sprachsteuermitteln und/oder dem manuellen Betätigungsmittel zu bedienen, ohne sich Sprachbefehl merken zu müssen oder die möglichen Sprachbefehle von der Bildschirmanzeige ablesen zu müssen. Durch den möglichen Wechsel zwischen den Eingabekanälen, d.h. zwischen Spracheingabe und manueller Eingabe, verbessern sich die intuitive Bedienung und der Bedienkomfort. Zudem ist eine schnellere Bedienung durch Einsparen von Dialogschritten möglich.

Claims

Patentansprüche
1. Bediensystem für ein Fahrzeug mit - einer Bildschirmanzeige (2) mit mehreren Darstellungsbereichen (210 bis 250) zur Darstellung von Einträgen einer Menüstruktur mit mehreren Menüebenen, - einem manuellen Betätigungsmittel (3) zur Auswahl und/oder Aktivierung von mindestens einem Eintrag (1.1 bis 5.7) in einer aktuellen Menüebene aus der Menüstruktur, - Sprachsteuermitteln (6) für eine redundante Auswahl und/oder Aktivierung von mindestens einem Eintrag aus der Menüstruktur, dadurch gekennzeichnet, dass die Sprachsteuermittel (6) die aktuelle Menüebene und/oder einen aktiven Darstellungsbereich und/oder eine aktuelle Cursorposition auswerten und - in Abhängigkeit von der Auswertung eine Bedienabsicht ermitteln, - wobei die Sprachsteuermittel (6) nach ihrer Aktivierung mindestens einen der ermittelten Bedienabsicht zugeordneten Sprachdialog zur Auswahl und/oder Aktivierung von einem oder mehreren Einträgen aus der Menüstruktur starten.
2. Bediensystem nach Anspruch 1, dadurch gekennzeichnet, dass die Sprachsteuermittel (6) fortlaufend die aktuelle Menüebene und/oder den aktiven Darstellungsbereich (210 bis 250) in der Menüstruktur ermitteln.
3. Bediensystem nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Sprachsteuermittel (6) nach der Aktivierung in mindestens einem ersten Sprachdialog in mindestens einem Dialogschritt zu einer bestimmten Spracheingabe auffordern, wenn die Sprachsteuermittel (6) eine bestimmte Bedienabsicht erkennen.
4. Bediensystem nach Anspruch 3 , dadurch gekennzeichnet, dass die Sprachsteuermittel (6) in dem mindestens einen ersten Sprachdialog in mindestens einem Dialogschritt die bestimmte Spracheingabe erwarten.
5. Bediensystem nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass die Sprachsteuermittel (6) nach der Aktivierung in mindestens einem zweiten Sprachdialog in mindestens einem Dialogschritt mögliche Schlüsselworte zur Auswahl ausgeben, wenn die Sprachsteuermittel (6) mehrere mögliche Bedienabsichten erkennen.
6. Bediensystem nach Anspruch 5, dadurch gekennzeichnet, dass die Sprachsteuermittel (6) in dem mindestens einem zweiten Sprachdialog in mindestens einem Dialogschritt mindestens eines der möglichen Schlüsselworte erwarten.
7. Bediensystem nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass die Sprachsteuermittel (6) nach der Aktivierung mindestens einen dritten Sprachdialog starten, der eine Abfolge von Sprachdialogen umfasst, die als erster und/oder zweiter Sprachdialog ausführbar sind.
8. Bediensystem nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, dass die Sprachsteuermittel (6) für die Dauer des augenblicklichen Sprachdialogs aktiviert bleiben.
9. Bediensystem nach einem der Ansprüche 1 bis 8, dadurch gekennzeichnet, dass die Darstellung der Menüstruktur auf der Bildschirmanzeige entsprechend den Sprachdialogschritten aktualisierbar ist.
PCT/EP2004/014321 2003-12-23 2004-12-16 Bediensystem für ein fahrzeug WO2005064438A2 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2006546001A JP2007519553A (ja) 2003-12-23 2004-12-16 車両用の制御システム
US10/584,463 US20080021598A1 (en) 2003-12-23 2004-12-16 Control System For A Vehicle

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE10360656.4 2003-12-23
DE10360656A DE10360656A1 (de) 2003-12-23 2003-12-23 Bediensystem für ein Fahrzeug

Publications (2)

Publication Number Publication Date
WO2005064438A2 true WO2005064438A2 (de) 2005-07-14
WO2005064438A3 WO2005064438A3 (de) 2007-07-05

Family

ID=34683786

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2004/014321 WO2005064438A2 (de) 2003-12-23 2004-12-16 Bediensystem für ein fahrzeug

Country Status (4)

Country Link
US (1) US20080021598A1 (de)
JP (1) JP2007519553A (de)
DE (1) DE10360656A1 (de)
WO (1) WO2005064438A2 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008019709A1 (en) 2006-08-17 2008-02-21 Snap-On Incorporated Vehicle diagnostic equipment providing hands free operation
DE102008033441A1 (de) * 2008-07-16 2010-01-21 Volkswagen Ag Verfahren zum Betrieb eines Bediensystems für ein Fahrzeug und Bediensystem für ein Fahrzeug

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7483708B2 (en) * 2005-03-31 2009-01-27 Mark Maggenti Apparatus and method for identifying last speaker in a push-to-talk system
DE102006028463A1 (de) * 2006-06-21 2007-12-27 Audi Ag Kraftfahrzeug
DE102006035780B4 (de) * 2006-08-01 2019-04-25 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Unterstützung des Bedieners eines Spracheingabesystems
US9794348B2 (en) * 2007-06-04 2017-10-17 Todd R. Smith Using voice commands from a mobile device to remotely access and control a computer
DE102007051017A1 (de) 2007-09-11 2009-03-12 Daimler Ag Bediensystem für ein Kraftfahrzeug
TW200928315A (en) * 2007-12-24 2009-07-01 Mitac Int Corp Voice-controlled navigation device and method thereof
US9256898B2 (en) * 2008-02-11 2016-02-09 International Business Machines Corporation Managing shared inventory in a virtual universe
DE102008016172B4 (de) * 2008-03-28 2020-10-01 Volkswagen Ag Kraftfahrzeug mit einem Display und Verfahren zum Betrieb eines Kraftfahrzeuges mit einem Display
KR101536933B1 (ko) * 2008-06-19 2015-07-15 삼성전자주식회사 위치 정보 제공 방법 및 장치
JP5219705B2 (ja) * 2008-09-12 2013-06-26 富士通テン株式会社 情報処理装置および情報処理方法
US8494140B2 (en) * 2008-10-30 2013-07-23 Centurylink Intellectual Property Llc System and method for voice activated provisioning of telecommunication services
US8700332B2 (en) 2008-11-10 2014-04-15 Volkswagen Ag Operating device for a motor vehicle
US9108513B2 (en) 2008-11-10 2015-08-18 Volkswagen Ag Viewing direction and acoustic command based operating device for a motor vehicle
DE102010008368A1 (de) * 2009-02-27 2010-09-16 Navigon Ag Verfahren zum Betrieb eines Navigationssystems
DE102009018590B4 (de) * 2009-04-23 2022-11-17 Volkswagen Ag Kraftfahrzeug mit einer Bedienvorrichtung und dazugehöriges Verfahren
DE102009059792A1 (de) 2009-12-21 2011-06-22 Continental Automotive GmbH, 30165 Verfahren und Vorrichtung zur Bedienung technischer Einrichtungen, insbesondere eines Kraftfahrzeugs
US8873717B2 (en) 2010-11-23 2014-10-28 Centurylink Intellectual Property Llc Emergency alert signaling
DE102010054242A1 (de) 2010-12-11 2012-06-14 Volkswagen Ag Verfahren zum Bereitstellen einer Bedienvorrichtung in einem Fahrzeug und Bedienvorrichtung
WO2014024132A1 (en) * 2012-08-06 2014-02-13 Koninklijke Philips N.V. Audio activated and/or audio activation of a mode and/or a tool of an executing software application
DE102013014887B4 (de) 2013-09-06 2023-09-07 Audi Ag Kraftfahrzeug-Bedienvorrichtung mit ablenkungsarmem Eingabemodus
KR102227599B1 (ko) 2013-11-12 2021-03-16 삼성전자 주식회사 음성인식 시스템, 음성인식 서버 및 디스플레이 장치의 제어방법
GB2520614A (en) * 2014-10-07 2015-05-27 Daimler Ag Dashboard display, vehicle, and method for displaying information to a driver
KR101623856B1 (ko) * 2014-10-17 2016-05-24 현대자동차주식회사 에이브이엔 장치, 차량, 및 에이브이엔 장치의 제어방법
US20180293273A1 (en) * 2017-04-07 2018-10-11 Lenovo (Singapore) Pte. Ltd. Interactive session
DE102020129602A1 (de) 2020-11-10 2022-05-12 nxtbase technologies GmbH Verfahren zur steuerung von prozessen mittels einer sprachbefehlseingabe

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4427444A1 (de) * 1994-08-03 1996-02-08 Blaupunkt Werke Gmbh Einrichtung zur Sprachsteuerung von Anlagen und Geräten
EP0961263A2 (de) * 1998-05-25 1999-12-01 Nokia Mobile Phones Ltd. Verfahren und Vorrichtung zur Spracherkennung
WO2002010900A2 (en) * 2000-07-28 2002-02-07 Siemens Automotive Corporation User interface for telematics systems

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60158809A (ja) * 1984-01-31 1985-08-20 池田物産株式会社 ヘツドレストの位置自動選定装置
US4797924A (en) * 1985-10-25 1989-01-10 Nartron Corporation Vehicle voice recognition method and apparatus
US4827620A (en) * 1986-05-12 1989-05-09 Gauer Glenn G Framer
EP0660083B1 (de) * 1993-12-27 2000-09-27 Aisin Aw Co., Ltd. Fahrzeuginformationsanzeigesystem
DE69528945T2 (de) * 1994-09-22 2003-04-24 Aisin Aw Co., Ltd. Navigationssystem
US5825306A (en) * 1995-08-25 1998-10-20 Aisin Aw Co., Ltd. Navigation system for vehicles
KR960042490A (ko) * 1995-11-09 1996-12-21 모리 하루오 차량용 네비게이션(navigation) 장치 및 그를 위한 기록매체
KR100279366B1 (ko) * 1996-07-31 2001-01-15 모리 하루오 차량용네비게이션장치
KR100260760B1 (ko) * 1996-07-31 2000-07-01 모리 하루오 터치패널을 병설한 정보표시장치
US6246672B1 (en) * 1998-04-28 2001-06-12 International Business Machines Corp. Singlecast interactive radio system
US6346892B1 (en) * 1999-05-07 2002-02-12 Honeywell International Inc. Method and apparatus for aircraft systems management
US6678661B1 (en) * 2000-02-11 2004-01-13 International Business Machines Corporation Method and system of audio highlighting during audio edit functions
JP4686905B2 (ja) * 2000-07-21 2011-05-25 パナソニック株式会社 対話制御方法及びその装置
US7457750B2 (en) * 2000-10-13 2008-11-25 At&T Corp. Systems and methods for dynamic re-configurable speech recognition
US7209880B1 (en) * 2001-03-20 2007-04-24 At&T Corp. Systems and methods for dynamic re-configurable speech recognition
US6873905B2 (en) * 2002-03-19 2005-03-29 Opnext Japan, Inc. Communications type navigation device
US6961644B2 (en) * 2002-12-12 2005-11-01 Alps Automotive, Inc. Dual haptic vehicle control and display system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4427444A1 (de) * 1994-08-03 1996-02-08 Blaupunkt Werke Gmbh Einrichtung zur Sprachsteuerung von Anlagen und Geräten
EP0961263A2 (de) * 1998-05-25 1999-12-01 Nokia Mobile Phones Ltd. Verfahren und Vorrichtung zur Spracherkennung
WO2002010900A2 (en) * 2000-07-28 2002-02-07 Siemens Automotive Corporation User interface for telematics systems

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008019709A1 (en) 2006-08-17 2008-02-21 Snap-On Incorporated Vehicle diagnostic equipment providing hands free operation
US8428811B2 (en) 2006-08-17 2013-04-23 Snap-On Incorporated Vehicle diagnostic equipment providing hands free operation
DE102008033441A1 (de) * 2008-07-16 2010-01-21 Volkswagen Ag Verfahren zum Betrieb eines Bediensystems für ein Fahrzeug und Bediensystem für ein Fahrzeug
DE102008033441B4 (de) * 2008-07-16 2020-03-26 Volkswagen Ag Verfahren zum Betrieb eines Bediensystems für ein Fahrzeug und Bediensystem für ein Fahrzeug

Also Published As

Publication number Publication date
DE10360656A1 (de) 2005-07-21
WO2005064438A3 (de) 2007-07-05
JP2007519553A (ja) 2007-07-19
US20080021598A1 (en) 2008-01-24

Similar Documents

Publication Publication Date Title
WO2005064438A2 (de) Bediensystem für ein fahrzeug
WO2005066750A1 (de) Bediensystem für ein fahrzeug
DE69712501T2 (de) Prioritäten zuweisung an fahrzeug-anzeigemerkmale
EP2013054B1 (de) Multifunktionsbedieneinrichtung und radionavigationssystem für ein kraftfahrzeug
DE10393781T5 (de) Duales haptisches Fahrzeugsteuerungs- und -anzeigesystem
DE602004010054T2 (de) Betätigung eines Sprachdialogsystems
EP1953029B1 (de) Anzeige- und Bedienvorrichtung mit verbesserter Auswahlmöglichkeit eines aktuellen Anzeige- und Bedienkontextes
DE19907795A1 (de) Verfahren zur Unterstützung eines Benutzers eines Kraftfahrzeugs bei der Bedienung von Komponenten des Kraftfahrzeugs sowie eine zugehörige Vorrichtung
EP2567194B1 (de) Verfahren und vorrichtung zum betreiben einer nutzerschnittstelle
EP2212149B1 (de) Dialogsystem für ein kraftfahrzeug
DE102007029598A1 (de) Fahrzeugschnittstelle mit Armlehnensteueranordnung
WO2009033523A2 (de) Bediensystem für ein kraftfahrzeug
EP2137022B1 (de) Informationssystem und verfahren zum bereitstellen von informationen in einem kraftfahrzeug mit verbesserter bedienbarkeit
DE102007051013A1 (de) Verfahren zum Betrieb eines Dialogsystems für ein Kraftfahrzeug
WO2005123458A1 (de) Bediensystem für ein fahrzeug
DE102009030263A1 (de) Bedienverfahren für ein menübasiertes Bedien- und Informationssystem eines Fahrzeugs
EP1282854B1 (de) Verfahren zur eingabe einer zeichenfolge und vorrichtung
DE202005021769U1 (de) Lenkrad mit einer Schalteranordnung für ein Kraftfahrzeug
DE602004012532T2 (de) Fahrzeugmultimediasystem und -verfahren zur Aktivierung einer Funktion eines solchen Systems
DE102009018590A1 (de) Kraftfahrzeug
DE102009058151B4 (de) Verfahren zum Betreiben eines Sprachdialogsystems mit semantischer Bewertung und Sprachdialogsystem dazu
EP1570452A1 (de) Verfahren zur informativen unterstützung eines fahrzeugführers mittels eines fahrzeug-multimediasystems
EP2209663B1 (de) Dialogsystem
WO2005064428A2 (de) Bediensystem für ein kraftfahrzeug
DE102022200693A1 (de) Vorrichtung, Fortbewegungsmittel und Verfahren zur Unterstützung eines Anwenders eines Fortbewegungsmittels

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A2

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A2

Designated state(s): GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2006546001

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

WWW Wipo information: withdrawn in national office

Country of ref document: DE

122 Ep: pct application non-entry in european phase
WWE Wipo information: entry into national phase

Ref document number: 10584463

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 10584463

Country of ref document: US